[go: up one dir, main page]

JP2025055846A - Detection method and computer - Google Patents

Detection method and computer Download PDF

Info

Publication number
JP2025055846A
JP2025055846A JP2023165242A JP2023165242A JP2025055846A JP 2025055846 A JP2025055846 A JP 2025055846A JP 2023165242 A JP2023165242 A JP 2023165242A JP 2023165242 A JP2023165242 A JP 2023165242A JP 2025055846 A JP2025055846 A JP 2025055846A
Authority
JP
Japan
Prior art keywords
marker
alignment
predetermined position
relative
attached
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023165242A
Other languages
Japanese (ja)
Inventor
能成 大森
Yoshinari Omori
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Leag Solusions Corp
Original Assignee
Leag Solusions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Leag Solusions Corp filed Critical Leag Solusions Corp
Priority to JP2023165242A priority Critical patent/JP2025055846A/en
Priority to PCT/JP2024/031106 priority patent/WO2025069914A1/en
Publication of JP2025055846A publication Critical patent/JP2025055846A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C15/00Surveying instruments or accessories not provided for in groups G01C1/00 - G01C13/00
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/529Depth or shape recovery from texture
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

To provide a new detection method and a computer, for position detection from an image in the three-dimensional coordinate or the like of a predetermined position in an object.SOLUTION: The detection method includes a step for aligning the predetermined position A of an object 10 with the reference point O of an alignment member 7 in which an alignment marker 71 is arranged, a step for imaging the alignment marker 71 and a first marker 11, a step for acquiring the information of the relative three-dimensional coordinate of the predetermined position A of the object 10 with respect to the position of the first marker 11 attached to the object 10 on the basis of the captured image, and a step for imaging a second marker 14 attached to a member 13 different from the object 10 and the first marker 11 of the object 10, to detect the relative three-dimensional coordinate of the predetermined position A of the object 10 with respect to the different member 13 from the image including the captured first marker 11 and second marker 14 on the basis of the acquired three-dimensional coordinate.SELECTED DRAWING: Figure 1

Description

本発明は、検知方法およびコンピュータに関する。 The present invention relates to a detection method and a computer.

従来から、対象物にマーカを取り付けてこのマーカをカメラにより撮像することによってマーカの画像から対象物の位置や姿勢を計測する技術が知られている。対象物に取り付けられるマーカとして例えば特許文献1等に開示されるものがある。一般的なマーカは、対象物に取り付けることのできる平面パターンである。マーカのうち代表的なものは、正方形の黒い枠とその内部に印刷された2次元パターンコードを含む。そして、マーカをカメラで撮像してマーカの画像を取得することにより、マーカとカメラの相対的な位置と姿勢を認識し、マーカの付けられた対象物の位置や姿勢を認識することができる。また、カメラにより、マーカに記録された情報を読み取ることもできる。 Conventionally, there is known a technique for measuring the position and orientation of an object from an image of a marker attached to the object by capturing an image of the marker with a camera. For example, Patent Document 1 discloses a marker that can be attached to an object. A typical marker is a planar pattern that can be attached to an object. A typical marker includes a square black frame and a two-dimensional pattern code printed inside it. Then, by capturing an image of the marker with a camera, the relative position and orientation of the marker and the camera can be recognized, and the position and orientation of the object to which the marker is attached can be recognized. The camera can also read information recorded in the marker.

特開2012-145559号公報JP 2012-145559 A

マーカが取り付けられている対象物におけるカメラにより撮像することが困難な所定位置の3次元座標やこの所定位置に関連する所定方向の3次元方向ベクトルをマーカの画像から検知する技術が望まれているが、このような技術は従来知られていなかった。 There is a demand for technology that can detect the three-dimensional coordinates of a specific position on an object to which a marker is attached that is difficult to image using a camera, and a three-dimensional direction vector in a specific direction related to this specific position, from an image of the marker, but such technology has not been known until now.

本開示は、このような点を考慮してなされたものであり、マーカが取り付けられている対象物における所定位置の3次元座標やこの所定位置に関連する所定方向の3次元方向ベクトルをマーカの画像から検知する新たな検知方法およびコンピュータを提供することを目的とする。 The present disclosure has been made in consideration of these points, and aims to provide a new detection method and computer that detects the three-dimensional coordinates of a specific position on an object to which a marker is attached, and a three-dimensional directional vector in a specific direction related to this specific position, from an image of the marker.

本開示の検知方法は、
第1マーカが取り付けられている対象物の所定位置を検知するための検知方法であって、
前記対象物の前記所定位置を、位置合わせ用マーカが配置されている位置合わせ部材の所定の基準点に合わせる工程と、
前記位置合わせ部材に配置されている前記位置合わせ用マーカおよび前記第1マーカを撮像する工程と、
撮像された前記位置合わせ用マーカおよび前記第1マーカを含む画像に基づいて、前記対象物に取り付けられている前記第1マーカの位置に対する前記対象物の前記所定位置の相対的な3次元座標の情報を取得する工程と、
前記対象物とは別の部材に取り付けられている第2マーカおよび前記対象物の前記第1マーカを撮像することにより、取得された前記3次元座標に基づいて、撮像された前記第1マーカおよび前記第2マーカを含む画像から、前記別の部材に対する前記対象物の前記所定位置の相対的な3次元座標を検知する工程と、を備える。
The detection method of the present disclosure includes:
1. A method for detecting a predetermined position of an object having a first marker attached thereto, comprising:
aligning the predetermined position of the object with a predetermined reference point of an alignment member on which an alignment marker is arranged;
capturing an image of the alignment marker and the first marker disposed on the alignment member;
acquiring information on three-dimensional coordinates of the predetermined position of the object relative to a position of the first marker attached to the object based on an image including the alignment marker and the first marker that has been captured;
and detecting, based on the obtained three-dimensional coordinates, from an image including the captured first marker and the captured second marker, the relative three-dimensional coordinates of the predetermined position of the object relative to the other member.

本開示の検知方法は、
第1マーカが取り付けられている対象物の所定位置への方向を検知するための検知方法であって、
前記対象物の前記所定位置を、位置合わせ用マーカが配置されている位置合わせ部材の所定の基準点に合わせる工程と、
前記位置合わせ部材に配置されている前記位置合わせ用マーカおよび前記第1マーカを撮像する工程と、
撮像された前記位置合わせ用マーカおよび前記第1マーカを含む画像に基づいて、前記対象物に取り付けられている前記第1マーカに対する前記対象物の前記所定位置の相対的な3次元方向ベクトルの情報を取得する工程と、
前記対象物とは別の部材に取り付けられている第2マーカおよび前記対象物の前記第1マーカを撮像することにより、取得された前記3次元方向ベクトルに基づいて、撮像された前記第1マーカおよび前記第2マーカを含む画像から、前記別の部材に対する前記第1マーカから前記所定位置への方向の相対的な3次元方向ベクトルを検知する工程と、
を備える。
The detection method of the present disclosure includes:
1. A method for detecting a direction of an object having a first marker attached thereto to a predetermined position, comprising:
aligning the predetermined position of the object with a predetermined reference point of an alignment member on which an alignment marker is arranged;
capturing an image of the alignment marker and the first marker disposed on the alignment member;
acquiring information on a relative three-dimensional direction vector of the predetermined position of the object with respect to the first marker attached to the object based on an image including the captured alignment marker and the first marker;
detecting a relative three-dimensional direction vector of a direction from the first marker to the predetermined position with respect to the other member from an image including the captured first marker and the second marker based on the acquired three-dimensional direction vector by capturing an image of the first marker and the second marker attached to a member other than the object;
Equipped with.

本開示の検知方法は、
第1マーカが取り付けられている対象物の所定位置および所定位置への方向を検知するための検知方法であって、
前記対象物の前記所定位置を、位置合わせ用マーカが配置されている位置合わせ部材の所定の基準点に合わせる工程と、
前記位置合わせ部材に配置されている前記位置合わせ用マーカおよび前記第1マーカを撮像する工程と、
撮像された前記位置合わせ用マーカおよび前記第1マーカを含む画像に基づいて、前記対象物に取り付けられている前記第1マーカの位置に対する前記対象物の前記所定位置の相対的な3次元座標の情報を取得するとともに前記第1マーカに対する前記対象物の3次元方向ベクトルの情報を取得する工程と、
前記対象物とは別の部材に取り付けられている第2マーカおよび前記対象物の前記第1マーカを撮像することにより、取得された前記3次元座標および前記3次元方向ベクトルに基づいて、撮像された前記第1マーカおよび前記第2マーカを含む画像から、前記別の部材に対する前記対象物の前記所定位置の相対的な3次元座標と、前記別の部材に対する前記第1マーカから前記所定位置への方向の相対的な3次元方向ベクトルとを検知する工程と、
を備える。
The detection method of the present disclosure includes:
1. A method for detecting a predetermined position and a direction to the predetermined position of an object having a first marker attached thereto, comprising:
aligning the predetermined position of the object with a predetermined reference point of an alignment member on which an alignment marker is arranged;
capturing an image of the alignment marker and the first marker disposed on the alignment member;
acquiring information on three-dimensional coordinates of the predetermined position of the object relative to a position of the first marker attached to the object, based on an image including the captured alignment marker and the first marker, and acquiring information on a three-dimensional direction vector of the object relative to the first marker;
a step of capturing an image of a second marker attached to a member other than the object and the first marker of the object, and detecting, based on the acquired three-dimensional coordinates and the three-dimensional direction vector, from an image including the captured first marker and the second marker, a relative three-dimensional coordinate of the predetermined position of the object with respect to the other member and a relative three-dimensional direction vector of a direction from the first marker to the predetermined position with respect to the other member;
Equipped with.

本開示の検知方法においては、
前記位置合わせ部材は平面を有しており、前記平面に所定の基準点が形成されているとともに前記位置合わせ用マーカが配置されていてもよい。
In the detection method of the present disclosure,
The alignment member may have a flat surface, on which a predetermined reference point is formed and on which the alignment marker is disposed.

本開示の検知方法は、
第1マーカが取り付けられている対象物の所定位置を検知するための検知方法であって、
位置合わせ部材の所定の基準点に位置合わせ用マーカを配置し、位置固定の撮像装置により前記位置合わせ用マーカを撮像する工程と、
前記対象物の前記所定位置を、前記位置合わせ部材の所定の前記基準点に合わせ、前記撮像装置により前記第1マーカを撮像する工程と、
撮像された前記位置合わせ用マーカを含む画像および撮像された前記第1マーカを含む画像に基づいて、前記対象物に取り付けられている前記第1マーカの位置に対する前記対象物の前記所定位置の相対的な3次元座標の情報を取得する工程と、
前記対象物とは別の部材に取り付けられている第2マーカおよび前記対象物の前記第1マーカを撮像することにより、取得された前記3次元座標に基づいて、撮像された前記第1マーカおよび前記第2マーカを含む画像から、前記別の部材に対する前記対象物の前記所定位置の相対的な3次元座標を検知する工程と、
を備える。
The detection method of the present disclosure includes:
1. A method for detecting a predetermined position of an object having a first marker attached thereto, comprising:
A step of placing an alignment marker at a predetermined reference point of the alignment member and capturing an image of the alignment marker by an imaging device having a fixed position;
aligning the predetermined position of the object with the predetermined reference point of the alignment member, and capturing an image of the first marker by the imaging device;
acquiring information on three-dimensional coordinates of the predetermined position of the object relative to a position of the first marker attached to the object, based on an image including the alignment marker and an image including the first marker;
a step of capturing an image of a second marker attached to a member other than the object and the first marker of the object, and detecting, based on the acquired three-dimensional coordinates, from an image including the captured first marker and the captured second marker, a relative three-dimensional coordinate of the predetermined position of the object with respect to the separate member;
Equipped with.

本開示の検知方法は、
第1マーカが取り付けられている対象物の所定位置への方向を検知するための検知方法であって、
位置合わせ部材の所定の基準点に位置合わせ用マーカを配置し、位置固定の撮像装置により前記位置合わせ用マーカを撮像する工程と、
前記対象物の前記所定位置を、前記位置合わせ部材の所定の前記基準点に合わせ、前記撮像装置により前記第1マーカを撮像する工程と、
撮像された前記位置合わせ用マーカを含む画像および撮像された前記第1マーカを含む画像に基づいて、前記対象物に取り付けられている前記第1マーカに対する前記対象物の前記所定位置の相対的な3次元方向ベクトルの情報を取得する工程と、
前記対象物とは別の部材に取り付けられている第2マーカおよび前記対象物の前記第1マーカを撮像することにより、取得された前記3次元方向ベクトルに基づいて、撮像された前記第1マーカおよび前記第2マーカを含む画像から、前記別の部材に対する前記第1マーカから前記所定位置への方向の相対的な3次元方向ベクトルを検知する工程と、
を備える。
The detection method of the present disclosure includes:
1. A method for detecting a direction of an object having a first marker attached thereto to a predetermined position, comprising:
A step of placing an alignment marker at a predetermined reference point of the alignment member and capturing an image of the alignment marker by an imaging device having a fixed position;
aligning the predetermined position of the object with the predetermined reference point of the alignment member, and capturing an image of the first marker by the imaging device;
acquiring information on a relative three-dimensional direction vector of the predetermined position of the object with respect to the first marker attached to the object based on an image including the alignment marker and an image including the first marker;
detecting a relative three-dimensional direction vector of a direction from the first marker to the predetermined position with respect to the other member from an image including the captured first marker and the second marker based on the acquired three-dimensional direction vector by capturing an image of the first marker and the second marker attached to a member other than the object;
Equipped with.

本開示の検知方法は、
第1マーカが取り付けられている対象物の所定位置および所定位置への方向を検知するための検知方法であって、
位置合わせ部材の所定の基準点に位置合わせ用マーカを配置し、位置固定の撮像装置により前記位置合わせ用マーカを撮像する工程と、
前記対象物の前記所定位置を、前記位置合わせ部材の所定の前記基準点に合わせ、前記撮像装置により前記第1マーカを撮像する工程と、
撮像された前記位置合わせ用マーカを含む画像および撮像された前記第1マーカを含む画像に基づいて、前記対象物に取り付けられている前記第1マーカの位置に対する前記対象物の前記所定位置の相対的な3次元座標の情報および前記第1マーカに対する前記対象物の前記所定位置の相対的な3次元方向ベクトルの情報を取得する工程と、
前記対象物とは別の部材に取り付けられている第2マーカおよび前記対象物の前記第1マーカを撮像することにより、取得された前記3次元座標および前記3次元方向ベクトルに基づいて、撮像された前記第1マーカおよび前記第2マーカを含む画像から、前記別の部材に対する前記対象物の前記所定位置の相対的な3次元座標と、前記別の部材に対する前記第1マーカから前記所定位置への方向の相対的な3次元方向ベクトルとを検知する工程と、
を備える。
The detection method of the present disclosure includes:
1. A method for detecting a predetermined position and a direction to the predetermined position of an object having a first marker attached thereto, comprising:
A step of placing an alignment marker at a predetermined reference point of the alignment member and capturing an image of the alignment marker by an imaging device having a fixed position;
aligning the predetermined position of the object with the predetermined reference point of the alignment member, and capturing an image of the first marker by the imaging device;
acquiring information on three-dimensional coordinates of the predetermined position of the object relative to a position of the first marker attached to the object and information on a three-dimensional direction vector of the predetermined position of the object relative to the first marker, based on an image including the captured alignment marker and an image including the captured first marker;
a step of capturing an image of a second marker attached to a member other than the object and the first marker of the object, and detecting, based on the acquired three-dimensional coordinates and the three-dimensional direction vector, from an image including the captured first marker and the second marker, a relative three-dimensional coordinate of the predetermined position of the object with respect to the other member and a relative three-dimensional direction vector of a direction from the first marker to the predetermined position with respect to the other member;
Equipped with.

本開示の検知方法においては、
前記位置合わせ部材の前記基準点には凹部が形成されており、前記対象物の前記所定位置の部分を前記凹部に入れることにより前記対象物の前記所定位置を前記基準点に合わせてもよい。
In the detection method of the present disclosure,
A recess may be formed at the reference point of the alignment member, and the predetermined position of the object may be aligned with the reference point by inserting a portion of the object at the predetermined position into the recess.

本開示の検知方法は、
第1マーカが取り付けられている対象物の所定位置に位置合わせ用マーカを配置し、前記第1マーカおよび前記位置合わせ用マーカを撮像する工程と、
撮像された前記位置合わせ用マーカおよび前記第1マーカを含む画像に基づいて、前記対象物に取り付けられている前記第1マーカの位置に対する前記対象物の前記所定位置の相対的な3次元座標の情報を取得する工程と、
前記対象物とは別の部材に取り付けられている第2マーカおよび前記対象物の前記第1マーカを撮像することにより、取得された前記3次元座標に基づいて、撮像された前記第1マーカおよび前記第2マーカを含む画像から、前記別の部材に対する前記対象物の前記所定位置の相対的な3次元座標を検知する工程と、
を備える。
The detection method of the present disclosure includes:
placing an alignment marker at a predetermined position of the object to which the first marker is attached, and capturing an image of the first marker and the alignment marker;
acquiring information on three-dimensional coordinates of the predetermined position of the object relative to a position of the first marker attached to the object based on an image including the alignment marker and the first marker that has been captured;
a step of capturing an image of a second marker attached to a member other than the object and the first marker of the object, and detecting, based on the acquired three-dimensional coordinates, from an image including the captured first marker and the captured second marker, a relative three-dimensional coordinate of the predetermined position of the object with respect to the separate member;
Equipped with.

本開示の検知方法は、
第1マーカが取り付けられている対象物の所定位置に位置合わせ用マーカを配置し、前記第1マーカおよび前記位置合わせ用マーカを撮像する工程と、
撮像された前記位置合わせ用マーカおよび前記第1マーカを含む画像に基づいて、前記所定位置から前記第1マーカに直交するよう延びる所定方向の3次元方向ベクトルの情報を取得する工程と、
前記対象物とは別の部材に取り付けられている第2マーカおよび前記対象物の前記第1マーカを撮像することにより、取得された前記3次元方向ベクトルに基づいて、撮像された前記第1マーカおよび前記第2マーカを含む画像から、前記別の部材に対する前記所定方向の相対的な3次元方向ベクトルを検知する工程と、
を備える。
The detection method of the present disclosure includes:
placing an alignment marker at a predetermined position of the object to which the first marker is attached, and capturing an image of the first marker and the alignment marker;
acquiring information on a three-dimensional direction vector in a predetermined direction extending from the predetermined position perpendicularly to the first marker based on an image including the alignment marker and the first marker that has been captured;
a step of capturing an image of a second marker attached to a member other than the object and the first marker of the object, and detecting a relative three-dimensional direction vector of the predetermined direction with respect to the other member from an image including the captured first marker and the captured second marker based on the acquired three-dimensional direction vector;
Equipped with.

本開示の検知方法は、
第1マーカが取り付けられている対象物の所定位置に位置合わせ用マーカを配置し、前記第1マーカおよび前記位置合わせ用マーカを撮像する工程と、
撮像された前記位置合わせ用マーカおよび前記第1マーカを含む画像に基づいて、前記対象物に取り付けられている前記第1マーカの位置に対する前記対象物の前記所定位置の相対的な3次元座標の情報および前記所定位置から前記第1マーカに直交するよう延びる所定方向の3次元方向ベクトルの情報を取得する工程と、
前記対象物とは別の部材に取り付けられている第2マーカおよび前記対象物の前記第1マーカを撮像することにより、取得された前記3次元座標および前記3次元方向ベクトルに基づいて、撮像された前記第1マーカおよび前記第2マーカを含む画像から、前記別の部材に対する前記対象物の前記所定位置の相対的な3次元座標と、前記別の部材に対する前記所定方向の相対的な3次元方向ベクトルとを検知する工程と、
を備える。
The detection method of the present disclosure includes:
placing an alignment marker at a predetermined position of the object to which the first marker is attached, and capturing an image of the first marker and the alignment marker;
acquiring information on three-dimensional coordinates of the predetermined position of the object relative to a position of the first marker attached to the object based on an image including the captured alignment marker and the first marker, and information on a three-dimensional direction vector in a predetermined direction extending from the predetermined position perpendicular to the first marker;
a step of capturing an image of a second marker attached to a member other than the object and the first marker of the object, and detecting, based on the acquired three-dimensional coordinates and three-dimensional direction vector, from an image including the captured first marker and the captured second marker, a relative three-dimensional coordinate of the predetermined position of the object with respect to the other member and a relative three-dimensional direction vector of the predetermined direction with respect to the other member;
Equipped with.

本開示の検知方法は、
第1マーカが取り付けられている第1対象物の第1所定位置に第1位置合わせ用マーカを配置し、前記第1マーカおよび前記第1位置合わせ用マーカを撮像する工程と、
撮像された前記第1位置合わせ用マーカおよび前記第1マーカを含む画像に基づいて、前記第1対象物に取り付けられている前記第1マーカの位置に対する前記第1対象物の前記第1所定位置の相対的な3次元座標の情報および前記第1所定位置から前記第1位置合わせ用マーカに直交するよう延びる第1所定方向の3次元方向ベクトルの情報を取得する工程と、
第2マーカが取り付けられている第2対象物の第2所定位置に第2位置合わせ用マーカを配置し、前記第2マーカおよび前記第2位置合わせ用マーカを撮像する工程と、
撮像された前記第2位置合わせ用マーカおよび前記第2マーカを含む画像に基づいて、前記第2対象物に取り付けられている前記第2マーカの位置に対する前記第2対象物の前記第2所定位置の相対的な3次元座標の情報および前記第2所定位置から前記第2位置合わせ用マーカに直交するよう延びる第2所定方向の3次元方向ベクトルの情報を取得する工程と、
前記第1対象物の前記第1マーカおよび前記第2対象物の前記第2マーカを撮像することにより、撮像された前記第1マーカおよび前記第2マーカを含む画像から、前記第2対象物の前記第2所定位置に対する前記第1対象物の前記第1所定位置の相対的な3次元座標および前記第2対象物の前記第2所定方向に対する前記第1対象物の前記第1所定方向の相対的な3次元方向ベクトルを検知する工程と、
を備える。
The detection method of the present disclosure includes:
placing a first alignment marker at a first predetermined position of a first object to which a first marker is attached, and capturing an image of the first marker and the first alignment marker;
acquiring information on three-dimensional coordinates of the first predetermined position of the first object relative to a position of the first marker attached to the first object based on an image including the captured first alignment marker and the first marker, and information on a three-dimensional direction vector in a first predetermined direction extending from the first predetermined position perpendicularly to the first alignment marker;
placing a second alignment marker at a second predetermined position of a second object to which the second marker is attached, and capturing an image of the second marker and the second alignment marker;
acquiring information on three-dimensional coordinates of the second predetermined position of the second object relative to the position of the second marker attached to the second object based on an image including the captured second alignment marker and the second marker, and information on a three-dimensional direction vector of a second predetermined direction extending from the second predetermined position perpendicular to the second alignment marker;
capturing an image of the first marker of the first object and the second marker of the second object, and detecting, from an image including the captured first marker and the second marker, a relative three-dimensional coordinate of the first predetermined position of the first object with respect to the second predetermined position of the second object and a relative three-dimensional direction vector of the first predetermined direction of the first object with respect to the second predetermined direction of the second object;
Equipped with.

本開示の検知方法は、
第1マーカが取り付けられている対象物の所定位置を検知するための検知方法であって、
前記対象物に取り付けられている前記第1マーカの位置に対する前記対象物の前記所定位置の相対的な3次元座標の情報を取得する工程と、
前記対象物とは別の部材に取り付けられている第2マーカおよび前記対象物の前記第1マーカを撮像することにより、取得された前記3次元座標に基づいて、撮像された前記第1マーカおよび前記第2マーカを含む画像から、前記別の部材に対する前記対象物の前記所定位置の相対的な3次元座標を検知する工程と、
を備える。
The detection method of the present disclosure includes:
1. A method for detecting a predetermined position of an object having a first marker attached thereto, comprising:
acquiring information on three-dimensional coordinates of the predetermined position of the object relative to a position of the first marker attached to the object;
a step of capturing an image of a second marker attached to a member other than the object and the first marker of the object, and detecting, based on the acquired three-dimensional coordinates, from an image including the captured first marker and the captured second marker, a relative three-dimensional coordinate of the predetermined position of the object with respect to the separate member;
Equipped with.

本開示の検知方法は、
第1マーカが取り付けられている対象物の所定位置への方向を検知するための検知方法であって、
前記対象物に取り付けられている前記第1マーカに対する前記対象物の前記所定位置の相対的な3次元方向ベクトルの情報を取得する工程と、
前記対象物とは別の部材に取り付けられている第2マーカおよび前記対象物の前記第1マーカを撮像することにより、取得された前記3次元方向ベクトルに基づいて、撮像された前記第1マーカおよび前記第2マーカを含む画像から、前記別の部材に対する前記第1マーカから前記所定位置への方向の相対的な3次元方向ベクトルを検知する工程と、
を備える。
The detection method of the present disclosure includes:
1. A method for detecting a direction of an object having a first marker attached thereto to a predetermined position, comprising:
acquiring information on a relative three-dimensional direction vector of the predetermined position of the object with respect to the first marker attached to the object;
detecting a relative three-dimensional direction vector of a direction from the first marker to the predetermined position with respect to the other member from an image including the captured first marker and the second marker based on the acquired three-dimensional direction vector by capturing an image of the first marker and the second marker attached to a member other than the object;
Equipped with.

本開示の検知方法は、
第1マーカが取り付けられている対象物の所定位置および所定位置への方向を検知するための検知方法であって、
前記対象物に取り付けられている前記第1マーカの位置に対する前記対象物の前記所定位置の相対的な3次元座標の情報を取得するとともに前記第1マーカに対する前記対象物の3次元方向ベクトルの情報を取得する工程と、
前記対象物とは別の部材に取り付けられている第2マーカおよび前記対象物の前記第1マーカを撮像することにより、取得された前記3次元座標および前記3次元方向ベクトルに基づいて、撮像された前記第1マーカおよび前記第2マーカを含む画像から、前記別の部材に対する前記対象物の前記所定位置の相対的な3次元座標と、前記別の部材に対する前記第1マーカから前記所定位置への方向の相対的な3次元方向ベクトルとを検知する工程と、
を備える。
The detection method of the present disclosure includes:
1. A method for detecting a predetermined position and a direction to the predetermined position of an object having a first marker attached thereto, comprising:
acquiring information on three-dimensional coordinates of the predetermined position of the object relative to a position of the first marker attached to the object, and acquiring information on a three-dimensional direction vector of the object relative to the first marker;
a step of capturing an image of a second marker attached to a member other than the object and the first marker of the object, and detecting, based on the acquired three-dimensional coordinates and the three-dimensional direction vector, from an image including the captured first marker and the second marker, a relative three-dimensional coordinate of the predetermined position of the object with respect to the other member and a relative three-dimensional direction vector of a direction from the first marker to the predetermined position with respect to the other member;
Equipped with.

本開示のコンピュータは、
制御部がプログラムを実行することにより、
第1マーカが取り付けられている対象物の所定位置が、位置合わせ用マーカが配置されている位置合わせ部材の所定の基準点に合わせられたときの前記位置合わせ用マーカおよび前記第1マーカの画像を受け付け、
受け付けた前記位置合わせ用マーカおよび前記第1マーカを含む画像に基づいて、前記対象物に取り付けられている前記第1マーカの位置に対する前記対象物の前記所定位置の相対的な3次元座標の情報を取得し、
取得された前記3次元座標に基づいて、前記対象物とは別の部材に取り付けられている第2マーカおよび前記対象物の前記第1マーカを含む画像から、前記別の部材に対する前記対象物の前記所定位置の相対的な3次元座標を検知する。
The computer of the present disclosure includes:
The control unit executes the program,
receiving an image of the alignment marker and the first marker when a predetermined position of the object to which the first marker is attached is aligned with a predetermined reference point of an alignment member on which the alignment marker is arranged;
acquiring information on three-dimensional coordinates of the predetermined position of the object relative to a position of the first marker attached to the object, based on the received image including the alignment marker and the first marker;
Based on the acquired three-dimensional coordinates, the relative three-dimensional coordinates of the specified position of the object with respect to the other member are detected from an image including a second marker attached to a member other than the object and the first marker of the object.

本開示のコンピュータは、
制御部がプログラムを実行することにより、
第1マーカが取り付けられている対象物の所定位置が、位置合わせ用マーカが配置されている位置合わせ部材の所定の基準点に合わせられたときの前記位置合わせ用マーカおよび前記第1マーカの画像を受け付け、
受け付けた前記位置合わせ用マーカおよび前記第1マーカを含む画像に基づいて、前記対象物に取り付けられている前記第1マーカに対する前記対象物の前記所定位置の相対的な3次元方向ベクトルの情報を取得し、
取得された前記3次元座標に基づいて、前記対象物とは別の部材に取り付けられている第2マーカおよび前記対象物の前記第1マーカを含む画像から、前記別の部材に対する前記対象物の前記所定位置の相対的な3次元座標を検知する。
The computer of the present disclosure includes:
The control unit executes the program,
receiving an image of the alignment marker and the first marker when a predetermined position of the object to which the first marker is attached is aligned with a predetermined reference point of an alignment member on which the alignment marker is arranged;
acquiring information on a three-dimensional direction vector of the predetermined position of the object relative to the first marker attached to the object, based on an image including the alignment marker and the first marker that has been received;
Based on the acquired three-dimensional coordinates, the relative three-dimensional coordinates of the specified position of the object with respect to the other member are detected from an image including a second marker attached to a member other than the object and the first marker of the object.

本開示のコンピュータは、
制御部がプログラムを実行することにより、
第1マーカが取り付けられている対象物の所定位置が、位置合わせ用マーカが配置されている位置合わせ部材の所定の基準点に合わせられたときの前記位置合わせ用マーカおよび前記第1マーカの画像を受け付け、
受け付けた前記位置合わせ用マーカおよび前記第1マーカを含む画像に基づいて、前記対象物に取り付けられている前記第1マーカの位置に対する前記対象物の前記所定位置の相対的な3次元座標の情報を取得するとともに前記第1マーカに対する前記対象物の3次元方向ベクトルの情報を取得し、
取得された前記3次元座標および前記3次元方向ベクトルに基づいて、前記第1マーカおよび前記第2マーカを含む画像から、前記別の部材に対する前記対象物の前記所定位置の相対的な3次元座標と、前記別の部材に対する前記第1マーカから前記所定位置への方向の相対的な3次元方向ベクトルとを検知する。
The computer of the present disclosure includes:
The control unit executes the program,
receiving an image of the alignment marker and the first marker when a predetermined position of the object to which the first marker is attached is aligned with a predetermined reference point of an alignment member on which the alignment marker is arranged;
acquiring information on three-dimensional coordinates of the predetermined position of the object relative to a position of the first marker attached to the object, based on an image including the received alignment marker and the first marker, and acquiring information on a three-dimensional direction vector of the object relative to the first marker;
Based on the acquired three-dimensional coordinates and three-dimensional direction vector, the relative three-dimensional coordinates of the specified position of the object relative to the other member and the relative three-dimensional direction vector of the direction from the first marker to the specified position relative to the other member are detected from an image including the first marker and the second marker.

本開示のコンピュータは、
制御部がプログラムを実行することにより、
位置合わせ部材の所定の基準点に配置されている、位置固定の撮像装置により撮像された位置合わせ用マーカの画像を受け付け、
前記位置合わせ部材の所定の前記基準点に対象物の所定位置が合わせられているときの、前記対象物に取り付けられている、前記撮像装置により撮像された第1マーカの画像を受け付け、
受け付けた前記位置合わせ用マーカを含む画像および受け付けた前記第1マーカを含む画像に基づいて、前記対象物に取り付けられている前記第1マーカの位置に対する前記対象物の前記所定位置の相対的な3次元座標の情報を取得し、
取得された前記3次元座標に基づいて、前記対象物とは別の部材に取り付けられている第2マーカおよび前記対象物の前記第1マーカを含む画像から、前記別の部材に対する前記対象物の前記所定位置の相対的な3次元座標を検知する。
The computer of the present disclosure includes:
The control unit executes the program,
receiving an image of an alignment marker captured by an imaging device that is fixed in position and that is disposed at a predetermined reference point of the alignment member;
receiving an image of a first marker attached to the object captured by the imaging device when a predetermined position of the object is aligned with the predetermined reference point of the alignment member;
acquiring information on three-dimensional coordinates of the predetermined position of the object relative to a position of the first marker attached to the object, based on the received image including the alignment marker and the received image including the first marker;
Based on the acquired three-dimensional coordinates, the relative three-dimensional coordinates of the specified position of the object with respect to the other member are detected from an image including a second marker attached to a member other than the object and the first marker of the object.

本開示のコンピュータは、
制御部がプログラムを実行することにより、
位置合わせ部材の所定の基準点に配置されている、位置固定の撮像装置により撮像された位置合わせ用マーカの画像を受け付け、
前記位置合わせ部材の所定の前記基準点に対象物の所定位置が合わせられているときの、前記対象物に取り付けられている、前記撮像装置により撮像された第1マーカの画像を受け付け、
受け付けた前記位置合わせ用マーカを含む画像および受け付けた前記第1マーカを含む画像に基づいて、前記対象物に取り付けられている前記第1マーカに対する前記対象物の前記所定位置の相対的な3次元方向ベクトルの情報を取得し、
取得された前記3次元方向ベクトルに基づいて、前記対象物とは別の部材に取り付けられている第2マーカおよび前記対象物に取り付けられている前記第1マーカを含む画像から、前記別の部材に対する前記第1マーカから前記所定位置への方向の相対的な3次元方向ベクトルを検知する。
The computer of the present disclosure includes:
The control unit executes the program,
receiving an image of an alignment marker captured by an imaging device that is fixed in position and that is disposed at a predetermined reference point of the alignment member;
receiving an image of a first marker attached to the object captured by the imaging device when a predetermined position of the object is aligned with the predetermined reference point of the alignment member;
acquiring information on a relative three-dimensional direction vector of the predetermined position of the object with respect to the first marker attached to the object, based on the received image including the alignment marker and the received image including the first marker;
Based on the acquired three-dimensional direction vector, a relative three-dimensional direction vector of the direction from the first marker to the specified position with respect to a second marker attached to a member other than the object is detected from an image including the first marker attached to the object and a second marker attached to the other member.

本開示のコンピュータは、
制御部がプログラムを実行することにより、
位置合わせ部材の所定の基準点に配置されている、位置固定の撮像装置により撮像された位置合わせ用マーカの画像を受け付け、
前記位置合わせ部材の所定の前記基準点に対象物の所定位置が合わせられているときの、前記対象物に取り付けられている、前記撮像装置により撮像された第1マーカの画像を受け付け、
受け付けた前記位置合わせ用マーカを含む画像および受け付けた前記第1マーカを含む画像に基づいて、前記対象物に取り付けられている前記第1マーカの位置に対する前記対象物の前記所定位置の相対的な3次元座標の情報および前記第1マーカに対する前記対象物の前記所定位置の相対的な3次元方向ベクトルの情報を取得し、
取得された前記3次元座標および前記3次元方向ベクトルに基づいて、前記対象物とは別の部材に取り付けられている第2マーカおよび前記対象物に取り付けられている前記第1マーカを含む画像から、前記別の部材に対する前記対象物の前記所定位置の相対的な3次元座標と、前記別の部材に対する前記第1マーカから前記所定位置への方向の相対的な3次元方向ベクトルとを検知する。
The computer of the present disclosure includes:
The control unit executes the program,
receiving an image of an alignment marker captured by an imaging device that is fixed in position and that is disposed at a predetermined reference point of the alignment member;
receiving an image of a first marker attached to the object captured by the imaging device when a predetermined position of the object is aligned with the predetermined reference point of the alignment member;
acquiring information on three-dimensional coordinates of the predetermined position of the object relative to a position of the first marker attached to the object and information on a three-dimensional direction vector of the predetermined position of the object relative to the first marker, based on the received image including the alignment marker and the received image including the first marker;
Based on the acquired three-dimensional coordinates and three-dimensional direction vector, from an image including a second marker attached to a member other than the object and the first marker attached to the object, the relative three-dimensional coordinates of the specified position of the object with respect to the other member and the relative three-dimensional direction vector of the direction from the first marker to the specified position with respect to the other member are detected.

本開示のコンピュータは、
制御部がプログラムを実行することにより、
対象物の所定位置に位置合わせ用マーカが配置されたときの、前記対象物に取り付けられている第1マーカおよび前記位置合わせ用マーカの画像を受け付け、
受け付けた前記位置合わせ用マーカおよび前記第1マーカを含む画像に基づいて、前記対象物に取り付けられている前記第1マーカの位置に対する前記対象物の前記所定位置の相対的な3次元座標の情報を取得し、
取得された前記3次元座標に基づいて、前記対象物とは別の部材に取り付けられている第2マーカおよび前記対象物の前記第1マーカを含む画像から、前記別の部材に対する前記対象物の前記所定位置の相対的な3次元座標を検知する。
The computer of the present disclosure includes:
The control unit executes the program,
receiving an image of a first marker and the alignment marker attached to the object when the alignment marker is placed at a predetermined position on the object;
acquiring information on three-dimensional coordinates of the predetermined position of the object relative to a position of the first marker attached to the object, based on the received image including the alignment marker and the first marker;
Based on the acquired three-dimensional coordinates, the relative three-dimensional coordinates of the specified position of the object with respect to the other member are detected from an image including a second marker attached to a member other than the object and the first marker of the object.

本開示のコンピュータは、
制御部がプログラムを実行することにより、
対象物の所定位置に位置合わせ用マーカが配置されたときの、前記対象物に取り付けられている第1マーカおよび前記位置合わせ用マーカの画像を受け付け、
受け付けた前記位置合わせ用マーカおよび前記第1マーカを含む画像に基づいて、前記所定位置から前記第1マーカに直交するよう延びる所定方向の3次元方向ベクトルの情報を取得し、
取得された前記3次元方向ベクトルに基づいて、前記対象物とは別の部材に取り付けられている第2マーカおよび前記対象物の前記第1マーカを含む画像から、前記別の部材に対する前記所定方向の相対的な3次元方向ベクトルを検知する。
The computer of the present disclosure includes:
The control unit executes the program,
receiving an image of a first marker and the alignment marker attached to the object when the alignment marker is placed at a predetermined position on the object;
acquiring information on a three-dimensional direction vector in a predetermined direction extending from the predetermined position perpendicularly to the first marker based on the received image including the alignment marker and the first marker;
Based on the acquired three-dimensional direction vector, a relative three-dimensional direction vector in the specified direction with respect to the other member is detected from an image including a second marker attached to a member other than the object and the first marker of the object.

本開示のコンピュータは、
制御部がプログラムを実行することにより、
対象物の所定位置に位置合わせ用マーカが配置されたときの、前記対象物に取り付けられている第1マーカおよび前記位置合わせ用マーカの画像を受け付け、
受け付けた前記位置合わせ用マーカおよび前記第1マーカを含む画像に基づいて、前記対象物に取り付けられている前記第1マーカの位置に対する前記対象物の前記所定位置の相対的な3次元座標の情報および前記所定位置から前記第1マーカに直交するよう延びる所定方向の3次元方向ベクトルの情報を取得し、
取得された前記3次元座標および前記3次元方向ベクトルに基づいて、前記対象物とは別の部材に取り付けられている第2マーカおよび前記対象物の前記第1マーカを含む画像から、前記別の部材に対する前記対象物の前記所定位置の相対的な3次元座標と、前記別の部材に対する前記所定方向の相対的な3次元方向ベクトルとを検知する。
The computer of the present disclosure includes:
The control unit executes the program,
receiving an image of a first marker and the alignment marker attached to the object when the alignment marker is placed at a predetermined position on the object;
acquiring information on three-dimensional coordinates of the predetermined position of the object relative to a position of the first marker attached to the object, and information on a three-dimensional direction vector of a predetermined direction extending perpendicularly from the predetermined position to the first marker, based on an image including the received alignment marker and the first marker;
Based on the acquired three-dimensional coordinates and three-dimensional direction vector, from an image including a second marker attached to a member other than the object and the first marker of the object, the relative three-dimensional coordinates of the specified position of the object with respect to the other member and the relative three-dimensional direction vector of the specified direction with respect to the other member are detected.

本開示のコンピュータは、
制御部がプログラムを実行することにより、
第1対象物の第1所定位置に第1位置合わせ用マーカが配置されたときの、前記第1対象物に取り付けられている前記第1位置合わせ用マーカの画像を受け付け、
受け付けた前記第1位置合わせ用マーカを含む画像に基づいて、前記第1対象物に取り付けられている前記第1対象物の前記第1所定位置の相対的な3次元座標の情報および前記第1所定位置から前記第1位置合わせ用マーカに直交するよう延びる第1所定方向の3次元方向ベクトルの情報を取得し、
第2対象物の第2所定位置に第2位置合わせ用マーカが配置されたときの、前記第2対象物に取り付けられている前記第2位置合わせ用マーカの画像を受け付け、
受け付けた前記第2位置合わせ用マーカを含む画像に基づいて、前記第2対象物に取り付けられている前記第2対象物の前記第2所定位置の相対的な3次元座標の情報および前記第2所定位置から前記第2位置合わせ用マーカに直交するよう延びる第2所定方向の3次元方向ベクトルの情報を取得し、
前記第1対象物の前記第1位置合わせ用マーカおよび前記第2対象物の前記第2位置合わせ用マーカを含む画像を受け付けると、受け付けた前記第1位置合わせ用マーカおよび前記第2位置合わせ用マーカを含む画像から、前記第2対象物の前記第2所定位置に対する前記第1対象物の前記第1所定位置の相対的な3次元座標および前記第2対象物の前記第2所定方向に対する前記第1対象物の前記第1所定方向の相対的な3次元方向ベクトルを検知する。
The computer of the present disclosure includes:
The control unit executes the program,
receiving an image of the first alignment marker attached to the first object when the first alignment marker is placed at a first predetermined position on the first object;
acquiring information on relative three-dimensional coordinates of the first predetermined position of the first object attached to the first object and information on a three-dimensional direction vector of a first predetermined direction extending perpendicularly from the first predetermined position to the first alignment marker, based on the received image including the first alignment marker;
receiving an image of the second alignment marker attached to the second object when the second alignment marker is disposed at a second predetermined position on the second object;
acquiring information on relative three-dimensional coordinates of the second predetermined position of the second object attached to the second object and information on a three-dimensional direction vector of a second predetermined direction extending perpendicularly from the second predetermined position to the second alignment marker, based on the received image including the second alignment marker;
When an image including the first alignment marker of the first object and the second alignment marker of the second object is received, the relative three-dimensional coordinates of the first predetermined position of the first object relative to the second predetermined position of the second object and the relative three-dimensional direction vector of the first predetermined direction of the first object relative to the second predetermined direction of the second object are detected from the received image including the first alignment marker and the second alignment marker.

本開示のコンピュータは、
制御部がプログラムを実行することにより、
対象物に取り付けられている第1マーカの位置に対する前記対象物の所定位置の相対的な3次元座標の情報を取得し、
取得された前記3次元座標に基づいて、前記対象物とは別の部材に取り付けられている第2マーカおよび前記対象物の前記第1マーカを含む画像から、前記別の部材に対する前記対象物の前記所定位置の相対的な3次元座標を検知する。
The computer of the present disclosure includes:
The control unit executes the program,
acquiring information on three-dimensional coordinates of a predetermined position of the object relative to a position of a first marker attached to the object;
Based on the acquired three-dimensional coordinates, the relative three-dimensional coordinates of the specified position of the object with respect to the other member are detected from an image including a second marker attached to a member other than the object and the first marker of the object.

本開示のコンピュータは、
制御部がプログラムを実行することにより、
対象物に取り付けられている第1マーカに対する前記対象物の所定位置の相対的な3次元方向ベクトルの情報を取得し、
取得された前記3次元座標に基づいて、前記対象物とは別の部材に取り付けられている第2マーカおよび前記対象物の前記第1マーカを含む画像から、前記別の部材に対する前記対象物の前記所定位置の相対的な3次元座標を検知する。
The computer of the present disclosure includes:
The control unit executes the program,
acquiring information on a three-dimensional direction vector of a predetermined position of the object relative to a first marker attached to the object;
Based on the acquired three-dimensional coordinates, the relative three-dimensional coordinates of the specified position of the object with respect to the other member are detected from an image including a second marker attached to a member other than the object and the first marker of the object.

本開示のコンピュータは、
制御部がプログラムを実行することにより、
対象物に取り付けられている第1マーカの位置に対する前記対象物の所定位置の相対的な3次元座標の情報を取得するとともに前記第1マーカに対する前記対象物の3次元方向ベクトルの情報を取得し、
取得された前記3次元座標および前記3次元方向ベクトルに基づいて、前記第1マーカおよび前記第2マーカを含む画像から、前記別の部材に対する前記対象物の前記所定位置の相対的な3次元座標と、前記別の部材に対する前記第1マーカから前記所定位置への方向の相対的な3次元方向ベクトルとを検知する。
The computer of the present disclosure includes:
The control unit executes the program,
acquiring information on three-dimensional coordinates of a predetermined position of the object relative to a position of a first marker attached to the object, and acquiring information on a three-dimensional direction vector of the object relative to the first marker;
Based on the acquired three-dimensional coordinates and three-dimensional direction vector, the relative three-dimensional coordinates of the specified position of the object relative to the other member and the relative three-dimensional direction vector of the direction from the first marker to the specified position relative to the other member are detected from an image including the first marker and the second marker.

本開示の検知方法およびコンピュータによれば、マーカが取り付けられている対象物における所定位置の3次元座標やこの所定位置に関連する所定方向の3次元方向ベクトルをマーカの画像から検知する新たな検知方法およびコンピュータを得ることができる。 The detection method and computer disclosed herein can provide a new detection method and computer that detects, from an image of a marker, the three-dimensional coordinates of a specific position on an object to which a marker is attached and a three-dimensional directional vector in a specific direction related to this specific position.

本開示の実施の形態による位置検知システムの構成を示す概略図である。1 is a schematic diagram illustrating a configuration of a position detection system according to an embodiment of the present disclosure. 本開示の実施の形態による位置検知システムのキャリブレーションの方法を示す概略図である。FIG. 1 is a schematic diagram illustrating a method for calibrating a position sensing system according to an embodiment of the present disclosure. 本開示の実施の形態による位置検知システムの1つの使用形態を示す概略図であって、体内のような外部から視認できない部分を検知する概略図である。FIG. 1 is a schematic diagram showing one mode of use of a position detection system according to an embodiment of the present disclosure, for detecting a part that cannot be seen from the outside, such as inside a body of a human body. 本開示の実施の形態による位置検知システムにおいて、キャリブレーション処理の流れを示すフローチャートである。1 is a flowchart showing a flow of a calibration process in a position detection system according to an embodiment of the present disclosure. 本開示の実施の形態による位置検知システムにおいて、検知処理の流れを示すフローチャートである。1 is a flowchart showing a flow of a detection process in a position detection system according to an embodiment of the present disclosure. 本開示の実施の形態による位置検知システムの変形例であって、対象物の所定位置に位置合わせ用マーカを配置するときの形態を示す概略図である。FIG. 13 is a schematic diagram illustrating a modified example of the position detection system according to the embodiment of the present disclosure, in which an alignment marker is disposed at a predetermined position on an object. 本開示の実施の形態による位置検知システムの変形例であって、対象物が複数ある場合における位置検知システムの構成を示す概略図である。FIG. 13 is a schematic diagram illustrating a configuration of a position detection system according to a modified example of the present disclosure when there are multiple targets. 本開示の実施の形態による位置検知システムの使用形態の一例を示す概略図である。FIG. 1 is a schematic diagram illustrating an example of a usage form of a position detection system according to an embodiment of the present disclosure. 本開示の実施の形態による位置検知システムの使用形態の一例を示す概略図である。FIG. 1 is a schematic diagram illustrating an example of a usage form of a position detection system according to an embodiment of the present disclosure. 本開示の実施の形態による位置検知システムの使用形態の一例であって、3次元空間上に描画する形態を示す概略図である。FIG. 1 is a schematic diagram showing an example of a usage form of a position detection system according to an embodiment of the present disclosure, illustrating a form in which rendering is performed in a three-dimensional space. 本開示の実施の形態による位置検知システムの使用形態の一例であって、対象物をレーザポインタとして使用する形態を示す概略図である。FIG. 1 is a schematic diagram showing an example of a usage form of a position detection system according to an embodiment of the present disclosure, in which an object is used as a laser pointer.

以下、図面を参照して本開示の実施の形態について説明する。図1乃至図5は、本開示の実施の形態による位置検知システムの一部を示す図である。このうち、図1は、本実施の形態による位置検知システムの構成を示す概略図であり、図2は、本実施の形態による位置検知システムのキャリブレーションの方法を示す概略図である。図3は、本実施の形態による位置検知システムの1つの使用形態を示す概略図であって、体内のような外部から視認できない部分を検知する概略図である。図4は、本実施の形態による位置検知システムにおいて、キャリブレーション処理の流れを示すフローチャートである。図5は、本実施の形態による位置検知システムにおいて、検知処理の流れを示すフローチャートである。 Below, an embodiment of the present disclosure will be described with reference to the drawings. Figs. 1 to 5 are diagrams showing a part of a position detection system according to an embodiment of the present disclosure. Of these, Fig. 1 is a schematic diagram showing the configuration of a position detection system according to this embodiment, and Fig. 2 is a schematic diagram showing a method of calibrating the position detection system according to this embodiment. Fig. 3 is a schematic diagram showing one mode of use of the position detection system according to this embodiment, which is a schematic diagram of detecting a part that cannot be seen from the outside, such as inside a body. Fig. 4 is a flowchart showing the flow of a calibration process in the position detection system according to this embodiment. Fig. 5 is a flowchart showing the flow of a detection process in the position detection system according to this embodiment.

―位置検知システム1―
図1は、本実施の形態による位置検知システム1の構成を示すブロック図である。本実施の形態による位置検知システム1は、コンピュータ2と、撮像装置3と、を備えている。図2および図3に示すように、撮像装置3は、検知される対象となる物体(対象物10)の位置決めに用いられ、位置合わせ部材7に取り付けられている位置合わせ用マーカ71と、所定の長さを有する物体に取り付けられる第1マーカ11と、別の部材13(例えば、人体)に取り付けられる第2マーカ14と、をそれぞれ撮影する。また、位置検知システム1は、撮像された第1マーカ11および位置合わせ用マーカ71を含む画像に基づいて、位置合わせ用マーカ71に対する第1マーカ11の相対的な3次元座標の情報および3次元方向ベクトルの情報のうち少なくとも何れかを取得し、第1マーカ11に対する、所定位置(点A)の3次元座標や3次元方向ベクトルを計測する。また、例えば、コンピュータ2は、撮像装置3と通信可能に接続されている。また、撮像装置3およびコンピュータ2は、インターネット回線等の通信ネットワークにより互いに通信可能に接続されていてもよい。このような位置検知システム1の各構成要素について以下に説明する。
- Position detection system 1 -
FIG. 1 is a block diagram showing the configuration of a position detection system 1 according to this embodiment. The position detection system 1 according to this embodiment includes a computer 2 and an imaging device 3. As shown in FIG. 2 and FIG. 3, the imaging device 3 is used for positioning an object (target object 10) to be detected, and captures an alignment marker 71 attached to an alignment member 7, a first marker 11 attached to an object having a predetermined length, and a second marker 14 attached to another member 13 (e.g., a human body). In addition, the position detection system 1 acquires at least one of information on the relative three-dimensional coordinates of the first marker 11 with respect to the alignment marker 71 and information on a three-dimensional direction vector based on an image including the captured first marker 11 and alignment marker 71, and measures the three-dimensional coordinates and three-dimensional direction vector of a predetermined position (point A) with respect to the first marker 11. In addition, for example, the computer 2 is connected to the imaging device 3 so as to be able to communicate with each other. In addition, the imaging device 3 and the computer 2 may be connected to each other so as to be able to communicate with each other via a communication network such as an Internet line. Each component of the position detection system 1 will be described below.

位置合わせ部材7は、対象物10の所定位置(A)を規定するためのキャリブレーションに用いられる部材である。位置合わせ部材7は、板状部材または仮想平面として扱われ、位置合わせ用マーカ71が配置される。ここで、所定位置(A)とは、対象物10の特定の箇所を意味し、例えば、棒状部材であれば、その棒状部材の先端であってもよい。本開示においては、長手軸を有する部材の先端部を例に説明する。 The alignment member 7 is a member used for calibration to define a predetermined position (A) of the object 10. The alignment member 7 is treated as a plate-like member or a virtual plane, and an alignment marker 71 is placed on the alignment member 7. Here, the predetermined position (A) means a specific location on the object 10, and in the case of a rod-shaped member, it may be the tip of the rod-shaped member, for example. In this disclosure, the tip of a member having a longitudinal axis will be described as an example.

位置合わせ用マーカ71は、位置合わせ部材7に配置され、第1マーカ11とともにキャリブレーションに用いられるARマーカである。また、位置合わせ用マーカ71は、仮想平面において、原点(O)として規定する箇所と重複しない箇所に配置される。 The alignment marker 71 is an AR marker that is placed on the alignment member 7 and is used for calibration together with the first marker 11. The alignment marker 71 is placed in a location on the virtual plane that does not overlap with a location defined as the origin (O).

第1マーカ11は、所定の長さを有する物体(対象物10)に取り付けられ、対象物10の所定位置(A)の位置関係を把握するために用いられるARマーカである。また、第1マーカ11のサイズは、キャリブレーションする場合に、位置合わせ用マーカ71に重複しないサイズである。 The first marker 11 is an AR marker that is attached to an object (target object 10) having a predetermined length and is used to grasp the positional relationship of a predetermined position (A) of the target object 10. The size of the first marker 11 is such that it does not overlap with the alignment marker 71 when performing calibration.

このような位置合わせ用マーカ71および第1マーカ11を撮像装置3により撮影することにより、上記機能を奏する。 The above function is achieved by capturing images of the alignment marker 71 and the first marker 11 using the imaging device 3.

<コンピュータ2の構成>
コンピュータ2は、例えばインターネット回線等の通信ネットワークを通じて利用できる。コンピュータ2は、制御部4と、記憶部5と、通信部6と、を有している。制御部4は、CPUおよび半導体メモリを含むマイクロコンピュータで構成され、コンピュータ2の動作を制御する。より詳細には、制御部4は、記憶部5に記憶されているプログラムを実行することにより、受付手段41、算出手段42および検知手段43として機能する。
<Configuration of Computer 2>
The computer 2 can be used through a communication network such as the Internet. The computer 2 has a control unit 4, a storage unit 5, and a communication unit 6. The control unit 4 is composed of a microcomputer including a CPU and a semiconductor memory, and controls the operation of the computer 2. More specifically, the control unit 4 executes a program stored in the storage unit 5, thereby functioning as a receiving unit 41, a calculating unit 42, and a detecting unit 43.

受付手段41は、撮像装置3によって撮影された画像を受け付ける。例えば、受付手段41は、撮像装置3によって撮影された位置合わせ用マーカ71、第1マーカ11、および第2マーカ14の画像データを受け付ける。 The reception means 41 receives images captured by the imaging device 3. For example, the reception means 41 receives image data of the alignment marker 71, the first marker 11, and the second marker 14 captured by the imaging device 3.

算出手段42は、少なくとも位置合わせ用マーカ71および第1マーカ11を含む画像データに基づいて、対象物10に取り付けられている第1マーカ11の取り付け位置に対する対象物10の所定位置(A)の相対的な3次元座標の情報を取得する。まず、算出手段42は、撮像装置3によって撮影された画像データから、撮像装置3(点C)および位置合わせ用マーカ71(m1)のそれぞれの位置における行列に基づき、同次変換行列m1を求める。また、位置合わせ用マーカ71(m1)および原点(O)のそれぞれの位置に基づき、同次変換行列m1 -1を求める。このとき、m2座標系における対象物10の所定位置(A)と原点(O)は一致している。そして、求めたm1およびm1 -1に基づき、m1Om1 -1)を求める。なお、同次変換行列とは、行列計算によって座標変換や剛体変換を効率的に計算するためのものであり、3次元空間においては、次式で表される。 The calculation means 42 acquires information on the relative three-dimensional coordinates of the predetermined position (A) of the object 10 with respect to the attachment position of the first marker 11 attached to the object 10 based on image data including at least the alignment marker 71 and the first marker 11. First, the calculation means 42 obtains a homogeneous transformation matrix c H m1 from the image data captured by the imaging device 3 based on matrices at the respective positions of the imaging device 3 (point C) and the alignment marker 71 ( m1 ). Also, the calculation means 42 obtains a homogeneous transformation matrix O H m1 -1 based on the respective positions of the alignment marker 71 (m1) and the origin (O). At this time, the predetermined position (A) of the object 10 in the m2 coordinate system coincides with the origin (O). Then, based on the obtained c H m1 and O H m1 -1 , the calculation means 42 obtains c H O ( c H m1O H m1 -1 ). Note that the homogeneous transformation matrix is used to efficiently calculate coordinate transformation and rigid body transformation by matrix calculation, and is expressed by the following equation in three-dimensional space.

Figure 2025055846000002
(式1中、rは回転行列を表し、tは並進ベクトルを表す。)
Figure 2025055846000002
(In formula 1, r represents a rotation matrix, and t represents a translation vector.)

また、算出手段42は、撮像装置3(点C)および第1マーカ11(点m2)のそれぞれの位置における行列に基づき、同次変換行列m2 -1を求める。そして、算出手段42は、求めたおよびm2 -1に基づき、m2m2 -1 )を求める。この状態では、第1マーカ11(点m2)および原点(O)の傾きが反映されているため、例えば、回転行列(R)を無回転にし、その結果の並進ベクトルをtx、ty、tzとすると、次式が求まる。 The calculation means 42 also calculates a homogeneous transformation matrix c H m2 -1 based on the matrices at the respective positions of the imaging device 3 (point C) and the first marker 11 (point m2). The calculation means 42 then calculates m2 H O ( c H m2 -1 c H O ) based on the calculated c H O and c H m2 -1 . In this state, since the inclinations of the first marker 11 (point m2) and the origin (O) are reflected, for example, if the rotation matrix (R) is made non-rotating and the resulting translation vectors are tx, ty, tz, the following equation is obtained.

Figure 2025055846000003
Figure 2025055846000003

このように、対象物10の所定位置(A)を、位置合わせ部材7の所定の基準点(原点(O))に一致させた状態において、キャリブレーションされる。 In this way, calibration is performed with the predetermined position (A) of the object 10 aligned with the predetermined reference point (origin (O)) of the alignment member 7.

また、算出手段42は、撮像装置3(点C)および第1マーカ11(m2)のそれぞれの位置における行列に基づいて求めた同次変換行列m2、並びに、m2に基づき、m2m2)を求める。このように、算出手段42により、m2を中心とした座標系で対象物10の所定位置(A)を設定し、回転行列を含めて同次変換行列の演算を行い、並進(位置)成分を取り出すことにより、m2座標系における対象物10の所定位置(A)を求める。 The calculation means 42 also calculates the homogeneous transformation matrix cHm2 calculated based on the matrices at the respective positions of the imaging device 3 ( point C) and the first marker 11 (m2), and calculates cHA (cHm2m2HA ) based on m2HA . In this manner, the calculation means 42 sets the predetermined position ( A ) of the object 10 in a coordinate system centered on m2, calculates the homogeneous transformation matrix including the rotation matrix, and extracts the translation (position) component, thereby calculating the predetermined position (A) of the object 10 in the m2 coordinate system.

検知手段43は、対象物10とは別の部材13に取り付けられている第2マーカ14および対象物10の第1マーカ11を撮像することにより、取得された3次元座標および3次元方向ベクトルの少なくとも1つに基づいて、撮像された第1マーカ11および第2マーカ14を含む画像から、別の部材13に対する対象物10の所定位置(A)の相対的な3次元座標および3次元方向ベクトルの少なくとも1つを検知する。 The detection means 43 captures an image of the second marker 14 attached to a member 13 separate from the object 10 and the first marker 11 of the object 10, and detects at least one of the relative three-dimensional coordinates and three-dimensional direction vector of a predetermined position (A) of the object 10 with respect to the separate member 13 from an image including the captured first marker 11 and second marker 14 based on at least one of the acquired three-dimensional coordinates and three-dimensional direction vector.

別の部材13は、第2マーカ14が取り付けられる部材であり、第1マーカ11および第2マーカ14を含む画像から、対象物10の所定位置(A)の配置が決定される対象物である。別の部材13として用いられるものとしては特に限定はなく、例えば、対象物10として内視鏡を用いる場合に、別の部材13として患者の身体を用いてもよい。 The separate member 13 is a member to which the second marker 14 is attached, and is an object for which the position of the predetermined position (A) of the object 10 is determined from an image including the first marker 11 and the second marker 14. There are no particular limitations on what can be used as the separate member 13, and for example, when an endoscope is used as the object 10, the patient's body may be used as the separate member 13.

第2マーカ14は、別の部材13に取り付けられ、第1マーカ11との協働により、対象物10の所定位置(A)および別の部材13の位置関係を把握するために用いられるARマーカである。 The second marker 14 is an AR marker that is attached to another member 13 and is used in cooperation with the first marker 11 to grasp the positional relationship between a predetermined position (A) of the object 10 and the other member 13.

なお、制御部4により実行されるプログラムは記憶部5に記憶されているものに限定されない。制御部4により実行されるプログラムとして、外部装置から通信部6を介して制御部4に送信されるものや、コンピュータ2に装着されたUSBメモリ等の記憶媒体に記憶されているもの、コンピュータ2とは別のサーバ(例えば、クラウドサーバ)等に記憶されているもの等が用いられてもよい。 The programs executed by the control unit 4 are not limited to those stored in the storage unit 5. The programs executed by the control unit 4 may be those transmitted from an external device to the control unit 4 via the communication unit 6, those stored in a storage medium such as a USB memory attached to the computer 2, or those stored in a server other than the computer 2 (e.g., a cloud server).

記憶部5は、HDD(Hard Disk Drive)、RAM(Random Access Memory)、ROM(Read Only Memory)またはSSD(Solid State Drive)等から構成されている。記憶部5には、制御部4により実行されるプログラムを含む各種プログラムが記憶されている。また、記憶部5には、撮像装置3により撮影された画像が記憶されるようになっている。記憶部5に記憶される情報の詳細については後述する。 The storage unit 5 is composed of a hard disk drive (HDD), a random access memory (RAM), a read only memory (ROM), a solid state drive (SSD), etc. The storage unit 5 stores various programs including a program executed by the control unit 4. The storage unit 5 also stores images captured by the imaging device 3. Details of the information stored in the storage unit 5 will be described later.

通信部6は、例えば、有線LAN(Local Area Network)モジュール、無線LANモジュール等であり、有線または無線通信を行うためのインターフェースを含む。すなわち、通信部6は、通信ネットワークを介して他の装置と通信を行うように構成された通信インターフェースから構成されている。 The communication unit 6 is, for example, a wired LAN (Local Area Network) module, a wireless LAN module, etc., and includes an interface for wired or wireless communication. In other words, the communication unit 6 is composed of a communication interface configured to communicate with other devices via a communication network.

撮像装置3は、位置検知システム1において、1または複数設けられるカメラ装置である。撮像装置3は、接地または吊り下げられており、位置合わせ用マーカ71、第1マーカ11、第2マーカ14、基準点(原点(O))、対象物10、を撮像可能な位置に配置されており、これらを撮影し、画像データを取得する。 The imaging device 3 is a camera device that is provided in one or more in the position detection system 1. The imaging device 3 is grounded or suspended, and is placed in a position where it can capture images of the alignment marker 71, the first marker 11, the second marker 14, the reference point (origin (O)), and the target object 10, photographing them and acquiring image data.

<キャリブレーション処理>
まず、本実施の形態におけるキャリブレーション処理について、図2示す概略図および図4に示すフローチャートを用いて説明する。なお、以下に示す位置検知システム1の動作は、コンピュータ2において制御部4が記憶部5に記憶されているプログラムを実行することによって行われる。
<Calibration process>
First, the calibration process in this embodiment will be described with reference to the schematic diagram shown in Fig. 2 and the flow chart shown in Fig. 4. Note that the operation of the position detection system 1 described below is performed by the control unit 4 of the computer 2 executing a program stored in the storage unit 5.

ユーザは、まず、位置合わせ部材7に位置合わせ用マーカ71を配置する。 First, the user places the alignment marker 71 on the alignment member 7.

次に、ユーザは、第1マーカ11を取り付けた対象物10の所定位置(A)を、位置合わせ用マーカ71が配置されている位置合わせ部材7の基準点(原点(O))に合わせる(ステップS10)。このとき、撮像装置3は、位置合わせ用マーカ71および第1マーカ11を撮像可能な位置に設置される。 Next, the user aligns a predetermined position (A) of the object 10 to which the first marker 11 is attached with the reference point (origin (O)) of the alignment member 7 on which the alignment marker 71 is disposed (step S10). At this time, the imaging device 3 is installed in a position where it can capture an image of the alignment marker 71 and the first marker 11.

次に、撮像装置3により、位置合わせ用マーカ71および第1マーカ11を撮像する(ステップS11)。これにより、位置合わせ用マーカ71に登録されている位置合わせ部材(仮想平面)7を規定する画像情報および第1マーカ11に登録されている対象物10を規定する画像情報の位置および配置関係等の情報が受付手段41に受け付けられ、把握される。 Next, the image capturing device 3 captures the alignment marker 71 and the first marker 11 (step S11). As a result, the image information defining the alignment member (virtual plane) 7 registered in the alignment marker 71 and the image information defining the target object 10 registered in the first marker 11, such as the position and positional relationship, are received and understood by the receiving means 41.

次に、算出手段42は、受付手段41が受け付けた位置合わせ用マーカ71および第1マーカ11の画像に基づき、第1マーカ11の取り付け位置に対する対象物10の所定位置(A)の相対的な3次元座標の情報を取得する(ステップS12)。これにより、対象物10の所定位置(A)を、位置合わせ部材7の所定の基準点(原点(O))に一致させた状態でキャリブレーションする。 Next, the calculation means 42 acquires information on the relative three-dimensional coordinates of the predetermined position (A) of the object 10 with respect to the attachment position of the first marker 11 based on the images of the alignment marker 71 and the first marker 11 received by the reception means 41 (step S12). This allows the predetermined position (A) of the object 10 to be calibrated in a state where it coincides with a predetermined reference point (origin (O)) of the alignment member 7.

<検知処理>
次に、本実施の形態におけるキャリブレーション後の検知処理について、図3に示す概略図および図5に示すフローチャートを用いて説明する。
<Detection process>
Next, the detection process after calibration in this embodiment will be described with reference to the schematic diagram shown in FIG. 3 and the flowchart shown in FIG.

まず、撮像装置3により、位置合わせ用マーカ71によって規定された仮想平面上において、別の部材13に取り付けられた第2マーカ14および対象物10の第1マーカ11が撮像される(ステップS13)。これにより、第2マーカ14に登録されている別の部材13を規定する画像情報および第1マーカ11に登録されている対象物10を規定する画像情報の位置および配置関係等の情報が受付手段41に受け付けられ、把握される。 First, the imaging device 3 captures an image of the second marker 14 attached to the other member 13 and the first marker 11 of the object 10 on a virtual plane defined by the alignment marker 71 (step S13). As a result, the information on the position and arrangement of the image information defining the other member 13 registered in the second marker 14 and the image information defining the object 10 registered in the first marker 11 is received and understood by the receiving means 41.

次に、ステップS12において取得した3次元座標およびステップS13において撮像されて受付手段41に受け付けられた画像情報に基づいて、検知手段43は、別の部材13に対する対象物10の所定位置(A)の3次元座標を検知する(ステップS14)。これにより、撮像された第1マーカ11および第2マーカ14を含む画像から、別の部材13に対する対象物10の所定位置(A)の相対的な3次元座標を検知し、継続した位置検知が可能になる。 Next, based on the three-dimensional coordinates acquired in step S12 and the image information captured in step S13 and received by the receiving means 41, the detection means 43 detects the three-dimensional coordinates of the predetermined position (A) of the object 10 relative to the other member 13 (step S14). This makes it possible to detect the relative three-dimensional coordinates of the predetermined position (A) of the object 10 relative to the other member 13 from the captured image including the first marker 11 and second marker 14, enabling continuous position detection.

以上のような構成からなる本実施の形態の検知方法によれば、本開示の検知方法は、第1マーカ11が取り付けられている対象物10の所定位置(A)を検知するにあたり、対象物10の所定位置(A)を、位置合わせ用マーカ71が配置されている位置合わせ部材7の所定の基準点(原点(O))に合わせる。次に、位置合わせ部材7に配置されている位置合わせ用マーカ71および第1マーカ11を撮像する。次に、撮像された位置合わせ用マーカ71および第1マーカ11を含む画像に基づいて、対象物10に取り付けられている第1マーカ11の位置に対する対象物10の所定位置(A)の相対的な3次元座標の情報を取得する。次に、対象物10とは別の部材13に取り付けられている第2マーカ14および対象物10の第1マーカ11を撮像することにより、取得された3次元座標に基づいて、撮像された第1マーカ11および第2マーカ14を含む画像から、別の部材13に対する対象物10の所定位置(A)の相対的な3次元座標を検知する。 According to the detection method of the present embodiment configured as described above, when detecting the predetermined position (A) of the object 10 to which the first marker 11 is attached, the detection method of the present disclosure aligns the predetermined position (A) of the object 10 with a predetermined reference point (origin (O)) of the alignment member 7 on which the alignment marker 71 is arranged. Next, an image of the alignment marker 71 and the first marker 11 arranged on the alignment member 7 is captured. Next, based on the captured image including the alignment marker 71 and the first marker 11, information on the relative three-dimensional coordinates of the predetermined position (A) of the object 10 with respect to the position of the first marker 11 attached to the object 10 is obtained. Next, the second marker 14 attached to a member 13 separate from the object 10 and the first marker 11 of the object 10 are imaged, and based on the acquired three-dimensional coordinates, the relative three-dimensional coordinates of a predetermined position (A) of the object 10 relative to the separate member 13 are detected from an image including the imaged first marker 11 and second marker 14.

このような検知方法によれば、対象物10の所定位置(A)を視認できない場合であっても、別の部材13に対する対象物10の所定位置(A)を正確に把握することができる。より詳細に説明すると、従来は、マーカが取り付けられている対象物10におけるカメラにより撮像することが困難な所定位置(A)の3次元座標をマーカの画像から検知する技術が望まれていた。例えば、体内における内視鏡の先端部の位置を把握しようとしても、その先端部を外部から視認しにくく、また、先端部が体内のどこにあるのかを正確に把握することも困難であった。そして、このような問題を解決する技術は従来知られていなかった。上記の構成による検知方法によれば、マーカが取り付けられている対象物10における所定位置(A)の3次元座標をマーカの画像から検知可能であることから、このような問題を回避することができる。 According to this detection method, even if the predetermined position (A) of the object 10 cannot be visually recognized, the predetermined position (A) of the object 10 relative to another member 13 can be accurately grasped. To explain in more detail, in the past, a technology was desired that detects the three-dimensional coordinates of the predetermined position (A) of the object 10 to which the marker is attached, which is difficult to image by a camera, from an image of the marker. For example, even if an attempt is made to grasp the position of the tip of an endoscope inside the body, it is difficult to visually recognize the tip from the outside, and it is also difficult to accurately grasp where the tip is located inside the body. And a technology that solves such a problem was not known in the past. According to the detection method with the above configuration, the three-dimensional coordinates of the predetermined position (A) of the object 10 to which the marker is attached can be detected from an image of the marker, so that such a problem can be avoided.

また、本実施の形態の検知方法においては、上述したように、位置合わせ部材7は平面を有しており、平面に所定の基準点(原点(O))が形成されているとともに位置合わせ用マーカ71が配置されていてもよい。この場合、効率的にキャリブレーションを行うことができる。 In addition, in the detection method of this embodiment, as described above, the alignment member 7 has a flat surface, and a predetermined reference point (origin (O)) may be formed on the flat surface, and an alignment marker 71 may be arranged on the flat surface. In this case, calibration can be performed efficiently.

また、本実施の形態の検知方法およびコンピュータ2においては、上述したように、本開示のコンピュータ2は、制御部4がプログラムを実行することにより、第1マーカ11が取り付けられている対象物10の所定位置(A)が、位置合わせ用マーカ71が配置されている位置合わせ部材7の所定の基準点(原点(O))に合わせられたときの位置合わせ用マーカ71および第1マーカ11の画像を受け付ける。次に、受け付けた位置合わせ用マーカ71および第1マーカ11を含む画像に基づいて、対象物10に取り付けられている第1マーカ11の位置に対する対象物10の所定位置(A)の相対的な3次元座標の情報を取得する。次に、取得された3次元座標に基づいて、対象物10とは別の部材13に取り付けられている第2マーカ14および対象物10の第1マーカ11を含む画像から、別の部材13に対する対象物10の所定位置(A)の相対的な3次元座標を検知する。この場合、コンピュータ2により、マーカが取り付けられている対象物10における所定位置(A)の3次元座標をマーカの画像から検知することができる。 In addition, in the detection method and computer 2 of the present embodiment, as described above, the computer 2 of the present disclosure receives an image of the alignment marker 71 and the first marker 11 when the predetermined position (A) of the object 10 to which the first marker 11 is attached is aligned with a predetermined reference point (origin (O)) of the alignment member 7 to which the alignment marker 71 is arranged, by the control unit 4 executing a program. Next, based on the received image including the alignment marker 71 and the first marker 11, information on the relative three-dimensional coordinates of the predetermined position (A) of the object 10 with respect to the position of the first marker 11 attached to the object 10 is obtained. Next, based on the obtained three-dimensional coordinates, the relative three-dimensional coordinates of the predetermined position (A) of the object 10 with respect to the separate member 13 are detected from the image including the second marker 14 attached to the separate member 13 from the object 10 and the first marker 11 of the object 10. In this case, the computer 2 can detect the three-dimensional coordinates of a predetermined position (A) on the object 10 to which the marker is attached from the image of the marker.

なお、本開示に係る検知方法およびコンピュータ2は、上述したような態様に限定されることはなく、様々な変更を加えることができる。 The detection method and computer 2 disclosed herein are not limited to the above-described aspects, and various modifications can be made.

本実施の形態においては、対象物10の所定位置(A)の相対的な3次元座標の情報を取得する形態を例示して説明したが、これに限定されない。例えば、3次元座標の代わりに別の部材13に対する第1マーカ11から所定位置への方向の相対的な3次元方向ベクトルの情報を取得してもよい。 In the present embodiment, an example of acquiring information on the relative three-dimensional coordinates of a predetermined position (A) of the object 10 has been described, but the present invention is not limited to this. For example, instead of the three-dimensional coordinates, information on a relative three-dimensional direction vector of the direction from the first marker 11 to the predetermined position with respect to another member 13 may be acquired.

また、対象物10の所定位置(A)の相対的な3次元座標の情報を取得するとともに、第1マーカ11に対する所定位置(A)の3次元方向ベクトルの情報を取得してもよい。また、対象物10とは別の部材13に取り付けられている第2マーカ14および対象物10の第1マーカ11を撮像することにより、取得された3次元座標および3次元方向ベクトルに基づいて、撮像された第1マーカ11および第2マーカ14を含む画像から、別の部材13に対する対象物10の所定位置(A)の相対的な3次元座標と、別の部材13に対する第1マーカ11から所定位置(A)への方向の相対的な3次元方向ベクトルとを検知してもよい。この場合、3次元座標に加えて3次元方向ベクトルを含めて取得することにより、より高精度に対象物10における所定位置(A)を特定することができる。 In addition, information on the relative three-dimensional coordinates of the predetermined position (A) of the object 10 may be obtained, and information on the three-dimensional direction vector of the predetermined position (A) relative to the first marker 11 may be obtained. In addition, by capturing an image of the second marker 14 attached to a member 13 other than the object 10 and the first marker 11 of the object 10, the relative three-dimensional coordinates of the predetermined position (A) of the object 10 relative to the other member 13 and the relative three-dimensional direction vector of the direction from the first marker 11 to the predetermined position (A) relative to the other member 13 may be detected from an image including the captured first marker 11 and second marker 14 based on the captured three-dimensional coordinates and three-dimensional direction vector. In this case, by capturing the three-dimensional direction vector in addition to the three-dimensional coordinates, the predetermined position (A) on the object 10 can be identified with higher accuracy.

また、本実施の形態においては、位置合わせ部材7に配置された位置合わせ用マーカ71および対象物10に取り付けられた第1マーカ11を同時に撮像する形態を例に説明したが、これに限定されない。例えば、本開示の検知方法では、位置合わせ部材7の所定の基準点(原点(O))に位置合わせ用マーカ71を配置し、位置固定の撮像装置3により位置合わせ用マーカ71を撮像する。次に、位置合わせ用マーカ71を取り外し、対象物10の所定位置(A)を位置合わせ部材7の所定の基準点(原点(O))に合わせ、撮像装置3により第1マーカ11を撮像する。次に、撮像された位置合わせ用マーカ71を含む画像および撮像された第1マーカ11を含む画像に基づいて、対象物10に取り付けられている第1マーカ11の位置に対する対象物10の所定位置(A)の相対的な3次元座標の情報を取得する。この場合、所定の基準点(原点(O))に取り付けられた位置合わせ用マーカ71を撮像後、所定の基準点(原点(O))に、対象物10の所定位置(A)を合わせた状態における第1マーカ11を撮像するため、3次元座標に基づいて、狭い画角でもキャリブレーションすることができる。次に、対象物10とは別の部材13に取り付けられている第2マーカ14および対象物10の第1マーカ11を撮像することにより、取得された3次元座標に基づいて、撮像された第1マーカ11および第2マーカ14を含む画像から、別の部材13に対する対象物10の所定位置(A)の相対的な3次元座標を検知する。これにより、検知処理を行うことができる。 In addition, in this embodiment, the alignment marker 71 arranged on the alignment member 7 and the first marker 11 attached to the object 10 are simultaneously imaged, but the present disclosure is not limited to this. For example, in the detection method disclosed herein, the alignment marker 71 is arranged at a predetermined reference point (origin (O)) of the alignment member 7, and the alignment marker 71 is imaged by the fixed-position imaging device 3. Next, the alignment marker 71 is removed, a predetermined position (A) of the object 10 is aligned with a predetermined reference point (origin (O)) of the alignment member 7, and the first marker 11 is imaged by the imaging device 3. Next, based on the image including the imaged alignment marker 71 and the imaged image including the first marker 11, information on the relative three-dimensional coordinates of the predetermined position (A) of the object 10 with respect to the position of the first marker 11 attached to the object 10 is obtained. In this case, after imaging the alignment marker 71 attached to a predetermined reference point (origin (O)), the first marker 11 is imaged with the predetermined position (A) of the object 10 aligned with the predetermined reference point (origin (O)), so calibration can be performed even with a narrow angle of view based on three-dimensional coordinates. Next, by imaging the second marker 14 attached to a member 13 separate from the object 10 and the first marker 11 of the object 10, the relative three-dimensional coordinates of the predetermined position (A) of the object 10 relative to the separate member 13 are detected from the image including the imaged first marker 11 and second marker 14 based on the acquired three-dimensional coordinates. This allows the detection process to be performed.

また、本開示の他の検知方法では、位置合わせ部材7の所定の基準点(原点(O))に位置合わせ用マーカ71を配置し、位置固定の撮像装置3により位置合わせ用マーカ71を撮像する。次に、位置合わせ用マーカ71を取り外し、対象物10の所定位置(A)を位置合わせ部材7の所定の基準点(原点(O))に合わせ、撮像装置3により第1マーカ11を撮像する。次に、撮像された位置合わせ用マーカ71を含む画像および撮像された第1マーカ11を含む画像に基づいて、対象物10に取り付けられている第1マーカ11に対する対象物10の所定位置(A)の相対的な3次元方向ベクトルの情報を取得する。この場合、所定の基準点(原点(O))に取り付けられた位置合わせ用マーカ71を撮像後、所定の基準点(原点(O))に、対象物10の所定位置(A)を合わせた状態における第1マーカ11を撮像し、かつ、3次元方向ベクトルに基づいてキャリブレーションするため、狭い画角、かつ、3次元方向に焦点を当ててキャリブレーションすることができる。次に、対象物10とは別の部材13に取り付けられている第2マーカ14および対象物10の第1マーカ11を撮像することにより、取得された3次元方向ベクトルに基づいて、撮像された第1マーカ11および第2マーカ14を含む画像から、別の部材13に対する第1マーカ11から所定位置(A)への方向の相対的な3次元方向ベクトルを検知する。これにより、検知処理を行うことができる。 In another detection method disclosed herein, an alignment marker 71 is placed at a predetermined reference point (origin (O)) of the alignment member 7, and an image of the alignment marker 71 is captured by a fixed-position imaging device 3. Next, the alignment marker 71 is removed, a predetermined position (A) of the object 10 is aligned with the predetermined reference point (origin (O)) of the alignment member 7, and an image of the first marker 11 is captured by the imaging device 3. Next, based on the captured image including the alignment marker 71 and the captured image including the first marker 11, information on the relative three-dimensional direction vector of the predetermined position (A) of the object 10 with respect to the first marker 11 attached to the object 10 is obtained. In this case, after imaging the alignment marker 71 attached to a predetermined reference point (origin (O)), the first marker 11 is imaged in a state where a predetermined position (A) of the object 10 is aligned with the predetermined reference point (origin (O)), and calibration is performed based on the three-dimensional direction vector, so that calibration can be performed with a narrow angle of view and focusing on the three-dimensional direction. Next, by imaging the second marker 14 attached to a member 13 other than the object 10 and the first marker 11 of the object 10, a relative three-dimensional direction vector of the direction from the first marker 11 to the predetermined position (A) with respect to the other member 13 is detected from the image including the imaged first marker 11 and second marker 14 based on the acquired three-dimensional direction vector. This allows the detection process to be performed.

また、本開示の更に他の検知方法では、位置合わせ部材7の所定の基準点(原点(O))に位置合わせ用マーカ71を配置し、位置固定の撮像装置3により位置合わせ用マーカ71を撮像する。次に、位置合わせ用マーカ71を取り外し、対象物10の所定位置(A)を、位置合わせ部材7の所定の基準点(原点(O))に合わせ、撮像装置3により第1マーカ11を撮像する。次に、撮像された位置合わせ用マーカ71を含む画像および撮像された第1マーカ11を含む画像に基づいて、対象物10に取り付けられている第1マーカ11の位置に対する対象物10の所定位置(A)の相対的な3次元座標の情報および第1マーカ11に対する対象物10の所定位置(A)の相対的な3次元方向ベクトルの情報を取得する。この場合、所定の基準点(原点(O))に取り付けられた位置合わせ用マーカ71を撮像後、所定の基準点(原点(O))に、対象物10の所定位置(A)を合わせた状態における第1マーカ11を撮像し、かつ、3次元座標および3次元方向ベクトルに基づいてキャリブレーションするため、狭い画角、かつ、3次元座標および3次元方向を組み合わせてキャリブレーションすることができる。次に、対象物10とは別の部材13に取り付けられている第2マーカ14および対象物10の第1マーカ11を撮像することにより、取得された3次元座標および3次元方向ベクトルに基づいて、撮像された第1マーカ11および第2マーカ14を含む画像から、別の部材13に対する対象物10の所定位置(A)の相対的な3次元座標と、別の部材13に対する第1マーカ11から所定位置(A)への方向の相対的な3次元方向ベクトルとを検知する。これにより、検知処理を行うことができる。 In addition, in yet another detection method of the present disclosure, an alignment marker 71 is placed at a predetermined reference point (origin (O)) of the alignment member 7, and an image of the alignment marker 71 is captured by a fixed-position imaging device 3. Next, the alignment marker 71 is removed, a predetermined position (A) of the object 10 is aligned with a predetermined reference point (origin (O)) of the alignment member 7, and an image of the first marker 11 is captured by the imaging device 3. Next, based on the captured image including the alignment marker 71 and the captured image including the first marker 11, information on the relative three-dimensional coordinates of the predetermined position (A) of the object 10 with respect to the position of the first marker 11 attached to the object 10 and information on the relative three-dimensional direction vector of the predetermined position (A) of the object 10 with respect to the first marker 11 are obtained. In this case, after imaging the alignment marker 71 attached to a predetermined reference point (origin (O)), the first marker 11 is imaged in a state where a predetermined position (A) of the object 10 is aligned with the predetermined reference point (origin (O)), and calibration is performed based on the three-dimensional coordinates and three-dimensional direction vector, so that calibration can be performed with a narrow angle of view and by combining the three-dimensional coordinates and the three-dimensional direction. Next, by imaging the second marker 14 attached to a member 13 other than the object 10 and the first marker 11 of the object 10, the relative three-dimensional coordinates of the predetermined position (A) of the object 10 with respect to the other member 13 and the relative three-dimensional direction vector of the direction from the first marker 11 to the predetermined position (A) with respect to the other member 13 are detected from the image including the imaged first marker 11 and second marker 14 based on the acquired three-dimensional coordinates and three-dimensional direction vector. This allows the detection process to be performed.

また、本実施の形態においては、位置合わせ部材7の基準点(原点(O))には凹部が形成されており、対象物10の所定位置(A)の部分を凹部に入れることにより対象物10の所定位置(A)を基準点(原点(O))に合わせてもよい。この場合、凹部に対象物10の所定位置(A)に係る部分を入れることにより、対象物10の所定位置(A)を基準点(原点(O))に合わせることができる。 In addition, in this embodiment, a recess is formed at the reference point (origin (O)) of the alignment member 7, and the predetermined position (A) of the object 10 may be aligned with the reference point (origin (O)) by inserting a portion of the object 10 at the predetermined position (A) into the recess. In this case, the predetermined position (A) of the object 10 can be aligned with the reference point (origin (O)) by inserting the portion of the object 10 related to the predetermined position (A) into the recess.

次に図6について説明する。本開示の検知方法では、対象物101の所定位置(B)に第1マーカ11を配置し、位置合わせ用マーカ12を点m2の位置に配置する。次に、第1マーカ11および位置合わせ用マーカ12を撮像する。そして、撮像された位置合わせ用マーカ12および第1マーカ11を含む画像に基づいて、対象物101に配置されている第1マーカ11(点m1)に対する位置合わせ用マーカ12の所定位置(点m2)の相対的な3次元座標の情報を取得することにより、対象物101から位置合わせ用マーカ12を取り除いてもキャリブレーションがなされる。次に、対象物101とは別の部材13に取り付けられている第2マーカ14および対象物101の第1マーカ11を撮像することにより、取得された3次元座標に基づいて、撮像された第2マーカ14および第1マーカ11を含む画像から、別の部材13に対する点m2の相対的な3次元座標を検知する。このとき、図6に示すように、算出手段42は、撮像装置3によって撮影された画像データから、撮像装置3(点C)および基準点(点m2)のそれぞれの位置における行列に基づき、同次変換行列m2 -1を求める。また、撮像装置3(点C)および第1マーカ11(点m1)のそれぞれの位置における行列に基づき、同次変換行列m1を求める。そして、求めたm1およびm2 -1に基づき、m1m2m2 -1 m1)を求める。この場合、m1座標系およびm2座標系を同じ座標系として扱い、3次元座標に基づいてキャリブレーションするため、狭い画角、かつ、3次元座標によりm1座標系におけるm2座標系の位置姿勢を求めてキャリブレーションすることができる。そのため、例えば、クレーンを使って部品を組み立てる場合には、部品同士を接続させる位置を推定することもできる。なお、検知工程においては、m2m1m2m1 -1)を求める。 Next, FIG. 6 will be described. In the detection method of the present disclosure, the first marker 11 is placed at a predetermined position (B) of the object 101, and the alignment marker 12 is placed at the position of point m2. Next, the first marker 11 and the alignment marker 12 are imaged. Then, based on the image including the imaged alignment marker 12 and the first marker 11, information on the relative three-dimensional coordinates of the predetermined position (point m2) of the alignment marker 12 with respect to the first marker 11 (point m1) placed on the object 101 is acquired, so that calibration can be performed even if the alignment marker 12 is removed from the object 101. Next, the second marker 14 attached to a member 13 other than the object 101 and the first marker 11 of the object 101 are imaged, and based on the acquired three-dimensional coordinates, the relative three-dimensional coordinates of the point m2 with respect to the other member 13 are detected from the image including the imaged second marker 14 and the first marker 11. At this time, as shown in FIG. 6, the calculation means 42 obtains a homogeneous transformation matrix c H m2 -1 based on the matrices at the positions of the imaging device 3 (point C) and the reference point (point m2) from the image data captured by the imaging device 3. Also, based on the matrices at the positions of the imaging device 3 (point C) and the first marker 11 (point m1), a homogeneous transformation matrix c H m1 is obtained. Then , based on the obtained c H m1 and c H m2 -1 , m1 H m2 ( c H m2 -1 c H m1 ) is obtained. In this case, since the m1 coordinate system and the m2 coordinate system are treated as the same coordinate system and calibration is performed based on three-dimensional coordinates, it is possible to obtain the position and orientation of the m2 coordinate system in the m1 coordinate system with a narrow angle of view and three-dimensional coordinates and perform calibration. Therefore, for example, when assembling parts using a crane, it is also possible to estimate the position at which the parts are connected to each other. In the detection process, c H m2 ( c H m1m2 H m1 −1 ) is obtained.

また、本開示の検知方法では、第1マーカ11が取り付けられている対象物101の所定位置(B)に位置合わせ用マーカ12を配置し、第1マーカ11および位置合わせ用マーカ12を撮像する。次に、撮像された位置合わせ用マーカ12および第1マーカ11を含む画像に基づいて、所定位置(B)から第1マーカ11に直交するよう延びる所定方向の3次元方向ベクトルの情報を取得することにより、3次元方向ベクトルに基づいてキャリブレーションがなされる。次に、対象物101とは別の部材13に取り付けられている第2マーカ14および対象物101の第1マーカ11を撮像することにより、取得された3次元方向ベクトルに基づいて、撮像された第1マーカ11および第2マーカ14を含む画像から、別の部材13に対する所定方向の相対的な3次元方向ベクトルを検知する。 In addition, in the detection method disclosed herein, an alignment marker 12 is placed at a predetermined position (B) of the object 101 to which the first marker 11 is attached, and an image of the first marker 11 and the alignment marker 12 is captured. Next, based on the captured image including the alignment marker 12 and the first marker 11, information on a three-dimensional direction vector in a predetermined direction extending perpendicularly from the predetermined position (B) to the first marker 11 is acquired, and calibration is performed based on the three-dimensional direction vector. Next, an image of a second marker 14 attached to a member 13 other than the object 101 and the first marker 11 of the object 101 is captured, and based on the acquired three-dimensional direction vector, a relative three-dimensional direction vector in a predetermined direction with respect to the other member 13 is detected from the captured image including the first marker 11 and the second marker 14.

また、本開示の検知方法では、第1マーカ11が取り付けられている対象物101の所定位置(B)に位置合わせ用マーカ12を配置し、第1マーカ11および位置合わせ用マーカ12を撮像する。次に、撮像された位置合わせ用マーカ12および第1マーカ11を含む画像に基づいて、対象物101に取り付けられている第1マーカ11の位置に対する対象物101の所定位置(B)の相対的な3次元座標の情報および所定位置(B)から第1マーカ11に直交するよう延びる所定方向の3次元方向ベクトルの情報を取得することにより、3次元座標および3次元方向ベクトルに基づいてキャリブレーションがなされる。次に、対象物101とは別の部材13に取り付けられている第2マーカ14および対象物101の第1マーカ11を撮像することにより、取得された3次元座標および3次元方向ベクトルに基づいて、撮像された第1マーカ11および第2マーカ14を含む画像から、別の部材13に対する対象物101の所定位置(B)の相対的な3次元座標と、別の部材13に対する所定方向の相対的な3次元方向ベクトルとを検知する。 In addition, in the detection method disclosed herein, an alignment marker 12 is placed at a predetermined position (B) of the object 101 to which the first marker 11 is attached, and an image of the first marker 11 and the alignment marker 12 is captured. Next, based on the captured image including the alignment marker 12 and the first marker 11, information on the relative three-dimensional coordinates of the predetermined position (B) of the object 101 with respect to the position of the first marker 11 attached to the object 101 and information on a three-dimensional direction vector of a predetermined direction extending from the predetermined position (B) perpendicular to the first marker 11 are obtained, thereby performing calibration based on the three-dimensional coordinates and the three-dimensional direction vector. Next, the second marker 14 attached to a member 13 separate from the object 101 and the first marker 11 of the object 101 are imaged, and based on the acquired three-dimensional coordinates and three-dimensional direction vector, the relative three-dimensional coordinates of a predetermined position (B) of the object 101 relative to the separate member 13 and the relative three-dimensional direction vector in a predetermined direction relative to the separate member 13 are detected from the image including the imaged first marker 11 and second marker 14.

次に図7について説明する。本開示の検知方法では、第1マーカ11が取り付けられている第1対象物111の第1所定位置(点A1)に第1位置合わせ用マーカ15を配置し、1マーカ11および第1位置合わせ用マーカ15を撮像する。このとき、第1位置合わせ用マーカ15は、例えば図7の点A1に合わせて配置される。この撮像された第1位置合わせ用マーカ15および第1マーカ11を含む画像に基づいて、第1対象物111に取り付けられている第1マーカ11の位置に対する第1対象物111の第1所定位置(点A1)の相対的な3次元座標の情報および第1所定位置(点A1)から第1位置合わせ用マーカ15に直交するよう延びる第1所定方向の3次元方向ベクトルの情報を取得する。次に、第2マーカ14が取り付けられている第2対象物112の第2所定位置(点A2)に第2位置合わせ用マーカ16を配置し、第2マーカ14および第2位置合わせ用マーカ16を撮像する。このとき、第2位置合わせ用マーカ16は、例えば図7の点A2に合わせて配置される。次に、撮像された第2位置合わせ用マーカ16および第2マーカ14を含む画像に基づいて、第2対象物112に取り付けられている第2マーカ14の位置に対する第2対象物112の第2所定位置(点A2)の相対的な3次元座標の情報および第2所定位置(点A2)から第2位置合わせ用マーカ16に直交するよう延びる第2所定方向の3次元方向ベクトルの情報を取得する。次に、第1対象物111の第1マーカ11および第2対象物112の第2マーカ14を撮像することにより、撮像された第1マーカ11および第2マーカ14を含む画像から、第2対象物112の第2所定位置(点A2)に対する第1対象物111の第1所定位置(点A1)の相対的な3次元座標および第2対象物112の第2所定方向に対する第1対象物111の第1所定方向の相対的な3次元方向ベクトルを検知する。この場合、第1対象物111および第2対象物112が重なって撮像装置3による撮影時に死角が存在しても、位置合わせ箇所における位置差を計測し、点A1および点A2の位置合わせを行うことができる。また、第1対象物111および第2対象物112の傾き差を算出する場合には、算出手段42は、撮像装置3によって撮影された画像データから、例えば、撮像装置3(点C)~点A1(C-A1)および点C~点A’(C-A’)の内積として表し得る。そして、点A1および点A’間の差は、点A1を基準とした場合に、A1’=A1 -1 ’として表し得る。この場合、位置合わせ箇所における傾き差を計測し、第1対象物111および第2対象物112のそれぞれに形成された孔を位置合わせすることができる。このように、各々の孔を連通させることにより形成される連通孔に棒状の部材をスムーズに挿入等することが可能となる。 Next, FIG. 7 will be described. In the detection method of the present disclosure, the first alignment marker 15 is placed at a first predetermined position (point A1) of the first object 111 to which the first marker 11 is attached, and the first marker 11 and the first alignment marker 15 are imaged. At this time, the first alignment marker 15 is placed, for example, at point A1 in FIG. 7. Based on the image including the captured first alignment marker 15 and the first marker 11, information on the relative three-dimensional coordinates of the first predetermined position (point A1) of the first object 111 with respect to the position of the first marker 11 attached to the first object 111 and information on a three-dimensional direction vector of a first predetermined direction extending perpendicularly from the first predetermined position (point A1) to the first alignment marker 15 are obtained. Next, the second alignment marker 16 is placed at a second predetermined position (point A2) of the second object 112 to which the second marker 14 is attached, and an image of the second marker 14 and the second alignment marker 16 is captured. At this time, the second alignment marker 16 is placed at, for example, point A2 in Fig. 7. Next, based on the captured image including the second alignment marker 16 and the second marker 14, information on the relative three-dimensional coordinates of the second predetermined position (point A2) of the second object 112 with respect to the position of the second marker 14 attached to the second object 112 and information on a three-dimensional direction vector of a second predetermined direction extending perpendicularly from the second predetermined position (point A2) to the second alignment marker 16 are acquired. Next, the first marker 11 of the first object 111 and the second marker 14 of the second object 112 are imaged, and from the image including the imaged first marker 11 and second marker 14, the relative three-dimensional coordinates of the first predetermined position (point A1) of the first object 111 with respect to the second predetermined position (point A2) of the second object 112 and the relative three-dimensional direction vector of the first predetermined direction of the first object 111 with respect to the second predetermined direction of the second object 112 are detected. In this case, even if the first object 111 and the second object 112 overlap and a blind spot exists when photographing by the imaging device 3, the position difference at the alignment point can be measured and alignment of points A1 and A2 can be performed. Furthermore, when calculating the inclination difference between the first object 111 and the second object 112, the calculation means 42 can express, for example, the inner product of the image data captured by the image capture device 3 (point C) to point A1 (C-A1) and point C to point A'(C-A'). The difference between point A1 and point A' can be expressed as A1 H A '= c H A1 -1 c H A ' when point A1 is used as a reference. In this case, the inclination difference at the alignment point can be measured, and the holes formed in the first object 111 and the second object 112 can be aligned. In this way, it becomes possible to smoothly insert a rod-shaped member into the communication hole formed by communicating the respective holes.

また、本実施の形態においてキャリブレーション処理について詳説したが、本実施の形態における検知方法においては、予め対象物10の所定位置(A)の3次元座標や3次元方向ベクトルの情報は取得されていてもよい。例えば、本実施の形態における検知方法は、対象物10に取り付けられている第1マーカ11の位置に対する対象物10の所定位置(A)の相対的な3次元座標の情報を取得する。また、対象物10とは別の部材13に取り付けられている第2マーカ14および対象物10の第1マーカ11を撮像することにより、取得された3次元座標に基づいて、撮像された第1マーカ11および第2マーカ14を含む画像から、別の部材13に対する対象物10の所定位置(A)の相対的な3次元座標を検知してもよい。この場合、予め取得された対象物10における所定位置(A)の3次元座標の情報を用いることができる。 Although the calibration process has been described in detail in this embodiment, the detection method in this embodiment may acquire information on the three-dimensional coordinates and three-dimensional direction vectors of the predetermined position (A) of the object 10 in advance. For example, the detection method in this embodiment acquires information on the relative three-dimensional coordinates of the predetermined position (A) of the object 10 with respect to the position of the first marker 11 attached to the object 10. In addition, by capturing an image of the second marker 14 attached to a member 13 other than the object 10 and the first marker 11 of the object 10, the relative three-dimensional coordinates of the predetermined position (A) of the object 10 with respect to the other member 13 may be detected from an image including the captured first marker 11 and second marker 14 based on the acquired three-dimensional coordinates. In this case, the information on the three-dimensional coordinates of the predetermined position (A) of the object 10 acquired in advance can be used.

また、例えば、本実施の形態における検知方法は、対象物10に取り付けられている第1マーカ11に対する対象物10の所定位置(A)の相対的な3次元方向ベクトルの情報を取得する。また、対象物10とは別の部材13に取り付けられている第2マーカ14および対象物10の第1マーカ11を撮像することにより、取得された3次元方向ベクトルに基づいて、撮像された第1マーカ11および第2マーカ14を含む画像から、別の部材13に対する第1マーカ11から所定位置(A)への方向の相対的な3次元方向ベクトルを検知してもよい。この場合、予め取得された対象物10における所定位置(A)の3次元方向ベクトルの情報を用いることができる。 Also, for example, the detection method in this embodiment acquires information on a relative three-dimensional direction vector of a predetermined position (A) of the object 10 with respect to a first marker 11 attached to the object 10. Also, by capturing an image of a second marker 14 attached to a member 13 separate from the object 10 and the first marker 11 of the object 10, a relative three-dimensional direction vector of the direction from the first marker 11 to the predetermined position (A) with respect to the separate member 13 may be detected from an image including the captured first marker 11 and second marker 14 based on the acquired three-dimensional direction vector. In this case, information on the three-dimensional direction vector of the predetermined position (A) on the object 10 acquired in advance can be used.

また、例えば、本実施の形態における検知方法は、対象物10に取り付けられている第1マーカ11の位置に対する対象物10の所定位置(A)の相対的な3次元座標の情報を取得するとともに第1マーカ11に対する対象物10の3次元方向ベクトルの情報を取得する。また、対象物10とは別の部材13に取り付けられている第2マーカ14および対象物10の第1マーカ11を撮像することにより、取得された3次元座標および3次元方向ベクトルに基づいて、撮像された第1マーカ11および第2マーカ14を含む画像から、別の部材13に対する対象物10の所定位置(A)の相対的な3次元座標と、別の部材13に対する第1マーカ11から所定位置(A)への方向の相対的な3次元方向ベクトルとを検知してもよい。この場合、予め取得された対象物10における所定位置(A)の3次元座標および3次元方向ベクトルの情報を用いることができる。 For example, the detection method in this embodiment acquires information on the relative three-dimensional coordinates of a predetermined position (A) of the object 10 with respect to the position of the first marker 11 attached to the object 10, and also acquires information on the three-dimensional direction vector of the object 10 with respect to the first marker 11. In addition, by capturing an image of the second marker 14 attached to a member 13 other than the object 10 and the first marker 11 of the object 10, the relative three-dimensional coordinates of the predetermined position (A) of the object 10 with respect to the other member 13 and the relative three-dimensional direction vector of the direction from the first marker 11 to the predetermined position (A) with respect to the other member 13 may be detected from an image including the captured first marker 11 and second marker 14 based on the acquired three-dimensional coordinates and three-dimensional direction vector. In this case, information on the three-dimensional coordinates and three-dimensional direction vector of the predetermined position (A) on the object 10 acquired in advance can be used.

また、本実施の形態のコンピュータ2においては、制御部4がプログラムを実行することにより、第1マーカ11が取り付けられている対象物10の所定位置(A)が、位置合わせ用マーカ71が配置されている位置合わせ部材7の所定の基準点(原点(O))に合わせられたときの位置合わせ用マーカ71および第1マーカ11の画像を受け付ける。また、受け付けた位置合わせ用マーカ71および第1マーカ11を含む画像に基づいて、対象物10に取り付けられている第1マーカ11に対する対象物10の所定位置(A)の相対的な3次元方向ベクトルの情報を取得する。この場合、コンピュータ2は、3次元座標の代わりに3次元方向ベクトルを用いてキャリブレーションすることができる。また、取得された3次元座標に基づいて、対象物10とは別の部材13に取り付けられている第2マーカ14および対象物10の第1マーカ11を含む画像から、別の部材13に対する対象物10の所定位置(A)の相対的な3次元座標を検知する。 In addition, in the computer 2 of this embodiment, the control unit 4 executes a program to receive images of the alignment marker 71 and the first marker 11 when the predetermined position (A) of the object 10 to which the first marker 11 is attached is aligned with a predetermined reference point (origin (O)) of the alignment member 7 on which the alignment marker 71 is arranged. Also, based on the received image including the alignment marker 71 and the first marker 11, information on the relative three-dimensional direction vector of the predetermined position (A) of the object 10 with respect to the first marker 11 attached to the object 10 is obtained. In this case, the computer 2 can perform calibration using the three-dimensional direction vector instead of the three-dimensional coordinate. Also, based on the obtained three-dimensional coordinates, the relative three-dimensional coordinates of the predetermined position (A) of the object 10 with respect to the other member 13 are detected from the image including the second marker 14 attached to the other member 13 from the object 10 and the first marker 11 of the object 10.

また、本実施の形態のコンピュータ2においては、制御部4がプログラムを実行することにより、第1マーカ11が取り付けられている対象物10の所定位置(A)が、位置合わせ用マーカ71が配置されている位置合わせ部材7の所定の基準点(原点(O))に合わせられたときの位置合わせ用マーカ71および第1マーカ11の画像を受け付ける。また、受け付けた位置合わせ用マーカ71および第1マーカ11を含む画像に基づいて、対象物10に取り付けられている第1マーカ11の位置に対する対象物10の所定位置(A)の相対的な3次元座標の情報を取得するとともに第1マーカ11に対する対象物10の3次元方向ベクトルの情報を取得する。この場合、コンピュータ2は、3次元座標に加えて3次元方向ベクトルを含めて算出することにより、より高精度に対象物10における所定位置(A)を特定することができる。また、取得された3次元座標および3次元方向ベクトルに基づいて、第1マーカ11および第2マーカ14を含む画像から、別の部材13に対する対象物10の所定位置(A)の相対的な3次元座標と、別の部材13に対する第1マーカ11から所定位置(A)への方向の相対的な3次元方向ベクトルとを検知する。 In addition, in the computer 2 of this embodiment, the control unit 4 executes a program to receive images of the alignment marker 71 and the first marker 11 when the predetermined position (A) of the object 10 to which the first marker 11 is attached is aligned with a predetermined reference point (origin (O)) of the alignment member 7 on which the alignment marker 71 is arranged. In addition, based on the received image including the alignment marker 71 and the first marker 11, information on the relative three-dimensional coordinates of the predetermined position (A) of the object 10 with respect to the position of the first marker 11 attached to the object 10 is obtained, and information on the three-dimensional direction vector of the object 10 with respect to the first marker 11 is obtained. In this case, the computer 2 can specify the predetermined position (A) on the object 10 with higher accuracy by calculating the three-dimensional direction vector in addition to the three-dimensional coordinates. In addition, based on the acquired three-dimensional coordinates and three-dimensional direction vector, the relative three-dimensional coordinates of a predetermined position (A) of the object 10 relative to the other member 13 and the relative three-dimensional direction vector of the direction from the first marker 11 to the predetermined position (A) relative to the other member 13 are detected from an image including the first marker 11 and the second marker 14.

また、本実施の形態のコンピュータ2においては、制御部4がプログラムを実行することにより、位置合わせ部材7の所定の基準点(原点(O))に配置されている、位置固定の撮像装置3により撮像された位置合わせ用マーカ71の画像を受け付ける。また、位置合わせ部材7の所定の基準点(原点(O))に対象物10の所定位置(A)が合わせられているときの、対象物10に取り付けられている、撮像装置3により撮像された第1マーカ11の画像を受け付ける。また、受け付けた位置合わせ用マーカ71を含む画像および受け付けた第1マーカ11を含む画像に基づいて、対象物10に取り付けられている第1マーカ11の位置に対する対象物10の所定位置(A)の相対的な3次元座標の情報を取得する。この場合、コンピュータ2は、所定の基準点(原点(O))に取り付けられた位置合わせ用マーカ71を撮像後、所定の基準点(原点(O))に、対象物10の所定位置(A)を合わせた状態における第1マーカ11を撮像するため、3次元座標に基づいて、狭い画角でもキャリブレーションすることができる。また、取得された3次元座標に基づいて、対象物10とは別の部材13に取り付けられている第2マーカ14および対象物10の第1マーカ11を含む画像から、別の部材13に対する対象物10の所定位置(A)の相対的な3次元座標を検知する。 In addition, in the computer 2 of this embodiment, the control unit 4 executes a program to accept an image of the alignment marker 71, which is placed at a predetermined reference point (origin (O)) of the alignment member 7 and is captured by the fixed-position imaging device 3. Also, an image of the first marker 11, which is attached to the object 10 and is captured by the imaging device 3 when the predetermined position (A) of the object 10 is aligned with the predetermined reference point (origin (O)) of the alignment member 7, is accepted. Also, based on the accepted image including the alignment marker 71 and the accepted image including the first marker 11, information on the relative three-dimensional coordinates of the predetermined position (A) of the object 10 with respect to the position of the first marker 11 attached to the object 10 is obtained. In this case, the computer 2 captures an image of the alignment marker 71 attached to a predetermined reference point (origin (O)), and then captures an image of the first marker 11 with a predetermined position (A) of the object 10 aligned with the predetermined reference point (origin (O)), making it possible to perform calibration even with a narrow angle of view based on the three-dimensional coordinates. In addition, based on the acquired three-dimensional coordinates, the computer 2 detects the relative three-dimensional coordinates of the predetermined position (A) of the object 10 relative to the separate member 13 from the object 10, from an image including the second marker 14 attached to the separate member 13 from the object 10 and the first marker 11 of the object 10.

また、本実施の形態のコンピュータ2においては、制御部4がプログラムを実行することにより、位置合わせ部材7の所定の基準点(原点(O))に配置されている、位置固定の撮像装置3により撮像された位置合わせ用マーカ71の画像を受け付ける。また、位置合わせ部材7の所定の基準点(原点(O))に対象物10の所定位置(A)が合わせられているときの、対象物10に取り付けられている、撮像装置3により撮像された第1マーカ11の画像を受け付ける。また、受け付けた位置合わせ用マーカ71を含む画像および受け付けた第1マーカ11を含む画像に基づいて、対象物10に取り付けられている第1マーカ11に対する対象物10の所定位置(A)の相対的な3次元方向ベクトルの情報を取得する。この場合、コンピュータ2は、所定の基準点(原点(O))に取り付けられた位置合わせ用マーカ71を撮像後、所定の基準点(原点(O))に、対象物10の所定位置(A)を合わせた状態における第1マーカ11を撮像し、かつ、3次元方向ベクトルに基づいてキャリブレーションするため、狭い画角、かつ、3次元方向に焦点を当ててキャリブレーションすることができる。また、取得された3次元方向ベクトルに基づいて、対象物10とは別の部材13に取り付けられている第2マーカ14および対象物10に取り付けられている第1マーカ11を含む画像から、別の部材13に対する第1マーカ11から所定位置(A)への方向の相対的な3次元方向ベクトルを検知する。 In addition, in the computer 2 of this embodiment, the control unit 4 executes a program to accept an image of the alignment marker 71, which is placed at a predetermined reference point (origin (O)) of the alignment member 7 and is captured by the fixed-position imaging device 3. Also, an image of the first marker 11, which is attached to the object 10 and is captured by the imaging device 3 when the predetermined position (A) of the object 10 is aligned with the predetermined reference point (origin (O)) of the alignment member 7, is accepted. Also, based on the image including the accepted alignment marker 71 and the image including the accepted first marker 11, information on the relative three-dimensional direction vector of the predetermined position (A) of the object 10 with respect to the first marker 11 attached to the object 10 is obtained. In this case, the computer 2 captures an image of the alignment marker 71 attached to a predetermined reference point (origin (O)), then captures an image of the first marker 11 with a predetermined position (A) of the object 10 aligned with the predetermined reference point (origin (O)), and performs calibration based on the three-dimensional direction vector, so that calibration can be performed with a narrow angle of view and focusing on the three-dimensional direction. In addition, based on the acquired three-dimensional direction vector, a relative three-dimensional direction vector of the direction from the first marker 11 to the predetermined position (A) with respect to the separate member 13 is detected from an image including the second marker 14 attached to a separate member 13 from the object 10 and the first marker 11 attached to the object 10.

また、本実施の形態のコンピュータ2においては、制御部4がプログラムを実行することにより、位置合わせ部材7の所定の基準点(原点(O))に配置されている、位置固定の撮像装置3により撮像された位置合わせ用マーカ71の画像を受け付ける。また、位置合わせ部材7の所定の基準点(原点(O))に対象物10の所定位置(A)が合わせられているときの、対象物10に取り付けられている、撮像装置3により撮像された第1マーカ11の画像を受け付ける。また、受け付けた位置合わせ用マーカ71を含む画像および受け付けた第1マーカ11を含む画像に基づいて、対象物10に取り付けられている第1マーカ11の位置に対する対象物10の所定位置(A)の相対的な3次元座標の情報および第1マーカ11に対する対象物10の所定位置(A)の相対的な3次元方向ベクトルの情報を取得する。この場合、コンピュータ2は、所定の基準点(原点(O))に取り付けられた位置合わせ用マーカ71を撮像後、所定の基準点(原点(O))に、対象物10の所定位置(A)を合わせた状態における第1マーカ11を撮像し、かつ、3次元座標および3次元方向ベクトルに基づいてキャリブレーションするため、狭い画角、かつ、3次元座標および3次元方向を組み合わせてキャリブレーションすることができる。また、取得された3次元座標および3次元方向ベクトルに基づいて、対象物10とは別の部材13に取り付けられている第2マーカ14および対象物10に取り付けられている第1マーカ11を含む画像から、別の部材13に対する対象物10の所定位置(A)の相対的な3次元座標と、別の部材13に対する第1マーカ11から所定位置(A)への方向の相対的な3次元方向ベクトルとを検知する。 In addition, in the computer 2 of this embodiment, the control unit 4 executes a program to receive an image of the alignment marker 71, which is placed at a predetermined reference point (origin (O)) of the alignment member 7 and is captured by the fixed-position imaging device 3. Also, an image of the first marker 11, which is attached to the object 10 and captured by the imaging device 3 when the predetermined position (A) of the object 10 is aligned with the predetermined reference point (origin (O)) of the alignment member 7, is received. Also, based on the image including the received alignment marker 71 and the image including the received first marker 11, information on the relative three-dimensional coordinates of the predetermined position (A) of the object 10 with respect to the position of the first marker 11 attached to the object 10 and information on the relative three-dimensional direction vector of the predetermined position (A) of the object 10 with respect to the first marker 11 are obtained. In this case, the computer 2 captures an image of the alignment marker 71 attached to a predetermined reference point (origin (O)), then captures an image of the first marker 11 in a state where a predetermined position (A) of the object 10 is aligned with the predetermined reference point (origin (O)), and performs calibration based on the three-dimensional coordinates and three-dimensional direction vectors. This allows for calibration with a narrow angle of view and a combination of three-dimensional coordinates and three-dimensional directions. In addition, based on the acquired three-dimensional coordinates and three-dimensional direction vectors, the computer 2 detects the relative three-dimensional coordinates of the predetermined position (A) of the object 10 relative to the other member 13 and the relative three-dimensional direction vector of the direction from the first marker 11 to the predetermined position (A) relative to the other member 13 from an image including the second marker 14 attached to the other member 13 and the first marker 11 attached to the object 10.

また、本実施の形態のコンピュータ2においては、制御部4がプログラムを実行することにより、対象物101の所定位置(B)に位置合わせ用マーカ12が配置されたときの、対象物101に取り付けられている第1マーカ11および位置合わせ用マーカ12の画像を受け付ける。また、受け付けた位置合わせ用マーカ12および第1マーカ11を含む画像に基づいて、対象物101に取り付けられている第1マーカ11の位置に対する対象物101の所定位置(B)の相対的な3次元座標の情報を取得する。この場合、コンピュータ2は、第1マーカ11をm1座標系およびm2座標系と同じ座標系として扱うことにより、3次元座標に基づいてキャリブレーションするため、狭い画角、かつ、3次元座標によりm1座標系におけるm2座標系の位置姿勢を求めてキャリブレーションすることができる。また、取得された3次元座標に基づいて、対象物101とは別の部材13に取り付けられている第2マーカ14および対象物101の第1マーカ11を含む画像から、別の部材13に対する対象物101の所定位置(B)の相対的な3次元座標を検知する。 In addition, in the computer 2 of this embodiment, the control unit 4 executes a program to receive images of the first marker 11 and the alignment marker 12 attached to the object 101 when the alignment marker 12 is placed at a predetermined position (B) of the object 101. Based on the received image including the alignment marker 12 and the first marker 11, information on the relative three-dimensional coordinates of the predetermined position (B) of the object 101 with respect to the position of the first marker 11 attached to the object 101 is obtained. In this case, the computer 2 treats the first marker 11 as the same coordinate system as the m1 coordinate system and the m2 coordinate system, and performs calibration based on three-dimensional coordinates, so that it is possible to obtain the position and orientation of the m2 coordinate system in the m1 coordinate system with a narrow angle of view and three-dimensional coordinates. In addition, based on the acquired three-dimensional coordinates, the relative three-dimensional coordinates of a predetermined position (B) of the object 101 with respect to the separate member 13 are detected from an image including the second marker 14 attached to the separate member 13 from the object 101 and the first marker 11 of the object 101.

また、本実施の形態のコンピュータ2においては、制御部4がプログラムを実行することにより、対象物101の所定位置(B)に位置合わせ用マーカ12が配置されたときの、対象物101に取り付けられている第1マーカ11および位置合わせ用マーカ12の画像を受け付ける。また、受け付けた位置合わせ用マーカ12および第1マーカ11を含む画像に基づいて、所定位置(B)から第1マーカ11に直交するよう延びる所定方向の3次元方向ベクトルの情報を取得する。この場合、コンピュータ2は、第1マーカ11をm1座標系およびm2座標系と同じ座標系として扱うことにより、3次元方向ベクトルに基づいてキャリブレーションすることができる。また、取得された3次元方向ベクトルに基づいて、対象物101とは別の部材13に取り付けられている第2マーカ14および対象物101の第1マーカ11を含む画像から、別の部材13に対する所定方向の相対的な3次元方向ベクトルを検知する。 In addition, in the computer 2 of this embodiment, the control unit 4 executes a program to receive an image of the first marker 11 and the alignment marker 12 attached to the object 101 when the alignment marker 12 is placed at a predetermined position (B) on the object 101. Based on the received image including the alignment marker 12 and the first marker 11, information on a three-dimensional direction vector in a predetermined direction extending perpendicularly from the predetermined position (B) to the first marker 11 is acquired. In this case, the computer 2 can perform calibration based on the three-dimensional direction vector by treating the first marker 11 as the same coordinate system as the m1 coordinate system and the m2 coordinate system. Based on the acquired three-dimensional direction vector, a relative three-dimensional direction vector in a predetermined direction with respect to the other member 13 is detected from an image including the second marker 14 attached to the other member 13 from the object 101 and the first marker 11 of the object 101.

また、本実施の形態のコンピュータ2においては、制御部4がプログラムを実行することにより、対象物101の所定位置(B)に位置合わせ用マーカ12が配置されたときの、対象物101に取り付けられている第1マーカ11および位置合わせ用マーカ12の画像を受け付ける。また、受け付けた位置合わせ用マーカ12および第1マーカ11を含む画像に基づいて、対象物101に取り付けられている第1マーカ11の位置に対する対象物101の所定位置(B)の相対的な3次元座標の情報および所定位置(B)から第1マーカ11に直交するよう延びる所定方向の3次元方向ベクトルの情報を取得する。この場合、コンピュータ2は、第1マーカ11をm1座標系およびm2座標系と同じ座標系として扱うことにより、3次元座標および3次元方向ベクトルに基づいてキャリブレーションすることができる。また、取得された3次元座標および3次元方向ベクトルに基づいて、対象物101とは別の部材13に取り付けられている第2マーカ14および対象物101の第1マーカ11を含む画像から、別の部材13に対する対象物101の所定位置(B)の相対的な3次元座標と、別の部材13に対する所定方向の相対的な3次元方向ベクトルとを検知する。 In addition, in the computer 2 of this embodiment, the control unit 4 executes a program to receive images of the first marker 11 and the alignment marker 12 attached to the object 101 when the alignment marker 12 is placed at a predetermined position (B) of the object 101. Based on the received image including the alignment marker 12 and the first marker 11, information on the relative three-dimensional coordinates of the predetermined position (B) of the object 101 with respect to the position of the first marker 11 attached to the object 101 and information on a three-dimensional direction vector of a predetermined direction extending from the predetermined position (B) so as to be perpendicular to the first marker 11 are obtained. In this case, the computer 2 can perform calibration based on the three-dimensional coordinates and the three-dimensional direction vector by treating the first marker 11 as the same coordinate system as the m1 coordinate system and the m2 coordinate system. In addition, based on the acquired three-dimensional coordinates and three-dimensional direction vector, the system detects the relative three-dimensional coordinates of a predetermined position (B) of the object 101 relative to the separate member 13 and the relative three-dimensional direction vector in a predetermined direction relative to the separate member 13 from an image including the second marker 14 attached to the separate member 13 and the first marker 11 of the object 101.

また、本実施の形態のコンピュータ2においては、制御部4がプログラムを実行することにより、第1対象物111の第1所定位置に第1位置合わせ用マーカ15が配置されたときの、第1対象物111に取り付けられている第1位置合わせ用マーカ15の画像を受け付ける。また、受け付けた第1位置合わせ用マーカ15を含む画像に基づいて、第1対象物111に取り付けられている第1対象物111の第1所定位置の相対的な3次元座標の情報および第1所定位置から第1位置合わせ用マーカ15に直交するよう延びる第1所定方向の3次元方向ベクトルの情報を取得する。また、第2対象物112の第2所定位置に第2位置合わせ用マーカ16が配置されたときの、第2対象物112に取り付けられている第2位置合わせ用マーカ16の画像を受け付ける。また、受け付けた第2位置合わせ用マーカ16を含む画像に基づいて、第2対象物112に取り付けられている第2対象物112の第2所定位置の相対的な3次元座標の情報および第2所定位置から第2位置合わせ用マーカ16に直交するよう延びる第2所定方向の3次元方向ベクトルの情報を取得する。また、第1対象物111の第1位置合わせ用マーカ15および第2対象物112の第2位置合わせ用マーカ16を含む画像を受け付けると、受け付けた第1位置合わせ用マーカ15および第2位置合わせ用マーカ16を含む画像から、第2対象物112の第2所定位置に対する第1対象物111の第1所定位置の相対的な3次元座標および第2対象物112の第2所定方向に対する第1対象物111の第1所定方向の相対的な3次元方向ベクトルを検知する。この場合、コンピュータ2は、第1対象物111および第2対象物112が重なって撮像装置3により死角が存在しても、位置合わせを行うことができ、位置合わせ箇所における位置差、傾き差を計測することができる。 In addition, in the computer 2 of this embodiment, the control unit 4 executes a program to receive an image of the first alignment marker 15 attached to the first object 111 when the first alignment marker 15 is placed at the first predetermined position of the first object 111. Based on the received image including the first alignment marker 15, information on the relative three-dimensional coordinates of the first predetermined position of the first object 111 attached to the first object 111 and information on the three-dimensional direction vector of the first predetermined direction extending from the first predetermined position perpendicular to the first alignment marker 15 are obtained. In addition, an image of the second alignment marker 16 attached to the second object 112 when the second alignment marker 16 is placed at the second predetermined position of the second object 112 is received. Furthermore, based on the received image including the second alignment marker 16, information on the relative three-dimensional coordinates of the second predetermined position of the second object 112 attached to the second object 112 and information on a three-dimensional direction vector of a second predetermined direction extending from the second predetermined position perpendicularly to the second alignment marker 16 are acquired. Furthermore, when an image including the first alignment marker 15 of the first object 111 and the second alignment marker 16 of the second object 112 is received, the relative three-dimensional coordinates of the first predetermined position of the first object 111 with respect to the second predetermined position of the second object 112 and the relative three-dimensional direction vector of the first predetermined direction of the first object 111 with respect to the second predetermined direction of the second object 112 are detected from the received image including the first alignment marker 15 and the second alignment marker 16. In this case, even if the first object 111 and the second object 112 overlap and there is a blind spot for the imaging device 3, the computer 2 can perform alignment and measure the position difference and tilt difference at the alignment point.

本実施の形態におけるコンピュータ2においても、予め対象物10の所定位置(A)の3次元座標や3次元方向ベクトルの情報は取得されていてもよい。例えば、本実施の形態におけるコンピュータ2は、制御部4がプログラムを実行することにより、対象物10に取り付けられている第1マーカ11の位置に対する対象物10の所定位置(A)の相対的な3次元座標の情報を取得する。また、取得された3次元座標に基づいて、対象物10とは別の部材13に取り付けられている第2マーカ14および対象物10の第1マーカ11を含む画像から、別の部材13に対する対象物10の所定位置(A)の相対的な3次元座標を検知してもよい。この場合、予め取得された対象物10における所定位置(A)の3次元座標の情報を用いることができる。 In the computer 2 in this embodiment, the three-dimensional coordinates and three-dimensional direction vector information of the predetermined position (A) of the object 10 may be acquired in advance. For example, the computer 2 in this embodiment acquires information on the relative three-dimensional coordinates of the predetermined position (A) of the object 10 with respect to the position of the first marker 11 attached to the object 10 by the control unit 4 executing a program. In addition, based on the acquired three-dimensional coordinates, the relative three-dimensional coordinates of the predetermined position (A) of the object 10 with respect to another member 13 may be detected from an image including the second marker 14 attached to a member 13 other than the object 10 and the first marker 11 of the object 10. In this case, the information on the three-dimensional coordinates of the predetermined position (A) of the object 10 acquired in advance can be used.

また、例えば、本実施の形態におけるコンピュータ2は、制御部4がプログラムを実行することにより、対象物10に取り付けられている第1マーカ11に対する対象物10の所定位置(A)の相対的な3次元方向ベクトルの情報を取得する、また、取得された3次元座標に基づいて、対象物10とは別の部材13に取り付けられている第2マーカ14および対象物10の第1マーカ11を含む画像から、別の部材13に対する対象物10の所定位置(A)の相対的な3次元座標を検知してもよい。この場合、予め取得された対象物10における所定位置(A)の3次元方向ベクトルの情報を用いることができる。 In addition, for example, the computer 2 in this embodiment may acquire information on a relative three-dimensional direction vector of a predetermined position (A) of the object 10 with respect to a first marker 11 attached to the object 10 by executing a program with the control unit 4, and may also detect the relative three-dimensional coordinates of the predetermined position (A) of the object 10 with respect to another member 13 from an image including a second marker 14 attached to a member 13 other than the object 10 and the first marker 11 of the object 10 based on the acquired three-dimensional coordinates. In this case, information on the three-dimensional direction vector of the predetermined position (A) on the object 10 acquired in advance may be used.

また、例えば、本実施の形態におけるコンピュータ2は、制御部4がプログラムを実行することにより、対象物10に取り付けられている第1マーカ11の位置に対する対象物10の所定位置(A)の相対的な3次元座標の情報を取得するとともに第1マーカ11に対する対象物10の3次元方向ベクトルの情報を取得する。また、取得された3次元座標および3次元方向ベクトルに基づいて、第1マーカ11および第2マーカ14を含む画像から、別の部材13に対する対象物10の所定位置(A)の相対的な3次元座標と、別の部材13に対する第1マーカ11から所定位置(A)への方向の相対的な3次元方向ベクトルとを検知してもよい。この場合、予め取得された対象物10における所定位置(A)の3次元座標および3次元方向ベクトルの情報を用いることができる。 In addition, for example, the computer 2 in this embodiment acquires information on the relative three-dimensional coordinates of a predetermined position (A) of the object 10 with respect to the position of the first marker 11 attached to the object 10, and acquires information on a three-dimensional direction vector of the object 10 with respect to the first marker 11, by having the control unit 4 execute a program. In addition, based on the acquired three-dimensional coordinates and three-dimensional direction vector, the computer 2 may detect the relative three-dimensional coordinates of the predetermined position (A) of the object 10 with respect to another member 13 and the relative three-dimensional direction vector of the direction from the first marker 11 to the predetermined position (A) with respect to the other member 13 from an image including the first marker 11 and the second marker 14. In this case, information on the three-dimensional coordinates and three-dimensional direction vector of the predetermined position (A) on the object 10 acquired in advance can be used.

また、本実施の形態に係る検知方法およびコンピュータ2は、図8に示すように、対象物10を例えば溶接ロボットの一部として扱う場合に、位置合わせ用マーカ71および第1マーカ11を撮像装置3で撮像することにより、溶接ロボットが正確な位置に作動しているか否かを測定することができる。この場合、位置だけではなく、溶接する角度も計測可能な部材にARマーカを取り付けることにより、所定位置に部品が載置されているのか、その部品に対する溶接ポイントも把握することができる。 In addition, as shown in FIG. 8, when the target object 10 is treated as, for example, a part of a welding robot, the detection method and computer 2 according to this embodiment can measure whether the welding robot is operating in the correct position by capturing images of the alignment marker 71 and the first marker 11 with the imaging device 3. In this case, by attaching an AR marker to a component that can measure not only the position but also the welding angle, it is possible to determine whether the part is placed in the specified position and the welding point for that part.

また、本実施の形態に係る検知方法およびコンピュータ2を用いることにより、図9に示すように、例えば、砂防現場において地すべり等による地表のずれを測定することができる。このとき、固定された撮像装置3によって、地表に設置され、かつ、第1マーカ11が取り付けられた対象物10を経時的に撮像し、地表の移動の前後における第1マーカ11を撮像する。この場合には、地表とその移動量、および移動方向も把握することができる。 In addition, by using the detection method and computer 2 according to this embodiment, as shown in FIG. 9, it is possible to measure the displacement of the ground surface due to a landslide or the like at an erosion control site. At this time, a fixed imaging device 3 captures images of an object 10 installed on the ground surface and having a first marker 11 attached thereto over time, and captures images of the first marker 11 before and after the ground surface moves. In this case, it is also possible to grasp the ground surface, the amount of movement, and the direction of movement.

また、本実施の形態に係る検知方法およびコンピュータ2を用いることにより、図10に示すように、3次元空間上において描画を行うこともできる。このとき、例えば、描画の際の対象物10の持ち手部分ではない一端部分に直方体状のマーカを取り付ける。まず、アライメント処理においては、本実施の形態に係るキャリブレーション処理から、を算出しておく。そして、m1m1 -1 からm1m1 -1 m2m2を導くことにより、m1のtの量は仮想平面から点Aまでの垂直距離となり、tが閾値以下のときの点Aの座標系において描画をすることができる。そのため、位置合わせ用マーカ71を用いて生成した仮想平面から点Aまでの長さを計測することにより、両者の接触を規定することができる。 Moreover, by using the detection method and computer 2 according to this embodiment, it is also possible to perform drawing in a three-dimensional space as shown in FIG. 10. At this time, for example, a rectangular parallelepiped marker is attached to one end portion of the object 10 that is not the handle portion when drawing. First, in the alignment process, c H A is calculated from the calibration process according to this embodiment. Then, by deriving m1 H A = c H m1 -1 c H m2m2 H A from m1 H A = c H m1 -1 c H m2m2 H A , the amount of t z of m1 H A becomes the vertical distance from the virtual plane to point A, and drawing can be performed in the coordinate system of point A when t z is equal to or less than the threshold value. Therefore, by measuring the length from the virtual plane generated using the alignment marker 71 to point A, the contact between the two can be specified.

また、図11に示すように、対象物10をレーザポインタとして用いることもできる。この場合、m1m2m1 -1 m2を演算することにより、まず、m1座標系を基準にした場合における、第1マーカ11の位置および傾きを求める。ここで、対象物10に対して第1マーカ11を中心軸に配置することができているのであれば、アライメントは不要となる。そして、第1マーカ11のZ軸方向をレーザの向きとして扱うことができる。 Also, as shown in Fig. 11, the target object 10 can be used as a laser pointer. In this case, by calculating m1 H m2 = c H m1 - 1 c H m2 , the position and inclination of the first marker 11 are first obtained when the m1 coordinate system is used as a reference. Here, if the first marker 11 can be placed on the central axis with respect to the target object 10, alignment is not required. Then, the Z-axis direction of the first marker 11 can be treated as the direction of the laser.

1 位置検知システム
2 コンピュータ
3 撮像装置
4 制御部
5 記憶部
6 通信部
7 位置合わせ部材
10 対象物
11 第1マーカ
12 位置合わせ用マーカ
13 別の部材
14 第2マーカ
15 第1位置合わせ用マーカ
16 第2位置合わせ用マーカ
41 受付手段
42 算出手段
43 検知手段
71 位置合わせ用マーカ
101 対象物
111 第1対象物
112 第2対象物
Reference Signs List 1 Position detection system 2 Computer 3 Imaging device 4 Control unit 5 Memory unit 6 Communication unit 7 Alignment member 10 Object 11 First marker 12 Alignment marker 13 Another member 14 Second marker 15 First alignment marker 16 Second alignment marker 41 Acceptance means 42 Calculation means 43 Detection means 71 Alignment marker 101 Object 111 First object 112 Second object

Claims (28)

第1マーカが取り付けられている対象物の所定位置を検知するための検知方法であって、
前記対象物の前記所定位置を、位置合わせ用マーカが配置されている位置合わせ部材の所定の基準点に合わせる工程と、
前記位置合わせ部材に配置されている前記位置合わせ用マーカおよび前記第1マーカを撮像する工程と、
撮像された前記位置合わせ用マーカおよび前記第1マーカを含む画像に基づいて、前記対象物に取り付けられている前記第1マーカの位置に対する前記対象物の前記所定位置の相対的な3次元座標の情報を取得する工程と、
前記対象物とは別の部材に取り付けられている第2マーカおよび前記対象物の前記第1マーカを撮像することにより、取得された前記3次元座標に基づいて、撮像された前記第1マーカおよび前記第2マーカを含む画像から、前記別の部材に対する前記対象物の前記所定位置の相対的な3次元座標を検知する工程と、
を備えた、検知方法。
1. A method for detecting a predetermined position of an object having a first marker attached thereto, comprising:
aligning the predetermined position of the object with a predetermined reference point of an alignment member on which an alignment marker is arranged;
capturing an image of the alignment marker and the first marker disposed on the alignment member;
acquiring information on three-dimensional coordinates of the predetermined position of the object relative to a position of the first marker attached to the object based on an image including the alignment marker and the first marker that has been captured;
a step of capturing an image of a second marker attached to a member other than the object and the first marker of the object, and detecting, based on the acquired three-dimensional coordinates, from an image including the captured first marker and the captured second marker, a relative three-dimensional coordinate of the predetermined position of the object with respect to the separate member;
The detection method comprises:
第1マーカが取り付けられている対象物の所定位置への方向を検知するための検知方法であって、
前記対象物の前記所定位置を、位置合わせ用マーカが配置されている位置合わせ部材の所定の基準点に合わせる工程と、
前記位置合わせ部材に配置されている前記位置合わせ用マーカおよび前記第1マーカを撮像する工程と、
撮像された前記位置合わせ用マーカおよび前記第1マーカを含む画像に基づいて、前記対象物に取り付けられている前記第1マーカに対する前記対象物の前記所定位置の相対的な3次元方向ベクトルの情報を取得する工程と、
前記対象物とは別の部材に取り付けられている第2マーカおよび前記対象物の前記第1マーカを撮像することにより、取得された前記3次元方向ベクトルに基づいて、撮像された前記第1マーカおよび前記第2マーカを含む画像から、前記別の部材に対する前記第1マーカから前記所定位置への方向の相対的な3次元方向ベクトルを検知する工程と、
を備えた、検知方法。
1. A method for detecting a direction of an object having a first marker attached thereto to a predetermined position, comprising:
aligning the predetermined position of the object with a predetermined reference point of an alignment member on which an alignment marker is arranged;
capturing an image of the alignment marker and the first marker disposed on the alignment member;
acquiring information on a relative three-dimensional direction vector of the predetermined position of the object with respect to the first marker attached to the object based on an image including the captured alignment marker and the first marker;
detecting a relative three-dimensional direction vector of a direction from the first marker to the predetermined position with respect to the other member from an image including the captured first marker and the second marker based on the acquired three-dimensional direction vector by capturing an image of the first marker and the second marker attached to a member other than the object;
The detection method comprises:
第1マーカが取り付けられている対象物の所定位置および所定位置への方向を検知するための検知方法であって、
前記対象物の前記所定位置を、位置合わせ用マーカが配置されている位置合わせ部材の所定の基準点に合わせる工程と、
前記位置合わせ部材に配置されている前記位置合わせ用マーカおよび前記第1マーカを撮像する工程と、
撮像された前記位置合わせ用マーカおよび前記第1マーカを含む画像に基づいて、前記対象物に取り付けられている前記第1マーカの位置に対する前記対象物の前記所定位置の相対的な3次元座標の情報を取得するとともに前記第1マーカに対する前記対象物の3次元方向ベクトルの情報を取得する工程と、
前記対象物とは別の部材に取り付けられている第2マーカおよび前記対象物の前記第1マーカを撮像することにより、取得された前記3次元座標および前記3次元方向ベクトルに基づいて、撮像された前記第1マーカおよび前記第2マーカを含む画像から、前記別の部材に対する前記対象物の前記所定位置の相対的な3次元座標と、前記別の部材に対する前記第1マーカから前記所定位置への方向の相対的な3次元方向ベクトルとを検知する工程と、
を備えた、検知方法。
1. A method for detecting a predetermined position and a direction to the predetermined position of an object having a first marker attached thereto, comprising:
aligning the predetermined position of the object with a predetermined reference point of an alignment member on which an alignment marker is arranged;
capturing an image of the alignment marker and the first marker disposed on the alignment member;
acquiring information on three-dimensional coordinates of the predetermined position of the object relative to a position of the first marker attached to the object, based on an image including the captured alignment marker and the first marker, and acquiring information on a three-dimensional direction vector of the object relative to the first marker;
a step of capturing an image of a second marker attached to a member other than the object and the first marker of the object, and detecting, based on the acquired three-dimensional coordinates and the three-dimensional direction vector, from an image including the captured first marker and the second marker, a relative three-dimensional coordinate of the predetermined position of the object with respect to the other member and a relative three-dimensional direction vector of a direction from the first marker to the predetermined position with respect to the other member;
The detection method comprises:
前記位置合わせ部材は平面を有しており、前記平面に所定の基準点が形成されているとともに前記位置合わせ用マーカが配置されている、請求項1乃至3のいずれか一項に記載の検知方法。 The detection method according to any one of claims 1 to 3, wherein the alignment member has a flat surface, a predetermined reference point is formed on the flat surface, and the alignment marker is disposed on the flat surface. 第1マーカが取り付けられている対象物の所定位置を検知するための検知方法であって、
位置合わせ部材の所定の基準点に位置合わせ用マーカを配置し、位置固定の撮像装置により前記位置合わせ用マーカを撮像する工程と、
前記対象物の前記所定位置を、前記位置合わせ部材の所定の前記基準点に合わせ、前記撮像装置により前記第1マーカを撮像する工程と、
撮像された前記位置合わせ用マーカを含む画像および撮像された前記第1マーカを含む画像に基づいて、前記対象物に取り付けられている前記第1マーカの位置に対する前記対象物の前記所定位置の相対的な3次元座標の情報を取得する工程と、
前記対象物とは別の部材に取り付けられている第2マーカおよび前記対象物の前記第1マーカを撮像することにより、取得された前記3次元座標に基づいて、撮像された前記第1マーカおよび前記第2マーカを含む画像から、前記別の部材に対する前記対象物の前記所定位置の相対的な3次元座標を検知する工程と、
を備えた、検知方法。
1. A method for detecting a predetermined position of an object having a first marker attached thereto, comprising:
A step of placing an alignment marker at a predetermined reference point of the alignment member and capturing an image of the alignment marker by an imaging device having a fixed position;
aligning the predetermined position of the object with the predetermined reference point of the alignment member, and capturing an image of the first marker by the imaging device;
acquiring information on three-dimensional coordinates of the predetermined position of the object relative to a position of the first marker attached to the object, based on an image including the alignment marker and an image including the first marker;
a step of capturing an image of a second marker attached to a member other than the object and the first marker of the object, and detecting, based on the acquired three-dimensional coordinates, from an image including the captured first marker and the captured second marker, a relative three-dimensional coordinate of the predetermined position of the object with respect to the separate member;
The detection method comprises:
第1マーカが取り付けられている対象物の所定位置への方向を検知するための検知方法であって、
位置合わせ部材の所定の基準点に位置合わせ用マーカを配置し、位置固定の撮像装置により前記位置合わせ用マーカを撮像する工程と、
前記対象物の前記所定位置を、前記位置合わせ部材の所定の前記基準点に合わせ、前記撮像装置により前記第1マーカを撮像する工程と、
撮像された前記位置合わせ用マーカを含む画像および撮像された前記第1マーカを含む画像に基づいて、前記対象物に取り付けられている前記第1マーカに対する前記対象物の前記所定位置の相対的な3次元方向ベクトルの情報を取得する工程と、
前記対象物とは別の部材に取り付けられている第2マーカおよび前記対象物の前記第1マーカを撮像することにより、取得された前記3次元方向ベクトルに基づいて、撮像された前記第1マーカおよび前記第2マーカを含む画像から、前記別の部材に対する前記第1マーカから前記所定位置への方向の相対的な3次元方向ベクトルを検知する工程と、
を備えた、検知方法。
1. A method for detecting a direction of an object having a first marker attached thereto to a predetermined position, comprising:
A step of placing an alignment marker at a predetermined reference point of the alignment member and capturing an image of the alignment marker by an imaging device having a fixed position;
aligning the predetermined position of the object with the predetermined reference point of the alignment member, and capturing an image of the first marker by the imaging device;
acquiring information on a relative three-dimensional direction vector of the predetermined position of the object with respect to the first marker attached to the object based on an image including the alignment marker and an image including the first marker;
detecting a relative three-dimensional direction vector of a direction from the first marker to the predetermined position with respect to the other member from an image including the captured first marker and the second marker based on the acquired three-dimensional direction vector by capturing an image of the first marker and the second marker attached to a member other than the object;
The detection method comprises:
第1マーカが取り付けられている対象物の所定位置および所定位置への方向を検知するための検知方法であって、
位置合わせ部材の所定の基準点に位置合わせ用マーカを配置し、位置固定の撮像装置により前記位置合わせ用マーカを撮像する工程と、
前記対象物の前記所定位置を、前記位置合わせ部材の所定の前記基準点に合わせ、前記撮像装置により前記第1マーカを撮像する工程と、
撮像された前記位置合わせ用マーカを含む画像および撮像された前記第1マーカを含む画像に基づいて、前記対象物に取り付けられている前記第1マーカの位置に対する前記対象物の前記所定位置の相対的な3次元座標の情報および前記第1マーカに対する前記対象物の前記所定位置の相対的な3次元方向ベクトルの情報を取得する工程と、
前記対象物とは別の部材に取り付けられている第2マーカおよび前記対象物の前記第1マーカを撮像することにより、取得された前記3次元座標および前記3次元方向ベクトルに基づいて、撮像された前記第1マーカおよび前記第2マーカを含む画像から、前記別の部材に対する前記対象物の前記所定位置の相対的な3次元座標と、前記別の部材に対する前記第1マーカから前記所定位置への方向の相対的な3次元方向ベクトルとを検知する工程と、
を備えた、検知方法。
1. A method for detecting a predetermined position and a direction to the predetermined position of an object having a first marker attached thereto, comprising:
A step of placing an alignment marker at a predetermined reference point of the alignment member and capturing an image of the alignment marker by an imaging device having a fixed position;
aligning the predetermined position of the object with the predetermined reference point of the alignment member, and capturing an image of the first marker by the imaging device;
acquiring information on three-dimensional coordinates of the predetermined position of the object relative to a position of the first marker attached to the object and information on a three-dimensional direction vector of the predetermined position of the object relative to the first marker, based on an image including the captured alignment marker and an image including the captured first marker;
a step of capturing an image of a second marker attached to a member other than the object and the first marker of the object, and detecting, based on the acquired three-dimensional coordinates and the three-dimensional direction vector, from an image including the captured first marker and the second marker, a relative three-dimensional coordinate of the predetermined position of the object with respect to the other member and a relative three-dimensional direction vector of a direction from the first marker to the predetermined position with respect to the other member;
The detection method comprises:
前記位置合わせ部材の前記基準点には凹部が形成されており、前記対象物の前記所定位置の部分を前記凹部に入れることにより前記対象物の前記所定位置を前記基準点に合わせる、請求項1乃至3および5乃至7のうちいずれか一項に記載の検知方法。 The detection method according to any one of claims 1 to 3 and 5 to 7, in which a recess is formed at the reference point of the alignment member, and the predetermined position of the object is aligned with the reference point by inserting a portion of the object at the predetermined position into the recess. 第1マーカが取り付けられている対象物の所定位置に位置合わせ用マーカを配置し、前記第1マーカおよび前記位置合わせ用マーカを撮像する工程と、
撮像された前記位置合わせ用マーカおよび前記第1マーカを含む画像に基づいて、前記対象物に取り付けられている前記第1マーカの位置に対する前記対象物の前記所定位置の相対的な3次元座標の情報を取得する工程と、
前記対象物とは別の部材に取り付けられている第2マーカおよび前記対象物の前記第1マーカを撮像することにより、取得された前記3次元座標に基づいて、撮像された前記第1マーカおよび前記第2マーカを含む画像から、前記別の部材に対する前記対象物の前記所定位置の相対的な3次元座標を検知する工程と、
を備えた、検知方法。
placing an alignment marker at a predetermined position of the object to which the first marker is attached, and capturing an image of the first marker and the alignment marker;
acquiring information on three-dimensional coordinates of the predetermined position of the object relative to a position of the first marker attached to the object based on an image including the alignment marker and the first marker that has been captured;
a step of capturing an image of a second marker attached to a member other than the object and the first marker of the object, and detecting, based on the acquired three-dimensional coordinates, from an image including the captured first marker and the captured second marker, a relative three-dimensional coordinate of the predetermined position of the object with respect to the separate member;
The detection method comprises:
第1マーカが取り付けられている対象物の所定位置に位置合わせ用マーカを配置し、前記第1マーカおよび前記位置合わせ用マーカを撮像する工程と、
撮像された前記位置合わせ用マーカおよび前記第1マーカを含む画像に基づいて、前記所定位置から前記第1マーカに直交するよう延びる所定方向の3次元方向ベクトルの情報を取得する工程と、
前記対象物とは別の部材に取り付けられている第2マーカおよび前記対象物の前記第1マーカを撮像することにより、取得された前記3次元方向ベクトルに基づいて、撮像された前記第1マーカおよび前記第2マーカを含む画像から、前記別の部材に対する前記所定方向の相対的な3次元方向ベクトルを検知する工程と、
を備えた、検知方法。
placing an alignment marker at a predetermined position of the object to which the first marker is attached, and capturing an image of the first marker and the alignment marker;
acquiring information on a three-dimensional direction vector in a predetermined direction extending from the predetermined position perpendicularly to the first marker based on an image including the alignment marker and the first marker that has been captured;
a step of capturing an image of a second marker attached to a member other than the object and the first marker of the object, and detecting a relative three-dimensional direction vector of the predetermined direction with respect to the other member from an image including the captured first marker and the captured second marker based on the acquired three-dimensional direction vector;
The detection method comprises:
第1マーカが取り付けられている対象物の所定位置に位置合わせ用マーカを配置し、前記第1マーカおよび前記位置合わせ用マーカを撮像する工程と、
撮像された前記位置合わせ用マーカおよび前記第1マーカを含む画像に基づいて、前記対象物に取り付けられている前記第1マーカの位置に対する前記対象物の前記所定位置の相対的な3次元座標の情報および前記所定位置から前記第1マーカに直交するよう延びる所定方向の3次元方向ベクトルの情報を取得する工程と、
前記対象物とは別の部材に取り付けられている第2マーカおよび前記対象物の前記第1マーカを撮像することにより、取得された前記3次元座標および前記3次元方向ベクトルに基づいて、撮像された前記第1マーカおよび前記第2マーカを含む画像から、前記別の部材に対する前記対象物の前記所定位置の相対的な3次元座標と、前記別の部材に対する前記所定方向の相対的な3次元方向ベクトルとを検知する工程と、
を備えた、検知方法。
placing an alignment marker at a predetermined position of the object to which the first marker is attached, and capturing an image of the first marker and the alignment marker;
acquiring information on three-dimensional coordinates of the predetermined position of the object relative to a position of the first marker attached to the object based on an image including the captured alignment marker and the first marker, and information on a three-dimensional direction vector in a predetermined direction extending from the predetermined position perpendicular to the first marker;
a step of capturing an image of a second marker attached to a member other than the object and the first marker of the object, and detecting, based on the acquired three-dimensional coordinates and three-dimensional direction vector, from an image including the captured first marker and the captured second marker, a relative three-dimensional coordinate of the predetermined position of the object with respect to the other member and a relative three-dimensional direction vector of the predetermined direction with respect to the other member;
The detection method comprises:
第1マーカが取り付けられている第1対象物の第1所定位置に第1位置合わせ用マーカを配置し、前記第1マーカおよび前記第1位置合わせ用マーカを撮像する工程と、
撮像された前記第1位置合わせ用マーカおよび前記第1マーカを含む画像に基づいて、前記第1対象物に取り付けられている前記第1マーカの位置に対する前記第1対象物の前記第1所定位置の相対的な3次元座標の情報および前記第1所定位置から前記第1位置合わせ用マーカに直交するよう延びる第1所定方向の3次元方向ベクトルの情報を取得する工程と、
第2マーカが取り付けられている第2対象物の第2所定位置に第2位置合わせ用マーカを配置し、前記第2マーカおよび前記第2位置合わせ用マーカを撮像する工程と、
撮像された前記第2位置合わせ用マーカおよび前記第2マーカを含む画像に基づいて、前記第2対象物に取り付けられている前記第2マーカの位置に対する前記第2対象物の前記第2所定位置の相対的な3次元座標の情報および前記第2所定位置から前記第2位置合わせ用マーカに直交するよう延びる第2所定方向の3次元方向ベクトルの情報を取得する工程と、
前記第1対象物の前記第1マーカおよび前記第2対象物の前記第2マーカを撮像することにより、撮像された前記第1マーカおよび前記第2マーカを含む画像から、前記第2対象物の前記第2所定位置に対する前記第1対象物の前記第1所定位置の相対的な3次元座標および前記第2対象物の前記第2所定方向に対する前記第1対象物の前記第1所定方向の相対的な3次元方向ベクトルを検知する工程と、
を備えた、検知方法。
placing a first alignment marker at a first predetermined position of a first object to which a first marker is attached, and capturing an image of the first marker and the first alignment marker;
acquiring information on three-dimensional coordinates of the first predetermined position of the first object relative to a position of the first marker attached to the first object based on an image including the captured first alignment marker and the first marker, and information on a three-dimensional direction vector in a first predetermined direction extending from the first predetermined position perpendicularly to the first alignment marker;
placing a second alignment marker at a second predetermined position of a second object to which the second marker is attached, and capturing an image of the second marker and the second alignment marker;
acquiring information on three-dimensional coordinates of the second predetermined position of the second object relative to the position of the second marker attached to the second object based on an image including the captured second alignment marker and the second marker, and information on a three-dimensional direction vector of a second predetermined direction extending from the second predetermined position perpendicular to the second alignment marker;
capturing an image of the first marker of the first object and the second marker of the second object, and detecting, from an image including the captured first marker and the second marker, a relative three-dimensional coordinate of the first predetermined position of the first object with respect to the second predetermined position of the second object and a relative three-dimensional direction vector of the first predetermined direction of the first object with respect to the second predetermined direction of the second object;
The detection method comprises:
第1マーカが取り付けられている対象物の所定位置を検知するための検知方法であって、
前記対象物に取り付けられている前記第1マーカの位置に対する前記対象物の前記所定位置の相対的な3次元座標の情報を取得する工程と、
前記対象物とは別の部材に取り付けられている第2マーカおよび前記対象物の前記第1マーカを撮像することにより、取得された前記3次元座標に基づいて、撮像された前記第1マーカおよび前記第2マーカを含む画像から、前記別の部材に対する前記対象物の前記所定位置の相対的な3次元座標を検知する工程と、
を備えた、検知方法。
1. A method for detecting a predetermined position of an object having a first marker attached thereto, comprising:
acquiring information on three-dimensional coordinates of the predetermined position of the object relative to a position of the first marker attached to the object;
a step of capturing an image of a second marker attached to a member other than the object and the first marker of the object, and detecting, based on the acquired three-dimensional coordinates, from an image including the captured first marker and the captured second marker, a relative three-dimensional coordinate of the predetermined position of the object with respect to the separate member;
The detection method comprises:
第1マーカが取り付けられている対象物の所定位置への方向を検知するための検知方法であって、
前記対象物に取り付けられている前記第1マーカに対する前記対象物の前記所定位置の相対的な3次元方向ベクトルの情報を取得する工程と、
前記対象物とは別の部材に取り付けられている第2マーカおよび前記対象物の前記第1マーカを撮像することにより、取得された前記3次元方向ベクトルに基づいて、撮像された前記第1マーカおよび前記第2マーカを含む画像から、前記別の部材に対する前記第1マーカから前記所定位置への方向の相対的な3次元方向ベクトルを検知する工程と、
を備えた、検知方法。
1. A method for detecting a direction of an object having a first marker attached thereto to a predetermined position, comprising:
acquiring information on a relative three-dimensional direction vector of the predetermined position of the object with respect to the first marker attached to the object;
detecting a relative three-dimensional direction vector of a direction from the first marker to the predetermined position with respect to the other member from an image including the captured first marker and the second marker based on the acquired three-dimensional direction vector by capturing an image of the first marker and the second marker attached to a member other than the object;
The detection method comprises:
第1マーカが取り付けられている対象物の所定位置および所定位置への方向を検知するための検知方法であって、
前記対象物に取り付けられている前記第1マーカの位置に対する前記対象物の前記所定位置の相対的な3次元座標の情報を取得するとともに前記第1マーカに対する前記対象物の3次元方向ベクトルの情報を取得する工程と、
前記対象物とは別の部材に取り付けられている第2マーカおよび前記対象物の前記第1マーカを撮像することにより、取得された前記3次元座標および前記3次元方向ベクトルに基づいて、撮像された前記第1マーカおよび前記第2マーカを含む画像から、前記別の部材に対する前記対象物の前記所定位置の相対的な3次元座標と、前記別の部材に対する前記第1マーカから前記所定位置への方向の相対的な3次元方向ベクトルとを検知する工程と、
を備えた、検知方法。
1. A method for detecting a predetermined position and a direction to the predetermined position of an object having a first marker attached thereto, comprising:
acquiring information on three-dimensional coordinates of the predetermined position of the object relative to a position of the first marker attached to the object, and acquiring information on a three-dimensional direction vector of the object relative to the first marker;
a step of capturing an image of a second marker attached to a member other than the object and the first marker of the object, and detecting, based on the acquired three-dimensional coordinates and the three-dimensional direction vector, from an image including the captured first marker and the second marker, a relative three-dimensional coordinate of the predetermined position of the object with respect to the other member and a relative three-dimensional direction vector of a direction from the first marker to the predetermined position with respect to the other member;
The detection method comprises:
制御部がプログラムを実行することにより、
第1マーカが取り付けられている対象物の所定位置が、位置合わせ用マーカが配置されている位置合わせ部材の所定の基準点に合わせられたときの前記位置合わせ用マーカおよび前記第1マーカの画像を受け付け、
受け付けた前記位置合わせ用マーカおよび前記第1マーカを含む画像に基づいて、前記対象物に取り付けられている前記第1マーカの位置に対する前記対象物の前記所定位置の相対的な3次元座標の情報を取得し、
取得された前記3次元座標に基づいて、前記対象物とは別の部材に取り付けられている第2マーカおよび前記対象物の前記第1マーカを含む画像から、前記別の部材に対する前記対象物の前記所定位置の相対的な3次元座標を検知する、コンピュータ。
The control unit executes the program,
receiving an image of the alignment marker and the first marker when a predetermined position of the object to which the first marker is attached is aligned with a predetermined reference point of an alignment member on which the alignment marker is arranged;
acquiring information on three-dimensional coordinates of the predetermined position of the object relative to a position of the first marker attached to the object, based on the received image including the alignment marker and the first marker;
A computer detects, based on the acquired three-dimensional coordinates, the relative three-dimensional coordinates of the specified position of the object with respect to the other member from an image including a second marker attached to a member other than the object and the first marker of the object.
制御部がプログラムを実行することにより、
第1マーカが取り付けられている対象物の所定位置が、位置合わせ用マーカが配置されている位置合わせ部材の所定の基準点に合わせられたときの前記位置合わせ用マーカおよび前記第1マーカの画像を受け付け、
受け付けた前記位置合わせ用マーカおよび前記第1マーカを含む画像に基づいて、前記対象物に取り付けられている前記第1マーカに対する前記対象物の前記所定位置の相対的な3次元方向ベクトルの情報を取得し、
取得された前記3次元座標に基づいて、前記対象物とは別の部材に取り付けられている第2マーカおよび前記対象物の前記第1マーカを含む画像から、前記別の部材に対する前記対象物の前記所定位置の相対的な3次元座標を検知する、コンピュータ。
The control unit executes the program,
receiving an image of the alignment marker and the first marker when a predetermined position of the object to which the first marker is attached is aligned with a predetermined reference point of an alignment member on which the alignment marker is arranged;
acquiring information on a three-dimensional direction vector of the predetermined position of the object relative to the first marker attached to the object, based on an image including the alignment marker and the first marker that has been received;
A computer detects, based on the acquired three-dimensional coordinates, the relative three-dimensional coordinates of the specified position of the object with respect to the other member from an image including a second marker attached to a member other than the object and the first marker of the object.
制御部がプログラムを実行することにより、
第1マーカが取り付けられている対象物の所定位置が、位置合わせ用マーカが配置されている位置合わせ部材の所定の基準点に合わせられたときの前記位置合わせ用マーカおよび前記第1マーカの画像を受け付け、
受け付けた前記位置合わせ用マーカおよび前記第1マーカを含む画像に基づいて、前記対象物に取り付けられている前記第1マーカの位置に対する前記対象物の前記所定位置の相対的な3次元座標の情報を取得するとともに前記第1マーカに対する前記対象物の3次元方向ベクトルの情報を取得し、
取得された前記3次元座標および前記3次元方向ベクトルに基づいて、前記第1マーカおよび前記第2マーカを含む画像から、前記別の部材に対する前記対象物の前記所定位置の相対的な3次元座標と、前記別の部材に対する前記第1マーカから前記所定位置への方向の相対的な3次元方向ベクトルとを検知する、コンピュータ。
The control unit executes the program,
receiving an image of the alignment marker and the first marker when a predetermined position of the object to which the first marker is attached is aligned with a predetermined reference point of an alignment member on which the alignment marker is arranged;
acquiring information on three-dimensional coordinates of the predetermined position of the object relative to a position of the first marker attached to the object, based on an image including the received alignment marker and the first marker, and acquiring information on a three-dimensional direction vector of the object relative to the first marker;
A computer detects, based on the acquired three-dimensional coordinates and three-dimensional direction vector, from an image including the first marker and the second marker, the relative three-dimensional coordinates of the specified position of the object relative to the other member and the relative three-dimensional direction vector of the direction from the first marker to the specified position relative to the other member.
制御部がプログラムを実行することにより、
位置合わせ部材の所定の基準点に配置されている、位置固定の撮像装置により撮像された位置合わせ用マーカの画像を受け付け、
前記位置合わせ部材の所定の前記基準点に対象物の所定位置が合わせられているときの、前記対象物に取り付けられている、前記撮像装置により撮像された第1マーカの画像を受け付け、
受け付けた前記位置合わせ用マーカを含む画像および受け付けた前記第1マーカを含む画像に基づいて、前記対象物に取り付けられている前記第1マーカの位置に対する前記対象物の前記所定位置の相対的な3次元座標の情報を取得し、
取得された前記3次元座標に基づいて、前記対象物とは別の部材に取り付けられている第2マーカおよび前記対象物の前記第1マーカを含む画像から、前記別の部材に対する前記対象物の前記所定位置の相対的な3次元座標を検知する、コンピュータ。
The control unit executes the program,
receiving an image of an alignment marker captured by an imaging device that is fixed in position and that is disposed at a predetermined reference point of the alignment member;
receiving an image of a first marker attached to the object captured by the imaging device when a predetermined position of the object is aligned with the predetermined reference point of the alignment member;
acquiring information on three-dimensional coordinates of the predetermined position of the object relative to a position of the first marker attached to the object, based on the received image including the alignment marker and the received image including the first marker;
A computer detects, based on the acquired three-dimensional coordinates, the relative three-dimensional coordinates of the specified position of the object with respect to the other member from an image including a second marker attached to a member other than the object and the first marker of the object.
制御部がプログラムを実行することにより、
位置合わせ部材の所定の基準点に配置されている、位置固定の撮像装置により撮像された位置合わせ用マーカの画像を受け付け、
前記位置合わせ部材の所定の前記基準点に対象物の所定位置が合わせられているときの、前記対象物に取り付けられている、前記撮像装置により撮像された第1マーカの画像を受け付け、
受け付けた前記位置合わせ用マーカを含む画像および受け付けた前記第1マーカを含む画像に基づいて、前記対象物に取り付けられている前記第1マーカに対する前記対象物の前記所定位置の相対的な3次元方向ベクトルの情報を取得し、
取得された前記3次元方向ベクトルに基づいて、前記対象物とは別の部材に取り付けられている第2マーカおよび前記対象物に取り付けられている前記第1マーカを含む画像から、前記別の部材に対する前記第1マーカから前記所定位置への方向の相対的な3次元方向ベクトルを検知する、コンピュータ。
The control unit executes the program,
receiving an image of an alignment marker captured by an imaging device that is fixed in position and that is disposed at a predetermined reference point of the alignment member;
receiving an image of a first marker attached to the object captured by the imaging device when a predetermined position of the object is aligned with the predetermined reference point of the alignment member;
acquiring information on a relative three-dimensional direction vector of the predetermined position of the object with respect to the first marker attached to the object, based on the received image including the alignment marker and the received image including the first marker;
A computer detects, based on the acquired three-dimensional direction vector, a relative three-dimensional direction vector of a direction from the first marker to the specified position with respect to a second marker attached to a member other than the object from an image including the first marker attached to the object and a second marker attached to the other member.
制御部がプログラムを実行することにより、
位置合わせ部材の所定の基準点に配置されている、位置固定の撮像装置により撮像された位置合わせ用マーカの画像を受け付け、
前記位置合わせ部材の所定の前記基準点に対象物の所定位置が合わせられているときの、前記対象物に取り付けられている、前記撮像装置により撮像された第1マーカの画像を受け付け、
受け付けた前記位置合わせ用マーカを含む画像および受け付けた前記第1マーカを含む画像に基づいて、前記対象物に取り付けられている前記第1マーカの位置に対する前記対象物の前記所定位置の相対的な3次元座標の情報および前記第1マーカに対する前記対象物の前記所定位置の相対的な3次元方向ベクトルの情報を取得し、
取得された前記3次元座標および前記3次元方向ベクトルに基づいて、前記対象物とは別の部材に取り付けられている第2マーカおよび前記対象物に取り付けられている前記第1マーカを含む画像から、前記別の部材に対する前記対象物の前記所定位置の相対的な3次元座標と、前記別の部材に対する前記第1マーカから前記所定位置への方向の相対的な3次元方向ベクトルとを検知する、コンピュータ。
The control unit executes the program,
receiving an image of an alignment marker captured by an imaging device that is fixed in position and that is disposed at a predetermined reference point of the alignment member;
receiving an image of a first marker attached to the object captured by the imaging device when a predetermined position of the object is aligned with the predetermined reference point of the alignment member;
acquiring information on three-dimensional coordinates of the predetermined position of the object relative to a position of the first marker attached to the object and information on a three-dimensional direction vector of the predetermined position of the object relative to the first marker, based on the received image including the alignment marker and the received image including the first marker;
A computer detects, based on the acquired three-dimensional coordinates and three-dimensional direction vector, from an image including a second marker attached to a member other than the object and the first marker attached to the object, the relative three-dimensional coordinates of the specified position of the object with respect to the other member and a relative three-dimensional direction vector of the direction from the first marker to the specified position with respect to the other member.
制御部がプログラムを実行することにより、
対象物の所定位置に位置合わせ用マーカが配置されたときの、前記対象物に取り付けられている第1マーカおよび前記位置合わせ用マーカの画像を受け付け、
受け付けた前記位置合わせ用マーカおよび前記第1マーカを含む画像に基づいて、前記対象物に取り付けられている前記第1マーカの位置に対する前記対象物の前記所定位置の相対的な3次元座標の情報を取得し、
取得された前記3次元座標に基づいて、前記対象物とは別の部材に取り付けられている第2マーカおよび前記対象物の前記第1マーカを含む画像から、前記別の部材に対する前記対象物の前記所定位置の相対的な3次元座標を検知する、コンピュータ。
The control unit executes the program,
receiving an image of a first marker and the alignment marker attached to the object when the alignment marker is placed at a predetermined position on the object;
acquiring information on three-dimensional coordinates of the predetermined position of the object relative to a position of the first marker attached to the object, based on the received image including the alignment marker and the first marker;
A computer detects, based on the acquired three-dimensional coordinates, the relative three-dimensional coordinates of the specified position of the object with respect to the other member from an image including a second marker attached to a member other than the object and the first marker of the object.
制御部がプログラムを実行することにより、
対象物の所定位置に位置合わせ用マーカが配置されたときの、前記対象物に取り付けられている第1マーカおよび前記位置合わせ用マーカの画像を受け付け、
受け付けた前記位置合わせ用マーカおよび前記第1マーカを含む画像に基づいて、前記所定位置から前記第1マーカに直交するよう延びる所定方向の3次元方向ベクトルの情報を取得し、
取得された前記3次元方向ベクトルに基づいて、前記対象物とは別の部材に取り付けられている第2マーカおよび前記対象物の前記第1マーカを含む画像から、前記別の部材に対する前記所定方向の相対的な3次元方向ベクトルを検知する、コンピュータ。
The control unit executes the program,
receiving an image of a first marker and the alignment marker attached to the object when the alignment marker is placed at a predetermined position on the object;
acquiring information on a three-dimensional direction vector in a predetermined direction extending from the predetermined position perpendicularly to the first marker based on the received image including the alignment marker and the first marker;
A computer detects a relative three-dimensional direction vector of the specified direction with respect to the other member from an image including a second marker attached to a member other than the object and the first marker of the object based on the acquired three-dimensional direction vector.
制御部がプログラムを実行することにより、
対象物の所定位置に位置合わせ用マーカが配置されたときの、前記対象物に取り付けられている第1マーカおよび前記位置合わせ用マーカの画像を受け付け、
受け付けた前記位置合わせ用マーカおよび前記第1マーカを含む画像に基づいて、前記対象物に取り付けられている前記第1マーカの位置に対する前記対象物の前記所定位置の相対的な3次元座標の情報および前記所定位置から前記第1マーカに直交するよう延びる所定方向の3次元方向ベクトルの情報を取得し、
取得された前記3次元座標および前記3次元方向ベクトルに基づいて、前記対象物とは別の部材に取り付けられている第2マーカおよび前記対象物の前記第1マーカを含む画像から、前記別の部材に対する前記対象物の前記所定位置の相対的な3次元座標と、前記別の部材に対する前記所定方向の相対的な3次元方向ベクトルとを検知する、コンピュータ。
The control unit executes the program,
receiving an image of a first marker and the alignment marker attached to the object when the alignment marker is placed at a predetermined position on the object;
acquiring information on three-dimensional coordinates of the predetermined position of the object relative to a position of the first marker attached to the object, and information on a three-dimensional direction vector of a predetermined direction extending perpendicularly from the predetermined position to the first marker, based on an image including the received alignment marker and the first marker;
A computer detects, based on the acquired three-dimensional coordinates and three-dimensional direction vector, from an image including a second marker attached to a member other than the object and the first marker of the object, the relative three-dimensional coordinates of the specified position of the object with respect to the other member and the relative three-dimensional direction vector of the specified direction with respect to the other member.
制御部がプログラムを実行することにより、
第1対象物の第1所定位置に第1位置合わせ用マーカが配置されたときの、前記第1対象物に取り付けられている前記第1位置合わせ用マーカの画像を受け付け、
受け付けた前記第1位置合わせ用マーカを含む画像に基づいて、前記第1対象物に取り付けられている前記第1対象物の前記第1所定位置の相対的な3次元座標の情報および前記第1所定位置から前記第1位置合わせ用マーカに直交するよう延びる第1所定方向の3次元方向ベクトルの情報を取得し、
第2対象物の第2所定位置に第2位置合わせ用マーカが配置されたときの、前記第2対象物に取り付けられている前記第2位置合わせ用マーカの画像を受け付け、
受け付けた前記第2位置合わせ用マーカを含む画像に基づいて、前記第2対象物に取り付けられている前記第2対象物の前記第2所定位置の相対的な3次元座標の情報および前記第2所定位置から前記第2位置合わせ用マーカに直交するよう延びる第2所定方向の3次元方向ベクトルの情報を取得し、
前記第1対象物の前記第1位置合わせ用マーカおよび前記第2対象物の前記第2位置合わせ用マーカを含む画像を受け付けると、受け付けた前記第1位置合わせ用マーカおよび前記第2位置合わせ用マーカを含む画像から、前記第2対象物の前記第2所定位置に対する前記第1対象物の前記第1所定位置の相対的な3次元座標および前記第2対象物の前記第2所定方向に対する前記第1対象物の前記第1所定方向の相対的な3次元方向ベクトルを検知する、コンピュータ。
The control unit executes the program,
receiving an image of the first alignment marker attached to the first object when the first alignment marker is placed at a first predetermined position on the first object;
acquiring information on relative three-dimensional coordinates of the first predetermined position of the first object attached to the first object and information on a three-dimensional direction vector of a first predetermined direction extending perpendicularly from the first predetermined position to the first alignment marker, based on the received image including the first alignment marker;
receiving an image of the second alignment marker attached to the second object when the second alignment marker is disposed at a second predetermined position on the second object;
acquiring information on relative three-dimensional coordinates of the second predetermined position of the second object attached to the second object and information on a three-dimensional direction vector of a second predetermined direction extending perpendicularly from the second predetermined position to the second alignment marker, based on the received image including the second alignment marker;
a computer that, when receiving an image including the first alignment marker of the first object and the second alignment marker of the second object, detects, from the received image including the first alignment marker and the second alignment marker, a relative three-dimensional coordinate of the first predetermined position of the first object with respect to the second predetermined position of the second object and a relative three-dimensional direction vector of the first predetermined direction of the first object with respect to the second predetermined direction of the second object.
制御部がプログラムを実行することにより、
対象物に取り付けられている第1マーカの位置に対する前記対象物の所定位置の相対的な3次元座標の情報を取得し、
取得された前記3次元座標に基づいて、前記対象物とは別の部材に取り付けられている第2マーカおよび前記対象物の前記第1マーカを含む画像から、前記別の部材に対する前記対象物の前記所定位置の相対的な3次元座標を検知する、コンピュータ。
The control unit executes the program,
acquiring information on three-dimensional coordinates of a predetermined position of the object relative to a position of a first marker attached to the object;
A computer detects, based on the acquired three-dimensional coordinates, the relative three-dimensional coordinates of the specified position of the object with respect to the other member from an image including a second marker attached to a member other than the object and the first marker of the object.
制御部がプログラムを実行することにより、
対象物に取り付けられている第1マーカに対する前記対象物の所定位置の相対的な3次元方向ベクトルの情報を取得し、
取得された前記3次元座標に基づいて、前記対象物とは別の部材に取り付けられている第2マーカおよび前記対象物の前記第1マーカを含む画像から、前記別の部材に対する前記対象物の前記所定位置の相対的な3次元座標を検知する、コンピュータ。
The control unit executes the program,
acquiring information on a three-dimensional direction vector of a predetermined position of the object relative to a first marker attached to the object;
A computer detects, based on the acquired three-dimensional coordinates, the relative three-dimensional coordinates of the specified position of the object with respect to the other member from an image including a second marker attached to a member other than the object and the first marker of the object.
制御部がプログラムを実行することにより、
対象物に取り付けられている第1マーカの位置に対する前記対象物の所定位置の相対的な3次元座標の情報を取得するとともに前記第1マーカに対する前記対象物の3次元方向ベクトルの情報を取得し、
取得された前記3次元座標および前記3次元方向ベクトルに基づいて、前記第1マーカおよび前記第2マーカを含む画像から、前記別の部材に対する前記対象物の前記所定位置の相対的な3次元座標と、前記別の部材に対する前記第1マーカから前記所定位置への方向の相対的な3次元方向ベクトルとを検知する、コンピュータ。
The control unit executes the program,
acquiring information on three-dimensional coordinates of a predetermined position of the object relative to a position of a first marker attached to the object, and acquiring information on a three-dimensional direction vector of the object relative to the first marker;
A computer detects, based on the acquired three-dimensional coordinates and three-dimensional direction vector, from an image including the first marker and the second marker, the relative three-dimensional coordinates of the specified position of the object relative to the other member and the relative three-dimensional direction vector of the direction from the first marker to the specified position relative to the other member.
JP2023165242A 2023-09-27 2023-09-27 Detection method and computer Pending JP2025055846A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2023165242A JP2025055846A (en) 2023-09-27 2023-09-27 Detection method and computer
PCT/JP2024/031106 WO2025069914A1 (en) 2023-09-27 2024-08-30 Detection method and computer

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2023165242A JP2025055846A (en) 2023-09-27 2023-09-27 Detection method and computer

Publications (1)

Publication Number Publication Date
JP2025055846A true JP2025055846A (en) 2025-04-08

Family

ID=95203112

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023165242A Pending JP2025055846A (en) 2023-09-27 2023-09-27 Detection method and computer

Country Status (2)

Country Link
JP (1) JP2025055846A (en)
WO (1) WO2025069914A1 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5389101A (en) * 1992-04-21 1995-02-14 University Of Utah Apparatus and method for photogrammetric surgical localization
JP2013117451A (en) * 2011-12-02 2013-06-13 Emu Kobo:Kk Position attitude estimation mark and position attitude estimation device using the same
JP2013132736A (en) * 2011-12-27 2013-07-08 Mitsubishi Electric Engineering Co Ltd Work management device and work management system
JP2013164413A (en) * 2012-01-10 2013-08-22 Anima Kk Virtual point determination device and method, and device used to determine virtual point
JP2018505398A (en) * 2014-12-19 2018-02-22 コー・ヤング・テクノロジー・インコーポレーテッド Optical tracking system and tracking method of optical tracking system
WO2019163288A1 (en) * 2018-02-26 2019-08-29 ヤマハファインテック株式会社 Positioning device and positioning method
JP2019168304A (en) * 2018-03-23 2019-10-03 アトラスコプコ株式会社 Method and device

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5389101A (en) * 1992-04-21 1995-02-14 University Of Utah Apparatus and method for photogrammetric surgical localization
JP2013117451A (en) * 2011-12-02 2013-06-13 Emu Kobo:Kk Position attitude estimation mark and position attitude estimation device using the same
JP2013132736A (en) * 2011-12-27 2013-07-08 Mitsubishi Electric Engineering Co Ltd Work management device and work management system
JP2013164413A (en) * 2012-01-10 2013-08-22 Anima Kk Virtual point determination device and method, and device used to determine virtual point
JP2018505398A (en) * 2014-12-19 2018-02-22 コー・ヤング・テクノロジー・インコーポレーテッド Optical tracking system and tracking method of optical tracking system
WO2019163288A1 (en) * 2018-02-26 2019-08-29 ヤマハファインテック株式会社 Positioning device and positioning method
JP2019168304A (en) * 2018-03-23 2019-10-03 アトラスコプコ株式会社 Method and device

Also Published As

Publication number Publication date
WO2025069914A1 (en) 2025-04-03

Similar Documents

Publication Publication Date Title
JP5164811B2 (en) Work system and information processing method
CN108297096B (en) Calibration device, calibration method, and computer-readable medium
EP3215044B1 (en) Optical tracking method and system based on passive markers
JP5746477B2 (en) Model generation device, three-dimensional measurement device, control method thereof, and program
US9046360B2 (en) System and method of acquiring three dimensional coordinates using multiple coordinate measurement devices
WO2019146201A1 (en) Information processing device, information processing method, and information processing system
JP2004144557A (en) Three-dimensional visual sensor
EP3421930A1 (en) Three-dimensional shape data and texture information generation system, photographing control program, and three-dimensional shape data and texture information generation method
JP6441346B2 (en) Optical tracking
JP4914038B2 (en) Information processing method and apparatus
JP2009027700A (en) Mobile-body-mounted forward image pick-up controller
US10356394B2 (en) Apparatus and method for measuring position of stereo camera
CN111429530A (en) Coordinate calibration method and related device
JP2001148025A5 (en)
JP6954451B2 (en) Vibration measurement system, vibration measurement device, vibration measurement method, and program
CN114945450B (en) Robotic system
KR102285337B1 (en) Calibration method and apparatus of x-ray apparatus
JP2025055846A (en) Detection method and computer
KR102196286B1 (en) Three-dimensional shape measuring system and measuring time setting method
JP6581280B1 (en) Monitoring device, monitoring system, monitoring method, monitoring program
JP7662920B2 (en) Position detection method and computer
CN114343848A (en) A length measurement system of a marker block and a surgical robot system
JP6631225B2 (en) 3D shape measuring device
JP7520608B2 (en) Robot hand position detection system
KR20140114513A (en) Apparatus and method for performing photogrammetry

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240308

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20250321

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20250422

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20250520

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20250520

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20250725

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20250919

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20251017

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20251215