WO2006082825A1 - 指標配置計測方法、位置姿勢推定方法、指標配置計測装置、位置姿勢推定装置 - Google Patents
指標配置計測方法、位置姿勢推定方法、指標配置計測装置、位置姿勢推定装置 Download PDFInfo
- Publication number
- WO2006082825A1 WO2006082825A1 PCT/JP2006/301620 JP2006301620W WO2006082825A1 WO 2006082825 A1 WO2006082825 A1 WO 2006082825A1 JP 2006301620 W JP2006301620 W JP 2006301620W WO 2006082825 A1 WO2006082825 A1 WO 2006082825A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- index
- imaging
- group
- arrangement
- auxiliary
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 92
- 239000003550 marker Substances 0.000 claims description 196
- 238000003384 imaging method Methods 0.000 claims description 117
- 230000008569 process Effects 0.000 claims description 33
- 238000004364 calculation method Methods 0.000 claims description 26
- 238000000691 measurement method Methods 0.000 claims description 7
- 230000000007 visual effect Effects 0.000 claims 1
- 238000012545 processing Methods 0.000 description 23
- 230000006870 function Effects 0.000 description 14
- 238000010586 diagram Methods 0.000 description 10
- 238000005259 measurement Methods 0.000 description 10
- 230000003190 augmentative effect Effects 0.000 description 9
- 238000001514 detection method Methods 0.000 description 9
- 230000003287 optical effect Effects 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004040 coloring Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 230000000638 stimulation Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
Definitions
- Index placement measurement method position and orientation estimation method, index placement measurement device, and position and orientation estimation device
- the present invention relates to a technique for obtaining the position and orientation of each index arranged in a real space.
- MR Mixed reality
- AR Augmented Reality
- augmented reality augmented reality
- a display device for experiencing the MR space according to the movement of the user's head it can be classified into the following two types according to the implementation method.
- One is drawing on a real space image taken by an imaging device such as a video camera using a virtual space (for example, computer graphics (hereinafter referred to as CG)) generated according to the position and orientation of the imaging device.
- CG computer graphics
- Video see-through method which superimposes and displays images of virtual objects and text information), and the other is the position and orientation of the observer's viewpoint on an optical see-through display mounted on the observer's head.
- This is an optical see-through method for displaying an image of a virtual space generated according to the above.
- the AR technology superimposes the state of the body on the patient's body surface, builds a simulation that superimposes the virtual building on the vacant land, and superimposes the work procedure and wiring pattern during assembly work. Applications in various fields such as assembly support are expected.
- the correspondence force with image coordinates can also determine the position and orientation of the camera viewpoint.
- Non-Patent Documents 1 and 2 a method for calculating the position and orientation of an imaging device from a set of three-dimensional coordinates and image coordinates of an index has been proposed in the field of photogrammetry.
- the point index has an advantage that it can be set even in a narrow place.
- the square index is easy to identify and has a merit that the position and orientation of the imaging device can be obtained from only one index because of the large amount of information of one index. Therefore, the point index and the square index can be used complementarily.
- a 6-DOF position / orientation sensor such as a magnetic sensor or an ultrasonic sensor is attached to the imaging device to be measured, and the position and Measuring posture is also done. The sensor output value is measured. Since the accuracy varies depending on the fixed range but can be obtained stably, the method using both the sensor and image processing can improve the robustness compared to the method using only image processing (Patent Document 2, Non-Patent Document 2). (Ref. 6).
- Measurement of the position and orientation of the index in the reference coordinate system can be performed manually by using a tape measure or a protractor or by a surveying instrument. Has been done.
- the position of the point index can be obtained by a method called the bundle adjustment method.
- the bundle adjustment method a large number of point indices are photographed by an imaging device, and the position of the point index in the real space, the projection point on the image of the point index, and the viewpoint of the imaging device exist on the same straight line. Based on the conditions, the error (projection error) between the projection position where the index is actually observed on the image and the position and orientation of the imaging device and the calculated position of the index is minimized.
- it is a method for obtaining the position and orientation of the imaging device that has captured the image by repeated calculation, and the position of the point index.
- an arbitrary index Mi is less than
- a group is composed of markers that have been photographed at the same time with at least one index Mj (i ⁇ j) and photographed at the same time, the whole needs to be composed of one group. See Figure 1 for a specific example.
- FIG. 1 is a diagram illustrating a problem in obtaining an arrangement relationship between markers when two markers are grouped into one group and each of the two groups is imaged by a camera.
- 101 and 102 are cameras, the camera 101 images the markers 101a and 101b, and the camera 102 images the markers 102a and 102b.
- reference numeral 103 denotes an image taken by the camera 101, and the image 103 includes markers 101a and 101b.
- reference numeral 104 denotes an image captured by the camera 102. This image 104 includes the forces of the markers 102a and 102b!
- the arrangement relationship between the marker 101a and the marker 101b can be obtained, and if the image 104 is used, the arrangement relationship between the marker 102a and the marker 102b is Can be sought.
- a method of using a camera with a wide angle of view is generally conceivable as a device that can capture a wide range at a time, but there is a problem that the influence of image distortion becomes large. is there.
- a method of photographing from a distant place is conceivable, it is difficult to calculate an accurate arrangement relationship in any case, such as a high-resolution image not being obtained.
- Non-Patent Document 9 a large number of markers are arranged so that the arrangement relationship of all the markers can be calculated.
- placing a large number of markers may damage the landscape, and it is desirable that the minimum markers necessary for alignment be placed during the MR experience (see Non-Patent Document 9).
- Patent Document 1 Japanese Unexamined Patent Publication No. 2000-041173
- Patent Document 2 Japanese Patent Laid-Open No. 2002-228442
- Non-Patent Document 1 RM Haralick, C. Lee, K. Ottenberg, and M. Nolle: "Revie w and analysis of solutions of the three point perspective pose e stimulation problem", Int 'l. J. Computer Vision, vol. 13, no. 3, pp. 331— 356, 1994.
- Patent Document 2 MA Fischler and RC Bolles: "Random sample consen sus: a paradigm for model fitting with applications to image analys is and automated cartography", Comm. ACM, vol. 24, no. 6, pp. 381-395, 1981.
- Non-Patent Document 3 Junichi Kyokumoto: "A method of constructing augmented reality using a two-dimensional matrix code", Interactive System and Software IV, Modern Science, 1996.
- Non-Patent Document 4 Kato, M. Billinghurst, Asano, Tachibana: "Augmented reality system based on marker tracking and its calibration", Transactions of the Virtual Reality Society of Japan, vol. 4, no. 4, pp. 607-616 , 1999.
- Non-Patent Document 5 H. Kato, M. Billinghurst, I. Poupyrev, K. Imamoto and K. Tachibana: "Virtual object manipulation on a table—top AR environment", Proc. ISAR2000, pp. 111—119, 2000 .
- Non-Patent Document 6 A. State, G. Hirota, DT Chen, WF Garrett and MA Livingston: "Superior augmented reality registration by integrating 1 andmark tracking and magnetic tracking, Proc.SIGLrRAPH '96, pp. 429-438, 1996.
- Patent Document 7 G. Baratoff, A. Neubeck and H. Regenbrecht: "Interactiv e multi- marker calibration for augmented reality applications, Pro c. ISMAR2002, pp. 107-116, 2002.
- Patent Document 8 G. Baratoff, A. Neubeck and H. Regenbrecht: "Interactiv e multi- marker calibration for augmented reality applications, Pro c. ISMAR2002, pp. 107-116, 2002.
- Patent Document 9 G. Baratoff, A. Neubeck and H. Regenbrecht: "Interactiv e multi- marker calibration for augmented reality applications, Pro c. ISMAR2002, pp. 107-116, 2002.
- the present invention has been made in view of the above problems, and a vision-based marker calibration method can be used even when indicators are arranged to a certain extent without affecting the scenery during MR experience.
- the purpose is to provide a technique for obtaining the position of each indicator.
- the index arrangement measuring method of the present invention comprises the following arrangement.
- a first image is captured so that both a part or all of the first index Z index group and an auxiliary index whose position and orientation in the three-dimensional space temporarily placed in the real space can be defined are simultaneously reflected. Imaging process;
- One or a plurality of images obtained by repeating the first imaging step once or a plurality of times and one or a plurality of images obtained by repeating the second imaging step once or a plurality of times To calculate a relative arrangement relationship between the first index Z index group, the auxiliary index, and the second index Z index group;
- the index arrangement measuring method of the present invention has the following configuration. Prepare for the completion.
- a first image is captured so that both a part or all of the first index Z index group and an auxiliary index whose position and orientation in the three-dimensional space temporarily placed in the real space can be defined are simultaneously reflected. Imaging process;
- a first arrangement calculation process for calculating the relative arrangement relationship between the first index Z index group and the auxiliary index from one or more images obtained by repeating the first imaging process one or more times.
- a second layout calculation step for calculating a relative layout relationship between the first index Z index group and the second index Z index group from the results of the first layout calculation step and the second layout calculation step.
- the position and orientation estimation method of the present invention comprises the following arrangement.
- a first arrangement calculation that calculates a relative arrangement relationship between the first index Z index group and the auxiliary index from one or more images obtained by repeating the first imaging process once or a plurality of times.
- a second arrangement calculating step for calculating a relative arrangement relationship between the first index Z index group and the second index Z index group from the results of the first arrangement calculating step and the second arrangement calculating step;
- An imaging apparatus position / orientation estimation step that estimates the position / orientation of the imaging apparatus using the arrangement of the first index Z index group and the second index Z index group without using an auxiliary index.
- an index arrangement measuring apparatus of the present invention has the following configuration.
- a first image is captured so that both a part or all of the first index Z index group and an auxiliary index whose position and orientation in the three-dimensional space temporarily placed in the real space can be defined are simultaneously reflected.
- Imaging means
- Second imaging means for imaging
- One or more images obtained by repeating the imaging by the first imaging means once or a plurality of times, and one obtained by repeating the imaging by the second imaging means once or a plurality of times Arrangement calculating means for calculating a relative arrangement relationship between the first index Z index group, the auxiliary index, and the second index Z index group from one or more images;
- an index arrangement measuring apparatus of the present invention has the following configuration.
- a first image is captured so that both a part or all of the first index Z index group and an auxiliary index whose position and orientation in the three-dimensional space temporarily placed in the real space can be defined are simultaneously reflected.
- Imaging means
- a first arrangement that calculates the relative arrangement relationship between the first index Z index group and the auxiliary index from one or more images obtained by repeating imaging by the first imaging means once or a plurality of times.
- a calculation means ;
- a relative arrangement relationship between the second index Z index group and the auxiliary index is calculated from one or a plurality of images obtained by repeating the imaging by the second imaging means once or a plurality of times.
- a second arrangement calculating unit that calculates a relative arrangement relationship between the first index Z index group and the second index Z index group from the results of the first arrangement calculating means and the second arrangement calculating means. Stepped
- a position / orientation estimation apparatus of the present invention comprises the following arrangement.
- a position and orientation estimation device that estimates the position and Z or orientation of a movable imaging device based on an index existing in real space
- 1st index A first index that captures both a part or all of the Z index group and an auxiliary index that can be defined in position and orientation in 3D space temporarily placed in real space. Imaging means;
- a relative arrangement relationship between the second index Z index group and the auxiliary index is calculated from one or a plurality of images obtained by repeating the imaging by the second imaging means once or a plurality of times.
- Second arrangement calculation means for calculating a relative arrangement relationship between the first index Z index group and the second index Z index group from the results of the first arrangement calculation means and the second arrangement calculation means;
- Imaging apparatus position and orientation estimation means for estimating the position and orientation of the imaging apparatus using the arrangement of the first index Z index group and the second index Z index group without using an auxiliary index.
- the position of each indicator is determined using the vision-based marker calibration method. Can be obtained.
- FIG. 1 is a diagram illustrating a problem in obtaining an arrangement relationship between markers when two markers are grouped into one group and each of the two groups is imaged with a camera.
- FIG. 2A is a diagram showing various markers arranged in the real space.
- FIG. 2B is a diagram showing various markers arranged in the real space.
- FIG. 2C is a diagram showing various markers arranged in the real space.
- FIG. 3 is a diagram showing a functional configuration of a system according to the embodiment of the present invention.
- FIG. 4 is a flowchart of a process for obtaining an arrangement position and orientation of each alignment marker arranged in the real space.
- FIG. 5 is a diagram showing a state in which a bridging marker is shared in each captured image when two cameras capture a real space with a bridging marker placed over the alignment marker.
- FIG. 6 Basic configuration of a computer having the functions of the operation input unit 350, the image capturing unit 320, the index detection and identification unit 340, the marker calibration unit 360, the index information management unit 370, and the display object generation and display unit 380.
- FIG. 6 Basic configuration of a computer having the functions of the operation input unit 350, the image capturing unit 320, the index detection and identification unit 340, the marker calibration unit 360, the index information management unit 370, and the display object generation and display unit 380.
- FIG. 7 is a flowchart of the work for finding the position and orientation of each alignment marker placed in the real space.
- an arrangement relationship of each index is obtained using an image of a real space in which a plurality of indices are arranged. These indicators are used when positioning between the real space and the virtual space, as used in the technical fields of MR and AR.
- a “bridging index” is newly placed in the real space.
- “marker” is used as “index”.
- an index that is not a bridging index is referred to as a “positioning marker” to distinguish it from a bridging index, and the bridging index is referred to as a “bridging marker”.
- the term “marker” includes both the alignment marker and the bridging marker.
- the bridging marker is an index that is artificially placed because the user artificially places it for marker calibration.
- FIGS. 2A to 2C are diagrams showing various markers arranged in the real space.
- Figure 2A shows point indicators, and each indicator has a different color and all have a circular shape so that it can be identified and detected in an image obtained by imaging a real space. ing. As the position of the point marker in the image, the position of the center of gravity of the point marker region in the image is used.
- FIGS. 2B and 2C each show a polygonal index
- FIG. 2B shows a triangular marker
- FIG. 2C shows a square marker. Since the polygon index is surrounded by a color frame so that it can be easily detected on the image, it is assumed that the inside of the frame is the index.
- different patterns are embedded in the polygons, and for example, a unique pattern of markers placed inside each index can be specified by template matching inside. Can be identified.
- any marker may be used for either the alignment marker or the bridging marker.
- the marker used as the alignment marker and the marker used as the bridging marker are determined, It is necessary to register information about the marker in the computer which will be described later.
- the bridging marker will be further described.
- the bridging marker is placed in the real space in order to obtain the positional relationship between the positioning marker in one image and the positioning marker in the other image.
- One picture This is for determining the position and orientation relationship between the coordinate system A to which the alignment marker in the image belongs and the coordinate system B to which the alignment marker in the other image belongs.
- it is necessary to calculate the position and orientation of the bridging marker in coordinate system A and the position and orientation in coordinate system B.
- the marker is given three identifiable points that do not line up on the same straight line (for example, a triangular index that can identify each vertex), the position and orientation can be obtained.
- the bridging marker when the condition that "the bridging mar force exists on a plane that is known in both coordinate system A and coordinate system B" is given, the bridging marker can be identified by two points. Even with only the index, the position and orientation in the coordinate system A and the position and orientation in the sitting rectangle B can be calculated. Therefore, the bridging marker may have a shape having two distinguishable feature points. In the present embodiment, a triangular index whose direction can be identified is used as a bridging marker so that it can be used as a bridging marker without any special constraint condition.
- FIG. 3 is a diagram showing a functional configuration of the system according to the present embodiment.
- the photographing unit 310 functions as a camera that captures an image of a real space.
- the photographing unit 310 may be of a type that captures a still image of the real space in multiple times, or may be of a type that captures a moving image of the real space.
- the photographing position / orientation measuring unit 330 is attached to the photographing unit 310, measures the position and orientation of the photographing unit 310, and outputs the measurement result to the index detection / identification unit 340.
- the shooting position / orientation measurement unit 330 is a magnetic sensor
- the coordinate system sensor coordinates
- the sensor applicable to the photographing position / orientation measurement unit 330 is not limited to a magnetic sensor, and other types of sensors such as an optical sensor may be applied. It is also possible to apply a gyro that measures only 3 degrees of freedom, which is not the case with a sensor that measures 6 degrees of freedom.
- the captured video capturing unit 320 captures an image captured by the capturing unit 310 and outputs the captured image to the index detection / identification unit 340.
- the index detection / identification unit 340 detects the image coordinate value of each marker (including the alignment marker and the bridging marker) included in the image received from the captured video capturing unit 320. And a process for uniquely identifying each marker. Marker identification is performed using information unique to each marker registered in the index information management unit 370. Then, the identifier of the identified marker i, the image coordinate value on the image of the marker i, the identifier unique to this image (for example, the frame number), and the position / orientation information of the photographing unit 310 received from the photographing position / orientation measuring unit 330 are set. And output to the marker calibration unit 360. Such processing is performed for each image received from the captured image capturing unit 320.
- the marker calibration unit 360 performs processing for obtaining arrangement information (arrangement position or arrangement position and orientation) of each alignment marker arranged in the real space.
- arrangement information arrangement position or arrangement position and orientation
- the obtained arrangement information and an identifier for identifying the alignment force i are registered as a set and registered in the index information management unit 370.
- the marker calibration unit 360 uses both the alignment marker and the bridging marker to obtain the alignment information of the alignment marker.
- the marker calibration unit 360 uses the bundle adjustment method or the like. Is calculated. That is, by using the alignment mark and the bridging marker without distinction, the position information of the alignment marker i is calculated.
- the operation input unit 350 inputs an operation instruction to the shooting position / orientation measurement unit 330, the shooting image capturing unit 320, and the index detection / identification unit 340.
- the shooting position / orientation measuring unit 330, the shooting image capturing unit 320, The index detection / identification unit 340 operates upon receiving an operation instruction from the operation input unit 350.
- the index information management unit 370 includes information for identifying each marker (for each marker, an identifier unique to the marker, a shape of the marker, a feature inside the marker (described in a frame) Registered characters, symbols, etc.) and marker type information (alignment marker, bridging marker)) are registered. Then, a set of the alignment marker arrangement information output from the marker calibration unit 360 and an identifier for identifying the alignment marker is registered.
- the index information setting unit 390 deletes the bridging marker information from the index information updated by the marker calibration unit 360 using the marker type information, and stores it in the MR or AR. Index information necessary for alignment is generated and set. The bridging marker is deleted when experiencing the placed MR or AR during the marker calibration. Therefore, information on the bridging marker is not necessary in the alignment process during MR or AR execution. According to this embodiment, since the marker information setting unit 390 can automatically delete the information on the bridging marker, the load on the user can be reduced.
- the display object generation 'display unit 380 displays the set data registered in the index information management unit 370 by the marker calibration unit 360 and the isolated point marker check result.
- the display format is not particularly limited.
- FIG. 6 illustrates a computer having the functions of the operation input unit 350, the video capturing unit 320, the index detection / identification unit 340, the marker calibration unit 360, the index information management unit 370, and the display object generation / display unit 380. It is a block diagram which shows the basic composition of.
- Reference numeral 601 denotes a CPU that controls the entire computer using programs and data stored in the RAM 602 and the ROM 603, and executes each process described below performed by the computer.
- Reference numeral 602 denotes a RAM which includes an area for temporarily storing programs and data loaded from the external storage device 606, and a work area used when the CPU 601 executes each process.
- Reference numeral 603 denotes a ROM which stores setting data and a boot program of the computer.
- An operation unit 604 includes a keyboard and a mouse, and various instructions can be input to the CPU 601 by an operator of the computer.
- Reference numeral 605 denotes a display unit, which includes a CRT, a liquid crystal screen, and the like, and can display processing results by the CPU 601 using images, characters, and the like.
- Reference numeral 606 denotes an external storage device that functions as a large-capacity information storage device such as a hard disk drive device.
- the OS operating system
- the CPU 601 perform each process described later that is performed by the computer. Programs and data to be executed are stored, and some or all of them are loaded into the RAM 602 under the control of the CPU 601 and are processed by the CPU 601.
- Reference numeral 607 denotes an IZF, which can be connected to the photographing unit 310 and the photographing position / orientation measuring unit 330. Images taken by the photographing unit 310 and photographing parts measured by the photographing position / orientation measuring unit 330. The position and orientation information is input to this computer via this IZF607.
- Reference numeral 608 denotes a bus connecting the above-described units.
- step S701 the processing in step S701 is performed by a computer having the above-described configuration.
- the processing (work) in other steps is performed by a person.
- marker calibration processing (corresponding to steps S410 to S450 in Fig. 4) is performed by the computer (step S701).
- step S701 it is checked whether or not an alignment marker that is an isolated point (isolated marker) remains (step S702).
- the check result is displayed. Specifically, in the display of the registered set data, display (coloring and marking) that distinguishes isolated point markers is performed. The user can easily grasp the isolated marker by checking this display.
- the bridging marker is not a target for determination as to whether it is an isolated marker.
- the reason is that the bridging marker is used in an auxiliary manner to calculate the positioning marker placement information, and is an index that is not used during the AR experience. Because.
- An isolated marker is a positioning marker whose coordinate system cannot be shared.
- the marker 101a and the marker 10 lb are defined in the first coordinate system
- the marker 102a and the marker 102b are defined in the second coordinate system.
- the first coordinate system and the second coordinate system are independent coordinate systems
- the markers 102a and 102 defined in the second coordinate system are used.
- the marker 102b is determined to be an isolated marker.
- the force 101a, the marker 101b, the marker 102a, the marker 102b, and the marker 505 are defined in the same coordinate system. Therefore, in the case shown in FIG.
- step S703 If any of the alignment markers remains as an isolated marker, it is because the number of images in the real space is small or the number of bridging markers is insufficient. A bridging marker is set so that it can be linked to a marker that is not isolated (step S703). Then, repeat the work after step S701.
- step S703 the bridging force arranged in step S703 is eliminated (step S704).
- a bridging marker is arranged only when marker calibration is performed, and the bridging marker is excluded when marker calibration is completed.
- step S701 a flowchart showing the process in step S701 performed by the computer having the above-described configuration, that is, a process for obtaining the position and orientation of each alignment marker arranged in the real space. 4 will be used for explanation.
- the program and data for causing the CPU 601 to execute the processing according to the flowchart in the figure are stored in the external storage device 606, which is loaded into the RAM 602 under the control of the CPU 601 and used by the CPU 601.
- the computer executes each process described below.
- step S410 information regarding each marker placed in the real space is registered in the external storage device 606 (step S410).
- a GUI for registering information on each marker placed in the real space is displayed on the display screen of the display unit 380, and the operator operates the operation unit 604 to display each marker via the GUI. Enter information about the marker.
- the CPU 601 detects this in step S410 and registers information about each marker input via the GUI in the external storage device 606. To do.
- information on each marker includes an identifier (for example, ID) unique to the marker, a shape of the mark, features inside the marker (characters, symbols, etc. written in the frame), marker type information ( There are alignment markers and bridging markers), and these sets are registered in the external storage device 606 for each marker arranged in the real space.
- ID for example, ID
- shape of the mark features inside the marker (characters, symbols, etc. written in the frame)
- marker type information There are alignment markers and bridging markers
- step S420 an operation instruction input from the operation unit 604 is received (step S420).
- step S430 an instruction to image the real space is detected
- the process proceeds to step S430, and the imaging is performed.
- the image input from the shadow unit 310 is once stored in the RAM 602 (step S430), and each marker included in the image is identified, and the process of identifying the coordinate position of each marker in the image is performed (step S440). ).
- the identification result of the marker (identifier of the identified marker), the image coordinate value of this marker, and the (approximate) position / attitude information of the imaging unit 310 acquired from the imaging position / orientation measurement unit 330 are:
- it is registered in the external storage device 606 as detection information (step S445).
- the detection information can be registered in the external storage device 606 for each marker included in the image acquired in step S430.
- step S450 the process returns to step S420 to wait for the next operation instruction.
- the CPU 601 detects that an operation instruction to perform marker calibration described below is input via the operation unit 604 in step S420, the processing is stepped. Proceeding to S450, the arrangement information of each alignment marker arranged in the real space is obtained. A so-called marker calibration process described below is performed (step S450).
- the (approximate) position / orientation information of the photographing unit 310 acquired from the photographing position / orientation measuring unit 330 is used.
- This “position and orientation” may be in the world coordinate system (a coordinate system in which one point in the real space is the origin, and three axes orthogonal to each other at this origin are x, y, and z, respectively). Depending on the content, any coordinate system may be used as appropriate.
- the marker calibration process using the set of identification results (identified marker identifiers) obtained, the image coordinate values, and the position and orientation information of the imaging device at the time of capturing this image, for example, a bundle
- processing for obtaining the arrangement position and orientation of each marker is performed, and the result is sent to the index information management unit 470.
- FIG. 5 shows a situation where the same bridging marker is photographed in two captured images when the real space where the bridging marker is arranged in addition to the alignment marker is imaged from two positions.
- FIG. 1 the same parts as those in FIG. 1 are denoted by the same reference numerals, and the description thereof is omitted.
- the camera 101 and the camera 102 share a bridge marker 505, respectively. Captured images 501, 502 are obtained. Note that the camera 101 and the camera 102 may use different cameras or take pictures.
- such a bridging marker when obtaining the arrangement position and orientation of the alignment marker, such a bridging marker is arranged if the number of alignment markers is small and sparse. By doing so, the arrangement position of the alignment marker can be calculated. Note that the bridging marker is projected only when calculating the position of the alignment marker and is eliminated during the MR experience, so there is no problem of losing the landscape.
- marker type information is used as index information in order to distinguish between the alignment marker and the bridging marker.
- the alignment marker and the bridging marker may be distinguished using other methods.
- a marker having a specific shape different from the alignment marker may be used for the bridging marker.
- an example in which marker calibration processing is performed by a method different from that of the first embodiment will be described as a modification of the first embodiment. That is, in the marker calibration process according to the present embodiment, first, an arbitrary image (hereinafter, this image is referred to as a reference image) is included, for example, using the image coordinate values of the respective markers. By bundle adjustment, processing for obtaining the arrangement position and orientation of each marker (and the position and orientation of the photographing unit 310 at the time of image photographing) is performed.
- first alignment marker one of the alignment markers for which the arrangement position and orientation are obtained is hereinafter referred to as “first alignment marker”.
- the reference image also includes a bridging marker.
- the position and orientation of the bridging marker are also found.
- the bridging marker included in the reference image is hereinafter referred to as “reference bridging marker”.
- T1 be the placement position relationship between the placement position and orientation of the first alignment force and the placement position and orientation of the reference bridging marker obtained for the reference image force.
- the following processing is performed.
- the arrangement position and orientation of each marker included in another image including the reference bridging marker (hereinafter referred to as another image)
- the arrangement position and orientation of each marker are obtained by the bundle adjustment.
- the obtained arrangement position and orientation are based on the coordinate system followed by the marker included in the other image.
- the arrangement positions and orientations of all the alignment markers are unified according to a coordinate system (hereinafter referred to as a reference coordinate system) to which the first alignment marker belongs.
- the arrangement position and orientation relationship between the alignment marker obtained from another image and the arrangement position and orientation of the reference bridging marker in the other image is corrected by the inverse transformation matrix of the matrix indicating T1. That's fine.
- the arrangement position and orientation of the alignment marker obtained from the separate image are in accordance with the reference coordinate system, and thus the alignment marker and the first alignment marker obtained from the separate image are obtained. Can be obtained.
- each captured image is included in a certain image !, and at least one of the one or more bridging markers is always included in any image. It is necessary to take an image.
- an object of the present invention is to supply a recording medium (or storage medium) that records software program codes for realizing the functions of the above-described embodiments to a system! /,
- the apparatus, and the computer of the system or the apparatus (Or CPU or MPU) stored on recording media Needless to say, this can also be achieved by reading and executing the programmed program code.
- the read program code itself realizes the functions of the above-described embodiment, and the recording medium on which the program code is recorded constitutes the present invention.
- the program code force from which the recording medium power is also read out is written in the memory provided in the function expansion card inserted into the computer or the function expansion unit connected to the computer, and then, based on the instruction of the program code, It goes without saying that the CPU of the function expansion card or function expansion unit performs part or all of the actual processing and the functions of the above-described embodiments are realized by the processing.
- the recording medium stores program codes corresponding to the flowcharts described above.
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Description
明 細 書
指標配置計測方法、位置姿勢推定方法、指標配置計測装置、位置姿勢 推定装置
技術分野
[0001] 本発明は、現実空間中に配された各指標の位置姿勢を求めるための技術に関す るものである。
背景技術
[0002] 近年、現実空間と仮想空間の繋ぎ目のない結合を目的とした、複合現実感 (以下、 MR (Mixed Reality)と称す)に関する研究が盛んに行われている。特に、 MRの 中でも、現実空間に仮想空間を重ね合わせて表示する Augmented Reality(AR、 拡張現実感、増強現実感とも呼ばれる)技術が注目を集めている。
[0003] ユーザの頭の動きに合わせて MR空間を体験させるための表示装置として、実現 方式によって次の 2つに分類できる。一つは、ビデオカメラなどの撮像装置によって 撮影された現実空間の画像に、撮像装置の位置および姿勢に応じて生成された仮 想空間(たとえばコンピュータ 'グラフィックス(以下、 CGと称す)により描画された仮 想物体や文字情報など)の画像を重畳表示するビデオシースルー方式であり、もう一 つは、観察者の頭部に装着された光学シースルー型ディスプレイに、観察者の視点 の位置及び姿勢に応じて生成された仮想空間の画像を表示する光学シースルー方 式である。
[0004] AR技術は、患者の体表面に体内の様子を重畳表示する手術支援や、空き地に仮 想のビルを重畳表示する建築シミュレーション、組立作業時に作業手順や配線の様 子を重畳表示する組み立て支援等様々な分野への応用が期待される。
[0005] AR技術において最も重要な課題の一つは、現実空間と仮想空間の間の位置合わ せをいかに正確に行うかということであり、従来より多くの取り組みが行われてきた。 A Rにおける位置合わせの問題は、ビデオシースルー方式の場合はシーン中における (すなわち基準座標系における)撮像装置の位置及び姿勢を求める問題に帰結する 。同様に、光学シースルー方式の場合は、シーン中における観察者の視点あるいは
ディスプレイの位置及び姿勢を求める問題に帰結する。
[0006] ビデオシースルー方式における位置合わせの問題を解決する方法として、 3次元 空間中の座標 (世界座標)値が既知である特徴点 (マーカ)を複数配置しておき、こ れをカメラにより撮像して、マーカの世界座標と撮像画像座標の関係をみたすような カメラの位置姿勢を算出する方法がある (特許文献 1を参照)。また、光学シースルー 方式における位置合わせの問題を解決する方法として、計測対象物 (すなわち観察 者の頭部あるいはディスプレイ)に撮像装置を装着し、ビデオシースルー方式と同様 な方法によってこの撮像装置の位置及び姿勢を求め、それに基づいて計測対象物 の位置及び姿勢を求めることが一般的に行われて 、る。
[0007] 一般に、 3次元位置の既知な複数の点(理論的には 3点以上、安定的に解くために は 6点以上)の撮影画像上における画像座標が得られれば、 3次元位置と画像座標と の対応関係力もカメラ視点の位置と姿勢を求めることができる。
[0008] 指標の 3次元座標と画像座標の組から撮像装置の位置及び姿勢を算出する方法 は、非特許文献 1、 2に記載されているように、写真測量の分野において提案されて いる。
[0009] さらに、指標として、大きさが既知の正方形形状の指標(以下、正方形指標)を用い る方法も提案されている (非特許文献 3, 4を参照)。
[0010] また、指標として、正方形指標と点指標を組み合わせを用いる方法も提案されて!、 る (非特許文献 5を参照)。
[0011] 点指標には狭いところにも設定できるというメリットがある。正方形指標には同定が 簡単であり、かつ一つの指標の情報量が多いため一つの指標だけから撮像装置の 位置及び姿勢を求めることができるというメリットがある。よって、点指標と正方形指標 とを相補的に利用することができる。
[0012] 以上の方法によって、撮像装置が撮影した画像に基づ!、て、この撮像装置の位置 及び姿勢を取得することが従来力 なされてきた。
[0013] 一方、計測対象である撮像装置に磁気センサや超音波センサなどの 6自由度位置 姿勢センサを取り付け、センサの測定結果と前述のような画像処理による指標の検出 との併用によって位置及び姿勢を計測することも行われて 、る。センサの出力値は測
定範囲によって精度は変わるが安定的に得ることができるため、センサと画像処理を 併用する方法は、画像処理だけによる方法に比べてロバスト性を向上させることがで きる (特許文献 2、非特許文献 6を参照)。
[0014] 従来の指標を利用した位置合わせ手法では、計測対象である撮像装置の基準座 標系における位置及び姿勢を求めるために、点指標の場合は基準座標系における 位置、正方形指標の場合は基準座標系における位置及び姿勢が既知である必要が ある。正方形指標の場合には、基準座標系を別途設けることなぐ正方形指標そのも のを座標系の基準とする場合が多いが、複数の正方形指標を用いる場合には、互い の位置'姿勢の関係(以下、配置関係という)が既知である必要がある。そのため、複 数の指標間の位置及び姿勢の関係を定義するための基準座標系が必要であること に変わりはない。
[0015] 基準座標系における指標の位置及び姿勢の計測は、巻尺や分度器を用いた手作 業や、測量器によって行うことが可能であるが、精度や手間の問題から、画像を利用 した計測が行われている。点指標の位置計測には、バンドル調整法と呼ばれる方法 で求めることができる。バンドル調整法は、点指標を撮像装置によって多数撮影し、 点指標の現実空間中における位置、点指標の画像上での投影点、撮像装置の視点 の 3点が同一直線上に存在するという拘束条件をもとに、指標が実際に画像上で観 察される投影位置と撮像装置の位置及び姿勢と指標の位置力 計算される投影位 置との誤差 (投影誤差)が最小化されるように、繰返し演算によって画像を撮影した撮 像装置の位置及び姿勢と、点指標の位置を求める方法である。
[0016] また、 3次元空間中に配置された多数の正方形マーカの位置及び姿勢を計測する 方法が提案されて ヽる (非特許文献 7を参照)。
[0017] また、 3次元空間中に配置された多数の正方形マーカの画像を多数撮影し、投影 誤差が最小になるように繰返し演算によって各画像を撮影した撮像装置の位置及び 姿勢と、正方形マーカの位置及び姿勢を求める方法も提案されている (非特許文献 8を参照)。
[0018] 画像を利用した計測手法(以下、ビジョンベースマーカキャリブレーションと 、う)で は、 N個の指標(M1〜MN)の配置関係を算出する場合、任意の指標 Miは他の少
なくとも 1つの指標 Mj (i≠j)と同時に撮影され、かつ互いに同時に撮影されたマーカ でグループを構成した場合に、全体が 1つのグループで構成される必要がある。図 1 を参照して具体例を挙げる。
[0019] 図 1は、 2つのマーカを 1つのグループとする場合に、 2つのグループのそれぞれを カメラによって撮像する場合に、マーカ間の配置関係を求める場合の問題について 示す図である。
[0020] 図 1において 101, 102はカメラで、カメラ 101はマーカ 101a、 101bを撮像してお り、カメラ 102はマーカ 102a、 102bを撮像している。同図において 103はカメラ 101 により撮像された画像であり、この画像 103にはマーカ 101a、 101bが含まれている 。一方、 104はカメラ 102により撮像された画像であり、この画像 104にはマーカ 102 a、 102b力含まれて!/ヽる。
[0021] ここで、上記従来技術によれば、画像 103を用いれば、マーカ 101aとマーカ 101b との配置関係は求めることができ、画像 104を用いれば、マーカ 102aとマーカ 102b との配置関係は求めることができる。しかし、画像 103におけるマーカ 101aと画像 10 4における 102aとの配置関係を求める、というように、異なる画像間で、それぞれの 画像に含まれて 、るマーカ間の配置関係を求めることはできな 、。
[0022] このような問題に対し、一般的には広範囲を一度に撮影できるような工夫として、広 画角なカメラを利用する方法が考えられるが、画像歪みの影響が大きくなるという問 題がある。また、遠方カゝら撮影する方法も考えられるが、高解像度の画像が得られな いなど、いずれも正確な配置関係を算出することが困難になる。
[0023] また、マーカとマーカとの間に障害物が存在したり、マーカの姿勢が異なっている 等、物理的な要因がある場合には、同時撮影自体が困難である。
[0024] このように、従来は、すべてのマーカの配置関係が算出できるように多数のマーカ を配置している。しかし、マーカをたくさん配置することは、景観を損なう恐れがあり、 MR体験時には、位置合わせに必要な最低限のマーカが配置されていることが望ま しい (非特許文献 9を参照)。
特許文献 1 :特開 2000— 041173号公報
特許文献 2:特開 2002— 228442公報
非特許文献 1 :R. M. Haralick, C. Lee, K. Ottenberg, and M. Nolle : "Revie w and analysis of solutions of the three point perspective pose e stimation problem", Int' l. J. Computer Vision, vol. 13, no. 3, pp. 331— 356, 1994.
特許文献 2 : M. A. Fischler and R. C. Bolles: "Random sample consen sus : a paradigm for model fitting with applications to image analys is and automated cartography", Comm. ACM, vol. 24, no. 6, pp. 381 - 395, 1981.
非特許文献 3:暦本純一: "2次元マトリックスコードを利用した拡張現実感の構成手 法",インタラクティブシステムとソフトウェア IV,近代科学社, 1996.
非特許文献 4:加藤, M. Billinghurst,浅野,橘:"マーカー追跡に基づく拡張現実 感システムとそのキャリブレーション", 日本バーチャルリアリティ学会論文誌, vol. 4, no. 4, pp. 607-616, 1999.
非特許文献 5 : H. Kato, M. Billinghurst, I. Poupyrev, K. Imamoto and K. Tachibana: "Virtual object manipulation on a table— top AR environ ment", Proc. ISAR2000, pp. 111— 119, 2000.
非特許文献 6 : A. State, G. Hirota, D. T. Chen, W. F. Garrett and M. A. Livingston: "Superior augmented reality registration by integrating 1 andmark tracking and magnetic tracking , Proc. SIGLrRAPH' 96, pp. 429-438, 1996.
特許文献 7 : G. Baratoff, A. Neubeck and H. Regenbrecht: "Interactiv e multi— marker calibration for augmented reality applications , Pro c. ISMAR2002, pp. 107—116, 2002.
特許文献 8 : G. Baratoff, A. Neubeck and H. Regenbrecht: "Interactiv e multi— marker calibration for augmented reality applications , Pro c. ISMAR2002, pp. 107—116, 2002.
特許文献 9 : G. Baratoff, A. Neubeck and H. Regenbrecht: "Interactiv e multi— marker calibration for augmented reality applications , Pro
c. ISMAR2002, pp. 107—116, 2002.
発明の開示
発明が解決しょうとする課題
[0025] 本発明は以上の問題に鑑みて成されたものであり、 MR体験時の景観などに影響 を及ぼさな 、程度に指標を配置した場合であっても、ビジョンベースマーカキヤリブレ ーシヨン方法を用いて、それぞれの指標の位置を得るための技術を提供することを目 的とする。
課題を解決するための手段
[0026] 本発明の目的を達成するために、例えば本発明の指標配置計測方法は以下の構 成を備える。
[0027] 即ち、移動可能な撮像装置により現実空間内の複数の指標を撮像することによつ て、指標間の相対的配置関係を計測する方法において、現実空間内のある第 1の領 域に存在する第 1指標もしくは指標群と、第 2の領域に存在する第 2指標もしくは指標 群とが、相対的な配置関係を計測できるに足りる条件で撮像できない配置または条 件にある場合であっても、第 1の領域に存在する第 1指標もしくは指標群と、第 2の領 域に存在する第 2指標もしくは指標群との間の相対的な配置関係を計測する指標配 置計測方法であって、
前記第 1指標 Z指標群の一部または全部と一時的に現実空間内に配置された 3次 元空間における位置および姿勢が定義可能な補助指標との双方が同時に映るよう に撮像する第 1の撮像工程と、
前記第 2指標 Z指標群の一部または全部と前記補助指標との双方が同時に映るよ うに撮像する第 2の撮像工程と、
前記第 1の撮像工程を 1回もしくは複数回繰り返して得られる一枚もしくは複数枚の 画像および、前記第 2の撮像工程を 1回もしくは複数回繰り返して得られる一枚もしく は複数枚の画像から、前記第 1指標 Z指標群と補助指標と前記第 2指標 Z指標群と の相対的な配置関係を算出する配置算出工程と
を備えることを特徴とする。
[0028] 本発明の目的を達成するために、例えば本発明の指標配置計測方法は以下の構
成を備える。
[0029] 即ち、移動可能な撮像装置により現実空間内の複数の指標を撮像することによつ て、指標間の相対的配置関係を計測する方法において、現実空間内のある第 1の領 域に存在する第 1指標もしくは指標群と、第 2の領域に存在する第 2指標もしくは指標 群とが、相対的な配置関係を計測できるに足りる条件で撮像できない配置または条 件にある場合であっても、第 1の領域に存在する第 1指標もしくは指標群と、第 2の領 域に存在する第 2指標もしくは指標群との間の相対的な配置関係を計測する指標配 置計測方法であって、
前記第 1指標 Z指標群の一部または全部と一時的に現実空間内に配置された 3次 元空間における位置および姿勢が定義可能な補助指標との双方が同時に映るよう に撮像する第 1の撮像工程と、
第 1の撮像工程を 1回もしくは複数回繰り返して得られる一枚もしくは複数枚の画像 から、第 1指標 Z指標群と補助指標との相対的な配置関係を算出する第 1の配置算 出工程と、
前記第 2指標 Z指標群の一部または全部と前記補助指標との双方が同時に映るよ うに撮像する第 2の撮像工程と、
前記第 2の撮像工程を 1回もしくは複数回繰り返して得られる一枚もしくは複数枚の 画像から、前記第 2指標 Z指標群と前記補助指標との相対的な配置関係を算出する 第 2の配置算出工程と、
前記第 1の配置算出工程と前記第 2の配置算出工程の結果から、前記第 1指標 Z 指標群と前記第 2指標 Z指標群との相対的配置関係を算出する第 2の配置算出ェ 程と
を備えることを特徴とする。
[0030] 本発明の目的を達成するために、例えば本発明の位置姿勢推定方法は以下の構 成を備える。
[0031] 即ち、移動可能な撮像装置の位置および Zまたは姿勢を、現実空間に存在する指 標を基に推定する位置姿勢推定方法であって、
第 1指標 Z指標群の一部または全部と、一時的に現実空間内に配置された 3次元
空間における位置および姿勢が定義可能な補助指標と、の双方が同時に映るように 撮像する第 1の撮像工程と、
第 1の撮像工程を 1回もしくは複数回繰り返して得られる一枚もしくは複数枚の画像 から、前記第 1指標 Z指標群と補助指標との相対的な配置関係を算出する第 1の配 置算出工程と、
第 2指標 Z指標群の一部または全部と前記補助指標との双方が同時に映るように 撮像する第 2の撮像工程と、
前記第 2の撮像工程を 1回もしくは複数回繰り返して得られる一枚もしくは複数枚の 画像から、前記第 2指標 Z指標群と前記補助指標との相対的な配置関係を算出する 第 2の配置算出工程と、
第 1の配置算出工程と第 2の配置算出工程の結果から、前記第 1指標 Z指標群と 前記第 2指標 Z指標群との相対的配置関係を算出する第 2の配置算出工程と、 前記補助指標を利用せず、前記第 1指標 Z指標群と前記第 2指標 Z指標群の配 置を利用して、前記撮像装置の位置姿勢を推定する撮像装置位置姿勢推定工程と を備えることを特徴とする。
[0032] 本発明の目的を達成するために、例えば本発明の指標配置計測装置は以下の構 成を備える。
[0033] 即ち、移動可能な撮像装置により現実空間内の複数の指標を撮像することによつ て、指標間の相対的配置関係を計測する方法において、現実空間内のある第 1の領 域に存在する第 1指標もしくは指標群と、第 2の領域に存在する第 2指標もしくは指標 群とが、相対的な配置関係を計測できるに足りる条件で撮像できない配置または条 件にある場合であっても、第 1の領域に存在する第 1指標もしくは指標群と、第 2の領 域に存在する第 2指標もしくは指標群との間の相対的な配置関係を計測する指標配 置計測装置であって、
前記第 1指標 Z指標群の一部または全部と一時的に現実空間内に配置された 3次 元空間における位置および姿勢が定義可能な補助指標との双方が同時に映るよう に撮像する第 1の撮像手段と、
前記第 2指標 Z指標群の一部または全部と前記補助指標との双方が同時に映るよ
うに撮像する第 2の撮像手段と、
前記第 1の撮像手段による撮像を 1回もしくは複数回繰り返して得られる一枚もしく は複数枚の画像および、前記第 2の撮像手段による撮像を 1回もしくは複数回繰り返 して得られる一枚もしくは複数枚の画像から、前記第 1指標 Z指標群と補助指標と前 記第 2指標 Z指標群との相対的な配置関係を算出する配置算出手段と
を備えることを特徴とする。
[0034] 本発明の目的を達成するために、例えば本発明の指標配置計測装置は以下の構 成を備える。
[0035] 即ち、移動可能な撮像装置により現実空間内の複数の指標を撮像することによつ て、指標間の相対的配置関係を計測する方法において、現実空間内のある第 1の領 域に存在する第 1指標もしくは指標群と、第 2の領域に存在する第 2指標もしくは指標 群とが、相対的な配置関係を計測できるに足りる条件で撮像できない配置または条 件にある場合であっても、第 1の領域に存在する第 1指標もしくは指標群と、第 2の領 域に存在する第 2指標もしくは指標群との間の相対的な配置関係を計測する指標配 置計測装置であって、
前記第 1指標 Z指標群の一部または全部と一時的に現実空間内に配置された 3次 元空間における位置および姿勢が定義可能な補助指標との双方が同時に映るよう に撮像する第 1の撮像手段と、
第 1の撮像手段による撮像を 1回もしくは複数回繰り返して得られる一枚もしくは複 数枚の画像から、第 1指標 Z指標群と補助指標との相対的な配置関係を算出する第 1の配置算出手段と、
前記第 2指標 Z指標群の一部または全部と前記補助指標との双方が同時に映るよ うに撮像する第 2の撮像手段と、
前記第 2の撮像手段による撮像を 1回もしくは複数回繰り返して得られる一枚もしく は複数枚の画像から、前記第 2指標 Z指標群と前記補助指標との相対的な配置関 係を算出する第 2の配置算出手段と、
前記第 1の配置算出手段と前記第 2の配置算出手段の結果から、前記第 1指標 Z 指標群と前記第 2指標 Z指標群との相対的配置関係を算出する第 2の配置算出手
段と
を備えることを特徴とする。
[0036] 本発明の目的を達成するために、例えば本発明の位置姿勢推定装置は以下の構 成を備える。
[0037] 即ち、移動可能な撮像装置の位置および Zまたは姿勢を、現実空間に存在する指 標を基に推定する位置姿勢推定装置であって、
第 1指標 Z指標群の一部または全部と、一時的に現実空間内に配置された 3次元 空間における位置および姿勢が定義可能な補助指標と、の双方が同時に映るように 撮像する第 1の撮像手段と、
第 1の撮像手段による撮像を 1回もしくは複数回繰り返して得られる一枚もしくは複 数枚の画像から、前記第 1指標 Z指標群と補助指標との相対的な配置関係を算出 する第 1の配置算出手段と、
第 2指標 Z指標群の一部または全部と前記補助指標との双方が同時に映るように 撮像する第 2の撮像手段と、
前記第 2の撮像手段による撮像を 1回もしくは複数回繰り返して得られる一枚もしく は複数枚の画像から、前記第 2指標 Z指標群と前記補助指標との相対的な配置関 係を算出する第 2の配置算出手段と、
第 1の配置算出手段と第 2の配置算出手段の結果から、前記第 1指標 Z指標群と 前記第 2指標 Z指標群との相対的配置関係を算出する第 2の配置算出手段と、 前記補助指標を利用せず、前記第 1指標 Z指標群と前記第 2指標 Z指標群の配 置を利用して、前記撮像装置の位置姿勢を推定する撮像装置位置姿勢推定手段と を備えることを特徴とする。
発明の効果
[0038] 本発明の構成により、 MR体験時の景観などに影響を及ぼさない程度に指標を配 置した場合であっても、ビジョンベースマーカキャリブレーション方法を用いて、それ ぞれの指標の位置を得ることができる。
[0039] 本発明のその他の特徴及び利点は、添付図面を参照とした以下の説明により明ら かになるであろう。なお、添付図面においては、同じ若しくは同様の構成には、同じ
参照番号を付す。
図面の簡単な説明
[0040] 添付図面は明細書に含まれ、その一部を構成し、本発明の実施の形態を示し、そ の記述と共に本発明の原理を説明するために用いられる。
[図 1]2つのマーカを 1つのグループとする場合に、 2つのグループのそれぞれをカメ ラによって撮像する場合に、マーカ間の配置関係を求める場合の問題について示す 図である。
[図 2A]現実空間中に配される様々なマーカを示す図である。
[図 2B]現実空間中に配される様々なマーカを示す図である。
[図 2C]現実空間中に配される様々なマーカを示す図である。
[図 3]本発明の実施形態に係るシステムの機能構成を示す図である。
[図 4]現実空間中に配されたそれぞれの位置合わせ用マーカの配置位置姿勢を求 める処理のフローチャートである。
[図 5]位置合わせ用マーカにカ卩えて橋渡しマーカを配した現実空間を 2つのカメラに より撮像する場合に、それぞれの撮像画像内に橋渡しマーカを共有している様子を 示す図である。
[図 6]操作入力部 350、映像取り込み部 320、指標検出同定部 340、マーカキヤリブ レーシヨン部 360、指標情報管理部 370、表示オブジェクト生成.表示部 380のそれ ぞれの機能を有するコンピュータの基本構成を示すブロック図である。
[図 7]現実空間中に配されたそれぞれの位置合わせ用マーカの配置位置姿勢を求 める為の作業のフローチャートである。
発明を実施するための最良の形態
[0041] 以下添付図面を参照して、本発明を好適な実施形態に従って詳細に説明する。
[0042] [第 1の実施形態]
本実施形態では、上記ビジョンベースマーカキャリブレーションに従って、複数の指 標が配された現実空間の画像を用いて、それぞれの指標の配置関係を求める。なお 、これらの指標は MRや ARの技術分野で用いられているように、現実空間と仮想空 間の間の位置合わせを行う際に用いるものである。
[0043] 本実施形態では上記指標の配置位置姿勢を求めるために、「橋渡し指標」なるもの を新たに現実空間中に配置する。また、本実施形態では「指標」として「マーカ」を用 いるものとする。また、以下では橋渡し指標ではない指標を、橋渡し指標と区別する ために「位置合わせ用マーカ」と呼称し、橋渡し指標を「橋渡しマーカ」と呼称する。ま た、以下の説明で単に「マーカ」と呼称する場合には、位置合わせ用マーカ、橋渡し マーカの両方を含むものとする。
[0044] なお、以下の実施形態では、位置合わせ指標として、人工的に配置したマーカを 用いて説明するが、もともと現実世界に存在する自然特徴を指標を用いても構わな い。一方、橋渡しマーカは、マーカキャリブレーションのためにユーザが人工的に配 置する指標であるので、人工的に配置された指標である。
[0045] 図 2A〜2Cは、現実空間中に配される様々なマーカを示す図である。図 2Aは点指 標を示しており、各指標は、現実空間を撮像したことにより得られる画像において識 別、検出できるように、それぞれ異なる色を有していると共に、全て円形形状を有して いる。また、画像における点マーカの位置としては、画像における点マーカの領域の 重心位置を用いる。
[0046] 図 2B、 2Cはそれぞれ多角形の指標を示すものであり、図 2Bは三角形のマーカ、 図 2Cは四角形のマーカを示す。多角形指標は画像上で容易に検出可能なように色 枠で囲まれているので、枠内部を指標であるとする。さらに多角形内部にはそれぞれ に異なるパターンが埋め込まれており、例えば内部をテンプレートマッチングすること などによりそれぞれの指標内部に配されたマーカ固有のパターンを特定することがで きるので、これにより、それぞれのマーカを識別することができる。
[0047] 本実施形態では位置合わせ用マーカ、橋渡しマーカの何れにどのようなマーカを 用いても良いのである力 位置合わせ用マーカとして用いるマーカ、橋渡しマーカと して用いるマーカを決めると、それぞれのマーカについての情報を後述するコンビュ ータ内に登録しておく必要がある。
[0048] ここで更に、橋渡しマーカについて説明する。橋渡しマーカは、一方の画像におけ る位置合わせ用マーカと、他方の画像における位置合わせ用マーカとの配置関係を 求めるために、現実空間中に配されるものであり、その機能は換言すると、一方の画
像における位置合わせ用マーカが属する座標系 Aと、他方の画像における位置合わ せ用マーカが属する座標系 Bとの位置姿勢関係を求めるためのものである。この機 能を実現するためには、橋渡しマーカの座標系 Aにおける位置姿勢、座標系 Bにお ける位置姿勢を算出することが必要となる。ここで、同一直線上に並ばない識別可能 な 3点が与えられるマーカ(例えばそれぞれの頂点が識別できる三角形指標)であれ ば、位置姿勢は求めることができる。
[0049] また、「座標系 A、及び座標系 Bの双方において既知である平面上に、橋渡しマー 力が存在する」という条件が与えられている場合には、橋渡しマーカは識別可能な 2 点のみの指標であっても、座標系 Aにおける位置姿勢および、座方形 Bにおける位 置姿勢が算出可能である。よって、橋渡しマーカは識別可能な特徴点を 2つ有する 形状であってもよい。本実施形態では、特別な拘束条件がなくても橋渡しマーカとし て利用できるように、向きが識別できる三角形指標を橋渡しマーカとして用いる。
[0050] 図 3は、本実施形態に係るシステムの機能構成を示す図である。
[0051] 撮影部 310は、現実空間の画像を撮像するカメラとして機能するものである。なお、 撮影部 310は、現実空間の静止画像を複数回に分けて撮像するタイプのものであつ ても良 、し、現実空間の動画像を撮像するタイプのものであっても良 、。
[0052] 撮影位置姿勢計測部 330は、撮影部 310に取り付けられ、撮影部 310の位置姿勢 を計測し、計測結果を指標検出同定部 340に出力する。。例えば撮影位置姿勢計 測部 330が磁気センサである場合には、磁気の発信源の位置を原点とし、この原点 で互いに直交する 3軸をそれぞれ x、 y、 z軸とする座標系(センサ座標系)における自 身の位置姿勢を計測する。なお、撮影位置姿勢計測部 330に適用可能なセンサは 磁気センサに限定されず、例えば光センサなど他の方式のセンサを適用することも 可能である。さらには、 6自由度を計測するセンサではなぐ姿勢のみの 3自由度を計 測するジャイロなどを適用することも可能である。
[0053] 撮影映像取り込み部 320は、撮影部 310が撮像した画像を取り込み、指標検出同 定部 340に出力する。
[0054] 指標検出同定部 340は、撮影映像取り込み部 320から受けた画像に含まれている それぞれのマーカ (位置合わせ用マーカ、橋渡しマーカを含む)の画像座標値を検
出する処理を行うと共に、それぞれのマーカを一意に識別する処理を行う。マーカの 識別は、指標情報管理部 370に登録されている各マーカに固有の情報を用いれて 行う。そして、識別したマーカ iの識別子、マーカ iの画像上における画像座標値、こ の画像固有の識別子 (例えばフレーム番号)、そして撮影位置姿勢計測部 330から 受けた撮影部 310の位置姿勢情報をセットにして、マーカキャリブレーション部 360 に出力する。そしてこのような処理を撮影映像取り込み部 320から受けた画像毎に行
[0055] マーカキャリブレーション部 360は、現実空間中に配されたそれぞれの位置合わせ 用マーカの配置情報 (配置位置または配置位置姿勢)を求める処理を行う。そして位 置合わせ用マーカ iの配置情報を求めると、求めた配置情報と、この位置合わせ用マ 一力 iを識別するための識別子をセットにして指標情報管理部 370に登録する。
[0056] マーカキャリブレーション部 360は、位置合わせ用マーカの配置情報を求めるため に、位置合わせ用マーカおよび橋渡しマーカの双方を利用して、例えば、バンドル 調整法などを使用してマーカの配置情報を算出する。すなわち、位置合わせ用マー 力と橋渡しマーカとを特に区別することなく利用することで、位置合わせ用マーカ iの は位置情報を算出する。
[0057] 操作入力部 350は、撮影位置姿勢計測部 330、撮影映像取り込み部 320指標検 出同定部 340に対する動作指示を入力するものであり、撮影位置姿勢計測部 330、 撮影映像取り込み部 320、指標検出同定部 340は操作入力部 350からの動作指示 を受けると動作する。
[0058] 指標情報管理部 370には、上述のように、各マーカを識別するための情報 (各マー 力について、マーカに固有の識別子、マーカの形状、マーカ内部の特徴 (枠内に記 載された文字、記号等)、マーカの種類情報 (位置合わせマーカ、橋渡しマーカ))が が登録されている。そして、マーカキャリブレーション部 360から出力された位置合わ せ用マーカの配置情報と、この位置合わせ用マーカを識別するための識別子とのセ ットが登録される。
[0059] 指標情報設定部 390は、マーカキャリブレーション部 360によって更新された指標 情報から、マーカの種類情報を用いて橋渡しマーカの情報を削除し、 MRや ARにお
ける位置合わせに必要な指標情報を生成し、設定する。 橋渡しマーカは、マーカキ ヤリブレーシヨン時は配置される力 MRや ARを体験する際は削除される。したがつ て、 MRや AR実行時の位置合わせ処理では橋渡しマーカの情報は不必要である。 本実施形によれば、指標情報設定部 390において橋渡しマーカの情報を自動的に 削除することができるので、ユーザの負荷を軽減することができる。
[0060] 表示オブジェクト生成'表示部 380は、マーカキャリブレーション部 360が指標情報 管理部 370に登録したセットのデータおよび孤立点マーカチェック結果を表示する。 表示形態にっ 、ては特に限定するものではな 、。
[0061] 図 6は、上記操作入力部 350、映像取り込み部 320、指標検出同定部 340、マーカ キャリブレーション部 360、指標情報管理部 370、表示オブジェクト生成'表示部 380 のそれぞれの機能を有するコンピュータの基本構成を示すブロック図である。
[0062] 601は CPUで、 RAM602や ROM603に格納されているプログラムやデータを用 いて本コンピュータ全体の制御を行うと共に、コンピュータが行う後述の各処理を実 行する。
[0063] 602は RAMで、外部記憶装置 606からロードされたプログラムやデータを一時的 に記憶する為のエリアを備えると共に、 CPU601が各処理を実行する際に用いるヮ ークエリアを備える。
[0064] 603は ROMで、本コンピュータの設定データや、ブートプログラムなどを格納する
[0065] 604は操作部で、キーボードやマウスなどにより構成されており、本コンピュータの 操作者が操作することで各種の指示を CPU601に対して入力することができる。
[0066] 605は表示部で、 CRTや液晶画面などにより構成されており、 CPU601による処 理結果を画像や文字などでもって表示することができる。
[0067] 606は外部記憶装置で、ハードディスクドライブ装置などの大容量情報記憶装置と して機能するものであり、ここに OS (オペレーティングシステム)や、 CPU601に本コ ンピュータが行う後述の各処理を実行させるためのプログラムやデータ等が保存され ており、これらの一部若しくは全部は CPU601による制御に従って RAM602にロー ドされ、 CPU601による処理対象となる。
[0068] 607は IZFで、ここに上記撮影部 310や撮影位置姿勢計測部 330を接続すること 力 Sでき、撮影部 310が撮影した画像、撮影位置姿勢計測部 330が計測した撮影部 3 10の位置姿勢情報はこの IZF607を介して本コンピュータに入力される。
[0069] 608は上述の各部を繋ぐバスである。
[0070] 次に、現実空間中に配されたそれぞれの位置合わせ用マーカの配置位置姿勢を 求める為の作業について、この作業のフローチャートを示す図 7を用いて以下説明 する。同図のフローチャートにおいて、ステップ S701における処理は上記構成を有 するコンピュータが行うのである力 それ以外のステップにおける処理 (作業)は、人 が行うものである。
[0071] 先ず、マーカキャリブレーション処理(図 4のステップ S410〜ステップ S450の処理 に対応する)を上記コンピュータによって行う(ステップ S701)。
[0072] そしてステップ S701のマーカキャリブレーション結果、孤立点(孤立マーカ)となつ ている位置合わせ用マーカが残っているか否かをチェックする(ステップ S 702)。さら に、チェック結果を表示する。具体的には、登録したセットデータの表示において、孤 立点マーカを区別するような表示 (色づけ、マーカ付け)を行う。ユーザは、この表示 を確認することにより、孤立マーカを簡単に把握することができる。
[0073] ここで、橋渡しマーカは孤立マーカであるかどうかの判断の対象にはしない。その 理由は、橋渡しマーカは位置合わせ用マーカの配置情報を算出するために補助的 に利用されるものであり、 AR体験時には利用しない指標であることから、孤立マーカ であっても問題な!/、ためである。
[0074] 孤立マーカとは、座標系を共通化できていない位置合わせ用マーカである。例え ば、図 1の場合は、マーカキャリブレーションにおいて、マーカ 101aおよびマーカ 10 lbが第 1の座標系で定義され、マーカ 102aおよびマーカ 102bが第 2の座標系で定 義される。この場合、第 1の座標系と第 2の座標系は独立した座標系となるので、第 1 の座標系を基準として考えた場合、第 2の座標系で定義されているマーカ 102aおよ びマーカ 102bは孤立マーカと判断される。これに対して、図 5に示される場合は、マ 一力 101a、マーカ 101b、マーカ 102a、マーカ 102bおよびマーカ 505が同一の座 標系で定義される。よって、図 5に示される場合は、孤立マーカは無しと判断される。
[0075] 位置合わせ用マーカにおいて、孤立マーカとなるものが残っている場合には、現実 空間の画像の枚数が少ない、又は橋渡しマーカが不足していることが原因であるの で、孤立マーカが孤立していないマーカと結びつけられるように、橋渡しマーカをす る (ステップ S 703)。そしてステップ S 701以降の作業を繰り返す。
[0076] 一方、孤立点となるものが残って 、な 、場合には、ステップ S703で配した橋渡しマ 一力を排除する (ステップ S704)。
[0077] このように、マーカキャリブレーションを行うときにのみ橋渡しマーカを配し、マーカ キャリブレーションが終わると橋渡しマーカは排除する。
[0078] 次に、上記構成を有するコンピュータが行うステップ S701における処理、即ち、現 実空間中に配されたそれぞれの位置合わせ用マーカの配置位置姿勢を求める処理 について、同処理のフローチャートを示す図 4を用いて説明する。なお、同図のフロ 一チャートに従つた処理を CPU601に実行させるためのプログラムやデータは外部 記憶装置 606に保存されており、これを CPU601の制御に従って RAM602にロー ドし、 CPU601がこれを用いて処理を実行することで、本コンピュータは以下説明す る各処理を実行することになる。
[0079] 先ず、現実空間中に配した各マーカに関する情報を外部記憶装置 606に登録す る(ステップ S410)。登録方法については例えば表示部 380の表示画面上に、現実 空間中に配した各マーカに関する情報を登録するための GUIを表示し、操作者が操 作部 604を操作して GUIを介して各マーカに関する情報を入力する。そして操作者 の操作により操作部 604から入力完了の指示が入力されると、ステップ S410で CPU 601はこれを検知し、 GUIを介して入力された各マーカに関する情報を外部記憶装 置 606に登録する。
[0080] ここで、各マーカに関する情報としては、マーカに固有の識別子 (例えば ID)、マー 力の形状、マーカ内部の特徴 (枠内に記載された文字、記号等)、マーカの種類情報 (位置合わせマーカ、橋渡しマーカ)があり、これらのセットを、現実空間中に配された 各マーカにつ 、て外部記憶装置 606に登録する。
[0081] 図 4に戻って次に、操作部 604からの動作指示入力を受け付け (ステップ S420)、 現実空間を撮像する旨の指示を検知した場合には処理をステップ S430に進め、撮
影部 310から入力される画像を一端 RAM602に格納し (ステップ S430)、この画像 に含まれている各マーカを識別すると共に、各マーカの画像における座標位置を特 定する処理を行う(ステップ S440)。
[0082] なお、マーカの識別結果 (識別したマーカの識別子)、このマーカの画像座標値、、 そして撮影位置姿勢計測部 330から取得される撮影部 310の (おおよその)位置姿 勢情報は、対応づけられて検出情報として外部記憶装置 606に登録される (ステップ S445)。これにより、ステップ S430で取得した画像に含まれるそれぞれのマーカに ついて検出情報を外部記憶装置 606に登録することができる。
[0083] そして処理をステップ S420に戻し、次の動作指示を待つ。一方、ステップ S420に おいて現実空間の撮影を終了し、以下説明するマーカキャリブレーションを行う旨の 動作指示が操作部 604を介して入力されたことを CPU601が検知した場合には処 理をステップ S450に進め、現実空間中に配されたそれぞれの位置合わせ用マーカ の配置情報を求める。所謂以下説明するマーカキャリブレーション処理を行う(ステツ プ S450)。
[0084] この処理を行うためには、、撮影位置姿勢計測部 330から取得された撮影部 310 の(おおよその)位置姿勢情報を用いる。この「位置姿勢」は、世界座標系(現実空間 中の 1点を原点とし、この原点でもって互いに直交する 3軸をそれぞれ x、 y、 zとする 座標系)におけるものでも良いし、その計算内容に応じて適宜どのような座標系に変 換しても良い。
[0085] マーカキャリブレーション処理では得られたそれぞれのマーカの識別結果 (識別し たマーカの識別子)、画像座標値、この画像の撮影時における撮像装置の位置姿勢 情報のセットを用いて、例えばバンドル調整によって、このそれぞれのマーカの配置 位置姿勢を求める処理が行われ、結果が指標情報管理部 470に送られる。
[0086] 図 5は、位置合わせ用マーカに加えて橋渡しマーカを配した現実空間を 2つの位 置姿勢から撮像する場合に、 2つの撮像画像内に同一の橋渡しマーカが撮影されて いる様子を示す図である。なお、同図において図 1と同じ部分については同じ番号を 付けており、その説明は省略する。
[0087] 同図に示す如ぐカメラ 101とカメラ 102とはそれぞれ橋渡しマーカ 505を共有して
撮像画像 501, 502を得る。なお、カメラ 101とカメラ 102は異なるカメラを用いても撮 影しても構わない。
[0088] そしてこのような処理によって得られたそれぞれのマーカの識別子とマーカの配置 位置姿勢とをセットにして外部記憶装置 606に登録する処理を行う。
[0089] このようにして、現実空間中に配された位置合わせ用マーカの配置位置姿勢を求 めることができる。
[0090] 以上の説明により、本実施形態によって、位置合わせ用マーカの配置位置姿勢を 求める際に、位置合わせ用マーカの数が少なぐ疎である場合には、このような橋渡 しマーカを配置することで、位置合わせ用マーカの配置位置を算出することができる 。なお、橋渡しマーカは、位置合わせ用マーカの配置を算出するときにだけ配置 Z 投影され、 MR体験時には排除されるため、景観をそこなうという問題も起こらない。
[0091] 本実施形態では、位置合わせ用マーカと橋渡し用マーカとを区別するために、指 標情報としてマーカの種類情報を用いた。しかしながら、他の方法を用いて位置合わ せ用マーカと橋渡し用マーカとを区別しても構わない。例えば、橋渡し用マーカに対 して、位置合わせ用マーカとは異なる特有の形状のマーカを使用しても構わない。ま た、、位置合わせ用マーカおよび橋渡しマーカの双方を同じ形状のマーカ(例えば 三角形マーカ)で定義し、双方の区別を IDで行なうようにすることも可能である。この ように、コンピュータ内に位置合わせ用マーカと橋渡しマーカを区別して登録できる 実施形態であればどのような形態であってもよい。
[0092] [変形例 1]
本変形例では、第 1の実施形態の変形例として、第 1の実施形態とは異なる方法で もって、マーカキャリブレーション処理を行う例を説明する。即ち、本実施形態に係る マーカキャリブレーション処理では先ず、任意の 1つの画像(以下、この画像を基準 画像と呼称する)に含まれて 、るそれぞれのマーカの画像座標値を用いて例えば上 記バンドル調整によって、このそれぞれのマーカの配置位置姿勢 (および画像撮影 時の撮影部 310の位置姿勢)を求める処理を行う。
[0093] ここで配置位置姿勢を求めた位置合わせ用マーカの 1つを以下、「第 1の位置合わ せ用マーカ」と呼称する。また、基準画像内には橋渡しマーカも含まれているので、こ
の橋渡しマーカの配置位置姿勢も当然求まっている。ここで、基準画像に含まれてい る橋渡しマーカを以下「基準橋渡しマーカ」と呼称する。また、第 1の位置合わせ用マ 一力の配置位置姿勢と基準画像力 求めた基準橋渡しマーカの配置位置姿勢との 配置位置関係を T1とする。
[0094] 次に、この基準橋渡しマーカを含む他の画像 (以下、別画像と呼称)に含まれて!/ヽ るそれぞれの位置合わせ用マーカの配置位置姿勢を求める場合には以下の処理を 行う。先ず、他画像に含まれているそれぞれのマーカの画像座標値を用いて例えば 上記バンドル調整によって、このそれぞれのマーカの配置位置姿勢を求める。しかし 、求めた配置位置姿勢は、この他画像内に含まれているマーカが従った座標系によ るものである。本実施形態では全ての位置合わせ用マーカの配置位置姿勢を、上記 第 1の位置合わせ用マーカが属する座標系(以下、基準座標系)に従ったものに統 一する。
[0095] よってこの場合、別画像から求めた位置合わせ用マーカの配置位置姿勢と、他画 像における基準橋渡しマーカとの配置位置姿勢関係に上記 T1を示す行列の逆変 換行列でもって補正すればよい。これにより、別画像から求めた位置合わせ用マーカ の配置位置姿勢は、上記基準座標系に従ったものとなり、これにより、別画像から求 めた位置合わせ用マーカと第 1の位置合わせ用マーカとの配置位置姿勢関係を求 めることができる。
[0096] そして、このような処理を各画像について行うことで、上記第 1の位置合わせ用マー 力の属する座標系における、それぞれの位置合わせ用マーカの配置位置姿勢を求 めることができる。
[0097] よって、このような処理を行うためには、それぞれの撮像画像は、ある画像に含まれ て!、る 1以上の橋渡しマーカのうち 1以上は必ず何れかの画像に含まれて 、るように 撮像する必要がある。
[0098] [その他の実施形態]
また、本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプロダラ ムコードを記録した記録媒体 (または記憶媒体)を、システムある!/、は装置に供給し、 そのシステムあるいは装置のコンピュータ(または CPUや MPU)が記録媒体に格納
されたプログラムコードを読み出し実行することによつても、達成されることは言うまで もない。この場合、記録媒体力 読み出されたプログラムコード自体が前述した実施 形態の機能を実現することになり、そのプログラムコードを記録した記録媒体は本発 明を構成することになる。
[0099] また、コンピュータが読み出したプログラムコードを実行することにより、前述した実 施形態の機能が実現されるだけでなぐそのプログラムコードの指示に基づき、コンビ ユータ上で稼働して 、るオペレーティングシステム(OS)などが実際の処理の一部ま たは全部を行!ヽ、その処理によって前述した実施形態の機能が実現される場合も含 まれることは言うまでもな!/、。
[0100] さらに、記録媒体力も読み出されたプログラムコード力 コンピュータに挿入された 機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込 まれた後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ュ ニットに備わる CPUなどが実際の処理の一部または全部を行い、その処理によって 前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
[0101] 本発明を上記記録媒体に適用する場合、その記録媒体には、先に説明したフロー チャートに対応するプログラムコードが格納されることになる。
[0102] 本発明は上記の実施の形態に制限されるものではなぐ本発明の精神及び範囲か ら離脱することなぐ様々な変更及び変形が可能である。従って、本発明の範囲を公 にするために、以下の請求項を添付する。
[0103] 本願は、 2005年 2月 2日提出の日本国特許出願特願 2005— 026879を基礎とし て優先権を主張するものであり、その記載内容の全てを、ここに援用する。
Claims
請求の範囲
[1] 移動可能な撮像装置により現実空間内の複数の指標を撮像することによって、指 標間の相対的配置関係を計測する方法において、現実空間内のある第 1の領域に 存在する第 1指標もしくは指標群と、第 2の領域に存在する第 2指標もしくは指標群と 力 相対的な配置関係を計測できるに足りる条件で撮像できない配置または条件に ある場合であっても、第 1の領域に存在する第 1指標もしくは指標群と、第 2の領域に 存在する第 2指標もしくは指標群との間の相対的な配置関係を計測する指標配置計 測方法であって、
前記第 1指標 Z指標群の一部または全部と一時的に現実空間内に配置された 3次 元空間における位置および姿勢が定義可能な補助指標との双方が同時に映るよう に撮像する第 1の撮像工程と、
前記第 2指標 Z指標群の一部または全部と前記補助指標との双方が同時に映るよ うに撮像する第 2の撮像工程と、
前記第 1の撮像工程を 1回もしくは複数回繰り返して得られる一枚もしくは複数枚の 画像および、前記第 2の撮像工程を 1回もしくは複数回繰り返して得られる一枚もしく は複数枚の画像から、前記第 1指標 Z指標群と補助指標と前記第 2指標 Z指標群と の相対的な配置関係を算出する配置算出工程と
を備えることを特徴とする指標配置計測方法。
[2] 移動可能な撮像装置により現実空間内の複数の指標を撮像することによって、指 標間の相対的配置関係を計測する方法において、現実空間内のある第 1の領域に 存在する第 1指標もしくは指標群と、第 2の領域に存在する第 2指標もしくは指標群と 力 相対的な配置関係を計測できるに足りる条件で撮像できない配置または条件に ある場合であっても、第 1の領域に存在する第 1指標もしくは指標群と、第 2の領域に 存在する第 2指標もしくは指標群との間の相対的な配置関係を計測する指標配置計 測方法であって、
前記第 1指標 Z指標群の一部または全部と一時的に現実空間内に配置された 3次 元空間における位置および姿勢が定義可能な補助指標との双方が同時に映るよう に撮像する第 1の撮像工程と、
第 1の撮像工程を 1回もしくは複数回繰り返して得られる一枚もしくは複数枚の画像 から、第 1指標 Z指標群と補助指標との相対的な配置関係を算出する第 1の配置算 出工程と、
前記第 2指標 Z指標群の一部または全部と前記補助指標との双方が同時に映るよ うに撮像する第 2の撮像工程と、
前記第 2の撮像工程を 1回もしくは複数回繰り返して得られる一枚もしくは複数枚の 画像から、前記第 2指標 Z指標群と前記補助指標との相対的な配置関係を算出する 第 2の配置算出工程と、
前記第 1の配置算出工程と前記第 2の配置算出工程の結果から、前記第 1指標 Z 指標群と前記第 2指標 Z指標群との相対的配置関係を算出する第 2の配置算出ェ 程と
を備えることを特徴とする指標配置計測方法。
[3] 前記補助指標の視覚的特徴は予め定められたものであることを特徴とする請求項 1 に記載の指標配置計測方法。
[4] 前記補助指標は、前記現実空間に配されたそれぞれの指標の配置関係を求めた 後は除去されるものであることを特徴とする請求項 1に記載の指標配置計測方法。
[5] 前記補助指標は、物理的に配置、もしくは現実空間内のある表面に対して投影機 により投影することによって光学的に配置された補助マーカであることを特徴とする請 求項 1に記載の指標配置計測方法。
[6] 移動可能な撮像装置の位置および Zまたは姿勢を、現実空間に存在する指標を 基に推定する位置姿勢推定方法であって、
第 1指標 Z指標群の一部または全部と、一時的に現実空間内に配置された 3次元 空間における位置および姿勢が定義可能な補助指標と、の双方が同時に映るように 撮像する第 1の撮像工程と、
第 1の撮像工程を 1回もしくは複数回繰り返して得られる一枚もしくは複数枚の画像 から、前記第 1指標 Z指標群と補助指標との相対的な配置関係を算出する第 1の配 置算出工程と、
第 2指標 Z指標群の一部または全部と前記補助指標との双方が同時に映るように
撮像する第 2の撮像工程と、
前記第 2の撮像工程を 1回もしくは複数回繰り返して得られる一枚もしくは複数枚の 画像から、前記第 2指標 Z指標群と前記補助指標との相対的な配置関係を算出する 第 2の配置算出工程と、
第 1の配置算出工程と第 2の配置算出工程の結果から、前記第 1指標 Z指標群と 前記第 2指標 Z指標群との相対的配置関係を算出する第 2の配置算出工程と、 前記補助指標を利用せず、前記第 1指標 Z指標群と前記第 2指標 Z指標群の配 置を利用して、前記撮像装置の位置姿勢を推定する撮像装置位置姿勢推定工程と を備えることを特徴とする位置姿勢推定方法。
[7] 移動可能な撮像装置により現実空間内の複数の指標を撮像することによって、指 標間の相対的配置関係を計測する方法において、現実空間内のある第 1の領域に 存在する第 1指標もしくは指標群と、第 2の領域に存在する第 2指標もしくは指標群と 力 相対的な配置関係を計測できるに足りる条件で撮像できない配置または条件に ある場合であっても、第 1の領域に存在する第 1指標もしくは指標群と、第 2の領域に 存在する第 2指標もしくは指標群との間の相対的な配置関係を計測する指標配置計 測装置であって、
前記第 1指標 Z指標群の一部または全部と一時的に現実空間内に配置された 3次 元空間における位置および姿勢が定義可能な補助指標との双方が同時に映るよう に撮像する第 1の撮像手段と、
前記第 2指標 Z指標群の一部または全部と前記補助指標との双方が同時に映るよ うに撮像する第 2の撮像手段と、
前記第 1の撮像手段による撮像を 1回もしくは複数回繰り返して得られる一枚もしく は複数枚の画像および、前記第 2の撮像手段による撮像を 1回もしくは複数回繰り返 して得られる一枚もしくは複数枚の画像から、前記第 1指標 Z指標群と補助指標と前 記第 2指標 Z指標群との相対的な配置関係を算出する配置算出手段と
を備えることを特徴とする指標配置計測装置。
[8] 移動可能な撮像装置により現実空間内の複数の指標を撮像することによって、指 標間の相対的配置関係を計測する方法において、現実空間内のある第 1の領域に
存在する第 1指標もしくは指標群と、第 2の領域に存在する第 2指標もしくは指標群と が、相対的な配置関係を計測できるに足りる条件で撮像できない配置または条件に ある場合であっても、第 1の領域に存在する第 1指標もしくは指標群と、第 2の領域に 存在する第 2指標もしくは指標群との間の相対的な配置関係を計測する指標配置計 測装置であって、
前記第 1指標 Z指標群の一部または全部と一時的に現実空間内に配置された 3次 元空間における位置および姿勢が定義可能な補助指標との双方が同時に映るよう に撮像する第 1の撮像手段と、
第 1の撮像手段による撮像を 1回もしくは複数回繰り返して得られる一枚もしくは複 数枚の画像から、第 1指標 Z指標群と補助指標との相対的な配置関係を算出する第 1の配置算出手段と、
前記第 2指標 Z指標群の一部または全部と前記補助指標との双方が同時に映るよ うに撮像する第 2の撮像手段と、
前記第 2の撮像手段による撮像を 1回もしくは複数回繰り返して得られる一枚もしく は複数枚の画像から、前記第 2指標 Z指標群と前記補助指標との相対的な配置関 係を算出する第 2の配置算出手段と、
前記第 1の配置算出手段と前記第 2の配置算出手段の結果から、前記第 1指標 Z 指標群と前記第 2指標 Z指標群との相対的配置関係を算出する第 2の配置算出手 段と
を備えることを特徴とする指標配置計測装置。
移動可能な撮像装置の位置および Zまたは姿勢を、現実空間に存在する指標を 基に推定する位置姿勢推定装置であって、
第 1指標 Z指標群の一部または全部と、一時的に現実空間内に配置された 3次元 空間における位置および姿勢が定義可能な補助指標と、の双方が同時に映るように 撮像する第 1の撮像手段と、
第 1の撮像手段による撮像を 1回もしくは複数回繰り返して得られる一枚もしくは複 数枚の画像から、前記第 1指標 Z指標群と補助指標との相対的な配置関係を算出 する第 1の配置算出手段と、
第 2指標 Z指標群の一部または全部と前記補助指標との双方が同時に映るように 撮像する第 2の撮像手段と、
前記第 2の撮像手段による撮像を 1回もしくは複数回繰り返して得られる一枚もしく は複数枚の画像から、前記第 2指標 Z指標群と前記補助指標との相対的な配置関 係を算出する第 2の配置算出手段と、
第 1の配置算出手段と第 2の配置算出手段の結果から、前記第 1指標 Z指標群と 前記第 2指標 Z指標群との相対的配置関係を算出する第 2の配置算出手段と、 前記補助指標を利用せず、前記第 1指標 Z指標群と前記第 2指標 Z指標群の配 置を利用して、前記撮像装置の位置姿勢を推定する撮像装置位置姿勢推定手段と を備えることを特徴とする位置姿勢推定装置。
[10] コンピュータに請求項 1に記載の指標配置計測方法を実行させることを特徴とする プログラム。
[11] コンピュータに請求項 6に記載の位置姿勢推定方法を実行させることを特徴とする プログラム。
[12] 請求項 10に記載のプログラムを格納したことを特徴とする、コンピュータ読み取り可 能な記憶媒体。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US11/611,404 US7664341B2 (en) | 2005-02-02 | 2006-12-15 | Index layout measurement method, position and orientation estimation method, index layout measurement apparatus, and position and orientation estimation apparatus |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005-026879 | 2005-02-02 | ||
JP2005026879A JP4599184B2 (ja) | 2005-02-02 | 2005-02-02 | 指標配置計測方法、指標配置計測装置 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
US11/611,404 Continuation US7664341B2 (en) | 2005-02-02 | 2006-12-15 | Index layout measurement method, position and orientation estimation method, index layout measurement apparatus, and position and orientation estimation apparatus |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2006082825A1 true WO2006082825A1 (ja) | 2006-08-10 |
Family
ID=36777209
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2006/301620 WO2006082825A1 (ja) | 2005-02-02 | 2006-02-01 | 指標配置計測方法、位置姿勢推定方法、指標配置計測装置、位置姿勢推定装置 |
Country Status (3)
Country | Link |
---|---|
US (1) | US7664341B2 (ja) |
JP (1) | JP4599184B2 (ja) |
WO (1) | WO2006082825A1 (ja) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008122109A (ja) * | 2006-11-08 | 2008-05-29 | Canon Inc | 情報処理装置、情報処理方法 |
JP2008249407A (ja) * | 2007-03-29 | 2008-10-16 | Canon Inc | 画像処理装置、画像処理方法 |
CN105791626A (zh) * | 2013-04-25 | 2016-07-20 | 胡妍 | 一种折叠型拍照式扫描仪 |
CN105872282A (zh) * | 2013-04-25 | 2016-08-17 | 高燕妮 | 具有感应开关的便携式高拍仪 |
CN105872294A (zh) * | 2013-04-25 | 2016-08-17 | 高燕妮 | 一种折叠式扫描仪 |
CN105872301A (zh) * | 2013-04-25 | 2016-08-17 | 申清章 | 具有感应开关的小型扫描仪 |
CN106101478A (zh) * | 2013-04-25 | 2016-11-09 | 滁州华尊电气科技有限公司 | 一种高速扫描仪 |
Families Citing this family (36)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4914039B2 (ja) * | 2005-07-27 | 2012-04-11 | キヤノン株式会社 | 情報処理方法および装置 |
US20070065004A1 (en) * | 2005-08-01 | 2007-03-22 | Topcon Corporation | Three-dimensional measurement system and method of the same, and color-coded mark |
JP4876056B2 (ja) * | 2007-11-16 | 2012-02-15 | キヤノン株式会社 | 画像処理装置、画像処理方法 |
US9058764B1 (en) * | 2007-11-30 | 2015-06-16 | Sprint Communications Company L.P. | Markers to implement augmented reality |
JP5207719B2 (ja) * | 2007-12-05 | 2013-06-12 | 株式会社トプコン | カラーコード付き標識、カラーコード抽出手段及び三次元計測システム |
CN105787764A (zh) | 2008-03-05 | 2016-07-20 | 电子湾有限公司 | 用于图像识别服务的方法和设备 |
US9495386B2 (en) | 2008-03-05 | 2016-11-15 | Ebay Inc. | Identification of items depicted in images |
JP5111210B2 (ja) * | 2008-04-09 | 2013-01-09 | キヤノン株式会社 | 画像処理装置、画像処理方法 |
US8542906B1 (en) | 2008-05-21 | 2013-09-24 | Sprint Communications Company L.P. | Augmented reality image offset and overlay |
US8839121B2 (en) * | 2009-05-06 | 2014-09-16 | Joseph Bertolami | Systems and methods for unifying coordinate systems in augmented reality applications |
JP5290864B2 (ja) * | 2009-05-18 | 2013-09-18 | キヤノン株式会社 | 位置姿勢推定装置及び方法 |
JP5567908B2 (ja) * | 2009-06-24 | 2014-08-06 | キヤノン株式会社 | 3次元計測装置、その計測方法及びプログラム |
US9164577B2 (en) * | 2009-12-22 | 2015-10-20 | Ebay Inc. | Augmented reality system, method, and apparatus for displaying an item image in a contextual environment |
JP5746477B2 (ja) | 2010-02-26 | 2015-07-08 | キヤノン株式会社 | モデル生成装置、3次元計測装置、それらの制御方法及びプログラム |
JP5297403B2 (ja) | 2010-02-26 | 2013-09-25 | キヤノン株式会社 | 位置姿勢計測装置、位置姿勢計測方法、プログラムおよび記憶媒体 |
JP5544942B2 (ja) * | 2010-03-11 | 2014-07-09 | トヨタ自動車株式会社 | 物体情報検出システム、情報検出方法、及びプログラム |
EP2381214B1 (en) * | 2010-04-22 | 2020-06-10 | Metronor A/S | Optical measurement system |
JP5612916B2 (ja) | 2010-06-18 | 2014-10-22 | キヤノン株式会社 | 位置姿勢計測装置、その処理方法、プログラム、ロボットシステム |
JP5624394B2 (ja) | 2010-07-16 | 2014-11-12 | キヤノン株式会社 | 位置姿勢計測装置、その計測処理方法及びプログラム |
JP5496008B2 (ja) | 2010-08-06 | 2014-05-21 | キヤノン株式会社 | 位置姿勢計測装置、位置姿勢計測方法、およびプログラム |
US20130289407A1 (en) * | 2010-09-14 | 2013-10-31 | Samsung Medison Co., Ltd. | 3d ultrasound system for extending view of image and method for operating the 3d ultrasound system |
US10127606B2 (en) | 2010-10-13 | 2018-11-13 | Ebay Inc. | Augmented reality system and method for visualizing an item |
JP5691629B2 (ja) * | 2011-02-24 | 2015-04-01 | 株式会社大林組 | 画像合成方法 |
JP5764969B2 (ja) * | 2011-02-24 | 2015-08-19 | 株式会社大林組 | 画像合成方法 |
US9449342B2 (en) | 2011-10-27 | 2016-09-20 | Ebay Inc. | System and method for visualization of items in an environment using augmented reality |
JP6004809B2 (ja) | 2012-03-13 | 2016-10-12 | キヤノン株式会社 | 位置姿勢推定装置、情報処理装置、情報処理方法 |
US10846766B2 (en) | 2012-06-29 | 2020-11-24 | Ebay Inc. | Contextual menus based on image recognition |
JP6111790B2 (ja) * | 2013-03-28 | 2017-04-12 | 富士通株式会社 | 撮影補助装置、画像生成システムおよび立体画像生成方法 |
JP6192454B2 (ja) * | 2013-09-17 | 2017-09-06 | ウエストユニティス株式会社 | 表示システム |
JP6253368B2 (ja) | 2013-11-25 | 2017-12-27 | キヤノン株式会社 | 三次元形状計測装置およびその制御方法 |
US9191620B1 (en) | 2013-12-20 | 2015-11-17 | Sprint Communications Company L.P. | Voice call using augmented reality |
WO2015159601A1 (ja) * | 2014-04-18 | 2015-10-22 | Necソリューションイノベータ株式会社 | 情報処理装置 |
JP6806049B2 (ja) * | 2015-04-09 | 2021-01-06 | 日本電気株式会社 | 情報処理装置、情報処理システム、位置報知方法及びプログラム |
US10415966B2 (en) | 2015-04-09 | 2019-09-17 | Nec Corporation | Map generating device, map generating method, and program recording medium |
JP6915611B2 (ja) * | 2016-04-14 | 2021-08-04 | 日本電気株式会社 | 情報処理装置、情報処理方法及びプログラム |
EP3588935A4 (en) * | 2017-02-22 | 2020-03-04 | Sony Corporation | INFORMATION PROCESSING DEVICE AND METHOD |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000041173A (ja) * | 1998-07-23 | 2000-02-08 | Mr System Kenkyusho:Kk | 視点位置姿勢の決定方法、カメラ装置、及び視点位置センサ |
JP2002071313A (ja) * | 2000-08-31 | 2002-03-08 | Toshiba Corp | ターゲットマーカとこれを用いた対象物の位置計測方法及びロボットシステム |
JP2002156229A (ja) * | 2000-11-17 | 2002-05-31 | Kajima Corp | 構造物の移動式変位計測方法及び装置 |
JP2004342067A (ja) * | 2003-04-22 | 2004-12-02 | 3D Media Co Ltd | 画像処理方法、画像処理装置、及びコンピュータプログラム |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3467017B2 (ja) | 2000-11-30 | 2003-11-17 | キヤノン株式会社 | 位置姿勢の決定方法及び装置並びに記憶媒体 |
US7249139B2 (en) * | 2001-07-13 | 2007-07-24 | Accenture Global Services Gmbh | Secure virtual marketplace for virtual objects and services |
JP3796449B2 (ja) | 2002-01-31 | 2006-07-12 | キヤノン株式会社 | 位置姿勢決定方法および装置並びにコンピュータプログラム |
EP1349114A3 (en) | 2002-03-19 | 2011-06-15 | Canon Kabushiki Kaisha | Sensor calibration apparatus, sensor calibration method, program, storage medium, information processing method, and information processing apparatus |
JP4136859B2 (ja) * | 2003-01-10 | 2008-08-20 | キヤノン株式会社 | 位置姿勢計測方法 |
JP4367926B2 (ja) | 2004-05-17 | 2009-11-18 | キヤノン株式会社 | 画像合成システムおよび画像合成方法、および画像合成装置 |
JP4914039B2 (ja) | 2005-07-27 | 2012-04-11 | キヤノン株式会社 | 情報処理方法および装置 |
-
2005
- 2005-02-02 JP JP2005026879A patent/JP4599184B2/ja not_active Expired - Fee Related
-
2006
- 2006-02-01 WO PCT/JP2006/301620 patent/WO2006082825A1/ja not_active Application Discontinuation
- 2006-12-15 US US11/611,404 patent/US7664341B2/en not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000041173A (ja) * | 1998-07-23 | 2000-02-08 | Mr System Kenkyusho:Kk | 視点位置姿勢の決定方法、カメラ装置、及び視点位置センサ |
JP2002071313A (ja) * | 2000-08-31 | 2002-03-08 | Toshiba Corp | ターゲットマーカとこれを用いた対象物の位置計測方法及びロボットシステム |
JP2002156229A (ja) * | 2000-11-17 | 2002-05-31 | Kajima Corp | 構造物の移動式変位計測方法及び装置 |
JP2004342067A (ja) * | 2003-04-22 | 2004-12-02 | 3D Media Co Ltd | 画像処理方法、画像処理装置、及びコンピュータプログラム |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008122109A (ja) * | 2006-11-08 | 2008-05-29 | Canon Inc | 情報処理装置、情報処理方法 |
JP2008249407A (ja) * | 2007-03-29 | 2008-10-16 | Canon Inc | 画像処理装置、画像処理方法 |
CN105791626A (zh) * | 2013-04-25 | 2016-07-20 | 胡妍 | 一种折叠型拍照式扫描仪 |
CN105872282A (zh) * | 2013-04-25 | 2016-08-17 | 高燕妮 | 具有感应开关的便携式高拍仪 |
CN105872294A (zh) * | 2013-04-25 | 2016-08-17 | 高燕妮 | 一种折叠式扫描仪 |
CN105872295A (zh) * | 2013-04-25 | 2016-08-17 | 高燕妮 | 一种便携式高拍仪 |
CN105872301A (zh) * | 2013-04-25 | 2016-08-17 | 申清章 | 具有感应开关的小型扫描仪 |
CN105915748A (zh) * | 2013-04-25 | 2016-08-31 | 高燕妮 | 一种折叠式扫描仪 |
CN105915747A (zh) * | 2013-04-25 | 2016-08-31 | 高燕妮 | 一种折叠式扫描仪 |
CN106101478A (zh) * | 2013-04-25 | 2016-11-09 | 滁州华尊电气科技有限公司 | 一种高速扫描仪 |
CN106101477A (zh) * | 2013-04-25 | 2016-11-09 | 滁州华尊电气科技有限公司 | 具有摄像头的高速扫描仪 |
CN106101504A (zh) * | 2013-04-25 | 2016-11-09 | 滁州华尊电气科技有限公司 | 一种具有感应开关的高速扫描仪 |
CN106131369A (zh) * | 2013-04-25 | 2016-11-16 | 滁州华尊电气科技有限公司 | 具有感应开关的高速扫描仪 |
CN106210427A (zh) * | 2013-04-25 | 2016-12-07 | 滁州华尊电气科技有限公司 | 一种具有摄像头的高速扫描仪 |
CN106210428A (zh) * | 2013-04-25 | 2016-12-07 | 滁州华尊电气科技有限公司 | 高速扫描仪 |
CN106231148A (zh) * | 2013-04-25 | 2016-12-14 | 滁州华尊电气科技有限公司 | 具有待拍区域指示的高速扫描仪 |
CN105872301B (zh) * | 2013-04-25 | 2020-10-13 | 乐清市华尊电气有限公司 | 具有感应开关的小型扫描仪 |
Also Published As
Publication number | Publication date |
---|---|
US7664341B2 (en) | 2010-02-16 |
US20070091125A1 (en) | 2007-04-26 |
JP2006214832A (ja) | 2006-08-17 |
JP4599184B2 (ja) | 2010-12-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7664341B2 (en) | Index layout measurement method, position and orientation estimation method, index layout measurement apparatus, and position and orientation estimation apparatus | |
US7529387B2 (en) | Placement information estimating method and information processing device | |
JP5196825B2 (ja) | 画像処理装置、画像処理方法 | |
JP4926817B2 (ja) | 指標配置情報計測装置および方法 | |
US7657065B2 (en) | Marker placement information estimating method and information processing device | |
JP4886560B2 (ja) | 情報処理装置、情報処理方法 | |
JP5036260B2 (ja) | 位置姿勢算出方法及び装置 | |
JP4976756B2 (ja) | 情報処理方法および装置 | |
JP4739004B2 (ja) | 情報処理装置及び情報処理方法 | |
JP4502361B2 (ja) | 指標姿勢検出方法および装置 | |
JP5726024B2 (ja) | 情報処理方法および装置 | |
JP4926598B2 (ja) | 情報処理方法、情報処理装置 | |
WO2021111613A1 (ja) | 3次元地図作成装置、3次元地図作成方法、及び3次元地図作成プログラム | |
JP2008140047A (ja) | 情報処理方法、情報処理装置 | |
JP4810403B2 (ja) | 情報処理装置、情報処理方法 | |
JP2005326283A (ja) | 位置姿勢計測方法および情報処理装置 | |
JP2007048068A (ja) | 情報処理方法および装置 | |
Araujo et al. | Life cycle of a slam system: Implementation, evaluation and port to the project tango device | |
JP5127165B2 (ja) | 情報処理方法および装置 | |
JP2006293485A (ja) | 指標表示方法及び画像表示装置 | |
JP2016065830A (ja) | 画像処理装置、画像処理方法 | |
JP2005107966A (ja) | 指標識別方法および装置 | |
JP2014215821A (ja) | 情報処理装置、情報処理方法及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application | ||
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 06712763 Country of ref document: EP Kind code of ref document: A1 |
|
WWW | Wipo information: withdrawn in national office |
Ref document number: 6712763 Country of ref document: EP |