WO2019203002A1 - 情報処理装置および方法 - Google Patents
情報処理装置および方法 Download PDFInfo
- Publication number
- WO2019203002A1 WO2019203002A1 PCT/JP2019/014921 JP2019014921W WO2019203002A1 WO 2019203002 A1 WO2019203002 A1 WO 2019203002A1 JP 2019014921 W JP2019014921 W JP 2019014921W WO 2019203002 A1 WO2019203002 A1 WO 2019203002A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- image
- unit
- projection
- region
- information processing
- Prior art date
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 53
- 238000000034 method Methods 0.000 title abstract description 56
- 238000003384 imaging method Methods 0.000 claims abstract description 162
- 238000012937 correction Methods 0.000 claims abstract description 112
- 239000013598 vector Substances 0.000 claims abstract description 63
- 238000003672 processing method Methods 0.000 claims description 4
- 238000001514 detection method Methods 0.000 description 85
- 238000012545 processing Methods 0.000 description 77
- 238000004891 communication Methods 0.000 description 34
- 230000008569 process Effects 0.000 description 32
- 238000005516 engineering process Methods 0.000 description 29
- 230000006870 function Effects 0.000 description 13
- 230000036544 posture Effects 0.000 description 11
- 238000003702 image correction Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 8
- 238000006243 chemical reaction Methods 0.000 description 6
- 230000009466 transformation Effects 0.000 description 4
- 230000010354 integration Effects 0.000 description 3
- 230000009467 reduction Effects 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 239000000470 constituent Substances 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 244000144972 livestock Species 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000003796 beauty Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 239000004615 ingredient Substances 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000005065 mining Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
- H04N9/3191—Testing thereof
- H04N9/3194—Testing thereof including sensor feedback
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B21/00—Projectors or projection-type viewers; Accessories therefor
- G03B21/14—Details
- G03B21/147—Optical correction of image distortions, e.g. keystone
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B21/00—Projectors or projection-type viewers; Accessories therefor
- G03B21/14—Details
- G03B21/20—Lamp housings
- G03B21/2046—Positional adjustment of light sources
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/36—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
- H04N9/3141—Constructional details thereof
- H04N9/315—Modulator illumination systems
- H04N9/3155—Modulator illumination systems for controlling the light source
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
- H04N9/3179—Video signal processing therefor
- H04N9/3185—Geometric adjustment, e.g. keystone or convergence
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B17/00—Details of cameras or camera bodies; Accessories therefor
- G03B17/48—Details of cameras or camera bodies; Accessories therefor adapted for combination with other photographic or optical apparatus
- G03B17/54—Details of cameras or camera bodies; Accessories therefor adapted for combination with other photographic or optical apparatus with projector
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B2206/00—Systems for exchange of information between different pieces of apparatus, e.g. for exchanging trimming information, for photo finishing
Definitions
- the present disclosure relates to an information processing apparatus and method, and more particularly, to an information processing apparatus and method that can control an image projection position more easily.
- an image correction technique for example, a special pattern is irradiated, the user images it with a handheld camera, the distortion of the projected image is estimated based on the captured image, and the image is projected at a desired position.
- a method of correcting the projected image has been considered (see, for example, Patent Document 1).
- the present disclosure has been made in view of such a situation, and makes it possible to control the image projection position more easily.
- An information processing apparatus is an information processing apparatus including a correction information generation unit that generates correction information of the image so that the image is projected onto a desired region in real space.
- An information processing method is an information processing method for generating correction information of an image so that the image is projected onto a desired region in real space.
- correction information of an image is generated so that the image is projected onto a desired region in real space.
- information can be processed.
- the image projection position can be controlled more easily.
- Image projection position control> ⁇ Image projection>
- various methods for controlling an image to be projected at a desired position in image projection by a projector have been considered.
- so-called ultra-short focus projectors which have become popular in recent years, project images closer to the projection surface than conventional long focus projectors.
- the difficulty level of projecting an image to a position (within a desired range) was high.
- Image projection position control> Therefore, image correction information is generated so that the image is projected onto a desired area in the real space.
- the information processing apparatus includes a correction information generation unit that generates correction information of an image so that the image is projected onto a desired area in the real space.
- FIG. 1 is a block diagram illustrating a main configuration example of an embodiment of a projection imaging system to which the present technology is applied.
- a projection imaging system 100 includes a projection imaging apparatus 101 and a screen 102, and is a system that projects an image, images a projection plane, and controls the projection position (range) of the image.
- the projection imaging device 101 is a device that projects an image onto the screen 102.
- the projection imaging apparatus 101 is installed in the vicinity of the screen 102 as in the so-called ultrashort focus projector, and is designed to project an image onto the screen 102 therefrom.
- the projection imaging apparatus 101 is installed at a position below or in contact with or close to a wall or the like on which the screen 102 is installed, and the image is taken from a place slightly away from the screen 102 (wall) of the housing. Projecting toward the screen 102. That is, the projection imaging apparatus 101 projects an image from directly below the screen 102.
- the projection imaging apparatus 101 controls the position (range) for projecting the image.
- the projection imaging apparatus 101 performs image correction on the image to be projected in order to control the image projection position. Further, the projection imaging apparatus 101 captures the screen 102 (that is, the projection plane) on which the image is projected for the image correction (projection position control).
- the projection imaging apparatus 101 controls the image projection position by imaging the screen 102 and performing image correction using the captured image, so that the image projection position can be controlled more easily.
- the screen 102 is formed of a material or a configuration that reflects light with high luminance in the front direction and reflects it with low luminance in directions other than the front direction.
- the screen 102 realizes a projection surface having such characteristics depending on the material and configuration.
- FIG. 2 is a block diagram illustrating a main configuration example of the projection imaging apparatus 101 which is an embodiment of the information processing apparatus to which the present technology is applied.
- FIG. 2 shows main components such as a processing unit and a data flow, and the configuration of the projection imaging apparatus 101 is not limited to that shown in FIG. That is, in the projection imaging apparatus 101, there may be a processing unit not shown as a block in FIG. 2, or there may be a process or data flow not shown as an arrow or the like in FIG.
- the projection imaging apparatus 101 includes a projection imaging unit 111 and a control unit 112.
- the projection imaging unit 111 is a unit that performs processing related to projection and imaging.
- the control unit 112 is a unit that performs processing related to the control of the projection imaging unit 111.
- the projection imaging unit 111 includes a projection unit 121, an imaging unit 122-1, and an imaging unit 122-2.
- Projection unit 121 performs processing related to image projection.
- the projection unit 121 acquires image data supplied from the control unit 112 (a control unit 131 described later), and projects the image toward the screen 102.
- the imaging unit 122-1 and the imaging unit 122-2 perform processing related to imaging.
- the imaging unit 122-1 and the imaging unit 122-2 are referred to as the imaging unit 122 when it is not necessary to distinguish them from each other.
- the imaging unit 122 images the screen 102 on which the image is projected by the projection unit 121 and its periphery, and generates data of the captured image.
- the imaging unit 122 supplies the generated captured image data to the control unit 112 (a control unit 131 described later).
- the imaging unit 122-1 and the imaging unit 122-2 capture the screen 102 and its periphery from different positions of the housing of the projection imaging apparatus 101. That is, parallax occurs between the captured image generated by the imaging unit 122-1 and the captured image generated by the imaging unit 122-2.
- the control unit 112 includes a control unit 131, an input unit 141, an output unit 142, a storage unit 143, a communication unit 144, and a drive 145.
- the control unit 131 performs processing related to the control of the projection imaging unit 111. For example, the control unit 131 supplies image data to the projection unit 121 and causes the image to be projected. In addition, the control unit 131 causes the imaging unit 122 to perform imaging, and acquires captured image data.
- control unit 131 corrects an image projected on the projection unit 121 using the captured image, and controls an image projection position (range) by the projection unit 121.
- the image projection position (range) is controlled so that the range of the projection image projected by the projection unit 121 matches the range of the screen 102 (the outer frame of the projection image matches the outer frame of the screen 102). .
- the control unit 131 may have any configuration.
- the control unit 131 includes a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), and the like. Processing may be performed by loading a program or data stored in a ROM or the like into the RAM and executing it.
- a CPU Central Processing Unit
- ROM Read Only Memory
- RAM Random Access Memory
- the input unit 141 performs processing related to reception of information input from the outside.
- the input unit 141 receives information input from the outside and supplies the information to the control unit 131.
- the input unit 141 includes an arbitrary input device that accepts external information such as user input.
- the input device may be, for example, a keyboard, a mouse, operation buttons, a touch panel, a camera, a microphone, and an input terminal.
- the input device may be various sensors such as an acceleration sensor, an optical sensor, and a temperature sensor, or an input device such as a barcode reader.
- the input unit 141 may have a plurality of input devices, or may have a plurality of types of input devices.
- the output unit 142 performs processing related to information output.
- the output unit 142 outputs information supplied from the control unit 131 to the outside of the projection imaging apparatus 101.
- the output unit 142 includes an arbitrary output device that outputs information such as images and sounds.
- the output device may be, for example, a display, a speaker, an output terminal, or the like.
- the output unit 142 may have a plurality of output devices, or may have a plurality of types of input devices.
- the storage unit 143 performs processing related to storage of information.
- the storage unit 143 stores information supplied from the control unit 131. Further, the storage unit 143 supplies the stored information to the control unit 131.
- the storage unit 143 includes an arbitrary storage medium that stores information such as programs and data.
- the storage medium may be, for example, a hard disk, a RAM disk, a nonvolatile memory, or the like.
- the storage unit 143 may have a plurality of storage media or a plurality of types of storage media.
- the communication unit 144 performs processing related to communication. For example, the communication unit 144 communicates with an external device of the projection imaging apparatus 101 and supplies information (program, data, etc.) supplied from the control unit 131 to the external device. The communication unit 144 communicates with an external device of the projection imaging apparatus 101, acquires information (a program, data, and the like) from the external device, and supplies the acquired information to the control unit 131.
- the communication unit 144 includes an arbitrary communication device that performs communication for exchanging information such as programs and data with an external apparatus via a predetermined communication medium (for example, an arbitrary network such as the Internet).
- the communication device may be a network interface, for example.
- the communication unit 144 may have a plurality of communication devices or a plurality of types of communication devices. Note that the communication unit 144 may have a wired communication function, a wireless communication function, or both.
- the drive 145 performs processing related to the interface of the removable medium 151 attached to itself. For example, the drive 145 reads information (program, data, etc.) stored in the removable medium 151 attached to the drive 145 and supplies the information to the control unit 131. Further, when a writable removable medium 151 is attached to itself, the drive 145 writes (stores) information (program, data, etc.) supplied from the control unit 131 to the removable medium 151.
- the removable medium 151 is optional, but may be, for example, a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory.
- the drive 145 may be configured to be able to mount a plurality of removable media 151, or may be able to mount a plurality of types of removable media 151.
- FIG. 3 is a functional block diagram illustrating an example of functions realized by the control unit 131 executing a program or the like. As illustrated in FIG. 3, the control unit 131 executes, for example, a projection control unit 201, an imaging control unit 202, a corresponding point detection unit 211, a screen frame position detection unit 212, an attitude estimation unit 213, The screen shape estimation unit 214 and the correction vector generation unit 215 have functions.
- the projection control unit 201 performs processing related to the control of the projection unit 121.
- the projection control unit 201 supplies image data to the projection unit 121 and projects the image.
- the projection control unit 201 supplies image data of the content to the projection unit 121 and causes the image to be projected.
- the projection control unit 201 checks the correspondence in response to a request from the corresponding point detection unit 211.
- the image data to be output is supplied to the projection unit 121, and the image is projected.
- the projection control unit 201 detects an image for detecting the position of the screen frame in response to a request from the screen frame position detection unit 212 (frame detection imaging processing unit 221). Is supplied to the projection unit 121 and the image is projected.
- the projection control unit 201 performs a correction process for controlling the image projection position and correcting the distortion of the projection image for the image supplied to the projection unit 121.
- the projection control unit 201 performs the correction process using the correction vector supplied from the correction vector generation unit 215 (correction vector calculation unit 233).
- the imaging control unit 202 performs processing related to the control of the imaging unit 122. For example, when detecting a corresponding point (corresponding point between an image to be projected and a captured image) between the projection unit 121 and the imaging unit 122, the imaging control unit 202 responds to a request from the corresponding point detection unit 211. , The screen 102 on which the image is projected from the projection unit 121 and its periphery are imaged, data of the captured image is generated, and the data is acquired. The imaging control unit 202 supplies the acquired captured image data to the corresponding point detection unit 211.
- the imaging control unit 202 controls the imaging unit 122 in response to a request from the screen frame position detection unit 212 (frame detection imaging processing unit 221), and the projection unit 121. Then, the screen 102 on which the image is projected and its periphery are imaged, data of the captured image is generated, and the data is acquired.
- the imaging control unit 202 supplies the acquired captured image data to the screen frame position detection unit 212 (frame detection imaging processing unit 221).
- Corresponding point detection unit 211 performs processing related to detection of corresponding points between projection unit 121 and imaging unit 122 (corresponding points between the image to be projected and the captured image). For example, the corresponding point detection unit 211 controls the projection unit 121 via the projection control unit 201 to supply image data for detecting corresponding points and cause the image to be projected. Also, the corresponding point detection unit 211 controls the imaging unit 122 via the imaging control unit 202 to capture the screen 102 on which the corresponding point detection image is projected and its periphery, and acquire data of the captured image. To do.
- the corresponding point detection unit 211 detects the corresponding point using the acquired captured image data and the like, and supplies the detection result to the posture estimation unit 213 and the projected image frame position specifying unit 224 of the screen frame position detection unit 212. To do.
- the screen frame position detection unit 212 performs processing related to the detection of the screen frame position. For example, the screen frame position detection unit 212 detects the position of the frame of the screen 102 and supplies the detection result to the correction vector generation unit 215 (viewpoint image frame position calculation unit 232).
- the posture estimation unit 213 performs processing related to posture estimation. For example, the posture estimation unit 213 estimates the postures of the projection unit 121 and the imaging unit 122 using the corresponding points detected by the corresponding point detection unit 211, and supplies the estimation results to the screen shape estimation unit 214.
- the screen shape estimation unit 214 performs processing related to screen shape estimation. For example, the screen shape estimation unit 214 estimates the shape of the screen 102 based on the postures of the projection unit 121 and the imaging unit 122 estimated by the posture estimation unit 213, and uses the estimation result as a correction vector generation unit 215 (viewpoint position). To the estimation unit 231).
- the correction vector generation unit 215 performs processing related to generation of correction vectors.
- This correction vector is vector information indicating the contents of image correction for controlling the image projection position (range) and suppressing distortion. That is, the correction vector is information indicating how to correct each pixel of the image projected on the projection unit 121 in order to control the image projection position (range) and suppress distortion.
- the correction vector generation unit 215 generates a correction vector based on information such as the screen shape estimated by the screen shape estimation unit 214 and the frame position of the screen 102 detected by the screen frame position detection unit 212. .
- the correction vector generation unit 215 supplies the generated correction vector to the projection control unit 201. As described above, the projection control unit 201 performs image correction using the correction vector.
- the screen frame position detection unit 212 includes a frame detection imaging processing unit 221, a lens distortion correction unit 222, a captured image frame position detection unit 223, a projection image frame position specification unit 224, and a frame position interpolation processing unit 225. .
- the frame detection imaging processing unit 221 performs processing related to imaging for detecting a screen frame.
- the frame detection imaging processing unit 221 controls the projection unit 121 via the projection control unit 201, supplies image data for detecting the position of the screen frame, and projects the image.
- the frame detection imaging processing unit 221 controls the imaging unit 122 via the imaging control unit 202, and captures the screen 102 on which the image for detecting the position of the screen frame is projected from the projection unit 121 and its periphery.
- the captured image data is generated, and the data is acquired.
- the frame detection imaging processing unit 221 supplies the acquired captured image data to the lens distortion correction unit 222.
- the lens distortion correction unit 222 performs processing related to correction of lens distortion. For example, the lens distortion correction unit 222 corrects the lens distortion of the captured image supplied from the frame detection imaging processing unit 221 and supplies the corrected captured image to the captured image frame position detection unit 223.
- the captured image frame position detection unit 223 performs processing related to detection of the position of the screen frame in the captured image. For example, the captured image frame position detection unit 223 detects the position of the frame of the screen 102 in the captured image using the captured image whose lens distortion has been corrected by the lens distortion correction unit 222, and the detection result is a projected image.
- the frame position specifying unit 224 is supplied.
- the projected image frame position specifying unit 224 performs processing related to the detection of the position of the screen frame in the image to be projected. For example, the projected image frame position specifying unit 224 uses the corresponding points detected by the corresponding point detecting unit 211 to project the position of the frame of the screen 102 in the captured image detected by the captured image frame position detecting unit 223. The image is converted into an image, and the position of the frame of the screen 102 in the image to be projected is specified. The projection image frame position specifying unit 224 supplies information indicating the frame position of the specified screen 102 to the frame position interpolation processing unit 225.
- the frame position interpolation processing unit 225 performs processing related to interpolation of the position of the screen frame specified by the projection image frame position specifying unit 224. For example, the frame position interpolation processing unit 225 interpolates between the positions of local screen frames specified by the projection image frame position specifying unit 224 by a predetermined interpolation method. The frame position interpolation processing unit 225 supplies information indicating the frame position of the screen 102 after the interpolation processing to the correction vector generation unit 215 (viewpoint image frame position calculation unit 232).
- the correction vector generation unit 215 includes a viewpoint position estimation unit 231, a viewpoint image frame position calculation unit 232, and a correction vector calculation unit 233.
- the viewpoint position estimation unit 231 performs processing relating to viewpoint position estimation. For example, the viewpoint position estimation unit 231 estimates the position of the user viewpoint (for example, the front of the screen 102) based on the screen shape estimated by the screen shape estimation unit 214. The viewpoint position estimation unit 231 supplies information indicating the estimated position to the viewpoint image frame position calculation unit 232.
- the viewpoint image frame position calculation unit 232 performs processing related to the calculation of the position of the screen frame in the viewpoint image indicating the appearance (view) from the viewpoint position. For example, the viewpoint image frame position calculation unit 232 estimates the viewpoint image at the viewpoint position estimated by the viewpoint position estimation unit 231, and the screen 102 indicated by the information supplied from the frame position interpolation processing unit 225 in the viewpoint image. The position of the frame is calculated, and the calculation result is supplied to the correction vector calculation unit 233.
- the correction vector calculation unit 233 performs processing related to correction vector calculation. For example, the correction vector calculation unit 233 calculates a correction vector using the position of the frame of the screen 102 in the viewpoint image calculated by the viewpoint image frame position calculation unit 232. The correction vector calculation unit 233 supplies the calculated correction vector to the projection control unit 201.
- the corresponding point detection unit 211 detects a corresponding point between the projection image and the captured image in step S101.
- the method for detecting the corresponding points is arbitrary. For example, the method described in International Publication No. 2017/104447 may be applied. Note that viewing may be interrupted once at the corresponding point detection portion, and the corresponding point may be acquired by irradiating the structured light pattern.
- step S102 the screen frame position detection unit 212 detects the position of the frame of the screen 102.
- step S103 the posture estimation unit 213 estimates the postures of the projection unit 121 and the imaging unit 122 using the corresponding points obtained in step S101.
- step S104 the screen shape estimation unit 214 estimates the screen shape based on the posture estimation result in step S103.
- step S105 the correction vector generation unit 215 estimates a correction vector using the screen shape estimated in step S104.
- step S105 When the process in step S105 is completed, the projection correction process ends.
- the frame detection imaging processing unit 221 selects the imaging unit 122 to be processed in step S121. If there is only one imaging unit 122, this process is omitted.
- step S122 the frame detection imaging processing unit 221 causes the projection unit 121 to project the screen frame position detection projection image, causes the imaging unit 122 to capture the projection plane, and captures the screen frame position detection imaging that is the captured image. Generate an image.
- FIG. 6 shows examples of the projected image for detecting the screen frame position and the captured image for detecting the screen frame position.
- a screen frame position detection projection image 301 in FIG. 6 shows an example of an image projected by the projection unit 121.
- the screen frame position detection projection image 301 is a so-called white image in which the luminance values of all the pixels are maximum. That is, the projection unit 121 projects the uniform white image as a screen frame position detection projection image.
- the screen frame position detection projection image 301 is not limited to the brightness value in the example of FIG.
- the luminance value of the screen frame position detection projection image 301 may be uniform and may not be the maximum value. That is, an image of a color other than white may be used.
- the screen frame position detection projection image 301 only needs to have a uniform brightness value on the outside (near the frame), and the brightness value at the center may not be uniform.
- the imaging unit 122 images the screen 102 on which the screen frame position detection projection image 301 is projected and the periphery thereof, and a screen frame position detection captured image 302 is obtained.
- the projection image 311 included in the screen frame position detection captured image 302 is the screen frame position detection projection image 301 projected onto the screen 102 or the like by the projection unit 121.
- the brightness of the region 312 in the projection image 311 is reduced as compared with the surrounding area. This is because the screen 102 reflects light in the front direction with high brightness, and the reflection in the other direction (the direction in which the projection imaging device 101 is installed) is less than the periphery of the screen 102.
- the projection imaging apparatus 101 detects the frame of the screen 102 using such a luminance difference.
- the projection imaging apparatus 101 reflects the entire white pattern emitted from the projection unit 121 by the screen 102 and is incident on the imaging unit 122 and the outside of the screen 102 (for example, a wall) and reflects the imaging unit.
- the position of the frame of the screen 102 is specified using the difference from the amount of light incident on 122.
- the imaging unit 122 captures an image using a wide-angle lens so that the entire screen 102 falls within the imaging field angle. Therefore, lens distortion occurs in the screen frame position detection captured image 302, and a straight line in the real space is a curve in the screen frame position detection captured image 302.
- step S123 the lens distortion correction unit 222 applies lens distortion correction to the screen frame position detection captured image 302 generated in step S122 using a known lens distortion parameter by pre-calibration.
- the lens distortion Further, the lens distortion correction unit 222 performs gray conversion on the image.
- the captured image 321 shown in FIG. 7 is obtained.
- the projected image 322 in the captured image 321 corresponds to the projected image 311 (FIG. 6) of the screen frame position detection captured image 302.
- An area 323 in the projected image 322 where the luminance is reduced compared to the surrounding area corresponds to the area 312 of the screen frame position detection captured image 302.
- the contours of the projected image 311 and the region 312 that have been curved are linearized by the lens distortion correction.
- step S124 the captured image frame position detection unit 223 detects the screen frame position in the captured image.
- the captured image frame position detection unit 223 first binarizes the captured image 321 and converts it into a binary image 331. As shown in FIG. 7, in the binary image 331, only the area outside the screen 102 on which the projected image 301 for detecting the screen frame position, which was high in luminance in the captured image 321, is expressed as a black area 332. Is done. That is, the binarization makes the luminance difference between the area of the screen 102 and the area outside the screen 102 clear.
- the captured image frame position detection unit 223 detects the contour of the binary image 331 and detects the contour of the black region 332.
- An image 341 in FIG. 7 shows an example of the contour detection result.
- both the outer outline (dotted line frame 342) and the inner outline (solid line frame 343) of the black region 332 are detected.
- the dotted line frame 342 corresponds to the contour of the projected screen frame position detection projection image 301.
- a solid line frame 343 corresponds to the contour of the screen 102.
- the captured image frame position detection unit 223 specifies the contour of the screen 102 in the image 341 based on the length of the contour of the screen 102 that is roughly known in advance. That is, the solid line frame 343 is specified.
- An image 351 in FIG. 7 shows this identification result.
- An outline 352 in the image 351 corresponds to the solid line frame 343 of the image 341.
- the frame position of the screen 102 in the captured image is detected.
- step S125 the projection image frame position specifying unit 224 specifies the screen frame position in the projection image using the corresponding points detected in step S101 of FIG. That is, the projected image frame position specifying unit 224 converts the frame position of the screen 102 in the captured image detected as described above onto the projected image using the corresponding points.
- the projected image frame position specifying unit 224 regards the detected contour 352 as a set of points (also referred to as contour points), and the correspondence on the captured image closest to each contour point as in the image 361 in FIG.
- the point 362 is specified, and the contour point and the corresponding point 362 are linked.
- FIG. 8 is an enlarged image of the partial region 363 of the image 361.
- a corresponding point 362-1, a corresponding point 362-2, and a corresponding point 362-3 exist in the vicinity of the contour 352. Since the corresponding point 362-1 is closest to the contour point in the range 372-1 in the contour 352 of the portion of the image 371, these contour points are linked to the corresponding point 362-1. Further, since the corresponding point 362-2 is closest to the contour point in the range 372-2, these contour points are linked to the corresponding point 362-2. Similarly, since the corresponding point 362-3 is closest to the contour point in the range 372-3, these contour points are linked to the corresponding point 362-3.
- the projected image frame position specifying unit 224 detects corresponding points around the corresponding corresponding points and groups them. For example, as shown in the image 381 in FIG. 8, with respect to the corresponding point 362-2 associated with the outline point group 352-2, the corresponding point 362-1, the corresponding point 362-3, Corresponding point 362-4, corresponding point 362-5, and corresponding point 362-6 are grouped.
- the projected image frame position specifying unit 224 uses the grouped corresponding points to obtain homography conversion between the captured image and the projected image. Then, the projection image frame position specifying unit 224 applies the homography conversion to each contour point associated with the corresponding point, and performs coordinate conversion on the projection image.
- the projection image frame position specifying unit 224 uses the grouped corresponding points 362-1 to 362-6 to obtain the homography transformation. Then, the projected image frame position specifying unit 224 applies the homography transformation to the contour point group 352-2 associated with the corresponding point 362-2, and performs coordinate transformation on the projected image.
- the projected image frame position specifying unit 224 converts the contour 352 onto the projected image by applying such processing to all contour points.
- An image 391 in FIG. 8 shows an example of the frame position of the screen 102 of the projection image obtained in this way. That is, the image 391 corresponds to a projected image, and the solid line frame 392 corresponds to the contour 352 converted on the projected image.
- step S126 the frame position interpolation processing unit 225 performs model fitting of the screen frame position in the projection image specified in step S125, and interpolates the position of the screen frame.
- the frame position interpolation processing unit 225 performs model fitting of the screen frame position, interpolates the position of the screen frame, and converts the contour 401 into a contour 402.
- This interpolation method is arbitrary. For example, B-spline interpolation may be applied. By applying such interpolation to smoothly connect the screen frame positions, the influence of noise can be suppressed.
- step S127 the screen frame position detection unit 212 determines whether processing has been performed using all the imaging units 122. If it is determined that there is an unprocessed imaging unit 122, the process returns to step S121, and the subsequent processes are repeated. That is, the above processing is repeated for each imaging unit 122.
- step S127 when it determines with having processed about all the imaging parts 122 in step S127, a process progresses to step S128.
- step S1208 the screen frame position detection unit 212 integrates the frame position of the screen 102 on the projection image detected based on each captured image.
- This integration method is arbitrary.
- the average of the frame positions of the screen 102 on the detected projection image may be set as the final frame position, or the median value may be set as the final frame position.
- step S128 When the process of step S128 is completed, the screen frame position detection process is completed, and the process returns to FIG.
- the viewpoint position estimation unit 231 of the correction vector generation unit 215 estimates the viewpoint image at the viewpoint position in step S141.
- the viewpoint image is an image showing how it is seen (view) from the viewpoint position, that is, a virtual image equivalent to a captured image obtained by imaging the screen 102 and its periphery from the viewpoint position.
- the viewpoint position is the viewpoint position of the user who views the projection image, and can be specifically set to an arbitrary position. Here, it is assumed that the position is a predetermined distance in the front direction of the screen 102.
- the correction vector is calculated using such a viewpoint image. That is, the projection imaging apparatus 101 calculates the correction vector so that the position (range) of the projection image viewed from the user matches the position (range) of the screen 102.
- step S142 the viewpoint image frame position calculation unit 232 calculates the screen frame position on the viewpoint image. As described above, since the frame position of the screen 102 in each captured image and projection image is obtained, the frame position of the screen 102 in the viewpoint image can also be obtained based on them.
- step S143 the correction vector calculation unit 233 calculates a correction vector in consideration of a plane model shift and screen frame distortion. Since an error may occur due to the influence of the actual environment, the correction vector calculation unit 233 calculates the correction vector in consideration of them.
- the estimated position (plane model) of the screen 102 may deviate from the actual position. Due to such an error (planar model deviation), the position of the pixel 421 in the projected image assumed on the estimated plane may differ from the position of the actually measured point 422 actually measured.
- the correction vector calculation unit 233 calculates a correction vector so as to reduce such a plane model shift.
- the frame position of the screen 102 on the projection image obtained as described above may be distorted (screen frame distortion).
- the correction vector calculation unit 233 calculates the correction vector so that the distortion is reduced like the frame position 442 on the viewpoint image 441.
- the correction vector calculation unit 233 calculates a correction vector so as to correct not only the shape of the frame (the outer shape of the projection image) but also the distortion of the entire projection image.
- the correction vector calculation unit 233 corrects the distortion using, for example, interpolation within a triangular element. For example, with the point p0 as the origin, the points p1 and p2 are set as shown in FIG. 13, and linear interpolation is performed as follows for the point p in the region (triangular element) surrounded by the three points.
- the transformation matrix is expressed by the following formula (3), where u p and v p are the coordinates of the local coordinate system of the point p and x p , y p and z p are the coordinates of the global coordinate system.
- u p and v p are the coordinates of the point p in the local coordinate system.
- C indicates the value of the interpolation correction vector, and C 0 -C 2 indicates the correction vector value of p0-p2.
- this interpolation method is arbitrary and is not limited to the above example.
- step S144 the correction vector calculation unit 233 supplies the correction vector calculated as described above to the projection control unit 201 and reflects it in the projection control. That is, the projection control unit 201 performs image correction on an image to be projected on the projection unit 121 using the correction vector.
- step S144 When the process of step S144 is completed, the correction vector generation process is terminated, and the process returns to FIG.
- the projection image 502 shown in FIG. 15A may protrude or deviate from the screen 501.
- the subjective image quality (image quality viewed from the user) of the projected image 502 may be reduced.
- the correction as described above may be executed while the content is being projected, or may be executed when the content is not being projected. When the content is being projected, it is preferable to perform correction so as not to prevent viewing of the content.
- the screen frame position detection projection image may be projected using the Imperceptible Structured Light method described in International Publication No. 2017/104447.
- the content may be irradiated with a uniform luminance pattern embedded therein.
- the luminance value of the screen frame position detection projection image may be reduced to an appropriate value.
- the projection image for detecting the screen frame position may be any image, and the luminance value may not be uniform throughout the image.
- the luminance value is arbitrary, and a black image (an image with a luminance value of 0) may be used instead of the white image.
- a plurality of images having different luminance values, patterns, and the like may be used.
- the entire projection image is corrected.
- the present invention is not limited to this.
- only a part of the projection image may be corrected.
- the above-described correction may be performed on a relatively large distortion portion (a part on the upper side of the screen).
- the projection imaging apparatus 101 has been described as projecting an image from the vicinity of the screen 102 like a so-called ultra-short focus projector, but the position of the projection imaging apparatus 101 is arbitrary. For example, an image may be projected from a position away from the screen 102 like a so-called long focus projector.
- the configuration of the projection imaging apparatus 101 to which the present technology is applied is not limited to the example of FIG. 2 described above.
- the numbers of the projection units 121 and the imaging units 122 are arbitrary, and may be singular or plural. That is, the configuration of the projection imaging unit 111 is not limited to the example of FIG. 1 and is arbitrary.
- the projection imaging apparatus 101 (projection imaging unit 111) may have one projection unit 121 and one imaging unit 122.
- the projection imaging apparatus 101 (projection imaging unit 111) has one projection unit 121 and four imaging units 122 (imaging units 122-1 to 12-1). 122-4) You may make it have.
- the projection imaging unit 111 may have a configuration other than the projection unit 121 and the imaging unit 122.
- the projection imaging apparatus 101 may include a plurality of projection imaging units 111. In that case, the configuration of each projection imaging unit 111 may not be the same. For example, the number of the projection units 121 and the imaging units 122 may be different between the projection imaging units 111. Further, the projection imaging apparatus 101 may include a plurality of control units 112. In that case, the configuration of each control unit 112 may not be the same. In this case, all the control units 112 may cooperate to perform the above-described processing, or some control units 112 may perform the above-described processing.
- the projection imaging unit 111 and the control unit 112 may be configured as separate bodies (that is, different devices).
- the projection imaging unit 111 and the control unit 112 may be configured as separate bodies (that is, different devices).
- it may be configured as a system composed of a plurality of devices.
- the 17 includes a control device 801, a projection imaging device 802-1, and a projection imaging device 802-2.
- the projection imaging device 802-1 and the projection imaging device 802-2 are connected so as to be communicable with the control device 801 by wired communication or wireless communication.
- the projection imaging device 802-1 and the projection imaging device 802-2 are referred to as the projection imaging device 802 when there is no need to distinguish between them.
- the control device 801 has the same configuration and function as the control unit 112 (FIG. 2), and performs the same processing.
- the projection imaging apparatus 802 has the same configuration and function as the projection imaging unit 111 and performs the same processing.
- the projection imaging system 800 has the same configuration and function as the projection imaging apparatus 101 having a configuration in which two projection imaging units 111 are connected to one control unit 112, and performs the same processing.
- the present technology can be applied to such a projection imaging system 800 as in the case of the projection imaging apparatus 101.
- the projection imaging system 800 can more easily control the image projection position.
- the number of the projection imaging devices 802 is arbitrary and may be one or plural.
- the configurations of the projection imaging devices 802 may be the same as each other or may not be the same.
- the projection imaging system 800 may include a plurality of control devices 801. In this case, the configurations of the control devices 801 may be the same or may not be the same.
- the control device 801 may be integrated with any one of the projection imaging devices 802 (that is, may be configured as one device).
- the projection unit 121 and the imaging unit 122 may be different units (or apparatuses).
- the projection imaging system 800 may include devices other than the control device 801 and the projection imaging device 802 described above.
- control device 801 and the projection imaging device 802 may be communicably connected via a network which is an arbitrary communication network.
- the communication method adopted in this network is arbitrary.
- wired communication, wireless communication, or both of them may be used.
- this network may be configured by a single communication network or may be configured by a plurality of communication networks.
- the network may include a communication network or a communication path of an arbitrary communication standard such as a wired communication network complying with the standard.
- this recording medium is constituted by a removable medium 151 on which the program is recorded, which is distributed to distribute the program to the user, separately from the apparatus main body. Is done.
- the program stored in the removable medium 151 can be read and installed in the storage unit 143.
- This program can also be provided via a wired or wireless transmission medium such as a local area network, the Internet, or digital satellite broadcasting.
- a wired or wireless transmission medium such as a local area network, the Internet, or digital satellite broadcasting.
- the program can be received by the communication unit 144 and installed in the storage unit 143.
- this program can be installed in advance in a storage unit or ROM.
- the program can be installed in advance in a ROM (not shown) or the like built in the storage unit 143 or the control unit 131.
- the present technology may be any configuration installed in any device or a device constituting the system, for example, a processor (for example, a video processor) as a system LSI (Large Scale Integration), a module (for example, a video) Modules), units using a plurality of modules (for example, video units), sets obtained by adding other functions to the units (for example, video sets), etc. (that is, a configuration of a part of the apparatus).
- a processor for example, a video processor
- LSI Large Scale Integration
- module for example, a video Modules
- units using a plurality of modules for example, video units
- sets obtained by adding other functions to the units for example, video sets
- the present technology can also be applied to a network system including a plurality of devices.
- a network system including a plurality of devices.
- it can also be applied to cloud services that provide services related to images (moving images) to arbitrary terminals such as computers, AV (Audio Visual) devices, portable information processing terminals, IoT (Internet of Things) devices, etc. it can.
- systems, devices, processing units, etc. to which this technology is applied shall be used in any field such as traffic, medical care, crime prevention, agriculture, livestock industry, mining, beauty, factory, home appliance, weather, nature monitoring, etc. Can do. Moreover, the use is also arbitrary.
- the present technology can be applied to a system or device used for providing ornamental content or the like.
- the present technology can also be applied to systems and devices used for traffic such as traffic situation management and automatic driving control.
- the present technology can also be applied to a system or device used for security.
- the present technology can be applied to a system or a device provided for automatic control of a machine or the like.
- the present technology can also be applied to systems and devices used for agriculture and livestock industry.
- the present technology can also be applied to systems and devices that monitor natural conditions such as volcanoes, forests, and oceans, and wildlife.
- the present technology can be applied to a system or a device provided for sports.
- Embodiments of the present technology are not limited to the above-described embodiments, and various modifications can be made without departing from the gist of the present technology.
- the present technology may be applied to any configuration that constitutes an apparatus or a system, for example, a processor (eg, a video processor) as a system LSI (Large Scale Integration), a module using a plurality of processors (eg, a video module), a plurality of modules, etc. Etc. (for example, a video unit), a set obtained by further adding other functions to the unit (for example, a video set), etc. (that is, a part of the apparatus).
- a processor eg, a video processor
- LSI Large Scale Integration
- a module using a plurality of processors eg, a video module
- a plurality of modules e.g., a plurality of modules, etc.
- Etc. for example, a video unit
- a set obtained by further adding other functions to the unit for example, a video set
- a part of the apparatus that is, a part of the apparatus.
- the system means a set of a plurality of constituent elements (devices, modules (parts), etc.), and it does not matter whether all the constituent elements are in the same casing. Therefore, a plurality of devices housed in separate housings and connected via a network, and a single device housing a plurality of modules in one housing are all systems. .
- the configuration described as one device (or processing unit) may be divided and configured as a plurality of devices (or processing units).
- the configurations described above as a plurality of devices (or processing units) may be combined into a single device (or processing unit).
- a configuration other than that described above may be added to the configuration of each device (or each processing unit).
- a part of the configuration of a certain device (or processing unit) may be included in the configuration of another device (or other processing unit). .
- the present technology can take a configuration of cloud computing in which one function is shared and processed by a plurality of devices via a network.
- the above-described program can be executed in an arbitrary device.
- the device may have necessary functions (functional blocks and the like) so that necessary information can be obtained.
- each step described in the above flowchart can be executed by one device or can be executed by a plurality of devices.
- the plurality of processes included in the one step can be executed by being shared by a plurality of apparatuses in addition to being executed by one apparatus.
- a plurality of processes included in one step can be executed as a process of a plurality of steps.
- the processing described as a plurality of steps can be collectively executed as one step.
- the program executed by the computer may be executed in a time series in the order described in this specification for the processing of the steps describing the program, or in parallel or called. It may be executed individually at a necessary timing. That is, as long as no contradiction occurs, the processing of each step may be executed in an order different from the order described above. Furthermore, the processing of the steps describing this program may be executed in parallel with the processing of other programs, or may be executed in combination with the processing of other programs.
- An information processing apparatus including a correction information generation unit that generates correction information of the image so that the image is projected onto a desired region in real space.
- the correction information generation unit generates the correction information so that the projected image viewed from a predetermined viewpoint position is positioned in the desired region. .
- the correction information generation unit generates a correction vector for correcting each pixel position of the image as the correction information.
- It further includes an area setting unit for setting the area, The information processing apparatus according to (1), wherein the correction information generation unit generates the correction information so that the image is projected onto the region set by the region setting unit.
- the information processing apparatus sets the region in the image.
- the region setting unit specifies the region in the image using a captured image of a projection plane including the region.
- the region setting unit specifies a contour of the region in the image using a contour point group indicating a contour of the region in the captured image.
- the region setting unit specifies a contour of the region in the image from a contour point group of the region in the captured image using a corresponding point indicating a correspondence relationship between the image and the captured image.
- the region setting unit determines a local contour point group of the region in the captured image based on a corresponding point corresponding to the local contour point group and a corresponding point group around the corresponding point.
- the region setting unit detects the corresponding point using the projected image and the captured image, and uses the detected corresponding point to determine from the contour point group of the region in the captured image, The information processing apparatus according to (8), wherein an outline of the region in the image is specified. (12) The region setting unit Detecting the outline of the region in the captured image; The information processing apparatus according to (7), wherein a contour of the region in the image is specified using a contour point group indicating the detected contour. (13) The information processing apparatus according to (12), wherein the region setting unit detects an outline of the region from a captured image of the projection surface on which a predetermined image is projected according to the luminance of each pixel.
- the information processing apparatus (14) The information processing apparatus according to (13), wherein the region setting unit binarizes the captured image and detects an outline of the region.
- the predetermined image is an image having a uniform luminance value.
- the predetermined image is an image having a maximum luminance value of all pixels.
- the region setting unit corrects distortion of the captured image, and specifies the region in the image using the corrected captured image.
- the information processing apparatus according to (6), further including an imaging unit that images the projection plane and generates the captured image.
- 100 projection imaging system 101 projection imaging device, 102 screen, 111 projection imaging unit, 112 control unit, 121 projection unit, 122 imaging unit, 131 control unit, 201 projection control unit, 202 imaging control unit, 211 corresponding point detection unit, 212 Screen frame position detection unit, 213 posture estimation unit, 214 screen shape estimation unit, 215 correction vector generation unit, 221 frame detection imaging processing unit, 222 lens distortion correction unit, 223 captured image frame position detection unit, 224 projection image frame Position identification unit, 225 frame position interpolation processing unit, 231 viewpoint position estimation unit, 232 viewpoint image frame position calculation unit, 233 correction vector calculation unit, 800 projection imaging system, 801 control device, 802 projection imaging Image equipment
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Geometry (AREA)
- Computer Hardware Design (AREA)
- Theoretical Computer Science (AREA)
- Transforming Electric Information Into Light Information (AREA)
- Projection Apparatus (AREA)
Abstract
本開示は、画像投影位置をより容易に制御することができるようにする情報処理装置および方法に関する。 実空間の所望の領域に画像が投影されるように、その画像の補正情報を生成する。例えば、所定の視点位置から見た場合に、投影された画像が所望の領域に位置するように、補正情報を生成する。また、例えば、その補正情報として、画像の各画素位置を補正する補正ベクトルを生成する。本開示は、例えば、情報処理装置、投影装置、撮像装置、投影撮像装置、投影撮像制御装置、または画像投影撮像システム等に適用することができる。
Description
本開示は、情報処理装置および方法に関し、特に、画像投影位置をより容易に制御することができるようにした情報処理装置および方法に関する。
従来、プロジェクタによる画像投影において、所望の位置に画像が投影されるように制御する方法が様々に考えられた。特に、所謂超短焦点プロジェクタは、従来の長焦点プロジェクタよりも投影面の近くから画像を投影するため、長焦点プロジェクタの場合に比べて投影画像の歪みが大きくなり易く、所望の位置(所望の範囲内)に画像を投影させる難易度が高かった。
このような画像補正技術として例えば、特殊なパターンを照射し、ユーザがそれを手持ちのカメラで撮像し、その撮像画像を基に投影画像の歪みを推定し、所望の位置に投影されるように、投影する画像を補正する方法が考えられた(例えば特許文献1参照)。
しかしながら、この方法の場合、ユーザが手持ちのカメラで撮影する等の煩雑な作業が必要であった。
本開示は、このような状況に鑑みてなされたものであり、画像投影位置をより容易に制御することができるようにするものである。
本技術の一側面の情報処理装置は、実空間の所望の領域に画像が投影されるように、前記画像の補正情報を生成する補正情報生成部を備える情報処理装置である。
本技術の一側面の情報処理方法は、実空間の所望の領域に画像が投影されるように、前記画像の補正情報を生成する情報処理方法である。
本技術の一側面の情報処理装置および方法においては、実空間の所望の領域に画像が投影されるように、その画像の補正情報が生成される。
本開示によれば、情報を処理することができる。特に、画像投影位置をより容易に制御することができる。
以下、本開示を実施するための形態(以下実施の形態とする)について説明する。なお、説明は以下の順序で行う。
1.画像投影位置制御
2.第1の実施の形態(投影撮像システム)
3.第2の実施の形態(他の構成例)
4.付記
1.画像投影位置制御
2.第1の実施の形態(投影撮像システム)
3.第2の実施の形態(他の構成例)
4.付記
<1.画像投影位置制御>
<画像投影>
従来、プロジェクタによる画像投影において、所望の位置に画像が投影されるように制御する方法が様々に考えられた。特に、近年普及が進む所謂超短焦点プロジェクタは、従来の長焦点プロジェクタよりも投影面の近くから画像を投影するため、長焦点プロジェクタの場合に比べて投影画像の歪みが大きくなり易く、所望の位置(所望の範囲内)に画像を投影させる難易度が高かった。
<画像投影>
従来、プロジェクタによる画像投影において、所望の位置に画像が投影されるように制御する方法が様々に考えられた。特に、近年普及が進む所謂超短焦点プロジェクタは、従来の長焦点プロジェクタよりも投影面の近くから画像を投影するため、長焦点プロジェクタの場合に比べて投影画像の歪みが大きくなり易く、所望の位置(所望の範囲内)に画像を投影させる難易度が高かった。
このような画像補正技術として例えば、特許文献1に記載のように、特殊なパターンを照射し、ユーザがそれを手持ちのカメラで撮像し、その撮像画像を基に投影画像の歪みを推定し、所望の位置に投影されるように、投影する画像を補正する方法が考えられた。
しかしながら、この方法の場合、ユーザが手持ちのカメラで撮影する等の煩雑な作業が必要であった。また、特許文献1に記載の方法では、投影画像の歪みが補正されるのみであり、画像を所望の位置に投影させる(投影画像を所望の位置にする)ためには、手動でプロジェクタの投影方向等を調整する等の煩雑な作業がさらに必要であった。そのため、画像投影位置を制御するためのより容易な方法が求められていた。
<画像投影位置制御>
そこで、実空間の所望の領域に画像が投影されるように画像の補正情報を生成するようにする。
そこで、実空間の所望の領域に画像が投影されるように画像の補正情報を生成するようにする。
例えば、情報処理装置において、実空間の所望の領域に画像が投影されるように、その画像の補正情報を生成する補正情報生成部を備えるようにする。
このようにすることにより、その補正情報を用いて投影する画像を補正するだけで、画像投影位置をより容易に制御することができる。
<2.第1の実施の形態>
<投影撮像システム>
図1は、本技術を適用した投影撮像システムの一実施の形態の主な構成例を示すブロック図である。図1において、投影撮像システム100は、投影撮像装置101およびスクリーン102を有し、画像を投影したり、投影面を撮像したり、画像の投影位置(範囲)を制御したりするシステムである。
<投影撮像システム>
図1は、本技術を適用した投影撮像システムの一実施の形態の主な構成例を示すブロック図である。図1において、投影撮像システム100は、投影撮像装置101およびスクリーン102を有し、画像を投影したり、投影面を撮像したり、画像の投影位置(範囲)を制御したりするシステムである。
投影撮像装置101は、画像をスクリーン102に投影する装置である。投影撮像装置101は、所謂超短焦点プロジェクタと同様に、スクリーン102の近傍に設置され、そこから画像をスクリーン102に投影するように設計されている。例えば、投影撮像装置101は、スクリーン102の下方の、スクリーン102が設置された壁等に接するかまたは近接する位置に設置され、その筐体のスクリーン102(壁)から少し離れた場所から画像をスクリーン102に向けて投影する。つまり、投影撮像装置101は、スクリーン102の略真下から画像を投影する。
また、投影撮像装置101は、画像を投影する位置(範囲)を制御する。投影撮像装置101は、その画像投影位置制御のために、投影する画像に対して画像補正を行う。さらに、投影撮像装置101は、その画像補正(投影位置制御)のために、画像が投影されたスクリーン102(すなわち投影面)を撮像する。一般的に短焦点プロジェクタより投影された投影画像は歪み易く、その位置の制御の難易度も高い。投影撮像装置101は、スクリーン102を撮像し、その撮像画像を利用して画像補正を行うことによって画像投影位置制御を行うので、画像投影位置をより容易に制御することができる。
なお、スクリーン102は、光を正面方向に高輝度に反射し、正面方向以外の方向には低輝度に反射するような素材や構成で形成される。例えば、投影撮像装置101によりスクリーン102に投影された投影画像をスクリーン102の正面から見た場合、その投影画像は高輝度に見えるが、正面以外の方向(例えばスクリーン102の下方)から見た場合、その投影画像は低輝度に見える。スクリーン102は、素材や構成により、このような特性の投影面を実現する。
<投影撮像装置>
図2は、本技術を適用した情報処理装置の一実施の形態である投影撮像装置101の主な構成例を示すブロック図である。なお、図2においては、処理部やデータの流れ等の主なものを示しており、投影撮像装置101の構成は、図2に示されるものが全てとは限らない。つまり、投影撮像装置101において、図2においてブロックとして示されていない処理部が存在したり、図2において矢印等として示されていない処理やデータの流れが存在したりしてもよい。
図2は、本技術を適用した情報処理装置の一実施の形態である投影撮像装置101の主な構成例を示すブロック図である。なお、図2においては、処理部やデータの流れ等の主なものを示しており、投影撮像装置101の構成は、図2に示されるものが全てとは限らない。つまり、投影撮像装置101において、図2においてブロックとして示されていない処理部が存在したり、図2において矢印等として示されていない処理やデータの流れが存在したりしてもよい。
図2に示されるように、投影撮像装置101は、投影撮像ユニット111および制御ユニット112を有する。投影撮像ユニット111は、投影や撮像に関する処理を行うユニットである。制御ユニット112は、その投影撮像ユニット111の制御に関する処理を行うユニットである。
投影撮像ユニット111は、投影部121、撮像部122-1、および撮像部122-2を有する。
投影部121は、画像投影に関する処理を行う。例えば、投影部121は、制御ユニット112(後述する制御部131)から供給された画像のデータを取得し、その画像をスクリーン102に向かって投影する。
撮像部122-1および撮像部122-2は、撮像に関する処理を行う。撮像部122-1および撮像部122-2を互いに区別して説明する必要がない場合、撮像部122と称する。例えば、撮像部122は、投影部121により画像が投影されたスクリーン102およびその周辺を撮像し、その撮像画像のデータを生成する。撮像部122は、生成した撮像画像のデータを制御ユニット112(後述する制御部131)に供給する。なお、撮像部122-1および撮像部122-2は、投影撮像装置101の筐体の互いに異なる位置からスクリーン102およびその周辺を撮像する。つまり、撮像部122-1により生成される撮像画像と、撮像部122-2により生成される撮像画像との間には視差が生じる。
制御ユニット112は、制御部131、入力部141、出力部142、記憶部143、通信部144、およびドライブ145を有する。
制御部131は、投影撮像ユニット111の制御に関する処理を行う。例えば、制御部131は、投影部121に画像のデータを供給し、その画像を投影させる。また、制御部131は、撮像部122に撮像を行わせ、撮像画像のデータを取得する。
さらに制御部131は、その撮像画像を用いて、投影部121に投影させる画像を補正して、投影部121による画像投影位置(範囲)を制御する。例えば、投影部121が投影した投影画像の範囲がスクリーン102の範囲と一致するように(投影画像の外枠がスクリーン102の外枠と一致するように)、画像投影位置(範囲)を制御する。
なお、制御部131は、どのような構成を有するようにしてもよいが、例えば、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)等を有し、そのCPUがROM等に記憶されているプログラムやデータをRAMにロードして実行することにより、処理を行うようにしてもよい。
入力部141は、外部から入力される情報の受け付けに関する処理を行う。例えば、入力部141は、外部から入力される情報を受け付け、その情報を制御部131に供給する。この入力部141は、ユーザ入力等の外部の情報を受け付ける任意の入力デバイスを有する。その入力デバイスは、例えば、キーボード、マウス、操作ボタン、タッチパネル、カメラ、マイクロホン、入力端子であってもよい。また、その入力デバイスは、加速度センサ、光センサ、温度センサ等の各種センサや、バーコードリーダ等の入力機器であってもよい。入力部141が、複数の入力デバイスを有するようにしてもよいし、複数種類の入力デバイスを有するようにしてもよい。
出力部142は、情報の出力に関する処理を行う。例えば、出力部142は、制御部131から供給される情報を、投影撮像装置101の外部に出力する。この出力部142は、画像や音声等の情報を出力する任意の出力デバイスを有する。その出力デバイスは、例えば、ディスプレイ、スピーカ、出力端子等であってもよい。出力部142が、複数の出力デバイスを有するようにしてもよいし、複数種類の入力デバイスを有するようにしてもよい。
記憶部143は、情報の記憶に関する処理を行う。例えば、記憶部143は、制御部131から供給された情報を記憶する。また、記憶部143は、記憶している情報を制御部131に供給する。この記憶部143は、プログラムやデータ等の情報を記憶する任意の記憶媒体を有する。その記憶媒体は、例えば、ハードディスク、RAMディスク、不揮発性メモリ等であってもよい。記憶部143が、複数の記憶媒体を有するようにしてもよいし、複数種類の記憶媒体を有するようにしてもよい。
通信部144は、通信に関する処理を行う。例えば、通信部144は、投影撮像装置101の外部の装置と通信を行い、制御部131から供給された情報(プログラムやデータ等)をその外部の装置に供給する。また、通信部144は、投影撮像装置101の外部の装置と通信を行い、その外部の装置から情報(プログラムやデータ等)を取得し、取得した情報を制御部131に供給する。この通信部144は、所定の通信媒体(例えばインターネット等の任意のネットワーク)を介して外部の装置とプログラムやデータ等の情報を授受する通信を行う任意の通信デバイスを有する。その通信デバイスは、例えば、ネットワークインタフェースであってもよい。通信部144が、複数の通信デバイスを有するようにしてもよいし、複数種類の通信デバイスを有するようにしてもよい。なお、通信部144が有線通信機能を有するようにしてもよいし、無線通信機能を有するようにしてもよいし、その両方を有するようにしてもよい。
ドライブ145は、自身に装着されたリムーバブルメディア151のインタフェースに関する処理を行う。例えば、ドライブ145は、自身に装着されたリムーバブルメディア151に記憶されている情報(プログラムやデータ等)を読み出し、その情報を制御部131に供給する。また、書き込み可能なリムーバブルメディア151が自身に装着された場合、ドライブ145は、制御部131から供給された情報(プログラムやデータ等)を、そのリムーバブルメディア151に書き込む(記憶させる)。このリムーバブルメディア151は、任意であるが、例えば、磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリなどであってもよい。ドライブ145が、複数のリムーバブルメディア151を装着することができるようにしてもよいし、複数種類のリムーバブルメディア151を装着することができるようにしてもよい。
<制御部の機能ブロック>
図3は、制御部131がプログラム等を実行することにより実現する機能の例を示す機能ブロック図である。図3に示されるように、制御部131は、プログラムを実行することにより、例えば、投影制御部201、撮像制御部202、対応点検出部211、スクリーン枠位置検出部212、姿勢推定部213、スクリーン形状推定部214、および補正ベクトル生成部215の機能を有する。
図3は、制御部131がプログラム等を実行することにより実現する機能の例を示す機能ブロック図である。図3に示されるように、制御部131は、プログラムを実行することにより、例えば、投影制御部201、撮像制御部202、対応点検出部211、スクリーン枠位置検出部212、姿勢推定部213、スクリーン形状推定部214、および補正ベクトル生成部215の機能を有する。
投影制御部201は、投影部121の制御に関する処理を行う。例えば、投影制御部201は、画像のデータを投影部121に供給し、その画像を投影させる。例えば、ユーザにコンテンツを視聴させる場合、投影制御部201は、そのコンテンツの画像のデータを投影部121に供給し、その画像を投影させる。また、投影部121と撮像部122との対応点(投影する画像と撮像画像との対応点)を検出する場合、投影制御部201は、対応点検出部211の要求に応じて、その対応点検出のための画像のデータを投影部121に供給し、その画像を投影させる。また、スクリーン102の枠の位置を検出する場合、投影制御部201は、スクリーン枠位置検出部212(枠検出用撮像処理部221)の要求に応じて、スクリーン枠の位置を検出するための画像のデータを投影部121に供給し、その画像を投影させる。
また、例えば、投影制御部201は、投影部121に供給する画像に対して、画像投影位置を制御したり、投影画像の歪みを補正したりするための補正処理を行う。例えば、投影制御部201は、補正ベクトル生成部215(補正ベクトル算出部233)から供給される補正ベクトルを用いて、その補正処理を行う。
撮像制御部202は、撮像部122の制御に関する処理を行う。例えば、投影部121と撮像部122との対応点(投影する画像と撮像画像との対応点)を検出する場合、撮像制御部202は、対応点検出部211の要求に応じて、撮像部122を制御し、投影部121から画像が投影されたスクリーン102およびその周辺を撮像させ、撮像画像のデータを生成させ、そのデータを取得する。撮像制御部202は、取得したその撮像画像のデータを対応点検出部211に供給する。また、スクリーン102の枠の位置を検出する場合、撮像制御部202は、スクリーン枠位置検出部212(枠検出用撮像処理部221)の要求に応じて、撮像部122を制御し、投影部121から画像が投影されたスクリーン102およびその周辺を撮像させ、撮像画像のデータを生成させ、そのデータを取得する。撮像制御部202は、取得したその撮像画像のデータをスクリーン枠位置検出部212(枠検出用撮像処理部221)に供給する。
対応点検出部211は、投影部121と撮像部122との対応点(投影する画像と撮像画像との対応点)の検出に関する処理を行う。例えば、対応点検出部211は、投影制御部201を介して投影部121を制御し、対応点検出用の画像のデータを供給し、その画像を投影させる。また、対応点検出部211は、撮像制御部202を介して撮像部122を制御し、その対応点検出用の画像が投影されたスクリーン102およびその周辺を撮像させ、その撮像画像のデータを取得する。
対応点検出部211は、その取得した撮像画像のデータ等を用いて対応点の検出を行い、その検出結果を姿勢推定部213およびスクリーン枠位置検出部212の投影画像枠位置特定部224に供給する。
スクリーン枠位置検出部212は、スクリーン枠位置の検出に関する処理を行う。例えば、スクリーン枠位置検出部212は、スクリーン102の枠の位置を検出し、その検出結果を補正ベクトル生成部215(視点画像枠位置算出部232)に供給する。
姿勢推定部213は、姿勢推定に関する処理を行う。例えば、姿勢推定部213は、対応点検出部211により検出された対応点を利用して、投影部121や撮像部122の姿勢を推定し、その推定結果をスクリーン形状推定部214に供給する。
スクリーン形状推定部214は、スクリーン形状の推定に関する処理を行う。例えば、スクリーン形状推定部214は、姿勢推定部213により推定された投影部121および撮像部122の姿勢に基づいて、スクリーン102の形状を推定し、その推定結果を補正ベクトル生成部215(視点位置推定部231)に供給する。
補正ベクトル生成部215は、補正ベクトルの生成に関する処理を行う。この補正ベクトルは、画像投影位置(範囲)の制御や歪みの抑制のための画像補正の内容を示すベクトル情報である。つまり、補正ベクトルは、画像投影位置(範囲)の制御や歪みの抑制のために、投影部121に投影させる画像の各画素をどのように補正するかを示す情報である。例えば、補正ベクトル生成部215は、スクリーン形状推定部214により推定されたスクリーン形状や、スクリーン枠位置検出部212により検出されたスクリーン102の枠の位置等の情報に基づいて、補正ベクトルを生成する。
補正ベクトル生成部215は、生成した補正ベクトルを投影制御部201に供給する。上述したように投影制御部201は、その補正ベクトルを用いて画像補正を行う。
また、スクリーン枠位置検出部212は、枠検出用撮像処理部221、レンズ歪み補正部222、撮像画像枠位置検出部223、投影画像枠位置特定部224、および、枠位置補間処理部225を有する。
枠検出用撮像処理部221は、スクリーン枠を検出するための撮像に関する処理を行う。例えば、枠検出用撮像処理部221は、投影制御部201を介して投影部121を制御し、スクリーン枠の位置を検出するための画像のデータを供給し、その画像を投影させる。また、枠検出用撮像処理部221は、撮像制御部202を介して撮像部122を制御し、投影部121からスクリーン枠の位置を検出するための画像が投影されたスクリーン102およびその周辺を撮像させ、撮像画像のデータを生成させ、そのデータを取得する。また、枠検出用撮像処理部221は、その取得した撮像画像のデータをレンズ歪み補正部222に供給する。
レンズ歪み補正部222は、レンズ歪みの補正に関する処理を行う。例えば、レンズ歪み補正部222は、枠検出用撮像処理部221から供給される撮像画像のレンズ歪みを補正し、補正後の撮像画像を撮像画像枠位置検出部223に供給する。
撮像画像枠位置検出部223は、撮像画像におけるスクリーン枠の位置の検出に関する処理を行う。例えば、撮像画像枠位置検出部223は、レンズ歪み補正部222によりレンズ歪みが補正された撮像画像を用いて、その撮像画像にけるスクリーン102の枠の位置を検出し、その検出結果を投影画像枠位置特定部224に供給する。
投影画像枠位置特定部224は、投影させる画像におけるスクリーン枠の位置の検出に関する処理を行う。例えば、投影画像枠位置特定部224は、対応点検出部211により検出された対応点を用いて、撮像画像枠位置検出部223により検出された撮像画像におけるスクリーン102の枠の位置を、投影させる画像上に変換し、その投影させる画像におけるスクリーン102の枠の位置を特定する。投影画像枠位置特定部224は、その特定したスクリーン102の枠の位置を示す情報を、枠位置補間処理部225に供給する。
枠位置補間処理部225は、投影画像枠位置特定部224により特定されたスクリーン枠の位置の補間に関する処理を行う。例えば、枠位置補間処理部225は、所定の補間方法で、投影画像枠位置特定部224により特定された局所的なスクリーン枠の位置同士の間を補間する。枠位置補間処理部225は、その補間処理後のスクリーン102の枠の位置を示す情報を補正ベクトル生成部215(視点画像枠位置算出部232)に供給する。
補正ベクトル生成部215は、視点位置推定部231、視点画像枠位置算出部232、および補正ベクトル算出部233を有する。
視点位置推定部231は、視点位置の推定に関する処理を行う。例えば、視点位置推定部231は、スクリーン形状推定部214により推定されたスクリーン形状に基づいて、ユーザ視点の位置(例えば、スクリーン102の正面)を推定する。視点位置推定部231は、推定したその位置を示す情報を、視点画像枠位置算出部232に供給する。
視点画像枠位置算出部232は、視点位置からの見え方(視界)を示す視点画像におけるスクリーン枠の位置の算出に関する処理を行う。例えば、視点画像枠位置算出部232は、視点位置推定部231により推定された視点位置における視点画像を推定し、その視点画像における、枠位置補間処理部225から供給される情報に示されるスクリーン102の枠の位置を算出し、その算出結果を補正ベクトル算出部233に供給する。
補正ベクトル算出部233は、補正ベクトルの算出に関する処理を行う。例えば、補正ベクトル算出部233は、視点画像枠位置算出部232により算出された視点画像におけるスクリーン102の枠の位置を用いて、補正ベクトルを算出する。補正ベクトル算出部233は、算出した補正ベクトルを投影制御部201に供給する。
<投影補正処理の流れ>
次に、以上のような構成の投影撮像装置101が実行する投影補正処理の流れの例を、図4のフローチャートを参照して説明する。なお、この処理は、コンテンツを投影中に実行するようにしてもよいし、コンテンツの投影を行っていないときに実行するようにしてもよい。
次に、以上のような構成の投影撮像装置101が実行する投影補正処理の流れの例を、図4のフローチャートを参照して説明する。なお、この処理は、コンテンツを投影中に実行するようにしてもよいし、コンテンツの投影を行っていないときに実行するようにしてもよい。
投影補正処理が開始されると、対応点検出部211は、ステップS101において、投影画像と撮像画像との対応点を検出する。この対応点の検出方法は任意である。例えば、国際公開第2017/104447号に記載の方法を適用するようにしてもよい。なお、対応点検出部分で視聴を一度中断し、構造化光パターンを照射して対応点を取得するようにしてもよい。
ステップS102において、スクリーン枠位置検出部212は、スクリーン102の枠の位置を検出する。
ステップS103において、姿勢推定部213は、ステップS101において得られた対応点を用いて、投影部121および撮像部122の姿勢を推定する。
ステップS104において、スクリーン形状推定部214は、ステップS103の姿勢推定結果に基づいて、スクリーン形状を推定する。
ステップS105において、補正ベクトル生成部215は、ステップS104において推定したスクリーン形状を用いて、補正ベクトルを推定する。
ステップS105の処理が終了すると投影補正処理が終了する。
<スクリーン枠位置検出処理の流れ>
次に、図5のフローチャートを参照して、図4のステップS102において実行されるスクリーン枠位置検出処理の流れの例を説明する。
次に、図5のフローチャートを参照して、図4のステップS102において実行されるスクリーン枠位置検出処理の流れの例を説明する。
スクリーン枠位置検出処理が開始されると、枠検出用撮像処理部221は、ステップS121において、処理対象とする撮像部122を選択する。撮像部122が1台しかない場合、この処理は省略される。
ステップS122において、枠検出用撮像処理部221は、スクリーン枠位置検出用投影画像を投影部121に投影させ、撮像部122にその投影面を撮像させ、その撮像画像であるスクリーン枠位置検出用撮像画像を生成させる。
このスクリーン枠位置検出用投影画像およびスクリーン枠位置検出用撮像画像の例を図6に示す。図6のスクリーン枠位置検出用投影画像301は、投影部121により投影される画像の例を示す。この場合、スクリーン枠位置検出用投影画像301は、全画素の輝度値が最大の所謂白画像である。つまり、投影部121は、この一様な白画像をスクリーン枠位置検出用投影画像として投影する。
なお、このスクリーン枠位置検出用投影画像301は、輝度値が図6の例に限定されない。例えば、スクリーン枠位置検出用投影画像301の輝度値は、一様であればよく、最大値でなくてもよい。つまり、白色以外の色の画像であってもよい。また、スクリーン枠位置検出用投影画像301は、外側(枠近傍)において輝度値が一様であればよく、中央部の輝度値は一様でなくてもよい。
このようなスクリーン枠位置検出用投影画像301が投影されたスクリーン102およびその周辺を撮像部122が撮像して、スクリーン枠位置検出用撮像画像302が得られる。
このスクリーン枠位置検出用撮像画像302に含まれる投影画像311は、投影部121によりスクリーン102等に投影されたスクリーン枠位置検出用投影画像301である。この投影画像311内の領域312は、その周辺に比べて輝度が低減している。これは、スクリーン102が光を正面方向に高輝度に反射し、その他の方向(投影撮像装置101が設置されている方向)への反射はスクリーン102の周辺に比べて少ないためである。
投影撮像装置101は、このような輝度差を利用してスクリーン102の枠を検出する。つまり、投影撮像装置101は、投影部121から照射された全白パターンが、スクリーン102により反射して撮像部122に入射する光量と、スクリーン102の外(例えば壁等)によって反射して撮像部122に入射する光量との違いを利用して、スクリーン102の枠の位置を特定する。
なお、撮像部122は、スクリーン102全体を撮像画角内に収めるために、広角レンズを使用して撮像している。そのため、スクリーン枠位置検出用撮像画像302にはレンズ歪みが生じており、現実空間における直線がスクリーン枠位置検出用撮像画像302においては曲線となっている。
そこで、ステップS123において、レンズ歪み補正部222は、事前キャリブレーションにより既知のレンズ歪みパラメータを用いて、ステップS122において生成されたスクリーン枠位置検出用撮像画像302にレンズ歪み補正を適用し、このようなレンズ歪みを低減させる。さらに、レンズ歪み補正部222は、画像をグレー変換する。
このような処理により、図7の撮像画像321が得られる。撮像画像321内の投影画像322は、スクリーン枠位置検出用撮像画像302の投影画像311(図6)に対応する。また投影画像322内の、輝度が周辺に比べて低減している領域323は、スクリーン枠位置検出用撮像画像302の領域312に対応する。このように、レンズ歪み補正によって、曲線であった投影画像311や領域312の輪郭は直線化される。
ステップS124において、撮像画像枠位置検出部223は、撮像画像におけるスクリーン枠位置を検出する。
より具体的には、撮像画像枠位置検出部223は、まず、撮像画像321を2値化して、2値画像331に変換する。図7に示されるように2値画像331においては、撮像画像321において高輝度であった、スクリーン枠位置検出用投影画像301が投影されたスクリーン102の外の領域のみが、黒領域332として表現される。つまり、この2値化により、スクリーン102の領域とスクリーン102の外の領域との輝度差が明確になる。
次に、撮像画像枠位置検出部223は、その2値画像331において輪郭検出を行い、黒領域332の輪郭を検出する。図7の画像341は、その輪郭検出結果の例を示している。画像341に示されるように、黒領域332の外側の輪郭(点線枠342)と内側の輪郭(実線枠343)との両方が検出される。点線枠342は、投影されたスクリーン枠位置検出用投影画像301の輪郭に対応する。また、実線枠343は、スクリーン102の輪郭に対応する。
次に、撮像画像枠位置検出部223は、事前におおまかに既知とするスクリーン102の輪郭の長さをもとに、この画像341におけるスクリーン102の輪郭を特定する。つまり、実線枠343が特定される。図7の画像351は、この特定結果を示す。画像351内の輪郭352は、画像341の実線枠343に対応する。
以上のように、撮像画像におけるスクリーン102の枠位置が検出される。
ステップS125において、投影画像枠位置特定部224は、図4のステップS101において検出された対応点を用いて、投影画像におけるスクリーン枠位置を特定する。つまり、投影画像枠位置特定部224は、対応点を用いて、以上のように検出された撮像画像におけるスクリーン102の枠位置を、投影画像上に変換する。
まず、投影画像枠位置特定部224は、検出された輪郭352を点(輪郭点とも称する)の集合と捉え、図8の画像361のように、それぞれの輪郭点に最も近い撮像画像上の対応点362を特定し、その輪郭点と対応点362とを紐づける。
図8の画像371は、画像361の部分領域363の拡大画像である。画像371に示されるように、輪郭352の近傍に対応点362-1、対応点362-2、対応点362-3が存在するとする。画像371の部分の輪郭352の内、範囲372-1の輪郭点には対応点362-1が最も近いので、これらの輪郭点はこの対応点362-1に紐づけられる。また、範囲372-2の輪郭点には対応点362-2が最も近いので、これらの輪郭点はこの対応点362-2に紐づけられる。同様に、範囲372-3の輪郭点には対応点362-3が最も近いので、これらの輪郭点はこの対応点362-3に紐づけられる。
次に、投影画像枠位置特定部224は、その紐づけられた対応点周辺の対応点を検出し、グループ化する。例えば、図8の画像381に示されるように、輪郭点群352-2に紐づけられた対応点362-2に対して、その周辺に位置する対応点362-1、対応点362-3、対応点362-4、対応点362-5、および対応点362-6がグループ化される。
投影画像枠位置特定部224は、このグループ化された対応点を使用して、撮像画像-投影画像間のホモグラフィ変換を求める。そして、投影画像枠位置特定部224は、そのホモグラフィ変換を、その対応点に紐づけられている各輪郭点に適用し、投影画像上に座標変換する。
例えば、画像381の場合、投影画像枠位置特定部224は、グループ化された対応点362-1乃至対応点362-6を用いて、そのホモグラフィ変換を求める。そして、投影画像枠位置特定部224は、対応点362-2に紐づけられている輪郭点群352-2に対してそのホモグラフィ変換を適用し、投影画像上に座標変換する。
投影画像枠位置特定部224は、このような処理を全ての輪郭点に適用することで、輪郭352を投影画像上に変換する。図8の画像391は、このようにして求められた投影画像のスクリーン102の枠位置の例を示している。つまり、画像391は、投影画像に相当し、実線枠392は、投影画像上に変換された輪郭352に対応する。
ステップS126において、枠位置補間処理部225は、ステップS125において特定された投影画像におけるスクリーン枠位置のモデルフィッティングを行い、スクリーン枠の位置を補間する。
上述したように、輪郭352の投影画像への変換は局所毎に行われるため、実際には、実線枠392は、ノイズの影響等により図9の輪郭401のようにジャギーとなってしまう(不連続な部分が生じる)おそれがある。そこで、枠位置補間処理部225は、スクリーン枠位置のモデルフィッティングを行い、スクリーン枠の位置を補間し、輪郭401を輪郭402のように変換する。この補間方法は任意である。例えば、B-スプライン補間を適用するようにしてもよい。このような補間を適用してスクリーン枠位置をなめらかにつなぐことで、ノイズの影響を抑制することができる。
ステップS127において、スクリーン枠位置検出部212は、全ての撮像部122を用いて処理したか否かを判定する。未処理の撮像部122が存在すると判定された場合、処理はステップS121に戻り、それ以降の処理を繰り返す。つまり、撮像部122毎に以上のような処理を繰り返す。
そして、ステップS127において、全ての撮像部122について処理を行ったと判定された場合、処理はステップS128に進む。
ステップS128において、スクリーン枠位置検出部212は、各撮像画像に基づいて検出された投影画像上のスクリーン102の枠位置を統合する。この統合の方法は任意である。例えば、検出された投影画像上のスクリーン102の各枠位置の平均を最終的な枠位置としてもよいし、中央値を最終的な枠位置としてもよい。
ステップS128の処理が終了するとスクリーン枠位置検出処理が終了し、処理は図4に戻る。
<補正ベクトル生成処理の流れ>
次に、図4のステップS105において実行される補正ベクトル生成処理の流れの例を、図10のフローチャートを参照して説明する。
次に、図4のステップS105において実行される補正ベクトル生成処理の流れの例を、図10のフローチャートを参照して説明する。
補正ベクトル生成処理が開始されると、補正ベクトル生成部215の視点位置推定部231は、ステップS141において、視点位置における視点画像を推定する。
視点画像とは、視点位置からの見え方(視界)を示す画像のことであり、すなわち、視点位置からスクリーン102およびその周辺を撮像した撮像画像と同等の、仮想的な画像である。また、視点位置は、投影画像を見るユーザの視点位置であり、具体的には任意の位置に設定することができる。ここでは、スクリーン102の正面方向の所定の距離の位置であるとする。
補正ベクトルは、このような視点画像を用いて算出される。つまり、投影撮像装置101は、ユーザから見た投影画像の位置(範囲)がスクリーン102の位置(範囲)と一致するように、補正ベクトルを算出する。
ステップS142において、視点画像枠位置算出部232は、視点画像上のスクリーン枠位置を算出する。上述したように、各撮像画像と投影画像のそれぞれにおけるスクリーン102の枠位置が求められたので、それらをもとに、視点画像におけるスクリーン102の枠位置も求めることができる。
ステップS143において、補正ベクトル算出部233は、平面モデルずれおよびスクリーン枠歪みを考慮して、補正ベクトルを算出する。実環境の影響により誤差が生じるおそれがあるので、補正ベクトル算出部233は、それらも考慮して補正ベクトルを算出する。
例えば、図11に示されるように、推定したスクリーン102の位置(平面モデル)が実際の位置からずれている場合もあり得る。このような誤差(平面モデルずれ)により、推定平面上において想定した投影画像のある画素421の位置と、実際に測定された実測点422の位置とが異なる場合がある。
そこで、補正ベクトル算出部233は、このような平面モデルずれを低減させるように補正ベクトルを算出する。
また、図12に示される投影画像431の枠位置432のように、上述のように求めた投影画像上のスクリーン102の枠位置が歪む場合がある(スクリーン枠歪み)。
そこで、補正ベクトル算出部233は、視点画像441上においては枠位置442のように、その歪みが低減するように、補正ベクトルを算出する。
その際、補正ベクトル算出部233は、単に枠の形(投影画像の外形)を整形するだけでなく、投影画像全体の歪みを補正するように、補正ベクトルを算出する。
例えば、図13の点線枠内のように、投影画像の枠位置が歪んでいるとする。このような画像を図14のように歪みを補正する場合に、補正ベクトル算出部233は、例えば、3角形要素内の補間を用いて歪を補正する。例えば、点p0を原点として、点p1および点p2を図13のように設定し、その3点で囲まれる領域(3角形要素)内の点pについて以下のように線形補間を行う。
点p0を原点とする、3角形で構成される局所座標系は、以下の式(1)および式(2)のような基底ベクトルeuおよび基底ベクトルevから得られ、全体座標系への変換行列は、点pの局所座標系の座標をup,vpとし、全体座標系の座標をxp,yp,zpとすると以下の式(3)の通りとなる。
また成分で表せば、以下の式(4)のようになる。
節点p0,p1,p2で各値をC0,C1,C2とすると、要素内の点pでの値Cは、以下の式(5)のように表すことができる。
ここでup,vpは、点pの局所座標系での座標である。Cは、補間補正ベクトルの値を示し、C0-C2は、p0-p2の補正ベクトル値を示す。
もちろん、この補間方法は任意であり、上述の例に限定されない。
ステップS144において、補正ベクトル算出部233は、以上のように算出した補正ベクトルを投影制御部201に供給し、投影制御に反映させる。つまり、投影制御部201は、その補正ベクトルを用いて、投影部121に投影させる画像に対する画像補正を行う。
ステップS144の処理が終了すると、補正ベクトル生成処理が終了し、処理は図4に戻る。
上述のような投影画像の位置(範囲)を制御しない場合、例えば、図15のAに示される投影画像502のように、スクリーン501からはみ出したり、ずれたりしてしまうおそれがあり、そのことにより投影画像502の主観的画質(ユーザから見た画質)が低減してしまうおそれがあった。
これに対して以上のように各処理を実行することにより、容易に、スクリーン501と投影画像502の位置(範囲)を揃えるように、投影することができる。したがって、投影画像502の主観的画質の低減を抑制することができる。また、デザイン性などの観点から顧客体験価値を向上させることができる。さらに、上述の補正により、投影画像の枠位置だけでなく、画像内部の歪みも補正することができる。したがって、投影画像502の主観的画質の低減をより抑制することができる。
<コンテンツ視聴中の補正>
以上のような補正は、コンテンツを投影中に実行するようにしてもよいし、コンテンツの投影を行っていないときに実行するようにしてもよい。コンテンツを投影中に行う場合は、そのコンテンツの視聴を妨げないように補正を行うことが好ましい。
以上のような補正は、コンテンツを投影中に実行するようにしてもよいし、コンテンツの投影を行っていないときに実行するようにしてもよい。コンテンツを投影中に行う場合は、そのコンテンツの視聴を妨げないように補正を行うことが好ましい。
その場合、例えば、国際公開第2017/104447号に記載のImperceptible Structured Lightの手法を用いて、スクリーン枠位置検出用投影画像を投影するようにすればよい。例えば、コンテンツに輝度の一様パターンを埋め込んで照射するようにすればよい。その場合、スクリーン枠位置検出用投影画像の輝度値は、適切な値に落とすようにしてもよい。このようにすることにより、コンテンツに埋め込まれたスクリーン枠位置検出用投影画像を目立たなくすることができるので、コンテンツの主観的画質の低減を抑制することができる。
<スクリーン枠位置検出用投影画像>
なお、スクリーン枠位置検出用投影画像は、どのような画像であってもよく、画像全体で輝度値が一様でなくてもよい。また、輝度値は任意であり、白画像の代わりに黒画像(輝度値が0の画像)を用いてもよい。さらに、例えば輝度値やパターン等が異なる複数の画像を用いてもよい。
なお、スクリーン枠位置検出用投影画像は、どのような画像であってもよく、画像全体で輝度値が一様でなくてもよい。また、輝度値は任意であり、白画像の代わりに黒画像(輝度値が0の画像)を用いてもよい。さらに、例えば輝度値やパターン等が異なる複数の画像を用いてもよい。
<補正範囲>
以上においては、投影画像全体について補正を行うように説明したが、これに限らず、例えば、投影画像の一部についてのみ補正を行うようにしてもよい。例えば、超短焦点プロジェクタでスクリーンの下側から画像を投影した場合、スクリーンの上側の歪みが大きくなり易い。このような場合に、比較的に歪の大きな部分(スクリーンの上側の一部)に対して、上述のような補正を行うようにしてもよい。
以上においては、投影画像全体について補正を行うように説明したが、これに限らず、例えば、投影画像の一部についてのみ補正を行うようにしてもよい。例えば、超短焦点プロジェクタでスクリーンの下側から画像を投影した場合、スクリーンの上側の歪みが大きくなり易い。このような場合に、比較的に歪の大きな部分(スクリーンの上側の一部)に対して、上述のような補正を行うようにしてもよい。
<投影撮像装置の位置>
また、以上においては、投影撮像装置101が所謂超短焦点プロジェクタのようにスクリーン102の近傍から画像を投影するように説明したが、投影撮像装置101の位置は任意である。例えば、所謂長焦点プロジェクタのようにスクリーン102から離れた位置から画像を投影するようにしてもよい。
また、以上においては、投影撮像装置101が所謂超短焦点プロジェクタのようにスクリーン102の近傍から画像を投影するように説明したが、投影撮像装置101の位置は任意である。例えば、所謂長焦点プロジェクタのようにスクリーン102から離れた位置から画像を投影するようにしてもよい。
<3.第2の実施の形態>
<他の構成例>
なお、本技術を適用する投影撮像装置101の構成は、上述した図2の例に限定されない。例えば、投影部121や撮像部122の数はそれぞれ任意であり、単数であってもよいし、複数であってもよい。つまり、投影撮像ユニット111の構成は、図1の例に限定されず任意である。例えば、図16のAに示されるように、投影撮像装置101(投影撮像ユニット111)が、投影部121と撮像部122を1台ずつ有するようにしてもよい。また、例えば、図16のBに示されるように、投影撮像装置101(投影撮像ユニット111)が、投影部121を1台有し、撮像部122を4台(撮像部122-1乃至撮像部122-4)有するようにしてもよい。また、投影撮像ユニット111が、投影部121および撮像部122以外の構成も有するようにしてもよい。
<他の構成例>
なお、本技術を適用する投影撮像装置101の構成は、上述した図2の例に限定されない。例えば、投影部121や撮像部122の数はそれぞれ任意であり、単数であってもよいし、複数であってもよい。つまり、投影撮像ユニット111の構成は、図1の例に限定されず任意である。例えば、図16のAに示されるように、投影撮像装置101(投影撮像ユニット111)が、投影部121と撮像部122を1台ずつ有するようにしてもよい。また、例えば、図16のBに示されるように、投影撮像装置101(投影撮像ユニット111)が、投影部121を1台有し、撮像部122を4台(撮像部122-1乃至撮像部122-4)有するようにしてもよい。また、投影撮像ユニット111が、投影部121および撮像部122以外の構成も有するようにしてもよい。
また、投影撮像装置101が、投影撮像ユニット111を複数備えるようにしてもよい。その場合、各投影撮像ユニット111の構成が全て同一でなくてもよい。例えば、投影撮像ユニット111間で、投影部121や撮像部122の数が異なっていてもよい。また、投影撮像装置101が、制御ユニット112を複数備えるようにしてもよい。その場合、各制御ユニット112の構成が全て同一でなくてもよい。また、その場合、全制御ユニット112が協働して上述した処理を行うようにしてもよいし、一部の制御ユニット112が上述した処理を行うようにしてもよい。
また、投影撮像ユニット111と制御ユニット112とが別体(つまり互いに異なる装置)として構成されるようにしてもよい。例えば、図17に示されるように複数の装置からなるシステムとして構成されるようにしてもよい。
図17の投影撮像システム800は、制御装置801、投影撮像装置802-1、および投影撮像装置802-2を有する。投影撮像装置802-1および投影撮像装置802-2は、それぞれ、有線通信または無線通信により制御装置801と通信可能に接続されている。投影撮像装置802-1および投影撮像装置802-2を互いに区別して説明する必要がない場合、投影撮像装置802と称する。
制御装置801は、制御ユニット112(図2)と同様の構成・機能を有し、同様の処理を行う。投影撮像装置802は、投影撮像ユニット111と同様の構成・機能を有し、同様の処理を行う。つまり、投影撮像システム800は、1台の制御ユニット112に2台の投影撮像ユニット111が接続された構成の投影撮像装置101と同様の構成・機能を有し、同様の処理を行う。
このような投影撮像システム800にも、投影撮像装置101の場合と同様に本技術を適用することができる。第1の実施の形態において説明した本技術を適用することにより、投影撮像システム800は、画像投影位置をより容易に制御することができる。
なお、投影撮像装置802の数は、任意であり1台であってもよいし、複数台であってもよい。また、各投影撮像装置802の構成は、互いに同一であってもよいし、互いに同一でなくてもよい。また、投影撮像システム800が、制御装置801を複数備えるようにしてもよい。その場合、各制御装置801の構成が、互いに同一であってもよいし、互いに同一でなくてもよい。また、制御装置801がいずれかの投影撮像装置802と一体化されるようにしてもよい(すなわち1つの装置として構成されるようにしてもよい)。さらに、投影部121と撮像部122とを互いに異なるユニット(または装置)としてもよい。もちろん、投影撮像システム800が上述した制御装置801および投影撮像装置802以外の装置を有するようにしてもよい。
また、投影撮像システム800において、制御装置801と投影撮像装置802とが、任意の通信網であるネットワークを介して通信可能に接続されるようにしてもよい。
このネットワークにおいて採用される通信方法は任意である。例えば、有線通信であってもよいし、無線通信であってもよいし、それらの両方であってもよい。また、このネットワークは、単数の通信網により構成されるようにしてもよいし、複数の通信網により構成されるようにしてもよい。例えば、インターネット、公衆電話回線網、所謂3G回線や4G回線等の無線移動体用の広域通信網、WAN(Wide Area Network)、LAN(Local Area Network)、Bluetooth(登録商標)規格に準拠した通信を行う無線通信網、NFC(Near Field Communication)等の近距離無線通信の通信路、赤外線通信の通信路、HDMI(登録商標)(High-Definition Multimedia Interface)やUSB(Universal Serial Bus)等の規格に準拠した有線通信の通信網等、任意の通信規格の通信網や通信路がこのネットワークに含まれるようにしてもよい。
<4.付記>
<ソフトウエア>
上述した一連の処理は、ハードウエアにより実行させることもできるし、ソフトウエアにより実行させることもできる。上述した一連の処理をソフトウエアにより実行させる場合には、そのソフトウエアを構成するプログラムが、ネットワークや記録媒体からインストールされる。
<ソフトウエア>
上述した一連の処理は、ハードウエアにより実行させることもできるし、ソフトウエアにより実行させることもできる。上述した一連の処理をソフトウエアにより実行させる場合には、そのソフトウエアを構成するプログラムが、ネットワークや記録媒体からインストールされる。
例えば図2の投影撮像装置101(制御ユニット112)の場合、この記録媒体は、装置本体とは別に、ユーザにプログラムを配信するために配布される、プログラムが記録されているリムーバブルメディア151により構成される。その場合、例えば、リムーバブルメディア151をドライブ145に装着することにより、そのリムーバブルメディア151に記憶されているこのプログラムを読み出させ、記憶部143にインストールさせることができる。
また、このプログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することもできる。例えば図2の投影撮像装置101(制御ユニット112)の場合、プログラムは、通信部144で受信し、記憶部143にインストールすることができる。
その他、このプログラムは、記憶部やROM等に、予めインストールしておくこともできる。例えば図2の投影撮像装置101(制御ユニット112)の場合、プログラムは、記憶部143や制御部131に内蔵されるROM(図示せず)等に予めインストールしておくこともできる。
<本技術の適用対象>
また、本技術は、任意の装置またはシステムを構成する装置に搭載するあらゆる構成、例えば、システムLSI(Large Scale Integration)等としてのプロセッサ(例えばビデオプロセッサ)、複数のプロセッサ等を用いるモジュール(例えばビデオモジュール)、複数のモジュール等を用いるユニット(例えばビデオユニット)、ユニットにさらにその他の機能を付加したセット(例えばビデオセット)等(すなわち、装置の一部の構成)として実施することもできる。
また、本技術は、任意の装置またはシステムを構成する装置に搭載するあらゆる構成、例えば、システムLSI(Large Scale Integration)等としてのプロセッサ(例えばビデオプロセッサ)、複数のプロセッサ等を用いるモジュール(例えばビデオモジュール)、複数のモジュール等を用いるユニット(例えばビデオユニット)、ユニットにさらにその他の機能を付加したセット(例えばビデオセット)等(すなわち、装置の一部の構成)として実施することもできる。
さらに、本技術は、複数の装置により構成されるネットワークシステムにも適用することもできる。例えば、コンピュータ、AV(Audio Visual)機器、携帯型情報処理端末、IoT(Internet of Things)デバイス等の任意の端末に対して、画像(動画像)に関するサービスを提供するクラウドサービスに適用することもできる。
なお、本技術を適用したシステム、装置、処理部等は、例えば、交通、医療、防犯、農業、畜産業、鉱業、美容、工場、家電、気象、自然監視等、任意の分野に利用することができる。また、その用途も任意である。
例えば、本技術は、観賞用コンテンツ等の提供の用に供されるシステムやデバイスに適用することができる。また、例えば、本技術は、交通状況の監理や自動運転制御等、交通の用に供されるシステムやデバイスにも適用することができる。さらに、例えば、本技術は、セキュリティの用に供されるシステムやデバイスにも適用することができる。また、例えば、本技術は、機械等の自動制御の用に供されるシステムやデバイスに適用することができる。さらに、例えば、本技術は、農業や畜産業の用に供されるシステムやデバイスにも適用することができる。また、本技術は、例えば火山、森林、海洋等の自然の状態や野生生物等を監視するシステムやデバイスにも適用することができる。さらに、例えば、本技術は、スポーツの用に供されるシステムやデバイスにも適用することができる。
<その他>
本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
例えば、本技術は、装置またはシステムを構成するあらゆる構成、例えば、システムLSI(Large Scale Integration)等としてのプロセッサ(例えばビデオプロセッサ)、複数のプロセッサ等を用いるモジュール(例えばビデオモジュール)、複数のモジュール等を用いるユニット(例えばビデオユニット)、ユニットにさらにその他の機能を付加したセット(例えばビデオセット)等(すなわち、装置の一部の構成)として実施することもできる。
なお、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、全ての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、および、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
また、例えば、1つの装置(または処理部)として説明した構成を分割し、複数の装置(または処理部)として構成するようにしてもよい。逆に、以上において複数の装置(または処理部)として説明した構成をまとめて1つの装置(または処理部)として構成されるようにしてもよい。また、各装置(または各処理部)の構成に上述した以外の構成を付加するようにしてももちろんよい。さらに、システム全体としての構成や動作が実質的に同じであれば、ある装置(または処理部)の構成の一部を他の装置(または他の処理部)の構成に含めるようにしてもよい。
また、例えば、本技術は、1つの機能を、ネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
また、例えば、上述したプログラムは、任意の装置において実行することができる。その場合、その装置が、必要な機能(機能ブロック等)を有し、必要な情報を得ることができるようにすればよい。
また、例えば、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。換言するに、1つのステップに含まれる複数の処理を、複数のステップの処理として実行することもできる。逆に、複数のステップとして説明した処理を1つのステップとしてまとめて実行することもできる。
なお、コンピュータが実行するプログラムは、プログラムを記述するステップの処理が、本明細書で説明する順序に沿って時系列に実行されるようにしても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで個別に実行されるようにしても良い。つまり、矛盾が生じない限り、各ステップの処理が上述した順序と異なる順序で実行されるようにしてもよい。さらに、このプログラムを記述するステップの処理が、他のプログラムの処理と並列に実行されるようにしても良いし、他のプログラムの処理と組み合わせて実行されるようにしても良い。
なお、本明細書において複数説明した本技術は、矛盾が生じない限り、それぞれ独立に単体で実施することができる。もちろん、任意の複数の本技術を併用して実施することもできる。例えば、いずれかの実施の形態において説明した本技術の一部または全部を、他の実施の形態において説明した本技術の一部または全部と組み合わせて実施することもできる。また、上述した任意の本技術の一部または全部を、上述していない他の技術と併用して実施することもできる。
なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、他の効果があってもよい。
なお、本技術は以下のような構成も取ることができる。
(1) 実空間の所望の領域に画像が投影されるように、前記画像の補正情報を生成する補正情報生成部
を備える情報処理装置。
(2) 前記補正情報生成部は、所定の視点位置から見た、投影された前記画像が、前記所望の領域に位置するように、前記補正情報を生成する
(1)に記載の情報処理装置。
(3) 前記補正情報生成部は、前記補正情報として、前記画像の各画素位置を補正する補正ベクトルを生成する
(1)に記載の情報処理装置。
(4) 前記領域を設定する領域設定部をさらに備え、
前記補正情報生成部は、前記領域設定部により設定された前記領域に前記画像が投影されるように、前記補正情報を生成する
(1)に記載の情報処理装置。
(5) 前記領域設定部は、前記画像において前記領域を設定する
(4)に記載の情報処理装置。
(6) 前記領域設定部は、前記領域を含む投影面の撮像画像を用いて、前記画像における前記領域を特定する
(5)に記載の情報処理装置。
(7) 前記領域設定部は、前記撮像画像における前記領域の輪郭を示す輪郭点群を用いて、前記画像における前記領域の輪郭を特定する
(6)に記載の情報処理装置。
(8) 前記領域設定部は、前記画像と前記撮像画像との間の対応関係を示す対応点を用いて、前記撮像画像における前記領域の輪郭点群から、前記画像における前記領域の輪郭を特定する
(7)に記載の情報処理装置。
(9) 前記領域設定部は、前記撮像画像における前記領域の局所的な輪郭点群を、前記局所的な輪郭点群に対応する対応点および前記対応点の周辺の対応点群に基づいて、ホモグラフィ変換することにより、前記画像における前記領域の輪郭を局所毎に特定する
(8)に記載の情報処理装置。
(10) 前記領域設定部は、前記撮像画像における前記領域の輪郭点群を用いて局所毎に特定した前記画像における前記領域の輪郭を、曲線を用いて補間する
(9)に記載の情報処理装置。
(11) 前記領域設定部は、投影される前記画像と前記撮像画像とを用いて前記対応点を検出し、検出した前記対応点を用いて、前記撮像画像における前記領域の輪郭点群から、前記画像における前記領域の輪郭を特定する
(8)に記載の情報処理装置。
(12) 前記領域設定部は、
前記撮像画像において前記領域の輪郭を検出し、
検出した前記輪郭を示す輪郭点群を用いて、前記画像における前記領域の輪郭を特定する
(7)に記載の情報処理装置。
(13) 前記領域設定部は、所定の画像が投影された前記投影面の撮像画像から、各画素の輝度に応じて、前記領域の輪郭を検出する
(12)に記載の情報処理装置。
(14) 前記領域設定部は、前記撮像画像を2値化して前記領域の輪郭を検出する
(13)に記載の情報処理装置。
(15) 前記所定の画像は、輝度値が一様の画像である
(13)に記載の情報処理装置。
(16) 前記所定の画像は、全画素の輝度値が最大の画像である
(13)に記載の情報処理装置。
(17) 前記領域設定部は、前記撮像画像を歪み補正し、補正後の前記撮像画像を用いて、前記画像における前記領域を特定する
(6)に記載の情報処理装置。
(18) 前記投影面を撮像して前記撮像画像を生成する撮像部をさらに備える
(6)に記載の情報処理装置。
(19) 前記画像を投影する投影部をさらに備える
(1)に記載の情報処理装置。
(20) 実空間の所望の領域に画像が投影されるように、前記画像の補正情報を生成する
情報処理方法。
(1) 実空間の所望の領域に画像が投影されるように、前記画像の補正情報を生成する補正情報生成部
を備える情報処理装置。
(2) 前記補正情報生成部は、所定の視点位置から見た、投影された前記画像が、前記所望の領域に位置するように、前記補正情報を生成する
(1)に記載の情報処理装置。
(3) 前記補正情報生成部は、前記補正情報として、前記画像の各画素位置を補正する補正ベクトルを生成する
(1)に記載の情報処理装置。
(4) 前記領域を設定する領域設定部をさらに備え、
前記補正情報生成部は、前記領域設定部により設定された前記領域に前記画像が投影されるように、前記補正情報を生成する
(1)に記載の情報処理装置。
(5) 前記領域設定部は、前記画像において前記領域を設定する
(4)に記載の情報処理装置。
(6) 前記領域設定部は、前記領域を含む投影面の撮像画像を用いて、前記画像における前記領域を特定する
(5)に記載の情報処理装置。
(7) 前記領域設定部は、前記撮像画像における前記領域の輪郭を示す輪郭点群を用いて、前記画像における前記領域の輪郭を特定する
(6)に記載の情報処理装置。
(8) 前記領域設定部は、前記画像と前記撮像画像との間の対応関係を示す対応点を用いて、前記撮像画像における前記領域の輪郭点群から、前記画像における前記領域の輪郭を特定する
(7)に記載の情報処理装置。
(9) 前記領域設定部は、前記撮像画像における前記領域の局所的な輪郭点群を、前記局所的な輪郭点群に対応する対応点および前記対応点の周辺の対応点群に基づいて、ホモグラフィ変換することにより、前記画像における前記領域の輪郭を局所毎に特定する
(8)に記載の情報処理装置。
(10) 前記領域設定部は、前記撮像画像における前記領域の輪郭点群を用いて局所毎に特定した前記画像における前記領域の輪郭を、曲線を用いて補間する
(9)に記載の情報処理装置。
(11) 前記領域設定部は、投影される前記画像と前記撮像画像とを用いて前記対応点を検出し、検出した前記対応点を用いて、前記撮像画像における前記領域の輪郭点群から、前記画像における前記領域の輪郭を特定する
(8)に記載の情報処理装置。
(12) 前記領域設定部は、
前記撮像画像において前記領域の輪郭を検出し、
検出した前記輪郭を示す輪郭点群を用いて、前記画像における前記領域の輪郭を特定する
(7)に記載の情報処理装置。
(13) 前記領域設定部は、所定の画像が投影された前記投影面の撮像画像から、各画素の輝度に応じて、前記領域の輪郭を検出する
(12)に記載の情報処理装置。
(14) 前記領域設定部は、前記撮像画像を2値化して前記領域の輪郭を検出する
(13)に記載の情報処理装置。
(15) 前記所定の画像は、輝度値が一様の画像である
(13)に記載の情報処理装置。
(16) 前記所定の画像は、全画素の輝度値が最大の画像である
(13)に記載の情報処理装置。
(17) 前記領域設定部は、前記撮像画像を歪み補正し、補正後の前記撮像画像を用いて、前記画像における前記領域を特定する
(6)に記載の情報処理装置。
(18) 前記投影面を撮像して前記撮像画像を生成する撮像部をさらに備える
(6)に記載の情報処理装置。
(19) 前記画像を投影する投影部をさらに備える
(1)に記載の情報処理装置。
(20) 実空間の所望の領域に画像が投影されるように、前記画像の補正情報を生成する
情報処理方法。
100 投影撮像システム, 101 投影撮像装置, 102 スクリーン, 111 投影撮像ユニット, 112 制御ユニット, 121 投影部, 122 撮像部, 131 制御部, 201 投影制御部, 202 撮像制御部, 211 対応点検出部, 212 スクリーン枠位置検出部, 213 姿勢推定部, 214 スクリーン形状推定部, 215 補正ベクトル生成部, 221 枠検出用撮像処理部, 222 レンズ歪み補正部, 223 撮像画像枠位置検出部, 224 投影画像枠位置特定部, 225 枠位置補間処理部, 231 視点位置推定部, 232 視点画像枠位置算出部, 233 補正ベクトル算出部, 800 投影撮像システム, 801 制御装置, 802 投影撮像装置
Claims (20)
- 実空間の所望の領域に画像が投影されるように、前記画像の補正情報を生成する補正情報生成部
を備える情報処理装置。 - 前記補正情報生成部は、所定の視点位置から見た、投影された前記画像が、前記所望の領域に位置するように、前記補正情報を生成する
請求項1に記載の情報処理装置。 - 前記補正情報生成部は、前記補正情報として、前記画像の各画素位置を補正する補正ベクトルを生成する
請求項1に記載の情報処理装置。 - 前記領域を設定する領域設定部をさらに備え、
前記補正情報生成部は、前記領域設定部により設定された前記領域に前記画像が投影されるように、前記補正情報を生成する
請求項1に記載の情報処理装置。 - 前記領域設定部は、前記画像において前記領域を設定する
請求項4に記載の情報処理装置。 - 前記領域設定部は、前記領域を含む投影面の撮像画像を用いて、前記画像における前記領域を特定する
請求項5に記載の情報処理装置。 - 前記領域設定部は、前記撮像画像における前記領域の輪郭を示す輪郭点群を用いて、前記画像における前記領域の輪郭を特定する
請求項6に記載の情報処理装置。 - 前記領域設定部は、前記画像と前記撮像画像との間の対応関係を示す対応点を用いて、前記撮像画像における前記領域の輪郭点群から、前記画像における前記領域の輪郭を特定する
請求項7に記載の情報処理装置。 - 前記領域設定部は、前記撮像画像における前記領域の局所的な輪郭点群を、前記局所的な輪郭点群に対応する対応点および前記対応点の周辺の対応点群に基づいて、ホモグラフィ変換することにより、前記画像における前記領域の輪郭を局所毎に特定する
請求項8に記載の情報処理装置。 - 前記領域設定部は、前記撮像画像における前記領域の輪郭点群を用いて局所毎に特定した前記画像における前記領域の輪郭を、曲線を用いて補間する
請求項9に記載の情報処理装置。 - 前記領域設定部は、投影される前記画像と前記撮像画像とを用いて前記対応点を検出し、検出した前記対応点を用いて、前記撮像画像における前記領域の輪郭点群から、前記画像における前記領域の輪郭を特定する
請求項8に記載の情報処理装置。 - 前記領域設定部は、
前記撮像画像において前記領域の輪郭を検出し、
検出した前記輪郭を示す輪郭点群を用いて、前記画像における前記領域の輪郭を特定する
請求項7に記載の情報処理装置。 - 前記領域設定部は、所定の画像が投影された前記投影面の撮像画像から、各画素の輝度に応じて、前記領域の輪郭を検出する
請求項12に記載の情報処理装置。 - 前記領域設定部は、前記撮像画像を2値化して前記領域の輪郭を検出する
請求項13に記載の情報処理装置。 - 前記所定の画像は、輝度値が一様の画像である
請求項13に記載の情報処理装置。 - 前記所定の画像は、全画素の輝度値が最大の画像である
請求項13に記載の情報処理装置。 - 前記領域設定部は、前記撮像画像を歪み補正し、補正後の前記撮像画像を用いて、前記画像における前記領域を特定する
請求項6に記載の情報処理装置。 - 前記投影面を撮像して前記撮像画像を生成する撮像部をさらに備える
請求項6に記載の情報処理装置。 - 前記画像を投影する投影部をさらに備える
請求項1に記載の情報処理装置。 - 実空間の所望の領域に画像が投影されるように、前記画像の補正情報を生成する
情報処理方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US17/046,364 US11240475B2 (en) | 2018-04-17 | 2019-04-04 | Information processing apparatus and method |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018079129 | 2018-04-17 | ||
JP2018-079129 | 2018-04-17 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2019203002A1 true WO2019203002A1 (ja) | 2019-10-24 |
Family
ID=68239692
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2019/014921 WO2019203002A1 (ja) | 2018-04-17 | 2019-04-04 | 情報処理装置および方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US11240475B2 (ja) |
WO (1) | WO2019203002A1 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114466173B (zh) * | 2021-11-16 | 2024-12-20 | 海信视像科技股份有限公司 | 投影设备及自动投入幕布区域的投影显示控制方法 |
CN114827562B (zh) * | 2022-03-11 | 2024-06-25 | 深圳海翼智新科技有限公司 | 投影方法、装置、投影设备及计算机存储介质 |
WO2024066776A1 (zh) * | 2022-09-29 | 2024-04-04 | 海信视像科技股份有限公司 | 投影设备及投影画面处理方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005039769A (ja) * | 2003-06-26 | 2005-02-10 | Seiko Epson Corp | 画像処理システム、プロジェクタ、プログラム、情報記憶媒体および画像処理方法 |
JP2005234698A (ja) * | 2004-02-17 | 2005-09-02 | Mitsubishi Precision Co Ltd | 歪みパラメータの生成方法及び映像発生方法並びに歪みパラメータ生成装置及び映像発生装置 |
JP2011238228A (ja) * | 2010-05-07 | 2011-11-24 | Ricoh Co Ltd | スクリーン領域検知方法及びシステム |
JP2013153392A (ja) * | 2012-01-26 | 2013-08-08 | Canon Inc | 画像処理装置および画像処理方法、プログラム |
JP2013187764A (ja) * | 2012-03-08 | 2013-09-19 | Seiko Epson Corp | 画像処理装置、画像処理方法、およびプロジェクター |
JP2015228056A (ja) * | 2014-05-30 | 2015-12-17 | セイコーエプソン株式会社 | 画像処理装置、表示装置および画像処理方法 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4378994B2 (ja) * | 2003-04-30 | 2009-12-09 | ソニー株式会社 | 画像処理装置、画像処理方法ならびに撮像装置 |
JP5481833B2 (ja) * | 2008-10-29 | 2014-04-23 | セイコーエプソン株式会社 | プロジェクタおよびプロジェクタの制御方法 |
JP2012078658A (ja) * | 2010-10-04 | 2012-04-19 | Sanyo Electric Co Ltd | 投写型映像表示装置 |
JP5970879B2 (ja) | 2012-03-14 | 2016-08-17 | 株式会社リコー | 投映システム、投映方法、プログラムおよび記録媒体 |
JP2015126340A (ja) * | 2013-12-26 | 2015-07-06 | ソニー株式会社 | 画像処理方法並びに画像投影装置 |
KR20180094878A (ko) | 2015-12-18 | 2018-08-24 | 소니 주식회사 | 화상 처리 장치 및 방법, 데이터, 그리고 기록 매체 |
JP6897092B2 (ja) * | 2016-12-22 | 2021-06-30 | カシオ計算機株式会社 | 投影制御装置、投影制御方法及びプログラム |
US10684537B2 (en) * | 2017-11-14 | 2020-06-16 | Texas Instruments Incorporated | Camera-assisted arbitrary surface characterization and correction |
-
2019
- 2019-04-04 WO PCT/JP2019/014921 patent/WO2019203002A1/ja active Application Filing
- 2019-04-04 US US17/046,364 patent/US11240475B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005039769A (ja) * | 2003-06-26 | 2005-02-10 | Seiko Epson Corp | 画像処理システム、プロジェクタ、プログラム、情報記憶媒体および画像処理方法 |
JP2005234698A (ja) * | 2004-02-17 | 2005-09-02 | Mitsubishi Precision Co Ltd | 歪みパラメータの生成方法及び映像発生方法並びに歪みパラメータ生成装置及び映像発生装置 |
JP2011238228A (ja) * | 2010-05-07 | 2011-11-24 | Ricoh Co Ltd | スクリーン領域検知方法及びシステム |
JP2013153392A (ja) * | 2012-01-26 | 2013-08-08 | Canon Inc | 画像処理装置および画像処理方法、プログラム |
JP2013187764A (ja) * | 2012-03-08 | 2013-09-19 | Seiko Epson Corp | 画像処理装置、画像処理方法、およびプロジェクター |
JP2015228056A (ja) * | 2014-05-30 | 2015-12-17 | セイコーエプソン株式会社 | 画像処理装置、表示装置および画像処理方法 |
Also Published As
Publication number | Publication date |
---|---|
US20210152795A1 (en) | 2021-05-20 |
US11240475B2 (en) | 2022-02-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10602106B2 (en) | Information processing apparatus, information processing method, and program | |
US11924550B2 (en) | Method for processing image by using artificial neural network, and electronic device supporting same | |
US10349023B2 (en) | Image processing apparatus and method | |
CN108781267B (zh) | 图像处理设备和方法 | |
CN110741412B (zh) | 图像处理装置和方法 | |
WO2019203002A1 (ja) | 情報処理装置および方法 | |
JP2014521262A (ja) | 撮像デバイスを較正するための方法および装置 | |
US11074715B2 (en) | Image processing apparatus and method | |
JP6459194B2 (ja) | プロジェクター、及び投写画像制御方法 | |
WO2017154628A1 (ja) | 画像処理装置および方法 | |
KR20190095795A (ko) | 광학식 이미지 안정화 움직임을 추정하기 위한 장치 및 방법 | |
US11483528B2 (en) | Information processing apparatus and information processing method | |
JP7243623B2 (ja) | 画像処理装置および方法 | |
JP5560722B2 (ja) | 画像処理装置、画像表示システム、および画像処理方法 | |
JPWO2018155198A1 (ja) | 情報処理装置および方法 | |
WO2022044807A1 (ja) | 情報処理装置および方法 | |
WO2019244667A1 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
JP6201783B2 (ja) | 距離測定装置、距離測定方法および距離測定プログラム | |
WO2022044806A1 (ja) | 情報処理装置および方法 | |
WO2020184173A1 (ja) | 画像処理装置、画像処理方法、およびプログラム | |
JP4218278B2 (ja) | 情報処理システム、情報処理装置、情報処理方法、画像処理装置、画像処理方法、およびプログラム | |
JP2019022024A (ja) | 画像処理装置、画像処理方法及び画像処理プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 19787698 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 19787698 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: JP |