WO2013100029A9 - 画像処理装置、画像表示システム、画像処理方法および画像処理プログラム - Google Patents
画像処理装置、画像表示システム、画像処理方法および画像処理プログラム Download PDFInfo
- Publication number
- WO2013100029A9 WO2013100029A9 PCT/JP2012/083831 JP2012083831W WO2013100029A9 WO 2013100029 A9 WO2013100029 A9 WO 2013100029A9 JP 2012083831 W JP2012083831 W JP 2012083831W WO 2013100029 A9 WO2013100029 A9 WO 2013100029A9
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- image data
- image
- display
- divided
- processing apparatus
- Prior art date
Links
- 238000012545 processing Methods 0.000 title claims abstract description 133
- 238000003672 processing method Methods 0.000 title claims description 5
- 238000003384 imaging method Methods 0.000 claims abstract description 97
- 230000008859 change Effects 0.000 claims description 46
- 238000012937 correction Methods 0.000 claims description 36
- 238000003860 storage Methods 0.000 claims description 23
- 238000003745 diagnosis Methods 0.000 abstract description 12
- 238000000034 method Methods 0.000 description 39
- 230000008569 process Effects 0.000 description 25
- 239000002131 composite material Substances 0.000 description 24
- 230000006870 function Effects 0.000 description 20
- 238000010586 diagram Methods 0.000 description 14
- 239000002609 medium Substances 0.000 description 10
- 230000003287 optical effect Effects 0.000 description 10
- 238000011161 development Methods 0.000 description 8
- 238000006243 chemical reaction Methods 0.000 description 7
- 238000005259 measurement Methods 0.000 description 7
- 230000000875 corresponding effect Effects 0.000 description 5
- 238000012360 testing method Methods 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 238000005286 illumination Methods 0.000 description 4
- 238000010827 pathological analysis Methods 0.000 description 4
- 230000009467 reduction Effects 0.000 description 4
- 239000003086 colorant Substances 0.000 description 3
- 238000004519 manufacturing process Methods 0.000 description 3
- 239000000203 mixture Substances 0.000 description 3
- 238000002360 preparation method Methods 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 230000015572 biosynthetic process Effects 0.000 description 2
- 210000004027 cell Anatomy 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000003786 synthesis reaction Methods 0.000 description 2
- 230000001174 ascending effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 239000006059 cover glass Substances 0.000 description 1
- 210000000805 cytoplasm Anatomy 0.000 description 1
- 230000002950 deficient Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 238000005401 electroluminescence Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000005304 joining Methods 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000002156 mixing Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000012120 mounting media Substances 0.000 description 1
- 238000000879 optical micrograph Methods 0.000 description 1
- 230000001575 pathological effect Effects 0.000 description 1
- 230000007170 pathology Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 238000004171 remote diagnosis Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
- 210000001519 tissue Anatomy 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/60—Editing figures and text; Combining figures or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4038—Image mosaicing, e.g. composing plane images from plane sub-images
Definitions
- the present invention relates to an image processing apparatus, and more particularly to digital image processing for observation of an object to be photographed.
- the amount of data created with the virtual slide system is enormous, and by performing enlargement / reduction processing with the viewer, it becomes possible to observe from a micro (detailed magnified image) to a macro (whole image), providing various conveniences Do.
- a micro detailed magnified image
- a macro whole image
- Do various conveniences Do.
- it is possible to present various information useful for pathological diagnosis by image analysis of the acquired digital data, calculation of cell shape and number calculation, and calculation of cytoplasm to nucleus area ratio (N / C ratio). It becomes.
- Patent Document 1 discloses a microscope system which divides an image of a sample into small sections and captures an image, and connects images of the small sections obtained thereby to display a composite image of the sample.
- Patent Document 2 discloses an image display system in which a plurality of partial images of a subject are obtained by moving a stage of a microscope and imaging a plurality of times, and correcting distortion of those images and joining them.
- Patent Document 2 a composite image inconspicuous at joints is created.
- Patent Document 3 the user designates which of the overlapping regions picked up to be picked up, thereby obtaining a composite image desired by the user even if the images in the overlapping regions do not match.
- An image synthesizer is disclosed.
- the joint portion in the composite image obtained by the microscope system of Patent Document 1 and the image display system of Patent Document 2 is an optical microscope due to the position shift between the partial images which inevitably occurs and the influence of artifacts such as distortion correction. There is a high possibility that the image is different from that observed by a pathologist using Nevertheless, when the diagnosis is performed on the composite image without recognizing the possibility that such high accuracy diagnosis becomes difficult, if the joint portion of the composite image becomes a target of diagnosis, the accuracy There is a problem that it is difficult to make a high diagnosis. Further, generation of a composite image according to Patent Document 3 targets a pathological image composed of hundreds to thousands of divided images as standard image data because the user designates the image of the overlapping area and designates it. In this case, the work specified by the user is enormous. As a result, there is a problem that it is difficult to combine images in a practical time.
- the imaging ranges are imaged so as to have overlapping regions.
- An image processing apparatus that generates image data for display of the imaging target based on divided image data of the imaging target, An image data acquisition unit that acquires the plurality of divided image data; An image data selection unit that automatically selects image data to be displayed from the plurality of divided image data based on preset conditions for the overlapping area; A display control unit which causes the image display device to display the overlapping area using the divided image data selected by the image data selection unit; And an image processing apparatus characterized by comprising:
- the image processing device described above is divided, and division is performed based on image data of an object to be photographed sent from the image processing device.
- the present invention relates to an image display system having an image display device for selecting and displaying an image.
- the present invention relates to a program that causes a computer to execute the program.
- FIG. 1 shows an example of a hardware configuration diagram of an image processing apparatus according to a first embodiment. It is a figure explaining the concept of priority specification. It is a figure which shows an example of the flow of a production
- FIG. 1 It is a conceptual diagram which shows the example of a change of the display screen by the instruction
- An example of the functional block diagram of the image processing apparatus of 2nd Embodiment is shown. It is a figure explaining the concept of automatic switching of the priority of the image of a 2nd embodiment. It is a figure which shows an example of the flow of a production
- An example of the functional block diagram of the image processing apparatus of 3rd Embodiment is shown. It is a figure which shows an example of the flow of a production
- An image processing apparatus generates image data of an object to be photographed based on divided image data of the object to be photographed, the imaging range being divided into a plurality of divided images having overlapping regions. Do.
- the image processing apparatus according to the present invention is characterized in that composite image data to be photographed is generated at the time of display without performing composition processing between the divided image data. This prevents the problem that occurs when composite image data of a shooting target is generated by combining divided image data, that is, the problem of a reduction in the accuracy of diagnosis based on a combination location different from the original image of the shooting target. be able to.
- image data to be photographed can be displayed by automatically selecting the divided image to be displayed. Thereby, when there is a boundary of the divided image in the area displayed on the display, it is possible to change the boundary and observe the image to be photographed.
- An image processing apparatus includes an image data acquisition unit for acquiring a plurality of divided image data, an image data selection unit for selecting image data to be displayed from the plurality of divided image data, and a selected division. It has a display control part which displays image data on a display part.
- Selection of image data by the image data selection unit can be made based on automatic determination of selection based on preset conditions, or based on an instruction input from the outside.
- As the set conditions it is possible to use a change in the boundary position of the divided image data displayed on the image display device and a change in the ratio of the displayed divided image data displayed on the image display device.
- the image processing apparatus of the present invention can be used for a virtual slide system using divided image data obtained by capturing an image of a microscope.
- An image display system is an image display system having at least an image processing apparatus and an image display apparatus, the image display system having the above-described image processing apparatus, and displaying an image data of an object to be photographed sent from the image processing apparatus. It has a display device.
- the program according to the present invention displays an image data acquisition step of acquiring divided image data of an object to be photographed, which is photographed by dividing a plurality of divided images having an overlapping area, and the overlapping area from the plurality of divided image data.
- a recording medium of the present invention relates to a computer-readable storage medium recording the above program.
- the preferable aspect described in the image processing apparatus of the present invention can be reflected.
- the image processing apparatus of the present invention can be used in an image display system provided with an imaging device and an image display device.
- the image display system will be described with reference to FIG.
- image display device may be abbreviated as “display device”.
- FIG. 1 shows an image display system using an image processing apparatus according to the present invention, which comprises an imaging apparatus (microscope apparatus) 101, an image processing apparatus 102, and an image display apparatus 103, and an imaging target (sample to be examined) ) Is a system having a function of acquiring and displaying a two-dimensional image.
- the imaging apparatus 101 and the image processing apparatus 102 are connected by a dedicated or general-purpose I / F cable 104, and the image processing apparatus 102 and the image display apparatus 103 are connected by a general-purpose I / F cable 105.
- the imaging device 101 can use a virtual slide device having a function of capturing a plurality of two-dimensional images different in position in the two-dimensional direction and outputting a digital image.
- a solid-state imaging device such as a charge coupled device (CCD) or a complementary metal oxide semiconductor (CMOS) sensor is used to obtain a two-dimensional image.
- CCD charge coupled device
- CMOS complementary metal oxide semiconductor
- the imaging device 101 can also be configured by a digital microscope device in which a digital camera is attached to an eyepiece of a normal optical microscope.
- the image processing apparatus 102 is an apparatus having a function of generating composite image data using original image data obtained by division from a plurality of pieces of original image data acquired from the imaging apparatus 101.
- the image processing apparatus 102 is configured by a general-purpose computer or a workstation including hardware resources such as a CPU (central processing unit), a RAM, a storage device, an operation unit, and an I / F.
- the storage device is a large-capacity information storage device such as a hard disk drive, and stores programs and data for realizing each process described later, an operating system (OS), and the like.
- OS operating system
- the operation unit is configured by a keyboard, a mouse, and the like, and is used by the operator to input various instructions.
- the image display device 103 is a monitor for displaying an observation image which is a result of arithmetic processing of the image processing device 102, and is configured of a CRT, a liquid crystal display, or the like.
- the imaging system is comprised with three apparatuses, the imaging device 101, the image processing apparatus 102, and the image display apparatus 103
- the structure of this invention is not limited to this structure.
- an image processing apparatus in which the image display apparatus is integrated may be used, or the function of the image processing apparatus may be incorporated in the imaging apparatus.
- the functions of the imaging device, the image processing device, and the image display device can be realized by one device.
- the functions of the image processing apparatus and the like may be divided and realized by a plurality of apparatuses.
- FIG. 2 is a block diagram showing a functional configuration of the imaging device 101. As shown in FIG.
- the imaging apparatus 101 generally includes an illumination unit 201, a stage 202, a stage control unit 205, an imaging optical system 207, an imaging unit 210, a development processing unit 216, a pre-measurement unit 217, a main control system 218, and a data output unit 219. Be done.
- the illumination unit 201 is means for uniformly emitting light to the slide 206 disposed on the stage 202, and includes a light source, an illumination optical system, and a control system for driving the light source.
- the stage 202 is drive-controlled by the stage control unit 205, and can move in three axial directions of XYZ.
- the preparation 206 is a member in which a section or a smeared cell of a tissue to be observed is attached on a slide glass and fixed under a cover glass together with a mounting medium.
- the stage control unit 205 includes a drive control system 203 and a stage drive mechanism 204.
- the drive control system 203 performs drive control of the stage 202 in response to an instruction from the main control system 218.
- the movement direction, movement amount, and the like of the stage 202 are determined based on position information and thickness information (distance information) of the imaging target measured by the pre-measurement unit 217 and an instruction from the user as necessary.
- the stage drive mechanism 204 drives the stage 202 in accordance with the instruction of the drive control system 203.
- the imaging optical system 207 is a lens group for forming an optical image of the imaging target of the slide 206 on the imaging sensor 208.
- the imaging unit 210 includes an imaging sensor 208 and an analog front end (AFE) 209.
- the imaging sensor 208 is a one-dimensional or two-dimensional image sensor that converts a two-dimensional optical image into an electrical physical quantity by photoelectric conversion, and for example, a CCD or a CMOS device is used. In the case of a one-dimensional sensor, a two-dimensional image can be obtained by scanning in the scanning direction.
- the imaging sensor 208 outputs an electrical signal having a voltage value corresponding to the light intensity.
- a color image is desired as a captured image, for example, a single-plate image sensor attached with a Bayer-arranged color filter may be used.
- the imaging unit 210 captures a divided image of an imaging target by driving the stage 202 in the XY axis direction.
- the AFE 209 is a circuit that converts an analog signal output from the imaging sensor 208 into a digital signal.
- the AFE 209 includes an H / V driver, a CDS (Correlated double sampler), an amplifier, an AD converter, and a timing generator, which will be described later.
- the H / V driver converts the vertical synchronization signal and the horizontal synchronization signal for driving the imaging sensor 208 into potentials necessary for driving the sensor.
- CDS is a dual correlation sampling circuit that removes fixed pattern noise.
- the amplifier is an analog amplifier that adjusts the gain of an analog signal whose noise has been removed by the CDS.
- the AD converter converts an analog signal into a digital signal.
- the AD converter converts an analog signal into digital data quantized to about 10 bits to about 16 bits in consideration of the processing of the subsequent stage, and outputs the digital data.
- the converted sensor output data is called RAW data.
- the RAW data is developed by a development processing unit 216 at a later stage.
- the timing generator generates a signal for adjusting the timing of the imaging sensor 208 and the timing of the development processing unit 216 in the subsequent stage.
- the AFE 209 is essential. However, in the case of a CMOS image sensor capable of digital output, the function of the AFE 209 is included in the sensor. Also, although not shown, there is an imaging control unit that controls the imaging sensor 208, and the operation control of the imaging sensor 208 and the operation timing and control such as shutter speed, frame rate and ROI (Region Of Interest) Do.
- the development processing unit 216 includes a black correction unit 211, a white balance adjustment unit 212, a demosaicing processing unit 213, a filter processing unit 214, and a ⁇ correction unit 215.
- the black correction unit 211 performs a process of subtracting black correction data obtained at the time of light shielding from each pixel of the RAW data.
- the white balance adjustment unit 212 performs processing to reproduce a desired white color by adjusting the gain of each of the RGB colors according to the color temperature of the light of the illumination unit 201. Specifically, white balance correction data is added to the RAW data after black correction. When handling a single-color image, the white balance adjustment process is not necessary.
- the development processing unit 216 generates divided image data of an object to be photographed which is imaged by the imaging unit 210.
- the demosaicing processing unit 213 performs processing of generating image data of each color of RGB from the RAW data of the Bayer array.
- the demosaicing processing unit 213 calculates the values of the RGB colors of the pixel of interest by interpolating values of peripheral pixels (including pixels of the same color and pixels of other colors) in the RAW data.
- the demosaicing processing unit 213 also executes correction processing (interpolation processing) of the defective pixel.
- correction processing interpolation processing
- the filter processing unit 214 is a digital filter that realizes suppression of high frequency components included in an image, noise removal, and emphasis of resolution.
- the ⁇ correction unit 215 executes processing for adding an inverse characteristic to the image according to the gradation expression characteristic of a general display device, or according to human visual characteristic by gradation compression or dark area processing of a high luminance part And perform gradation conversion.
- tone conversion suitable for synthesis processing and display processing at a later stage is applied to image data.
- the gradation conversion processing performed by the ⁇ correction unit 215 may be configured to be performed within the device of the image processing device 102 described later.
- the pre-measurement unit 217 is a unit that performs preliminary measurement to calculate position information of an object to be imaged on the slide 206, distance information to a desired focal position, and parameters for light amount adjustment due to the thickness of the object to be imaged. By acquiring information by the pre-measurement unit 217 before the main measurement, it is possible to carry out imaging without waste.
- a two-dimensional imaging sensor having a resolution lower than that of the imaging sensor 208 is used to acquire position information on a two-dimensional plane.
- the pre-measurement unit 217 grasps the position on the XY plane of the imaging target from the acquired image.
- a laser displacement gauge or a Shack-Hartmann-type measuring instrument is used to acquire distance information and thickness information.
- the main control system 218 is a function that controls the various units described above.
- the functions of the main control system 218 and the development processing unit 216 are realized by a control circuit having a CPU, a ROM, and a RAM. That is, programs and data are stored in the ROM, and the functions of the main control system 218 and the development processing unit 216 are realized by the CPU using the RAM as a work memory and executing the program.
- a device such as EEPROM or flash memory is used for the ROM
- a DRAM device such as DDR3 is used for the RAM.
- the data output unit 219 is an interface for sending the RGB color image generated by the development processing unit 216 to the image processing apparatus 102.
- the imaging device 101 and the image processing device 102 are connected by an optical communication cable.
- a general-purpose interface such as USB or Gigabit Ethernet (registered trademark) is used.
- FIG. 3 is a block diagram showing the functional configuration of the image processing apparatus 102 of the present invention.
- the image processing apparatus 102 generally includes a data input unit 301, a storage holding unit 302, a divided image data acquisition unit 303, a display data generation unit 304, a data output unit 305, a user instruction input unit 306, and a joint area priority specification unit
- Reference numeral 307 denotes a display device information acquisition unit 308.
- the storage holding unit 302 takes in, through the data input unit 301, the RGB color division image data obtained by dividing and imaging the imaging target acquired from the external device, and stores and holds the same.
- the color image data includes not only the image data but also position information.
- the position information is information indicating which part of the imaging target the divided image data is imaged.
- position information can be acquired by recording XY coordinates at the time of driving the stage 202 together with divided image data at the time of imaging.
- the divided image data acquisition unit 303 acquires image display device information acquired from the display device information acquisition unit 308, display area size, and control information from the display data generation unit 304. Get based on. Also, the divided image data acquisition unit 303 transmits the acquired divided image data to the display data generation unit 304.
- the user instruction input unit 306 updates the display image data such as change of display position, enlargement, or reduction display via an operation input unit such as a mouse or a keyboard, in addition to the user's instruction on display image data to be generated described later.
- An instruction is input.
- the priority specification unit 307 specifies which divided image data is to be used as display image data for the overlapping region of the divided image data.
- the priority specification unit 307 combines the image data of the imaging target generated by selecting the image data to be displayed from the plurality of divided image data for the overlapping area, and the imaging target generated by combining the plurality of divided images. It can also serve as a switching unit for switching to display either image data.
- the display data generation unit 304 generates display data of the divided image data sent from the divided image data acquisition unit 303 based on the priority designated by the priority designation unit 307.
- the generated display data is output to an external monitor or the like as image data for display via the data output unit 305.
- FIG. 4 is a block diagram showing the hardware configuration of the image processing apparatus of the present invention.
- a PC Personal Computer
- FIG. 4 is a block diagram showing the hardware configuration of the image processing apparatus of the present invention.
- a PC Personal Computer
- the PC includes a central processing unit (CPU) 401, a random access memory (RAM) 402, a storage device 403, a data input / output I / F 405, and an internal bus 404 for connecting them.
- CPU central processing unit
- RAM random access memory
- storage device 403 a data input / output I / F 405, and an internal bus 404 for connecting them.
- the CPU 401 appropriately accesses the RAM 402 and the like as necessary, and centrally controls the entire blocks of the PC while performing various arithmetic processing.
- the RAM 402 is used as a work area of the CPU 401, and temporarily holds various data to be processed such as an OS, various programs being executed, user identification of annotations which is a feature of the present invention, and generation of display data.
- the storage device 403 is an auxiliary storage device that records and reads information in which an OS to be executed by the CPU 401 and firmware such as programs and various parameters are fixedly stored.
- a semiconductor device using a magnetic disk drive such as a hard disk drive (HDD) or a solid state disk (SSD) or a flash memory is used.
- the image server 1001 is represented by the LAN I / F 406
- the image display device 103 is represented by the graphics board 407
- the virtual slide device or digital microscope is represented by the external device I / F 408.
- the keyboard 410 and the mouse 411 are connected via the operation I / F 409, respectively.
- the image display apparatus 103 is a display device using, for example, liquid crystal, EL (electroluminescence), CRT (Cathode Ray Tube), or the like.
- EL electroluminescence
- CRT Cathode Ray Tube
- the image display device 103 is assumed to be connected as an external device, a PC integrated with the image display device may be assumed.
- a notebook PC corresponds to this.
- a pointing device such as a keyboard 410 and a mouse 411 is assumed as a connection device with the operation I / F 409
- the screen of the image display apparatus 103 such as a touch panel is a direct input device.
- the touch panel can be integrated with the image display device 103.
- FIG. 5A acquisition of divided images will be described.
- the upper part of FIG. 5 (a) is an object to be photographed, and FIG. 5 (a) has an overlapping area, and the object to be photographed is divided into two areas, an image (1) and an image (2). Acquire divided image data.
- FIG. 5B is an example of a case where an image (1) is selected and a region captured in an overlapping manner among the two divided image data is displayed.
- the display priority of the image (1) is set high as the overlapping area.
- FIG. 5C shows an example in which the image (2) is selected to display the image data, and the display priority of the image (2) is set high.
- image data to be displayed can be selected and displayed on the image display apparatus 103 according to a preset condition or a user's instruction.
- step 601 when displaying image data on the image display device 103, display area information such as the monitor resolution of the image display device 103 connected to the image processing device 102, the display position in the image of the entire imaging target, and the display magnification.
- step 602 the divided image acquisition unit 303 acquires a necessary number of divided image data from among the divided image data fetched by the data input unit 301 and stored in the storage holding unit 302.
- the divided image data of the appropriate hierarchy is selected based on the information on the display magnification acquired in step 601.
- the image data acquired by the imaging device 101 be imaging data of high resolution and high resolution for the purpose of diagnosis.
- a hierarchy image of several stages with different magnifications is prepared in advance, and from the prepared hierarchy images, image data of display magnification and proximity magnification is selected according to the request on the display side, and magnification is adjusted according to display magnification. It is desirable to adjust the In general, it is more preferable to generate display data from image data of higher magnification in view of image quality.
- step 603 it is determined whether to display the boundary between the divided image data.
- divided image data to be used for display is selected each time instead of preparing a composite image in advance, it is desirable to adopt a configuration of selecting display / non-display for the user only when not performing boundary display. .
- step 606 If the boundary between divided image data is to be displayed, the process proceeds to the next step 604.
- the display data generation unit 304 generates image data including boundary position information. Specifically, it is generated by superimposing image data of normal display and boundary position display data in which boundaries between adjacent images are indicated by lines or areas. At this time, boundary position display data is displayed with priority over display image data.
- which image of the divided image data is to be displayed by priority may be in accordance with a predetermined rule. For example, when four divided images are used, they are right for right and left, upper for upper and lower, and upper left for upper left and lower right. When using multiple divided image data, numbering is performed in the order of right from the right to the left and to the end to the right of the next row (the row immediately below the numbered row), and the priority is high in ascending order of the number Just do it.
- Such numbering can also be done based on user preferences. For example, it is numbering which sets the priority of divided image data including the observation start position of a specific user to the highest. As another example of the priority determination rule, the priority of divided image data including the center of the display image may be set to the highest, and when the image in the initial state is asymmetrical, the division occupied in the entire image may be the largest. A rule may be mentioned that the image data should have the highest priority.
- the image data generated at step 604 is output to the image display apparatus 103.
- the output image data for display is displayed on the image display device 103.
- the processing of the following steps and the determination are performed starting from the change of the image data to be displayed, such as scrolling of the screen according to the user's instruction.
- step 606 it is determined whether to switch the selection of the divided image data to be displayed on the image display device 103, that is, to change the priority of the image to be displayed on the image display device 103, for the overlapping area between the plurality of divided image data. Do. If there is no change in priority, the process proceeds to step 609. If there is a change in priority, the process proceeds to step 607.
- step 607 it is determined whether there is a boundary display instruction. If there is a boundary display instruction, the process returns to step 604. If there is no boundary instruction, the process proceeds to step 608. In this processing step, when there is no boundary display instruction in step 603 and the priority is changed in step 606, the user is made to clearly indicate the boundary position as preparation for issuing the change instruction. It is.
- step 608 the selection of the divided image data to be displayed on the image display apparatus 103 is changed for the overlapping area between the plurality of divided image data. That is, in this step, the priority of the overlapping area to be displayed on the image display device 103 is changed. The details of the change of the priority will be described later using another flowchart.
- a preset initial value is set as the priority.
- a prescribed setting value is selected in a state where neither the boundary display nor the priority change instruction is output from the user. For example, the priority of the divided image data positioned to the left on the left and the top on the top is set high.
- step 610 image data to be displayed on the image display device 103 is generated based on the priority defined in step 608 or step 609.
- the image data to be displayed on the image display device 103 generated at step 610 is sent to the image display device 103 or the like via the data output unit 305.
- a display mode which is a method of selecting image data to be displayed on the image display apparatus 103 is selected for an overlapping area between a plurality of divided image data.
- the mode is to largely increase the priority of only the divided image data selected by the user, increase the priority of the selected divided image data, and specify the priority of the other divided image data by the set conditions.
- the priority of the selected divided image data is increased, and three modes which can arbitrarily specify the priorities of other divided image data are assumed.
- step S702 it is determined whether to select a mode in which only the selected divided image data is to be displayed with the priority raised. If another display mode is selected, the display condition is further determined in step 704. When the priority of only the selected divided image data is to be increased, the process proceeds to step 703.
- the priority of the overlap area is defined by increasing the priority of the selected divided image data and keeping the priority of the other divided images unchanged. For example, when arbitrary divided image data is selected, there are also four overlapping areas between the upper, lower, left, and right adjacent image data, and all of them are displayed using the selected divided image data. To stipulate.
- step S704 after raising the display priority of the selected divided image data, it is determined whether the priority of an image other than the selected divided image data is to be changed under a preset condition. If the priority other than the selected divided image data is arbitrarily set, the process proceeds to step 705. If the priority other than the selected divided image data is changed under the condition set in advance, the process proceeds to step 706.
- the priority is defined such that the priority of the selected divided image data is increased and the image is displayed under the condition in which the priorities of overlapping areas other than the selected divided image data are set in advance.
- the priority is defined such that the priority of the selected divided image data is increased, and the priority of an overlapping area other than the selected divided image data is arbitrarily selected to display an image.
- to arbitrarily select the priority of the overlapping area other than the selected image data means that the second and third divided image data are left when the image is displayed by the four divided image data.
- the fourth is necessarily the lowest priority.
- FIGS. 8 (a) to 8 (e) are diagrams showing an example when image data generated by the image processing apparatus 102 of the present invention is displayed on the image display apparatus 103.
- FIG. FIG. 8A shows the layout of the display screen of the image display apparatus 103.
- a display area 802 of imaging object image data for detailed observation a thumbnail image 803 of an observation object, and an area 804 of display setting are displayed in the entire window 801, respectively.
- the display area of the entire window 801 is divided into separate windows by the multidocument interface.
- imaging target image data for detailed observation is displayed.
- a magnified / reduced image of the image due to the movement of the display area or the change of the display magnification is displayed.
- the thumbnail image 803 displays the position and size in the display area 802 of the image data of the imaging target in the entire image of the imaging target.
- the display setting can be changed by, for example, selecting and pressing the setting button 805 according to a user instruction from an externally connected input device such as a touch panel or a mouse 411.
- the setting button 805 is disposed in the display setting area 804, it is also possible to select and designate a corresponding item from the menu screen for selection and setting instructions.
- FIG. 8B is a conceptual view of image data to be photographed which is composed of a plurality of divided image data.
- the image data to be photographed is composed of four divided image data having an overlapping area.
- the four image data are referred to as images (1) to (4), respectively, for the purpose of explanation. Those pieces of image data have overlapping regions indicated by hatched portions.
- FIG. 8C is a schematic view of the display screen on which the image (1) is selected by the priority change instruction input from the outside.
- image (1) is displayed with the highest priority, image (1) and image (2) overlap, image (1) and image (3) overlap, image (1)
- image (1) In the area where the image (4) and the image (4) overlap, the image to be photographed is displayed using the divided image data of the image (1).
- the image (2) and the image (3) are preferentially displayed next to the image (1), and the image (2) and the image (4) overlap each other using the data of the image (2) for the overlapping area.
- the image (4) is an overlapping area
- the image to be photographed is displayed using the data of the image (3).
- the image (4) the image is not used to display the overlapping area. In the following description, it is assumed that the mode in which only the priority of the selected divided image data is changed is selected.
- FIG. 8D is a schematic view of a display screen on which the image (2) is selected after FIG. 8C is displayed.
- overlapping images are displayed according to the order of the image (2), the image (1), the image (3), and the image (4), and image data to be photographed is created.
- FIG.8 (e) shows the schematic diagram of a display screen different from FIG.8 (c), when an image (2) is selected after FIG.8 (c) displays.
- the image (2) is displayed with the highest priority
- the image (1) and the image (4) are displayed with the second priority
- the image (3) is used to display the overlapping area. It is not done.
- the difference between FIG. 8D and FIG. 8E depends on whether the boundary area is aligned and the boundary is displayed as a straight line.
- the image in FIG. 8D or 8E is selected according to a preselected mode or an instruction input from the outside. .
- FIG. 9 is a conceptual diagram showing the change of the display of the display screen by an instruction from the outside.
- FIG. 9A shows an image of an object to be photographed displayed in the display area 802.
- FIG. 9B For example, according to an instruction from an external input device such as the keyboard 410 or the mouse 411, as shown in FIG. 9B, the boundary between divided images in the image is displayed in a grid. This display is provided by the result of the process of step 605 described above.
- FIG. 9B it is assumed that the overlapping area of the four divided image data to which the priority is assigned shown in FIG. 8C is displayed, and the image to be photographed is displayed.
- FIG. 9C shows the change of the display screen when the upper right area of the image to be photographed is selected by the keyboard 410 or the mouse 411 in FIG. 9B.
- the divided images are displayed in the priority order shown in FIG. 8 (c), but when the portion where the image (2) is displayed in FIG. 8 (c) is selected, FIG. It changes to the screen shown in FIG.9 (c) corresponding to (d) or FIG.8 (e).
- the changed image is confirmed by an instruction from the keyboard 410 or the mouse 411. Alternatively, it may be confirmed at the initial selected stage.
- the grid lines indicating the boundaries of the divided image data are also updated in accordance with the change in priority.
- divided image data divided and imaged into a plurality of divided images having overlapping regions is selected for display of a shooting target by selecting the divided image data displaying the overlapping regions according to a user instruction from the outside. Image data was generated.
- divided image data divided and captured into a plurality of divided images having overlapping areas is selected based on the preset overlapping area display priority, and the image data for displaying the imaging target is displayed. Generate Therefore, in the second embodiment, the divided image data to be displayed automatically is selected according to the boundary position between the divided image data in the display image, and the image data for display of the imaging target is generated.
- the configuration described in the first embodiment can be used except for the configuration different from the first embodiment.
- FIG. 16 is an overall view of a device configuration of an image display system according to a second embodiment of the present invention.
- an image display system using the image processing apparatus of the present invention includes an image server 1601, an image processing apparatus 102, and an image display apparatus 103.
- the image processing apparatus 102 can acquire divided image data to be photographed from the image server 1601 and generate image data to be displayed on the image display apparatus 103.
- the image server 1601 and the image processing apparatus 102 are connected via a network 1602 by a general-purpose I / F LAN cable 1603.
- the image server 1601 is a computer including a large-capacity storage device for storing divided image data captured by the imaging device 101, which is a virtual slide device.
- the image server 1601 may store the divided images as one group in a local storage connected to the image server 1601 or a group of servers that are divided and exist somewhere on the network (cloud server).
- the link information may be divided into the entity of each divided image data.
- the divided image data itself does not have to be stored on one server.
- the image processing apparatus 102 and the image display apparatus 103 are the same as those of the imaging system of the first embodiment.
- the image display system is configured by the three devices of the image server 1601, the image processing device 102, and the image display device 103, the present invention is not limited to this configuration.
- an image processing apparatus integrated with an image display apparatus may be used, or part of the functions of the image processing apparatus 102 may be incorporated into the image server 1601.
- the functions of the image server 1601 and the image processing apparatus 102 may be divided and realized by a plurality of apparatuses.
- FIG. 10 is a block diagram showing the functional configuration of the image processing apparatus 102 of the present invention.
- the image processing apparatus 102 generally includes a data input unit 1001, a storage holding unit 1002, a divided image data acquisition unit 1003, a display data generation unit 1004, a display data output unit 1005, a display device information acquisition unit 1006, and a priority specification unit 1007. Configured
- the storage holding unit 1002 takes in, through the data input unit 1001, the RGB color divided image data obtained by dividing and imaging the imaging target obtained from the image server 1601 which is an external device, It is held.
- the color image data includes not only the image data but also position information.
- the position information is information indicating which part of the imaging target the divided image data is imaged.
- position information can be acquired by recording XY coordinates at the time of driving the stage 202 together with divided image data at the time of imaging.
- the divided image data acquisition unit 1003 acquires data such as divided image data stored and held in the storage unit 1002, image display device information from the display device information acquisition unit 1006, and a display area. Also, the divided image data acquisition unit 1003 transmits the acquired divided image data including position information to the display data generation unit 1004.
- the priority specification unit 1007 selects which divided image data to use, based on the information sent from the display device information acquisition unit or the information defined in advance, in the region where the divided image data overlaps.
- the information acquired from the image display apparatus 103 is a value indicating a state of enlargement or reduction display, which is a change in display magnification, as well as movement of the display screen (screen scroll) according to a user instruction.
- the priority specification unit 1007 calculates the change in boundary position between the divided image data from this information, and the display priority of the overlapping area between the divided image data is calculated according to the boundary position on the display screen updated as a result of calculation. It will switch according to a prescribed procedure and method.
- the display data generation unit 1004 generates display data of the divided image data sent from the divided image data acquisition unit 1003 based on the priority designated by the priority designation unit 1007.
- the generated display data is sent as display image data to an external monitor or the like via the display data output unit 1005.
- FIG. 11A shows an example in which image data to be photographed is configured using four divided image data.
- the four divided image data are directed from the upper left to the lower right, and the image (1), the image (2), the image (3) and the image (4) are numbered.
- the boundary between the divided image data for which the display priority is set high and the adjacent divided image data is displayed as a solid line and as an overlapping area.
- the borderline on the side not shown is indicated by a dotted line.
- the image (1) is set to have the first priority
- the images (2) and (3) have the second priority
- the image (4) has the lowest priority.
- the boundary between the image (1) and the image (2) is a boundary where the end of the image (1) is indicated by a solid line.
- FIG. 11B the display screen is scrolled from right to left by an instruction or operation by the user, and in FIG. 11A, the image (2) positioned on the upper right is displayed at the center of the screen Indicates the change of the display screen of.
- the divided image data which is divided and imaged into a plurality of divided images having overlapping regions are selected based on display conditions set in advance and displayed on the display screen.
- the boundary between the divided image data displayed in FIG. 11A is changed as indicated by an arrow.
- the boundary position between the image (1) and the image (2) changes, and the image (2) is displayed with priority.
- FIG. 11C is a display screen after changing the position of the display screen in the lower right direction from FIG. 11A, as shown by an arrow between boundaries of divided image data. That is, the display of the image (4) is changed to have priority.
- FIG. 11 (d) shows the display screen after the change when the display image is moved downward from FIG. 11 (a), that is, as the boundary between the divided image data is shown by the arrow, It has been changed to give priority to the display of).
- the first condition is that the boundary position between the divided image data exceeds the center of the display screen. In this case, when the boundary position indicated by the solid line which is the boundary between the images (1) and (2) in FIG. 11A exceeds the central portion on the display screen, the priority of overlapping area display is changed. , The display image is switched automatically.
- the second condition is that the center of the overlapping area width between divided image data exceeds the center position of the display screen. The display priority is changed when the position exactly halfway between the solid line and the dotted line which is the boundary between the images (1) and (2) in FIG. 11A exceeds the center position of the image shown in the display area.
- the third display condition of the image is a case where the display ratio of the divided image data exceeds a certain value.
- the constant value it is possible to set a value of 25% or more and 50% or less of the ratio of divided image data to the entire image.
- the image (4) is preferentially displayed when the ratio of the image (4) exceeds 25%.
- the boundary positions of the images (2) and (4) and the images (3) and (4) are switched accordingly. Specifically, the boundary position which has been indicated by a solid line is changed to a dotted line, and the boundary position which is indicated by a dotted line is changed to a solid line.
- the fourth condition is the case where the priority is changed according to the proportion of the divided image data located in the central portion of the display image in the display area. For example, when the display image is composed of nine divided image data, the central divided image data can be displayed preferentially.
- step 1201 in addition to the size information (screen resolution) of the display area of the display which is the image display device 103, the information of the display magnification of the image currently displayed is acquired.
- the size information of the display area is used when determining the size of the area of display data to be generated.
- the display magnification is information required to select any image data from the hierarchical image.
- step 1202 among the plurality of divided image data fetched by the data input unit 1001 and stored in the storage holding unit 1002, the divided image data required to generate display image data is acquired.
- divided image data of different magnifications are stored in a hierarchy
- divided image data of an appropriate hierarchy is selected based on the display area information acquired in step 1201.
- step 1203 to step 1205 are the same as the processing contents from step 603 to step 605 in FIG. 6 of the first embodiment, and therefore the description thereof is omitted.
- step 1206 it is determined whether or not there has been a change in display screen such as scrolling. If the change is successful, the process proceeds to step 1207. If there is not, it is determined by the timer or the like that the appropriate time has elapsed, and the display screen change determination of step 1206 is performed again.
- step 1207 it is determined whether it is necessary to change the priority of the overlapping area between the divided image data in accordance with the change of the display screen. The determination as to whether it is necessary or not is made by comparison with the conditions described in FIG. If there is no change in priority, the process goes to step 1209. If there is a change in priority, the process goes to step 1208.
- step 1208 the priority of overlapping area selection is appropriately corrected in accordance with the conditions for overlapping areas among a plurality of divided image data. Details of the change of the priority will be described later using the flowchart of FIG.
- an initial condition or a current priority is set for an overlapping area between a plurality of divided image data.
- step 1210 image data for display is generated on the image display apparatus 103 based on the priority defined in step 1208 or step 1209. Specifically, display image data is generated such that an overlapping area of high priority divided image data is displayed.
- step 1211 the image data for display generated in step 1210 is sent to the image display apparatus 103 or the like via the display data output unit 305.
- step 1301 a display mode is selected in which the overlap region between the plurality of divided image data is displayed on the image display device.
- step S1302 it is determined whether or not to increase the display priority of the divided image data located at the center of the display area by changing the boundary position. If the priority of the divided image positioned at the center of the display screen area is not to be high, the process proceeds to step 1304. If the priority is to be high, the process proceeds to step 1303. Incidentally, when the number of divisions of the screen is four, the display screen does not change regardless of which mode is selected. When the number of divisions becomes larger, the displayed overlapping area changes.
- step 1303 the priority is changed so as to increase the display priority of the divided image data in the scroll direction and to increase the display priority of the divided image data located at the center of the display screen area.
- step 1304 the display priority of the divided image data in the scroll direction is increased, and the display priority is increased for an image in which the ratio of the area displaying the divided image data to the display screen area exceeds a prescribed value. So the priority is changed.
- the divided image data is automatically updated by grasping the update status of the display screen, and the overlap area is switched and displayed, thereby, the boundary position of the image of the connection different from the original image or This makes it possible to prevent difficult diagnosis based on the area.
- an image processing apparatus that selects and displays display image data generated by selecting divided image data and display data of a combined image obtained by connecting divided image data according to the application.
- the display magnification is low, the composite image is displayed, and when the display magnification is high, the image is displayed by switching the overlapping area. If the display magnification is small, the divided image data are combined by interpolation processing or the like, and then a reduced image by resolution conversion is generated and used as image data for display.
- image data for display is generated by selecting divided image data. As a result, it is possible to smoothly perform screen scrolling and display magnification change at the time of low magnification display, and to prevent unintended diagnosis based on an image of a boundary portion between divided image data at high magnification.
- FIG. 14 is a block diagram showing the functional configuration of the image processing apparatus 102 according to the third embodiment.
- the image processing apparatus 102 generally includes a data input unit 1401, a storage holding unit 1402, a divided image data acquisition unit 1403, a composite image generation unit 1404, a display image selection unit 1405, a data output unit 1406, and a priority designation unit 1409. Ru.
- the storage holding unit 1402 acquires RGB color division image data obtained by dividing and photographing an object to be photographed, which is acquired from the imaging device 101 or the image server 1601 represented by a virtual slide device or the like which is an external device. It is fetched via the data input unit 1401, stored and held.
- the color image data includes not only the image data but also position information. Similar to what has been described above, the position information is information indicating which part in the image area of the entire imaging target the divided image data is imaged.
- the divided image data acquisition unit 1403 acquires data such as divided image data stored in the storage unit 1402, image display device information from the display device information acquisition unit 1408, and a display area.
- the composite image generation unit 1404 combines the color image data (divided image data) obtained by dividing and imaging the imaging target, based on the position information of each divided image data, the composite image data of the imaging target Generate
- the method of composition processing includes one in which a plurality of partial image data are connected, superimposed, alpha-blended, and smoothly connected by interpolation processing.
- a method of connecting a plurality of superimposed image data there is a method of aligning and connecting based on stage position information, a method of connecting corresponding points or lines of a plurality of divided images in correspondence, divided image data Including a method of linking based on location information of Overlapping broadly means overlapping image data.
- a method of superimposing a plurality of image data includes the case where a part or all of a plurality of image data is overlapped in a region having overlapping image data.
- Alpha blending refers to combining two images by coefficients ( ⁇ value).
- a method of connecting smoothly by interpolation processing includes processing by zero-order interpolation, linear interpolation, and high-order interpolation. In order to connect the images smoothly, it is preferable to process by higher order interpolation.
- the image data for display is combined with the priority instruction of the divided image data specified by the priority specification unit 1409. It is generated.
- the display image selection unit 1405 is a display for display generated by arranging the composite image data generated by the composite image generation unit 1404 and the divided image data generated by the display data generation unit 1410 based on the priority without performing the synthesis process. Of the image data, which one is to be displayed is selected. The selected display image data is sent as display image data to an external monitor or the like via the display data output unit 1406.
- step 1501 in addition to the size information (screen resolution) of the display area of the display which is the image display device 103, information of the display magnification of the image currently displayed is acquired.
- the size information of the display area is used when determining the size of the area of display data to be generated.
- the display magnification is information required to select any image data from the hierarchical image.
- step 1502 among the plurality of divided image data fetched by the data input unit 1401 and stored in the storage holding unit 1402, the divided image data required to generate display image data is acquired.
- divided image data of different magnifications is stored in a hierarchy
- divided image data of an appropriate hierarchy is selected based on the display area information acquired in step 1501. Also, divided image data necessary for generating a composite image in step 1503 is acquired.
- composite image data is generated by performing composition processing between data of divided image data.
- step 1504 it is determined whether it is necessary to change the priority of the overlapping area between the divided image data in accordance with the change of the display screen. If there is no change in priority, the process proceeds to step 1506. If there is a change in priority, the process proceeds to step 1505.
- step 1505 the priority of overlapping area selection is changed in accordance with the conditions or the user instruction for the overlapping area among the plurality of divided image data.
- the priority change of the divided image data may be performed by an instruction from the outside as in the first embodiment, or may be performed based on conditions defined in advance as in the second embodiment.
- an initial condition or a current priority is set for an overlapping area between a plurality of divided image data.
- image data for display is generated on the image display apparatus 103 based on the defined priority.
- the image data for display generated here is image data in which divided image data generated based on the display priority of the overlapping area are arranged.
- step 1508 it is determined which display image data is to be selected among the composite image generated in step 1503 and the display image of the priority definition generated in step 1507 as the image data for display.
- the boundary position is changed based on the priority described above in step 1510, and when display image data in which divided image data are arranged is selected, step Proceed to 1509.
- step 1509 the image data for display generated by selecting the divided image data generated in step 1507 is selected as the image data to be displayed on the image display apparatus 103.
- step 1510 the composite image data generated in step 1503 is selected as the image data to be displayed on the image display device 103.
- the display image data selected at step 1509 or 1510 is output to the image display apparatus 103.
- the image data for display generated by selecting the divided image data and the display data of the combined image obtained by connecting the divided image data are selected and displayed according to the application.
- smooth screen scrolling and display magnification change at the time of display it is possible to prevent unintended diagnosis based on an image of a boundary between divided image data at high magnification.
- a recording medium or storage medium
- a program code of software that implements all or part of the functions of the above-described embodiment is supplied to the system or apparatus.
- the computer or CPU or MPU
- the program code itself read from the recording medium implements the functions of the above-described embodiments
- the recording medium recording the program code constitutes the present invention.
- the computer executes the read program code, and based on the instruction of the program code, an operating system (OS) or the like operating on the computer performs a part or all of the actual processing.
- OS operating system
- the present invention can also be included in the case where the processing realizes the functions of the above-described embodiments.
- the program code read out from the recording medium is written in a memory provided in a function expansion card inserted in the computer or a function expansion unit connected to the computer. Thereafter, based on the instruction of the program code, the CPU or the like provided in the function expansion card or the function expansion unit performs part or all of the actual processing, and the processing of the above-described embodiment is realized by the processing. It can be included in the invention.
- the recording medium stores program codes corresponding to the flowcharts described above.
- the configurations described in the first to third embodiments can be combined with each other.
- the image processing apparatus may be connected to both the imaging apparatus and the image server, and an image used for processing may be acquired from any apparatus.
- configurations obtained by appropriately combining various techniques in the above-described embodiments also belong to the scope of the present invention.
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Image Processing (AREA)
- Microscoopes, Condenser (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
Abstract
複数の分割画像を合成することなく撮影対象の画像を生成して、分割画像の境界位置または領域に基づいた意図しない診断を防止するバーチャルスライドシステム等に用いる画像処理装置を提供する。 撮像範囲が互いに重複領域を有するように撮像された、撮影対象の分割画像データに基づいて前記撮影対象の表示用の画像データを生成する画像処理装置であって、前記複数の分割画像データを取得する画像データ取得手段と、前記重複領域について、前記複数の分割画像データから表示させる画像データを自動で選択する画像データ選択手段と、前記重複領域を、前記画像データ選択手段で選択された前記分割画像データを用いて画像表示装置に表示させる表示制御手段と、を有する。
Description
本発明は、画像処理装置に関し、特に撮影対象観察のためのデジタル画像処理に関する。
近年、病理分野において、病理診断のツールである光学顕微鏡の代替として、プレパラートに載置された被検試料(検体)の撮像と画像のデジタル化によってディスプレイ上での病理診断を可能とするバーチャルスライドシステムが注目を集めている。バーチャルスライドシステムを用いた病理診断画像のデジタル化により、従来の被検試料の光学顕微鏡像をデジタルデータとして取り扱うことが可能となる。その結果、遠隔診断の迅速化、デジタル画像を用いた患者への説明、希少症例の共有化、教育・実習の効率化、などのメリットが得られると期待されている。
光学顕微鏡と同等程度の操作をバーチャルスライドシステムで実現するためには、プレパラート上の被検試料全体をデジタル化する必要がある。被検試料全体のデジタル化により、バーチャルスライドシステムで作成したデジタルデータをPC(Personal Computer)やワークステーション上で動作するビューワソフトで観察することができる。被検試料全体をデジタル化した場合の画素数は、通常、数億画素から数十億画素と非常に大きなデータ量となる。
バーチャルスライドシステムで作成したデータ量は膨大であり、ビューワで拡大・縮小処理を行うことでミクロ(細部拡大像)からマクロ(全体俯瞰像)まで観察することが可能となり、種々の利便性を提供する。必要な情報を予めすべて取得しておくことで、低倍画像から高倍画像までユーザーが求める解像度・倍率による即時の表示が可能となる。また、取得したデジタルデータを画像解析し、例えば細胞の形状把握や個数算出、細胞質と核の面積比(N/C比)を算出することで、病理診断に有用な種々の情報の提示も可能となる。
このような検体の高倍率画像を得る技術として、検体を部分的に撮像した高倍画像を複数用いて検体全体の高倍画像を得る方法が考えられている。具体的には、特許文献1には、検体を小区画に分割して撮像し、それよって得られた小区画における画像を繋ぎ合わせて検体の合成画像を表示する顕微鏡システムが開示されている。特許文献2には、顕微鏡のステージを移動して複数回撮像することにより、検体の部分画像を複数枚得て、それらの画像の歪みを補正して繋ぎ合わせる画像表示システムが開示されている。特許文献2では、繋ぎ目の目立たない合成画像を作成している。特許文献3には、オーバーラップして撮像した重複領域のうち何れを選択するかをユーザーが指定することで、仮に重複領域内の画像が一致していない場合でもユーザーが望む合成画像が得られる画像合成装置が開示されている。
特許文献1の顕微鏡システム及び特許文献2の画像表示システムで得られた合成画像中の繋ぎ目部分は、不可避的に生じる部分画像間の位置ずれや、歪み補正等によるアーティファクトの影響により、光学顕微鏡を用いて病理医が観察した場合とは異なる画像となっている可能性が高い。にもかかわらず、そのような精度の高い診断が難しくなる可能性を認識することなく、合成画像に対して診断を行うと、合成画像の繋ぎ目部分が診断の対象となった場合、精度の高い診断がし難くなるという問題があった。また、特許文献3による合成画像の生成は、ユーザーが重複領域の画像をみて指定する構成のため、標準的な画像データとして数百枚から数千枚の分割画像から構成される病理画像を対象とした場合には、ユーザーが指定する作業は膨大なものとなる。その結果、実用的な時間での画像の合成が困難であるという問題があった。
本発明は、撮像範囲が互いに重複領域を有するように撮像された、
撮影対象の分割画像データに基づいて前記撮影対象の表示用の画像データを生成する画像処理装置であって、
前記複数の分割画像データを取得する画像データ取得部と、
前記重複領域について、予め設定された条件に基づいて前記複数の分割画像データから
表示させる画像データを自動で選択する画像データ選択部と、
前記重複領域を、前記画像データ選択部で選択された前記分割画像データを用いて
画像表示装置に表示させる表示制御部と、
を有することを特徴とする画像処理装置に関する。
撮影対象の分割画像データに基づいて前記撮影対象の表示用の画像データを生成する画像処理装置であって、
前記複数の分割画像データを取得する画像データ取得部と、
前記重複領域について、予め設定された条件に基づいて前記複数の分割画像データから
表示させる画像データを自動で選択する画像データ選択部と、
前記重複領域を、前記画像データ選択部で選択された前記分割画像データを用いて
画像表示装置に表示させる表示制御部と、
を有することを特徴とする画像処理装置に関する。
また、本発明は、少なくとも、画像処理装置と画像表示装置を有する画像表示システムにおいて、上記の画像処理装置を有し、前記画像処理装置から送られてくる撮影対象の画像データに基づいて、分割画像を選択して表示する画像表示装置を有する画像表示システムに関する。
[規則91に基づく訂正 25.02.2014]
また、本発明は、撮像範囲が互いに重複領域を有するように撮像された撮影対象の分割画像データを取得する画像データ取得工程と、
前記重複領域について、前記複数の分割画像データから予め設定された条件に基づいて
表示させる画像データを自動で選択する画像データ選択工程と、
前記重複領域で、前記画像データ選択工程で選択された前記分割画像データを用いて
前記撮影対象の画像データを生成する表示画像データ生成工程と、を有することを特徴とする画像処理方法に関する。
また、本発明は、撮像範囲が互いに重複領域を有するように撮像された撮影対象の分割画像データを取得する画像データ取得工程と、
前記重複領域について、前記複数の分割画像データから予め設定された条件に基づいて
表示させる画像データを自動で選択する画像データ選択工程と、
前記重複領域で、前記画像データ選択工程で選択された前記分割画像データを用いて
前記撮影対象の画像データを生成する表示画像データ生成工程と、を有することを特徴とする画像処理方法に関する。
[規則91に基づく訂正 25.02.2014]
また、本発明は、撮像範囲が互いに重複領域を有するように撮像された、撮影対象の分割画像データを取得する画像データ取得ステップと、
前記重複領域について、前記複数の分割画像データから予め設定された条件に基づいて
表示させる画像データを選択する画像データ選択ステップと、
前記重複領域で、前記画像データ選択ステップで選択された前記分割画像データを用いて
前記撮影対象の画像データを生成する表示画像データ生成ステップと、
をコンピュータに実行させることを特徴とするプログラムに関する。
また、本発明は、撮像範囲が互いに重複領域を有するように撮像された、撮影対象の分割画像データを取得する画像データ取得ステップと、
前記重複領域について、前記複数の分割画像データから予め設定された条件に基づいて
表示させる画像データを選択する画像データ選択ステップと、
前記重複領域で、前記画像データ選択ステップで選択された前記分割画像データを用いて
前記撮影対象の画像データを生成する表示画像データ生成ステップと、
をコンピュータに実行させることを特徴とするプログラムに関する。
本発明の提供する好適な画像処理装置、画像表示システム、画像処理方法及び画像処理プログラムによれば、原画像とは異なる合成画像の合成箇所に基づく、精度の高い診断がし難くなることを防止することができる。
以下、図面を参照しながら本発明の実施の形態を説明する。
本発明の好適な実施の形態に係る画像処理装置は、撮像範囲が重複領域を有する複数の分割画像に分けて撮影された、撮影対象の分割画像データに基づいて、撮影対象の画像データを生成する。本発明の画像処理装置では、分割画像データ間で合成処理をせずに、撮影対象の合成画像データを表示時に生成することを特徴とする。これにより、分割画像データを合成処理して撮影対象の合成画像データを生成した場合に生じる問題、すなわち、撮影対象の原画像とは異なる合成箇所に基づく、診断の精度の低下という問題を防止することができる。複数の分割画像データが重複領域では、表示させる分割画像を自動選択することにより、撮影対象の画像データを表示させることができる。これにより、ディスプレイ上に表示された領域に分割画像の境界がある場合、その境界を変更して撮影対象の画像を観察することができる。
本発明の好適な実施の形態に係る画像処理装置は、複数の分割画像データを取得する画像データ取得部、複数の分割画像データから表示させる画像データを選択する画像データ選択部、選択された分割画像データを表示部に表示させる表示制御部を有する。
画像データ選択部による画像データの選択は、予め設定された条件に基づく選択の自動判断、又は外部から入力された指示に基づいて選択することができる。設定された条件としては、画像表示装置に表示された前記分割画像データの境界位置の変化、画像表示装置に表示された前記分割画像データの表示されている割合の変化を用いることができる。
本発明の画像処理装置は、顕微鏡の画像を撮影した分割画像データを用いたバーチャルスライドシステムに用いることができる。
本発明の画像表示システムは、少なくとも、画像処理装置と画像表示装置を有する画像表示システムにおいて、上記の画像処理装置を有し、画像処理装置から送られてくる撮影対象の画像データを表示する画像表示装置を有する。
[規則91に基づく訂正 25.02.2014]
また、本発明画像処理方法は、重複領域を有する複数の分割画像分けて撮影された、撮影対象の分割画像データを取得する画像データ取得工程と、重複領域について、前記複数の分割画像データから表示させる画像データを自動で選択する画像データ選択工程と、重複領域で、前記画像データ選択工程で選択された前記分割画像データを用いて前記撮影対象の画像データを生成する表示画像データ生成工程と、を有する。
また、本発明画像処理方法は、重複領域を有する複数の分割画像分けて撮影された、撮影対象の分割画像データを取得する画像データ取得工程と、重複領域について、前記複数の分割画像データから表示させる画像データを自動で選択する画像データ選択工程と、重複領域で、前記画像データ選択工程で選択された前記分割画像データを用いて前記撮影対象の画像データを生成する表示画像データ生成工程と、を有する。
[規則91に基づく訂正 25.02.2014]
また、本発明のプログラムは、重複領域を有する複数の分割画像分けて撮影された、撮影対象の分割画像データを取得する画像データ取得ステップと、重複領域について、前記複数の分割画像データから表示させる画像データを選択する画像データ選択ステップと、重複領域で、前記画像データ選択ステップで選択された前記分割画像データを用いて前記撮影対象の画像データを生成する表示画像データ生成ステップと、をコンピュータに実行させる。
また、本発明のプログラムは、重複領域を有する複数の分割画像分けて撮影された、撮影対象の分割画像データを取得する画像データ取得ステップと、重複領域について、前記複数の分割画像データから表示させる画像データを選択する画像データ選択ステップと、重複領域で、前記画像データ選択ステップで選択された前記分割画像データを用いて前記撮影対象の画像データを生成する表示画像データ生成ステップと、をコンピュータに実行させる。
また、本発明の記録媒体は、上記のプログラムを記録したコンピュータが読み取り可能な記憶媒体に関する。
本発明の画像処理方法又はプログラムにおいて、本発明の画像処理装置で記載した好ましい態様を反映させることができる。
[第1実施形態]
本発明の画像処理装置は、撮像装置と画像表示装置を備えた画像表示システムにおいて用いることができる。この画像表示システムについて、図1を用いて説明する。なお、以下の記述及び添付の図面中において、「画像表示装置」を「表示装置」と省略して表記する場合がある。
本発明の画像処理装置は、撮像装置と画像表示装置を備えた画像表示システムにおいて用いることができる。この画像表示システムについて、図1を用いて説明する。なお、以下の記述及び添付の図面中において、「画像表示装置」を「表示装置」と省略して表記する場合がある。
(撮像システムの構成)
図1は、本発明の画像処理装置を用いた画像表示システムであり、撮像装置(顕微鏡装置)101、画像処理装置102、画像表示装置103から構成され、撮像対象となる撮影対象(被検試料)の二次元画像を取得し表示する機能を有するシステムである。撮像装置101と画像処理装置102の間は、専用もしくは汎用I/Fのケーブル104で接続され、画像処理装置102と画像表示装置103の間は、汎用のI/Fのケーブル105で接続される。
図1は、本発明の画像処理装置を用いた画像表示システムであり、撮像装置(顕微鏡装置)101、画像処理装置102、画像表示装置103から構成され、撮像対象となる撮影対象(被検試料)の二次元画像を取得し表示する機能を有するシステムである。撮像装置101と画像処理装置102の間は、専用もしくは汎用I/Fのケーブル104で接続され、画像処理装置102と画像表示装置103の間は、汎用のI/Fのケーブル105で接続される。
[規則91に基づく訂正 25.02.2014]
撮像装置101は、二次元方向に位置の異なる複数枚の二次元画像を撮像し、デジタル画像を出力する機能を持つバーチャルスライド装置を用いることができる。二次元画像の取得にはCCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)センサ等の固体撮像素子が用いられる。なお、バーチャルスライド装置の代わりに、通常の光学顕微鏡の接眼部にデジタルカメラを取り付けたデジタル顕微鏡装置により、撮像装置101を構成することもできる。
撮像装置101は、二次元方向に位置の異なる複数枚の二次元画像を撮像し、デジタル画像を出力する機能を持つバーチャルスライド装置を用いることができる。二次元画像の取得にはCCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)センサ等の固体撮像素子が用いられる。なお、バーチャルスライド装置の代わりに、通常の光学顕微鏡の接眼部にデジタルカメラを取り付けたデジタル顕微鏡装置により、撮像装置101を構成することもできる。
画像処理装置102は、撮像装置101から取得した複数枚の原画像データから、分割して得られた原画像データを用いて合成画像データを生成する機能等をもつ装置である。画像処理装置102は、CPU(中央演算処理装置)、RAM、記憶装置、操作部、I/Fなどのハードウェア資源を備えた、汎用のコンピュータやワークステーションで構成される。記憶装置は、ハードディスクドライブなどの大容量情報記憶装置であり、後述する各処理を実現するためのプログラムやデータ、OS(オペレーティングシステム)などが格納されている。上述した各機能は、CPUが記憶装置からRAMに必要なプログラムおよびデータをロードし、当該プログラムを実行することにより実現されるものである。操作部は、キーボードやマウスなどにより構成され、操作者が各種の指示を入力するために利用される。画像表示装置103は、画像処理装置102が演算処理した結果である観察用画像を表示するモニターであり、CRTや液晶ディスプレイ等により構成される。
図1の例では、撮像装置101と画像処理装置102と画像表示装置103の3つの装置により撮像システムが構成されているが、本発明の構成はこの構成に限定されるものではない。例えば、画像表示装置が一体化した画像処理装置を用いてもよいし、画像処理装置の機能を撮像装置に組み込んでもよい。また撮像装置、画像処理装置、画像表示装置の機能を1つの装置で実現することもできる。また逆に、画像処理装置等の機能を分割して複数の装置によって実現してもよい。
(撮像装置の構成)
図2は、撮像装置101の機能構成を示すブロック図である。
図2は、撮像装置101の機能構成を示すブロック図である。
撮像装置101は、概略、照明ユニット201、ステージ202、ステージ制御ユニット205、結像光学系207、撮像ユニット210、現像処理ユニット216、プレ計測ユニット217、メイン制御系218、データ出力部219から構成される。
照明ユニット201は、ステージ202上に配置されたプレパラート206に対して均一に光を照射する手段であり、光源、照明光学系、および光源駆動の制御系から構成される。ステージ202は、ステージ制御ユニット205によって駆動制御され、XYZの三軸方向への移動が可能である。プレパラート206は、観察対象となる組織の切片や塗抹した細胞をスライドグラス上に貼り付け、封入剤とともにカバーグラスの下に固定した部材である。
ステージ制御ユニット205は、駆動制御系203とステージ駆動機構204から構成される。駆動制御系203は、メイン制御系218の指示を受け、ステージ202の駆動制御を行う。ステージ202の移動方向、移動量などは、プレ計測ユニット217によって計測した撮影対象の位置情報および厚み情報(距離情報)と、必要に応じてユーザーからの指示とに基づいて決定される。ステージ駆動機構204は、駆動制御系203の指示に従い、ステージ202を駆動する。
結像光学系207は、プレパラート206の撮影対象の光学像を撮像センサ208へ結像するためのレンズ群である。
撮像ユニット210は、撮像センサ208とアナログフロントエンド(AFE)209から構成される。撮像センサ208は、二次元の光学像を光電変換によって電気的な物理量へ変える一次元もしくは二次元のイメージセンサであり、例えば、CCDやCMOSデバイスが用いられる。一次元センサの場合、走査方向へスキャンすることで二次元画像が得られる。撮像センサ208からは、光の強度に応じた電圧値をもつ電気信号が出力される。撮像画像としてカラー画像が所望される場合は、例えば、Bayer配列のカラーフィルタが取り付けられた単板のイメージセンサを用いればよい。撮像ユニット210は、ステージ202がXY軸方向に駆動することにより、撮影対象の分割画像を撮像する。
[規則91に基づく訂正 25.02.2014]
AFE209は、撮像センサ208から出力されたアナログ信号をデジタル信号へ変換する回路である。AFE209は後述するH/Vドライバ、CDS(Correlated double sampler)、アンプ、AD変換器およびタイミングジェネレータによって構成される。H/Vドライバは、撮像センサ208を駆動するための垂直同期信号および水平同期信号を、センサ駆動に必要な電位に変換する。CDSは、固定パターンのノイズを除去する二重相関サンプリング回路である。アンプは、CDSでノイズ除去されたアナログ信号のゲインを調整するアナログアンプである。AD変換器は、アナログ信号をデジタル信号に変換する。撮像装置最終段での出力が8ビットの場合、後段の処理を考慮して、AD変換器はアナログ信号を10ビットから16ビット程度に量子化されたデジタルデータへ変換し、出力する。変換されたセンサ出力データはRAWデータと呼ばれる。RAWデータは後段の現像処理ユニット216で現像処理される。タイミングジェネレータは、撮像センサ208のタイミングおよび後段の現像処理ユニット216のタイミングを調整する信号を生成する。
AFE209は、撮像センサ208から出力されたアナログ信号をデジタル信号へ変換する回路である。AFE209は後述するH/Vドライバ、CDS(Correlated double sampler)、アンプ、AD変換器およびタイミングジェネレータによって構成される。H/Vドライバは、撮像センサ208を駆動するための垂直同期信号および水平同期信号を、センサ駆動に必要な電位に変換する。CDSは、固定パターンのノイズを除去する二重相関サンプリング回路である。アンプは、CDSでノイズ除去されたアナログ信号のゲインを調整するアナログアンプである。AD変換器は、アナログ信号をデジタル信号に変換する。撮像装置最終段での出力が8ビットの場合、後段の処理を考慮して、AD変換器はアナログ信号を10ビットから16ビット程度に量子化されたデジタルデータへ変換し、出力する。変換されたセンサ出力データはRAWデータと呼ばれる。RAWデータは後段の現像処理ユニット216で現像処理される。タイミングジェネレータは、撮像センサ208のタイミングおよび後段の現像処理ユニット216のタイミングを調整する信号を生成する。
撮像センサ208としてCCDを用いる場合、上記AFE209は必須となるが、デジタル出力可能なCMOSイメージセンサの場合は、上記AFE209の機能をセンサに内包することになる。また、不図示ではあるが、撮像センサ208の制御を行う撮像制御部が存在し、撮像センサ208の動作制御や、シャッタースピード、フレームレートやROI(Region Of Interest)など動作タイミングや制御を合わせて行う。
現像処理ユニット216は、黒補正部211、ホワイトバランス調整部212、デモザイキング処理部213、フィルタ処理部214、γ補正部215から構成される。黒補正部211は、RAWデータの各画素から、遮光時に得られた黒補正データを減算する処理を行う。ホワイトバランス調整部212は、照明ユニット201の光の色温度に応じて、RGB各色のゲインを調整することによって、望ましい白色を再現する処理を行う。具体的には、黒補正後のRAWデータに対しホワイトバランス補正用データが加算される。単色の画像を取り扱う場合にはホワイトバランス調整処理は不要となる。現像処理ユニット216は、撮像ユニット210で撮像された撮影対象の分割画像データを生成する。
デモザイキング処理部213は、Bayer配列のRAWデータから、RGB各色の画像データを生成する処理を行う。デモザイキング処理部213は、RAWデータにおける周辺画素(同色の画素と他色の画素を含む)の値を補間することによって、注目画素のRGB各色の値を計算する。またデモザイキング処理部213は、欠陥画素の補正処理(補間処理)も実行する。なお、撮像センサ208がカラーフィルタを有しておらず、単色の画像が得られている場合、デモザイキング処理は不要となる。
フィルタ処理部214は、画像に含まれる高周波成分の抑制、ノイズ除去、解像感強調を実現するデジタルフィルタである。γ補正部215は、一般的な表示デバイスの階調表現特性に合わせて、画像に逆特性を付加する処理を実行したり、高輝度部の階調圧縮や暗部処理によって人間の視覚特性に合わせた階調変換を実行したりする。本実施形態では形態観察を目的とした画像取得のため、後段の合成処理や表示処理に適した階調変換が画像データに適用される。γ補正部215で行う階調変換処理は、後述する画像処理装置102の装置内で処理を行う構成としてもよい。
プレ計測ユニット217は、プレパラート206上の撮影対象の位置情報、所望の焦点位置までの距離情報、および撮影対象厚みに起因する光量調整用のパラメータを算出するための事前計測を行うユニットである。本計測の前にプレ計測ユニット217によって情報を取得することで、無駄のない撮像を実施することが可能となる。二次元平面の位置情報取得には、撮像センサ208より解像力の低い二次元撮像センサが用いられる。プレ計測ユニット217は、取得した画像から撮影対象のXY平面上での位置を把握する。距離情報および厚み情報の取得には、レーザー変位計やシャックハルトマン方式の計測器が用いられる。
メイン制御系218は、これまで説明してきた各種ユニットの制御を行う機能である。メイン制御系218および現像処理ユニット216の機能は、CPUとROMとRAMを有する制御回路により実現される。すなわち、ROM内にプログラムおよびデータが格納されており、CPUがRAMをワークメモリとして使いプログラムを実行することで、メイン制御系218および現像処理ユニット216の機能が実現される。ROMには例えばEEPROMやフラッシュメモリなどのデバイスが用いられ、RAMには例えばDDR3などのDRAMデバイスが用いられる。
データ出力部219は、現像処理ユニット216によって生成されたRGBのカラー画像を画像処理装置102に送るためのインターフェースである。撮像装置101と画像処理装置102とは、光通信のケーブルにより接続される。あるいは、USBやGigabitEthernet(登録商標)等の汎用インターフェースが使用される。
(画像処理装置の構成)
図3は、本発明の画像処理装置102の機能構成を示すブロック図である。
図3は、本発明の画像処理装置102の機能構成を示すブロック図である。
画像処理装置102は、概略、データ入力部301、記憶保持部302、分割画像データ取得部303、表示データ生成部304、データ出力部305、ユーザー指示入力部306、繋ぎ目領域の優先度指定部307、表示装置情報取得部308から構成される。
記憶保持部302は、外部装置から取得した、撮影対象を分割して撮像することにより得られたRGBのカラー分割画像データが、データ入力部301を介して取り込まれ、記憶、保持される。カラー画像データには、画像データだけでなく、位置情報も含まれる。ここで、位置情報とは、分割画像データが撮影対象のどの部分を撮像したものかの情報である。例えば、位置情報は、撮像時に分割画像データとともにステージ202駆動時のXY座標を記録することにより取得することができる。
[規則91に基づく訂正 25.02.2014]
分割画像データ取得部303は、記憶保持部302に記憶保持された分轄画像データを、表示装置情報取得部308から取得した画像表示装置情報、表示領域サイズ、および表示データ生成部304からの制御情報に基づいて取得する。また、分割画像データ取得部303は、取得した分割画像データを表示データ生成部304へ送信する。
分割画像データ取得部303は、記憶保持部302に記憶保持された分轄画像データを、表示装置情報取得部308から取得した画像表示装置情報、表示領域サイズ、および表示データ生成部304からの制御情報に基づいて取得する。また、分割画像データ取得部303は、取得した分割画像データを表示データ生成部304へ送信する。
ユーザー指示入力部306では、後述する生成する表示画像データについてのユーザーの指示の他、マウスやキーボード等の操作入力部を介して、表示位置の変更や拡大、縮小表示などの表示画像データの更新指示が入力される。優先度指定部307は、ユーザー指示入力部306で入力された情報に基づいて、分割画像データが重なり合う領域に対し、いずれの分割画像データを表示用の画像データとして用いるかを指定する。優先度指定部307は、重複領域について、複数の分割画像データから表示させる画像データを選択して生成された撮影対象の画像データと、複数の分割画像を合成して生成された撮影対象の合成画像データと、のいずれかを表示させるべく切り替える切り替え部を兼ねることができる。
[規則91に基づく訂正 25.02.2014]
表示データ生成部304は、分割画像データ取得部303から送られてきた分割画像データを、優先度指定部307で指定された優先度に基づいて、表示データを生成する。生成された表示データは、データ出力部305を介して、表示用の画像データとして外部のモニター等に出力する。
表示データ生成部304は、分割画像データ取得部303から送られてきた分割画像データを、優先度指定部307で指定された優先度に基づいて、表示データを生成する。生成された表示データは、データ出力部305を介して、表示用の画像データとして外部のモニター等に出力する。
(画像処理装置のハードウェア構成)
図4は、本発明の画像処理装置のハードウェア構成を示すブロック図である。情報処理を行う装置として、例えばPC(Personal Computer)が用いられる。
図4は、本発明の画像処理装置のハードウェア構成を示すブロック図である。情報処理を行う装置として、例えばPC(Personal Computer)が用いられる。
PCは、CPU(Central Processing Unit)401、RAM(Random Access Memory)402、記憶装置403、データ入出力I/F405、およびこれらを互いに接続する内部バス404を備える。
CPU401は、必要に応じてRAM402等に適宜アクセスし、各種演算処理を行いながらPCの各ブロック全体を統括的に制御する。RAM402は、CPU401の作業用領域等として用いられ、OS、実行中の各種プログラム、本発明の特徴であるアノテーションのユーザー識別や表示用データの生成など処理の対象となる各種データを一時的に保持する。記憶装置403は、CPU401に実行させるOS、プログラムや各種パラメータなどのファームウェアが固定的に記憶されている情報を記録し読み出す補助記憶装置である。HDD(Hard Disk Drive)やSSD(Solid State Disk)等の磁気ディスクドライブもしくはFlashメモリを用いた半導体デバイスが用いられる。
[規則91に基づく訂正 25.02.2014]
データ入出力I/F405には、LAN I/F406を介して画像サーバー1001が、グラフィクスボード407を介して画像表示装置103が、外部装置I/F408を介してバーチャルスライド装置やデジタル顕微鏡に代表される撮像装置101が、また、キーボード410やマウス411が操作I/F409を介してそれぞれ接続される。
データ入出力I/F405には、LAN I/F406を介して画像サーバー1001が、グラフィクスボード407を介して画像表示装置103が、外部装置I/F408を介してバーチャルスライド装置やデジタル顕微鏡に代表される撮像装置101が、また、キーボード410やマウス411が操作I/F409を介してそれぞれ接続される。
[規則91に基づく訂正 25.02.2014]
画像表示装置103は、例えば液晶、EL(electroluminescence)、CRT(Cathode Ray Tube)等を用いた表示デバイスである。当該画像表示装置103は、外部装置として接続される形態を想定しているが、画像表示装置と一体化したPCを想定してもよい。例えばノートPCがこれに該当する。
画像表示装置103は、例えば液晶、EL(electroluminescence)、CRT(Cathode Ray Tube)等を用いた表示デバイスである。当該画像表示装置103は、外部装置として接続される形態を想定しているが、画像表示装置と一体化したPCを想定してもよい。例えばノートPCがこれに該当する。
操作I/F409との接続デバイスとしてキーボード410やマウス411等のポインティングデバイスを想定しているが、タッチパネル等画像表示装置103の画面が直接入力デバイスとなる構成を取ることも可能である。その場合、タッチパネルは画像表示装置103と一体となり得る。
(画像の優先度指定)
本発明の画像処理装置で行われる分割画像データ間における重複領域の優先度指定の概念について、図5を用いて説明する。
本発明の画像処理装置で行われる分割画像データ間における重複領域の優先度指定の概念について、図5を用いて説明する。
[規則91に基づく訂正 25.02.2014]
図5(a)では、分割画像の取得について説明する。図5(a)の図の上は撮影対象であり、図5(a)は重複領域を有して撮影対象を2つの領域である画像(1)と画像(2)に分けて撮影し、分割画像データを取得する。
図5(a)では、分割画像の取得について説明する。図5(a)の図の上は撮影対象であり、図5(a)は重複領域を有して撮影対象を2つの領域である画像(1)と画像(2)に分けて撮影し、分割画像データを取得する。
図5(b)は、画像(1)を選択して2つの分割画像データの内、重なって撮像された領域を表示させた場合の例である。この場合、重複領域として、画像(1)の表示の優先度が高く設定されている。
図5(c)は、画像(2)を選択して画像データを表示させた場合の例であり、画像(2)の表示の優先度が高く設定されている。
このように、隣接する分割画像データ間の重複領域は、何れか一方の優先度を高くし、表示するための領域として選択することで、表示用の合成画像を生成することができる。
本発明の画像処理装置102では、予め設定した条件、又はユーザーの指示によって表示させるための画像データを選択して、画像表示装置103に表示させることができる。
(画像データの生成)
本発明の画像処理装置における画像データの生成の流れを図6のフローチャートを用いて説明する。
本発明の画像処理装置における画像データの生成の流れを図6のフローチャートを用いて説明する。
ステップ601では、画像表示装置103に画像データを表示させる際、画像処理装置102と接続された画像表示装置103であるモニター解像度、撮影対象全体の画像中の表示位置、表示倍率等の表示領域情報を取得する。
[規則91に基づく訂正 25.02.2014]
ステップ602では、データ入力部301で取り込まれて記憶保持部302に記憶されている分割画像データの中から、必要な数の分割画像データを分割画像取得部303が取得する。異なる倍率ごとの分割画像データが階層に記憶保持されている場合には、ステップ601で取得した表示倍率の情報に基づいて、適切な階層の分割画像データが選択される。
ステップ602では、データ入力部301で取り込まれて記憶保持部302に記憶されている分割画像データの中から、必要な数の分割画像データを分割画像取得部303が取得する。異なる倍率ごとの分割画像データが階層に記憶保持されている場合には、ステップ601で取得した表示倍率の情報に基づいて、適切な階層の分割画像データが選択される。
撮像装置101で取得した画像データは診断の目的から高解像、高分解能の撮像データであることが望まれる。ただし、先に説明したとおり数十億画素からなる画像データの縮小画像を表示する場合、表示の設定の変更に合わせてその都度解像度変換を行っていたのでは処理が間に合わなくなる。そのため、予め倍率の異なる何段階かの階層画像を用意しておき、用意された階層画像から表示側の要求に応じて表示倍率と近接する倍率の画像データを選択し、表示倍率に合わせて倍率の調整を行うことが望ましい。一般には画質の点でより高倍の画像データから表示データを生成することがより好ましい。
撮像が高解像に行われるため、表示用の階層画像データは、一番高解像な画像データをもとに、解像度変換手法によって縮小することで生成される。解像度変換の手法として二次元の線形な補間処理であるバイリニアの他、三次の補間式を用いたバイキュービックなどが広く知られている。
ステップ603では、分割画像データ間の境界の表示を行うか否かが判断される。予め合成画像を用意するのではなく、表示に用いる分割画像データを都度選択する本発明では、境界表示を行うことを前提に、行わない場合のみユーザーに表示有無を選択する構成を取ることが望ましい。
境界表示を行わない場合には、ステップ606に進む。分割画像データ間の境界の表示を行う場合には、次のステップ604に進む。
ステップ604では、表示データ生成部304で境界位置情報を含んだ画像データが生成される。具体的には、通常表示の画像データと、隣接する画像間の境界を線や領域で示した境界位置表示データを重畳することによって生成される。この際、境界位置表示データが表示用の画像データに対して優先して表示される。なお、初期状態において、分割画像データの何れの画像を優先して表示するかは予め定めた規則に従えば良い。例えば4つの分割画像を使用する場合、左右であれば右、上下であれば上、左上と右下であれば左上などである。複数の分割画像データを使用する場合は右端から左に、端まで来たら次の段(番号を付けたすぐ下の段)の右という順番に番号付けを行い、番号の若い順に優先度を高くすれば良い。このような番号付けは、ユーザーの好みに基づいて行うこともできる。たとえば、特定のユーザーの観察開始位置を含む分割画像データの優先度を最も高く設定する番号付けなどである。その他の優先度決定規則の例としては、表示画像の中心を含む分割画像データの優先順位を最も高くしておくこと、初期状態の画像が非対称な場合に、全体画像に占める割合が最も多い分割画像データの優先順位を最も高くしておくこと、といった規則を挙げることができる。
ステップ605では、ステップ604で生成された画像データが画像表示装置103に出力される。出力された表示用の画像データは画像表示装置103に表示される。表示後、ユーザーの指示によって画面のスクロール等表示する画像データの変更を起点に、以下のステップの処理、判断を実施する。
ステップ606では、複数の分割画像データ間の重複領域について、画像表示装置103に表示させる分割画像データの選択を切り替えるか、すなわち、画像表示装置103に表示させる画像の優先度を変更させるかを判断する。優先度の変更がない場合には、ステップ609に進む。優先度の変更がある場合には、ステップ607に進む。
ステップ607では、境界の表示指示があるかを判断する。境界表示の指示がある場合には、ステップ604に戻る。境界の指示が無い場合には、ステップ608に進む。なお、この処理ステップでは、ステップ603で境界表示の指示がなく、かつステップ606で優先度の変更が行われた場合に、ユーザーが変更指示を出すための準備として境界位置を明示させるためのものである。
ステップ608では、複数の分割画像データ間の重複領域について、画像表示装置103に表示させる分割画像データの選択を変更する。すなわち、このステップでは、画像表示装置103に表示させる重複領域の優先度が変更される。優先度の変更の詳細については別フローチャートを用いて後述する。
ステップ609では、優先度指示が行われないことを受けて、予め設定されている初期値が優先度として設定される。ユーザーから境界表示、優先度変更の何れの指示も出ていない状態で規定の設定値が選択されることになる。例えば、左右では左、上下では上に位置する分割画像データの優先度を高く設定する。
ステップ610では、ステップ608またはステップ609で規定された優先度に基づいて、画像表示装置103に表示する画像データが生成される。
ステップ611では、ステップ610で生成された画像表示装置103に表示する画像データは、データ出力部305を介して画像表示装置103等に送られる。
(優先度の変更)
図6のステップ608で示した優先度の変更について、図7のフローチャートを用いて説明する。
図6のステップ608で示した優先度の変更について、図7のフローチャートを用いて説明する。
ステップ701では、複数の分割画像データ間の重複領域について、画像表示装置103に表示させる画像データの選択方法である表示モードが選択される。ここでは大きく、ユーザーによって選択された分割画像データのみの優先度を上げるモード、選択された分割画像データの優先度を上げ、かつ他の分割画像データの優先度を設定された条件で規定するモード、および選択された分割画像データの優先度を上げ、他の分割画像データの優先度を任意に指定できるモードの3つを想定する。
ステップ702では、選択された分割画像データのみ優先度を上げて表示させるモードを選択するかを判断する。他の表示モードが選択された場合には、ステップ704で更に表示条件を判断する。選択された分割画像データのみ優先度を上げる場合には、ステップ703に進む。
ステップ703では、選択された分割画像データの優先度を高くして、他の分割画像の優先度を変えないまま、重複領域の優先度が規定される。例えば、任意の分割画像データが選択された場合、上下左右4つの隣接画像データとの間には、同じく4つの重複領域が存在するが、このすべてを選択された分割画像データを用いて表示するよう規定する。
ステップ704では、選択した分割画像データの表示優先度を上げた上で、選択された分割画像データ以外の画像の優先度を予め設定した条件で変更させるか判断する。選択された分割画像データ以外の優先度を任意に設定させる場合はステップ705に進み、選択された分割画像データ以外の優先度を予め設定した条件で変更させる場合はステップ706に進む。
ステップ705では、選択された分割画像データの優先度を高くし、かつ選択された分割画像データ以外の重複領域の優先度を予め設定した条件で画像を表示するように優先度が規定される。
ステップ706では、選択された分割画像データの優先度を高くし、かつ選択された分割画像データ以外の重複領域の優先度を任意に選択して画像を表示するように優先度が規定される。ここで、選択された画像データ以外の重複領域の優先度を任意に選択するとは、4つの分割画像データで画像表示されている場合に、残された2番目、3番目の分割画像データに対してそれぞれ優先度を規定することを言う。4番目は必然的に最も優先度が低くなる。
[規則91に基づく訂正 25.02.2014]
(表示画面レイアウト)
図8(a)~図8(e)は、本発明の画像処理装置102で生成した画像データを画像表示装置103で表示した場合の一例を示す図である。図8(a)は、画像表示装置103の表示画面のレイアウトである。表示画面は、全体ウィンドウ801内に、詳細観察用の撮影対象画像データの表示領域802、観察対象のサムネイル画像803、表示設定の領域804がそれぞれ表示されている。撮影対象画像の表示領域802及び観察対象のサムネイル画像803は、シングルドキュメントインターフェースによって全体ウィンドウ801の表示領域が機能領域毎に分割される形態でも、マルチドキュメントインタフェースによって各々の領域が別ウィンドウで構成される形態でも構わない。撮影対象画像データの表示領域802には、詳細観察用の撮影対象画像データが表示される。ここでは、ユーザーからの操作指示によって、表示領域の移動や表示倍率の変更による画像の拡大・縮小画像が表示される。サムネイル画像803は、撮影対象の全体画像における撮影対象の画像データの表示領域802中での位置や大きさを表示する。表示設定の領域804では、例えば、タッチパネル又はマウス411等の外部接続された入力デバイスからのユーザー指示により設定ボタン805を選択、押下して、表示設定を変更することができる。なお、設定ボタン805は、表示設定領域804内に配置したが、選択や設定の指示はメニュー画面から該当する項目を選択、指定する構成にすることも可能である。
(表示画面レイアウト)
図8(a)~図8(e)は、本発明の画像処理装置102で生成した画像データを画像表示装置103で表示した場合の一例を示す図である。図8(a)は、画像表示装置103の表示画面のレイアウトである。表示画面は、全体ウィンドウ801内に、詳細観察用の撮影対象画像データの表示領域802、観察対象のサムネイル画像803、表示設定の領域804がそれぞれ表示されている。撮影対象画像の表示領域802及び観察対象のサムネイル画像803は、シングルドキュメントインターフェースによって全体ウィンドウ801の表示領域が機能領域毎に分割される形態でも、マルチドキュメントインタフェースによって各々の領域が別ウィンドウで構成される形態でも構わない。撮影対象画像データの表示領域802には、詳細観察用の撮影対象画像データが表示される。ここでは、ユーザーからの操作指示によって、表示領域の移動や表示倍率の変更による画像の拡大・縮小画像が表示される。サムネイル画像803は、撮影対象の全体画像における撮影対象の画像データの表示領域802中での位置や大きさを表示する。表示設定の領域804では、例えば、タッチパネル又はマウス411等の外部接続された入力デバイスからのユーザー指示により設定ボタン805を選択、押下して、表示設定を変更することができる。なお、設定ボタン805は、表示設定領域804内に配置したが、選択や設定の指示はメニュー画面から該当する項目を選択、指定する構成にすることも可能である。
図8(b)は、複数の分割画像データから構成される撮影対象の画像データの概念図である。図8(b)では、撮影対象の画像データは、重複領域を有する4個の分割画像データから構成されている。4つの画像データは、説明のため、それぞれ画像(1)~(4)とする。それらの画像データは、斜線部で示した重複領域を有している。
図8(c)は、外部から入力された優先度変更の指示により、画像(1)が選択された表示画面の模式図を示す。図8(c)では、画像(1)が最も優先度が高く表示され、画像(1)と画像(2)が重複領域、画像(1)と画像(3)が重複領域、画像(1)と画像(4)が重複領域は、画像(1)の分割画像データを用いて撮影対象画像が表示される。画像(2)と画像(3)が画像(1)の次に優先表示され、画像(2)と画像(4)が重複領域については画像(2)のデータを用いて、画像(3)と画像(4)が重複領域については画像(3)のデータを用いて撮影対象画像が表示されている。画像(4)は、画像が重複領域の表示に用いられていない。なおここでは、選択された分割画像データの優先度のみを変更するモードが選択されているものとして以後の説明を行う。
[規則91に基づく訂正 25.02.2014]
図8(d)は、図8(c)が表示された後に、画像(2)が選択された表示画面の模式図を示す。図8(d)では、画像(2)、画像(1)、画像(3)、画像(4)の順序に従って重なる画像が表示され、撮影対象の画像データが作成される。
図8(d)は、図8(c)が表示された後に、画像(2)が選択された表示画面の模式図を示す。図8(d)では、画像(2)、画像(1)、画像(3)、画像(4)の順序に従って重なる画像が表示され、撮影対象の画像データが作成される。
[規則91に基づく訂正 25.02.2014]
図8(e)は、図8(c)が表示後に画像(2)が選択された場合、図8(c)と異なる表示画面の模式図を示す。図8(e)では、画像(2)が最も優先して表示され、画像(1)と画像(4)が次に優先して表示され、画像(3)は画像が重複領域の表示に用いられていない。図8(d)と図8(e)との違いは、境界領域の整合が取れ、境界が直線で表示されているか否かによる。
図8(e)は、図8(c)が表示後に画像(2)が選択された場合、図8(c)と異なる表示画面の模式図を示す。図8(e)では、画像(2)が最も優先して表示され、画像(1)と画像(4)が次に優先して表示され、画像(3)は画像が重複領域の表示に用いられていない。図8(d)と図8(e)との違いは、境界領域の整合が取れ、境界が直線で表示されているか否かによる。
図8(c)が表示後に画像(2)が選択された場合、予め選択されたモードまたは外部から入力された指示により、図8(d)又は図8(e)が選択されることになる。
(外部からの指示による表示の変更)
図9は、外部からの指示による表示画面の表示の変更を示す概念図である。図9(a)は、表示領域802に表示された撮影対象の画像を示す。例えばキーボード410やマウス411等の外部入力装置からの指示により、図9(b)に示すように、画像中の分割画像の境目がグリッド表示される。この表示は、前述したステップ605の処理の結果によってもたらされる。図9(b)では、図8(c)で示した優先順位が付けられた4つの分割画像データの重複領域が表示され、撮影対象の画像が表示されているものとする。
図9は、外部からの指示による表示画面の表示の変更を示す概念図である。図9(a)は、表示領域802に表示された撮影対象の画像を示す。例えばキーボード410やマウス411等の外部入力装置からの指示により、図9(b)に示すように、画像中の分割画像の境目がグリッド表示される。この表示は、前述したステップ605の処理の結果によってもたらされる。図9(b)では、図8(c)で示した優先順位が付けられた4つの分割画像データの重複領域が表示され、撮影対象の画像が表示されているものとする。
図9(c)は、図9(b)において、撮影対象画像の右上領域をキーボード410やマウス411等で選択した場合の表示画面の変更を示したものである。図9(b)では図8(c)で示した優先順序で分割画像が表示されているが、図8(c)において画像(2)が表示されている箇所が選択されると、図8(d)又は図8(e)に対応する図9(c)で示す画面に変更される。変更された画像は、キーボード410やマウス411からの指示によって、確定される。または、初期の選択した段階で確定させてもよい。なお、分割画像データの境界を示すグリッドラインも優先度の変更に合わせて更新される。
本実施の形態では、分割画像データをユーザーの指示に従い切り替えて表示することで、原画像とは異なる繋ぎ合わせの画像の境界位置や領域に基づく、意図しない診断を防止することができる。
[第2実施形態]
本発明の第2の実施形態に係る画像表示システムについて図を用いて説明する。
本発明の第2の実施形態に係る画像表示システムについて図を用いて説明する。
第1実施形態では、重複領域を有する複数の分割画像に分けて撮像された分割画像データを、外部からのユーザー指示によって重複領域を表示する分割画像データを選択して、撮影対象の表示用の画像データを生成した。第2の実施形態では、重複領域を有する複数の分割画像に分けて撮影された分割画像データを、予め設定した重複領域表示の優先度に基づいて選択して、撮影対象の表示用の画像データを生成する。したがって、第2実施形態では、表示画像中の分割画像データ間の境界位置によって自動で表示させる分割画像データを選択して、撮影対象の表示用の画像データを生成する。
第2の実施形態では、第1実施形態と異なる構成以外は、第1実施形態で説明した構成を用いることができる。
[規則91に基づく訂正 25.02.2014]
(画像表示装置システムの構成)
図16は、本発明の第2の実施形態に係る画像表示システムの装置構成の全体図である。
(画像表示装置システムの構成)
図16は、本発明の第2の実施形態に係る画像表示システムの装置構成の全体図である。
図16で、本発明の画像処理装置を用いた画像表示システムは、画像サーバー1601、画像処理装置102、画像表示装置103から構成される。画像処理装置102は撮影対象の分割画像データを画像サーバー1601から取得し、画像表示装置103へ表示するための画像データを生成することができる。画像サーバー1601と画像処理装置102との間は、ネットワーク1602を介して、汎用I/FのLANケーブル1603で接続される。画像サーバー1601は、バーチャルスライド装置である撮像装置101によって撮像された分割画像データを保存する大容量の記憶装置を備えたコンピュータである。画像サーバー1601は、分割された画像を一つのまとまりとして画像サーバー1601に接続されたローカルストレージに保存していても良いし、それぞれ分割してネットワーク上の何処かに存在するサーバー群(クラウド・サーバ)の形態をとり、各分割画像データの実体とリンク情報を分けて持っていても良い。分割画像データ自体、一つのサーバーに保存しておく必要もない。なお、画像処理装置102および画像表示装置103は第1の実施態様の撮像システムものと同様である。
[規則91に基づく訂正 25.02.2014]
図16の例では、画像サーバー1601と画像処理装置102と画像表示装置103の3つの装置により画像表示システムが構成されているが、本発明はこの構成に限定されるものではない。例えば、画像表示装置が一体化した画像処理装置を用いてもよいし、画像処理装置102の持つ機能の一部を画像サーバー1601に組み込んでもよい。また逆に、画像サーバー1601や画像処理装置102の機能を分割して複数の装置によって実現してもよい。
図16の例では、画像サーバー1601と画像処理装置102と画像表示装置103の3つの装置により画像表示システムが構成されているが、本発明はこの構成に限定されるものではない。例えば、画像表示装置が一体化した画像処理装置を用いてもよいし、画像処理装置102の持つ機能の一部を画像サーバー1601に組み込んでもよい。また逆に、画像サーバー1601や画像処理装置102の機能を分割して複数の装置によって実現してもよい。
(画像処理装置の構成)
図10は、本発明の画像処理装置102の機能構成を示すブロック図である。
図10は、本発明の画像処理装置102の機能構成を示すブロック図である。
画像処理装置102は、概略、データ入力部1001、記憶保持部1002、分割画像データ取得部1003、表示データ生成部1004、表示データ出力部1005、表示装置情報取得部1006、優先度指定部1007から構成される。
記憶保持部1002は、外部装置である画像サーバー1601から取得した、撮影対象を分割して撮像することにより得られたRGBのカラー分割画像データが、データ入力部1001を介して取り込まれ、記憶、保持される。カラー画像データには、画像データだけでなく、位置情報も含まれる。ここで、位置情報とは、分割画像データが撮影対象のどの部分を撮像したものかの情報である。例えば、位置情報は、撮像時に分割画像データとともにステージ202駆動時のXY座標を記録することにより取得することができる。
[規則91に基づく訂正 25.02.2014]
分割画像データ取得部1003は、記憶保持部1002に記憶保持された分轄画像データ、表示装置情報取得部1006からの画像表示装置情報及び表示領域などのデータを取得する。また、分割画像データ取得部1003は、位置情報を含む取得した分割画像データを表示データ生成部1004へ送信する。
分割画像データ取得部1003は、記憶保持部1002に記憶保持された分轄画像データ、表示装置情報取得部1006からの画像表示装置情報及び表示領域などのデータを取得する。また、分割画像データ取得部1003は、位置情報を含む取得した分割画像データを表示データ生成部1004へ送信する。
優先度指定部1007は、分割画像データが重なり合う領域について、表示装置情報取得部から送られてきた情報や予め規定された情報に基づいて、いずれの分割画像データを用いるかを選択する。画像表示装置103から取得する情報は、ユーザー指示による表示画面の移動(画面スクロール)の他、表示倍率変化である拡大、縮小表示の状態を示す値である。優先度指定部1007は、この情報から分割画像データ間の境界位置の変化を算出し、算出した結果である更新された表示画面上の境界位置によって分割画像データ間の重複領域の表示優先度を規定された手順、方法によって切り替えることになる。
表示データ生成部1004は、分割画像データ取得部1003から送られてきた分割画像データを、優先度指定部1007で指定された優先度に基づいて、表示データを生成する。生成された表示データは、表示データ出力部1005を介して、表示画像データとして外部のモニター等に送られる。
[規則91に基づく訂正 25.02.2014]
(画像の優先度の自動切り替え)
本発明の画像処理装置で行われるが画像の優先度の自動切り替えの概念について、図11(a)~図11(d)を用いて説明する。
(画像の優先度の自動切り替え)
本発明の画像処理装置で行われるが画像の優先度の自動切り替えの概念について、図11(a)~図11(d)を用いて説明する。
図11(a)では、撮影対象の画像データが4つの分割画像データを用いて構成されている例を示している。便宜上、4つの分割画像データを左上から右下へ向けて画像(1)、画像(2)、画像(3)および画像(4)と番号を付与する。図11(a)では、分割画像データ間の境界の内、表示の優先度が高く設定されている分割画像データと隣接する分割画像データ間の境界線を実線で、逆に重複領域として表示されていない側の境界線を点線で示している。図11(a)では、画像(1)が第一優先、画像(2)と(3)が二番目の優先度、画像(4)が最も低い優先度で設定されているものとする。このため、画像(1)と画像(2)の境界は、画像(1)の端が実線で示される境界線となる。
図11(b)は、ユーザーによる指示、操作によって表示画面を右から左にスクロールして、図11(a)では右側上方に位置する画像(2)を、画面の中央部分に表示させたときの表示画面の変更を示す。図11(b)では、重複領域を有する複数の分割画像に分けて撮像された分割画像データを、予め設定した表示条件に基づいて選択して、表示画面に表示されている。図11(b)では、図11(a)で表示されている分割画像データ間の境界が、矢印で示すように変更されている。ここでは、画像(1)と画像(2)の境界位置が変わって、画像(2)が優先して表示されている。
また、図11(c)では、図11(a)から右下方向に表示画面の位置を移動させたときの変更後の表示画面であり、分割画像データ間の境界が矢印で示すように、すなわち画像(4)の表示が優先されるように変更されている。
さらに、図11(d)では、図11(a)から下方に表示画像を移動させたときの変更後の表示画面であり、分割画像データ間の境界が矢印で示すように、すなわち画像(3)の表示が優先されるように変更されている。
[規則91に基づく訂正 25.02.2014]
図11で示す画像の優先度の自動切り替えの条件としては、下記を想定している。第1の条件は、分割画像データ間の境界位置が表示画面の中央を超えた場合である。この場合は、図11(a)の画像(1)と(2)の境界である実線で示される境界位置が、表示画面上の中央部を超えた場合に重複領域表示の優先度を変更し、表示画像が自動で切り替わる。第2の条件は、分割画像データ間の重複領域幅の中央部が表示画面の中央位置を超えた場合である。図11(a)の画像(1)と(2)の境界である実線と点線のちょうど中間の位置が、表示領域に示される画像の中央位置を超えたときに、表示の優先度を変更し、重複領域の表示を切り替える。画像の第3の表示条件は、分割画像データの表示割合が一定の値を超えた場合があげられる。一定の値としては、全体画像に占める分割画像データの割合が25%以上50%以下の値を設定することができる。例えば、図11(a)から(c)へ表示画面が変化した場合、画像(4)の割合が25%を超えたところで画像(4)が優先的に表示されるようにする。画像(2)と(4)および画像(3)と(4)の境界位置がそれに伴って切り替えられる。具体的にはこれまで実線で示されていた境界位置が点線に、点線で示されていた境界位置が実線に変更となる。第4の条件は、表示画像の中央部に位置する分割画像データの表示領域内に占める割合によって、優先度を変更する場合である。例えば、表示画像が9つの分割画像データで構成されている場合に、中央の分割画像データを優先表示させることができる。
図11で示す画像の優先度の自動切り替えの条件としては、下記を想定している。第1の条件は、分割画像データ間の境界位置が表示画面の中央を超えた場合である。この場合は、図11(a)の画像(1)と(2)の境界である実線で示される境界位置が、表示画面上の中央部を超えた場合に重複領域表示の優先度を変更し、表示画像が自動で切り替わる。第2の条件は、分割画像データ間の重複領域幅の中央部が表示画面の中央位置を超えた場合である。図11(a)の画像(1)と(2)の境界である実線と点線のちょうど中間の位置が、表示領域に示される画像の中央位置を超えたときに、表示の優先度を変更し、重複領域の表示を切り替える。画像の第3の表示条件は、分割画像データの表示割合が一定の値を超えた場合があげられる。一定の値としては、全体画像に占める分割画像データの割合が25%以上50%以下の値を設定することができる。例えば、図11(a)から(c)へ表示画面が変化した場合、画像(4)の割合が25%を超えたところで画像(4)が優先的に表示されるようにする。画像(2)と(4)および画像(3)と(4)の境界位置がそれに伴って切り替えられる。具体的にはこれまで実線で示されていた境界位置が点線に、点線で示されていた境界位置が実線に変更となる。第4の条件は、表示画像の中央部に位置する分割画像データの表示領域内に占める割合によって、優先度を変更する場合である。例えば、表示画像が9つの分割画像データで構成されている場合に、中央の分割画像データを優先表示させることができる。
(画像データの生成)
本発明の画像処理装置における画像データの生成の流れを図12のフローチャートを用いて説明する。
本発明の画像処理装置における画像データの生成の流れを図12のフローチャートを用いて説明する。
ステップ1201では、画像表示装置103であるディスプレイの表示エリアのサイズ情報(画面解像度)の他、現在表示されている画像の表示倍率の情報を取得する。表示エリアのサイズ情報は、生成する表示データの領域の大きさを決める際に用いる。表示倍率は、階層画像中から何れかの画像データを選択する際に必要となる情報である。
ステップ1202では、データ入力部1001で取り込まれて記憶保持部1002に記憶されている複数の分割画像データの中から、表示画像データの生成に必要な分割画像データを取得する。異なる倍率ごとの分割画像データが階層に記憶保持されている場合には、ステップ1201で取得した表示領域情報に基づいて、適切な階層の分割画像データが選択される。
ステップ1203からステップ1205までの工程は、第1の実施形態の図6のステップ603からステップ605までの処理内容と同じなため説明は省略する。
[規則91に基づく訂正 25.02.2014]
ステップ1206では、スクロール等の表示画面の変更があったか否かを判断する。変更が合った場合はステップ1207へ進む。ない場合はタイマー等で適度な時間経過を判断した後、再度ステップ1206の表示画面変更判断を行う。
ステップ1206では、スクロール等の表示画面の変更があったか否かを判断する。変更が合った場合はステップ1207へ進む。ない場合はタイマー等で適度な時間経過を判断した後、再度ステップ1206の表示画面変更判断を行う。
ステップ1207では、表示画面の変更に伴う分割画像データ間の重複領域の優先度変更が必要か判断する。必要かどうかの判断は、図11で説明した条件との比較によって行う。優先度の変更が無い場合にはスッテップ1209へ進み、優先度の変更がある場合にはステップ1208に進む。
ステップ1208では、複数の分割画像データ間の重複領域について、条件に従い、重複領域選択の優先度を適宜修正する。優先度の変更の詳細については図13のフローチャートを用いて後述する。
ステップ1209では、複数の分割画像データ間の重複領域について、初期条件、もしくは現在の優先度が設定される。
ステップ1210では、ステップ1208またはステップ1209で規定された優先度に基づいて、画像表示装置103に表示用の画像データが生成される。具体的には、優先度の高い分割画像データの重複領域が表示されるように、表示用の画像データが生成される。
ステップ1211では、ステップ1210で生成された表示す用の画像データを、表示データ出力部305を介して画像表示装置103等に送られる。
(優先度の変更)
図12のステップ1208で示した重複領域の表示優先度の変更について、図13のフローチャートを用いて説明する。図13では、スクロール方向を考慮して分割画像データ間の重複領域表示の優先度を高くする。優先度の変更は、図11で説明した通り、境界線の位置変化と任意の分割画像データの表示領域中の表示割合に基づいて行われる。
図12のステップ1208で示した重複領域の表示優先度の変更について、図13のフローチャートを用いて説明する。図13では、スクロール方向を考慮して分割画像データ間の重複領域表示の優先度を高くする。優先度の変更は、図11で説明した通り、境界線の位置変化と任意の分割画像データの表示領域中の表示割合に基づいて行われる。
ステップ1301では、複数の分割画像データ間の重複領域を、画像表示装置に表示させる表示モードが選択される。
[規則91に基づく訂正 25.02.2014]
ステップ1302では、境界位置の変更によって表示領域中央に位置する分割画像データの表示優先度を上げるか否かが判断される。表示画面領域の中央に位置する分割画像の優先度を高くしない場合にはステップ1304に進み、優先度を高くする場合にはステップ1303に進む。ちなみに、画面の分割数が4分割の場合には、何れのモードを選択しても表示画面は変わらない。分割数がそれ以上となった場合には、表示される重複領域が変わる。
ステップ1302では、境界位置の変更によって表示領域中央に位置する分割画像データの表示優先度を上げるか否かが判断される。表示画面領域の中央に位置する分割画像の優先度を高くしない場合にはステップ1304に進み、優先度を高くする場合にはステップ1303に進む。ちなみに、画面の分割数が4分割の場合には、何れのモードを選択しても表示画面は変わらない。分割数がそれ以上となった場合には、表示される重複領域が変わる。
ステップ1303では、スクロール方向にある分割画像データの表示優先度を高くするとともに、表示画面領域の中央に位置する分割画像データの表示優先度を高くするように優先度が変更される。
ステップ1304では、スクロール方向にある分割画像データの表示優先度を高くするとともに、表示画面領域に対する分割画像データを表示する領域の割合が規定の値を超えた画像に対して表示優先度を高くするように優先度が変更される。
本実施の形態では、分割画像データを表示画面の更新状況を把握して自動で優先度を変更し、重複領域を切り替えて表示することで、原画像とは異なる繋ぎ合わせの画像の境界位置や領域に基づく、精度の高い診断がし難くなることを防止することができる。
[第3実施形態]
第3の実施形態では、分割画像データを選択して生成した表示用の画像データと、分割画像データをつなぎ合わせた合成画像の表示データとを用途に応じて選択して表示する画像処理装置を用いる。特に表示倍率が低倍の場合は合成画像を、高倍の場合は重複領域の切り替えで画像を表示する。表示倍率が小さい場合には分割画像データを補間処理等で合成した後、解像度変換による縮小画像を生成し、表示用の画像データとして用いる。表示倍率が大きい場合には、これまで説明してきたとおり、分割画像データの選択により表示用の画像データを生成する。これにより、低倍表示時の画面スクロールおよび表示倍率変更をスムーズに行うことができるとともに、高倍時には分割画像データ間の境界部分の画像に基づく意図しない診断を防止することができる。
第3の実施形態では、分割画像データを選択して生成した表示用の画像データと、分割画像データをつなぎ合わせた合成画像の表示データとを用途に応じて選択して表示する画像処理装置を用いる。特に表示倍率が低倍の場合は合成画像を、高倍の場合は重複領域の切り替えで画像を表示する。表示倍率が小さい場合には分割画像データを補間処理等で合成した後、解像度変換による縮小画像を生成し、表示用の画像データとして用いる。表示倍率が大きい場合には、これまで説明してきたとおり、分割画像データの選択により表示用の画像データを生成する。これにより、低倍表示時の画面スクロールおよび表示倍率変更をスムーズに行うことができるとともに、高倍時には分割画像データ間の境界部分の画像に基づく意図しない診断を防止することができる。
(画像処理装置の構成)
図14は、第3実施形態の画像処理装置102の機能構成を示すブロック図である。
図14は、第3実施形態の画像処理装置102の機能構成を示すブロック図である。
画像処理装置102は、概略、データ入力部1401、記憶保持部1402、分割画像データ取得部1403、合成画像生成部1404、表示画像選択部1405、データ出力部1406、優先度指定部1409から構成される。
記憶保持部1402は、外部装置であるバーチャルスライド装置等に代表される撮像装置101または画像サーバー1601から取得した、撮影対象を分割して撮像することにより得られたRGBのカラー分割画像データが、データ入力部1401を介して取り込まれ、記憶、保持される。カラー画像データには、画像データだけでなく、位置情報も含まれる。位置情報とはこれまで説明してきたものと同様に、分割画像データが撮影対象全体の画像領域中のどの部分を撮像したものかの情報である。
[規則91に基づく訂正 25.02.2014]
分割画像データ取得部1403は、記憶保持部1402に記憶保持された分割画像データ、表示装置情報取得部1408からの画像表示装置情報及び表示領域などのデータを取得する。
分割画像データ取得部1403は、記憶保持部1402に記憶保持された分割画像データ、表示装置情報取得部1408からの画像表示装置情報及び表示領域などのデータを取得する。
合成画像生成部1404では、撮影対象を分割して撮像することにより得られたカラー画像データ(分割画像データ)に対して、それぞれの分割画像データの位置情報に基づいて、撮影対象の合成画像データを生成する。合成処理の方法としては、複数の部分画像データを、繋ぎ合わせる、重畳する、アルファブレンディングする、補間処理により滑らかに繋げるものを含む。重ね合せの複数の画像データを繋ぎ合わせる方法としては、ステージの位置情報に基づいて位置合わせをして繋ぐ方法や、複数の分割画像の対応する点又は線を対応させて繋ぐ方法、分割画像データの位置情報に基づいて繋ぐ方法を含む。重畳するとは、画像データを重ね合わせることを広く意味する。複数の画像データを重畳する方法としては、重複する画像データを有する領域において、複数の画像データの一部又は全部を重ねる場合を含む。アルファブレンディングとは、2つの画像を係数(α値)により合成することをいう。補間処理により滑らかに繋ぐ方法には、0次補間、線形補間、高次補間で処理することを含む。画像を滑らかに繋ぐためには、高次補間で処理することが好ましい。
表示データ生成部1410では、ユーザー指示入力部1407および表示装置情報取得部1408で取得した情報に基づいて、優先度指定部1409が指定した分割画像データの優先指示と合わせて表示用の画像データが生成される。
表示画像選択部1405では、合成画像生成部1404で生成された合成画像データと、表示データ生成部1410で生成された分割画像データを合成処理することなく優先度に基づき並べて生成された表示用の画像データの内、いずれを表示するかが選択される。選択された表示用の画像データは、表示データ出力部1406を介して、表示画像データとして外部のモニター等に送られる。
(画像データの生成)
本発明の画像処理装置における画像データの生成の流れを図15のフローチャートを用いて説明する。
本発明の画像処理装置における画像データの生成の流れを図15のフローチャートを用いて説明する。
ステップ1501では、画像表示装置103であるディスプレイの表示エリアのサイズ情報(画面解像度)の他、現在表示されている画像の表示倍率の情報を取得する。表示エリアのサイズ情報は、生成する表示データの領域の大きさを決める際に用いる。表示倍率は、階層画像中から何れかの画像データを選択する際に必要となる情報である。
ステップ1502では、データ入力部1401で取り込まれて記憶保持部1402に記憶されている複数の分割画像データの中から、表示画像データの生成に必要な分割画像データを取得する。異なる倍率ごとの分割画像データが階層に記憶保持されている場合には、ステップ1501で取得した表示領域情報に基づいて、適切な階層の分割画像データが選択される。また、ステップ1503で行う合成画像の生成に必要な分割画像データを取得する。
ステップ1503では、分割画像データのデータ間で合成処理をして、合成画像データを生成する。
ステップ1504では、表示画面の変更に伴う分割画像データ間の重複領域の優先度変更が必要か判断する。優先度の変更が無い場合にはスッテップ1506へ進み、優先度の変更がある場合にはステップ1505に進む。
ステップ1505では、複数の分割画像データ間の重複領域について、条件またはユーザー指示に従い、重複領域選択の優先度を変更する。分割画像データの優先度変更は、第1の実施形態のように外部からの指示によるものでも、第2の実施形態のように予め規定した条件に基づいて行っても良い。
ステップ1506では、複数の分割画像データ間の重複領域について、初期条件、もしくは現在の優先度が設定される。
ステップ1507では、規定された優先度に基づいて、画像表示装置103に表示用の画像データが生成される。ここで生成された表示用の画像データは、重複領域の表示優先度をもとに生成された分割画像データを並べた画像データである。
ステップ1508では、表示用の画像データとして、ステップ1503で生成された合成画像と、ステップ1507で生成された優先度規定の表示画像の内、何れの表示画像データを選択するかを判断する。表示用の画像データとして合成画像データを選択する場合はステップ1510に、これまで説明してきた優先度に基づき境界位置を変更し、分割画像データを並べた表示用の画像データを選択する場合はステップ1509に進む。
ステップ1509では、画像表示装置103に表示させる画像データとして、ステップ1507で生成された分割画像データを選択して生成した表示用の画像データが選択される。
ステップ1510では、画像表示装置103に表示させる画像データとして、ステップ1503で生成された合成画像データが選択される。
ステップ1511では、スッテップ1509または1510で選択された表示用の画像データが、画像表示装置103に対して出力される。
本実施の形態では、分割画像データを選択して生成した表示用の画像データと、分割画像データをつなぎ合わせた合成画像の表示データとを用途に応じて選択して表示することで、低倍表示時の画面スクロールおよび表示倍率変更をスムーズに行うことができるとともに、高倍時には分割画像データ間の境界部分の画像に基づく意図しない診断を防止することができる。
[その他の実施形態]
本発明の目的は、以下によって達成されてもよい。すなわち、前述した実施形態の機能の全部または一部を実現するソフトウェアのプログラムコードを記録した記録媒体(または記憶媒体)を、システムあるいは装置に供給する。そして、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムコードを読み出し実行する。この場合、記録媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記録した記録媒体は本発明を構成することになる。
本発明の目的は、以下によって達成されてもよい。すなわち、前述した実施形態の機能の全部または一部を実現するソフトウェアのプログラムコードを記録した記録媒体(または記憶媒体)を、システムあるいは装置に供給する。そして、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムコードを読み出し実行する。この場合、記録媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記録した記録媒体は本発明を構成することになる。
また、コンピュータが、読み出したプログラムコードを実行することにより、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが、実際の処理の一部または全部を行う。その処理によって前述した実施形態の機能が実現される場合も本発明に含まれ得る。
さらに、記録媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれたとする。その後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も本発明に含まれ得る。
本発明を上記記録媒体に適用する場合、その記録媒体には、先に説明したフローチャートに対応するプログラムコードが格納されることになる。
また、第1から第3の実施形態で説明してきた構成をお互いに組み合わせることもできる。例えば、画像処理装置が撮像装置と画像サーバーの両方に接続されており、処理に用いる画像をいずれの装置から取得できるような構成にしてもよい。その他、上記各実施形態における様々な技術を適宜組み合わせることで得られる構成も本発明の範疇に属する。
本発明は上記実施の形態に制限されるものではなく、本発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、本発明の範囲を公にするために以下の請求項を添付する。
本願は、2011年12月27日提出の日本国特許出願特願2011-286786、および2012年12月26日提出の日本国特許出願特願2012-282782を基礎として優先権を主張するものであり、その記載内容の全てをここに援用する。
101 撮像装置
102 画像処理装置
103 画像表示装置
303 分割画像取得部
304 表示データ生成部
306 ユーザー指示入力部
307 優先度指示部
1003 分割画像データ取得部
1004 表示データ生成部
1007 優先度指定部
1403 分割画像データ取得部
1404 合成画像生成部
1405 表示画像選択部
1409 優先度指定部
1410 表示データ生成部
102 画像処理装置
103 画像表示装置
303 分割画像取得部
304 表示データ生成部
306 ユーザー指示入力部
307 優先度指示部
1003 分割画像データ取得部
1004 表示データ生成部
1007 優先度指定部
1403 分割画像データ取得部
1404 合成画像生成部
1405 表示画像選択部
1409 優先度指定部
1410 表示データ生成部
Claims (11)
- 撮像範囲が互いに重複領域を有するように撮像された、
撮影対象の分割画像データに基づいて前記撮影対象の表示用の画像データを生成する画像処理装置であって、
前記複数の分割画像データを取得する画像データ取得部と、
前記重複領域について、予め設定された条件に基づいて前記複数の分割画像データから
表示させる画像データを自動で選択する画像データ選択部と、
前記重複領域を、前記画像データ選択部で選択された前記分割画像データを用いて
画像表示装置に表示させる表示制御部と、
を有することを特徴とする画像処理装置。 - 前記予め設定された条件は、画像表示装置に表示させる前記分割画像データの境界位置の変化に基づくものであることを特徴とする請求項1に記載の画像処理装置。
- 前記予め設定された条件は、画像表示装置に表示させる前記分割画像データの表示されている割合の変化に基づくことを特徴とする請求項1に記載の画像処理装置。
- 前記画像処理装置は、
バーチャルスライドシステムに用いることを特徴とする請求項1に記載の画像処理装置。 - 前記画像データ選択部は、外部から入力されたユーザーからの指示によっても前記分割画像データを選択できることを特徴とする請求項1又は4に記載の画像処理装置。
- 前記画像処理装置は、前記重複領域について、
前記複数の分割画像データから表示させる画像データを選択して生成された撮影対象の画像データと、前記複数の分割画像を合成して生成された撮影対象の合成画像データと、のいずれかを表示させるべく切り替える切り替え部を更に有することを特徴とする請求項1乃至5のいずれか一項に記載の画像処理装置。 - 少なくとも、画像処理装置と画像表示装置を有する画像表示システムにおいて、
前記画像処理装置は、請求項1乃至6のいずれか一項に記載の画像処理装置であって、
前記画像表示装置は、前記画像処理装置から送られてくる撮影対象の画像データに基づいて、分割画像を選択して表示することを特徴とする画像表示システム。 - [規則91に基づく訂正 25.02.2014]
前記画像表示システムは、表示されている前記分割画像の境界を表示することを特徴とする請求項7に記載の画像表示システム。 - [規則91に基づく訂正 25.02.2014]
撮像範囲が互いに重複領域を有するように撮像された撮影対象の分割画像データを取得する画像データ取得工程と、
前記重複領域について、前記複数の分割画像データから予め設定された条件に基づいて
表示させる画像データを自動で選択する画像データ選択工程と、
前記重複領域で、前記画像データ生成工程で選択された前記分割画像データを用いて
前記撮影対象の画像データを生成する表示画像データ生成工程と、
を有することを特徴とする画像処理方法。 - [規則91に基づく訂正 25.02.2014]
撮像範囲が互いに重複領域を有するように撮像された、撮影対象の分割画像データを取得する画像データ取得ステップと、
前記重複領域について、前記複数の分割画像データから予め設定された条件に基づいて
表示させる画像データを選択する画像データ選択ステップと、
前記重複領域で、前記画像データ選択ステップで選択された前記分割画像データを用いて
前記撮影対象の画像データを生成する表示画像データ生成ステップと、
をコンピュータに実行させることを特徴とするプログラム。 - 請求項10記載のプログラムを記録したコンピュータが読み取り可能な記憶媒体。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201280065019.3A CN104011531A (zh) | 2011-12-27 | 2012-12-27 | 图像处理装置、图像显示系统、图像处理方法以及图像处理程序 |
US13/909,960 US20130265329A1 (en) | 2011-12-27 | 2013-06-04 | Image processing apparatus, image display system, method for processing image, and image processing program |
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011-286786 | 2011-12-27 | ||
JP2011286786 | 2011-12-27 | ||
JP2012-282782 | 2012-12-26 | ||
JP2012282782A JP2013153429A (ja) | 2011-12-27 | 2012-12-26 | 画像処理装置、画像表示システム、画像処理方法および画像処理プログラム |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
US13/909,960 Continuation US20130265329A1 (en) | 2011-12-27 | 2013-06-04 | Image processing apparatus, image display system, method for processing image, and image processing program |
Publications (2)
Publication Number | Publication Date |
---|---|
WO2013100029A1 WO2013100029A1 (ja) | 2013-07-04 |
WO2013100029A9 true WO2013100029A9 (ja) | 2014-05-30 |
Family
ID=48697508
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2012/083831 WO2013100029A1 (ja) | 2011-12-27 | 2012-12-27 | 画像処理装置、画像表示システム、画像処理方法および画像処理プログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US20130265329A1 (ja) |
JP (1) | JP2013153429A (ja) |
CN (1) | CN104011531A (ja) |
WO (1) | WO2013100029A1 (ja) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105513009B (zh) * | 2015-12-23 | 2019-09-24 | 联想(北京)有限公司 | 一种信息处理方法和电子设备 |
CN107645628B (zh) * | 2016-07-21 | 2021-08-06 | 中兴通讯股份有限公司 | 一种信息处理方法及装置 |
CN106530311B (zh) * | 2016-10-25 | 2019-03-08 | 帝麦克斯(苏州)医疗科技有限公司 | 切片图像处理方法及装置 |
JP2018125698A (ja) * | 2017-01-31 | 2018-08-09 | 富士通株式会社 | 符号化処理装置、符号化処理方法、符号化処理プログラム、復号処理装置、復号処理方法、復号処理プログラム、および符号化復号処理方法 |
KR102383134B1 (ko) * | 2017-11-03 | 2022-04-06 | 삼성전자주식회사 | 우선 순위에 기반하여 이미지를 처리하는 전자 장치 및 그 동작 방법 |
JP2020201525A (ja) * | 2019-06-05 | 2020-12-17 | Necソリューションイノベータ株式会社 | 画像処理装置、画像処理方法、プログラム、および記録媒体 |
US11776088B2 (en) * | 2020-03-11 | 2023-10-03 | Samsung Electronics Co., Ltd. | Electronic device generating image data and converting the generated image data and operating method of the electronic device |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4769636A (en) * | 1985-08-14 | 1988-09-06 | Hitachi, Ltd. | Display control method for multi-window system |
US20040083085A1 (en) * | 1998-06-01 | 2004-04-29 | Zeineh Jack A. | Integrated virtual slide and live microscope system |
US7623733B2 (en) * | 2002-08-09 | 2009-11-24 | Sharp Kabushiki Kaisha | Image combination device, image combination method, image combination program, and recording medium for combining images having at least partially same background |
JP4280656B2 (ja) * | 2003-06-20 | 2009-06-17 | キヤノン株式会社 | 画像表示装置およびその画像表示方法 |
JP2005164815A (ja) * | 2003-12-01 | 2005-06-23 | Olympus Corp | 光学装置 |
JP4622797B2 (ja) * | 2005-10-11 | 2011-02-02 | パナソニック株式会社 | 画像合成装置及び画像合成方法 |
JP5119587B2 (ja) * | 2005-10-31 | 2013-01-16 | 株式会社デンソー | 車両用表示装置 |
JP2008077501A (ja) * | 2006-09-22 | 2008-04-03 | Olympus Corp | 画像処理装置及び画像処理制御プログラム |
JP5006062B2 (ja) * | 2007-02-05 | 2012-08-22 | オリンパス株式会社 | バーチャルスライド作成装置、バーチャルスライド作成方法およびバーチャルスライド作成プログラム |
JP2009003016A (ja) * | 2007-06-19 | 2009-01-08 | Nikon Corp | 顕微鏡、画像取得システム |
JP4830023B2 (ja) * | 2007-09-25 | 2011-12-07 | 富士通株式会社 | 画像合成装置及び方法 |
CN102638665A (zh) * | 2011-02-14 | 2012-08-15 | 富泰华工业(深圳)有限公司 | 具有互动功能的投影装置及投影方法 |
-
2012
- 2012-12-26 JP JP2012282782A patent/JP2013153429A/ja active Pending
- 2012-12-27 CN CN201280065019.3A patent/CN104011531A/zh active Pending
- 2012-12-27 WO PCT/JP2012/083831 patent/WO2013100029A1/ja active Application Filing
-
2013
- 2013-06-04 US US13/909,960 patent/US20130265329A1/en not_active Abandoned
Also Published As
Publication number | Publication date |
---|---|
WO2013100029A1 (ja) | 2013-07-04 |
US20130265329A1 (en) | 2013-10-10 |
CN104011531A (zh) | 2014-08-27 |
JP2013153429A (ja) | 2013-08-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5350532B2 (ja) | 画像処理装置、画像表示システム、画像処理方法および画像処理プログラム | |
US20200050655A1 (en) | Image processing apparatus, control method for the same, image processing system, and program | |
US8947519B2 (en) | Image processing apparatus, image processing system, image processing method, and image processing program | |
JP6091137B2 (ja) | 画像処理装置、画像処理システム、画像処理方法およびプログラム | |
WO2013100029A9 (ja) | 画像処理装置、画像表示システム、画像処理方法および画像処理プログラム | |
US20140015933A1 (en) | Image processing apparatus, imaging system, and image processing system | |
US20140184778A1 (en) | Image processing apparatus, control method for the same, image processing system, and program | |
WO2013099141A1 (en) | Image processing apparatus and system, method for processing image, and program | |
US20130265322A1 (en) | Image processing apparatus, image processing system, image processing method, and image processing program | |
US20160042122A1 (en) | Image processing method and image processing apparatus | |
JP2013200640A (ja) | 画像処理装置、画像処理システム、画像処理方法、およびプログラム | |
US20130162805A1 (en) | Image processing apparatus, image processing system, image processing method, and program for processing a virtual slide image | |
JP2016038542A (ja) | 画像処理方法および画像処理装置 | |
JP6338730B2 (ja) | 表示データを生成する装置、方法、及びプログラム | |
JP2013250400A (ja) | 画像処理装置、画像処理方法、および画像処理プログラム | |
JP2013250574A (ja) | 画像処理装置、画像表示システム、画像処理方法および画像処理プログラム | |
JP2016038541A (ja) | 画像処理方法および画像処理装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 12861422 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 12861422 Country of ref document: EP Kind code of ref document: A1 |