[go: up one dir, main page]

WO2018012080A1 - 画像処理装置、画像処理方法、プログラム及び手術用ナビゲーションシステム - Google Patents

画像処理装置、画像処理方法、プログラム及び手術用ナビゲーションシステム Download PDF

Info

Publication number
WO2018012080A1
WO2018012080A1 PCT/JP2017/016163 JP2017016163W WO2018012080A1 WO 2018012080 A1 WO2018012080 A1 WO 2018012080A1 JP 2017016163 W JP2017016163 W JP 2017016163W WO 2018012080 A1 WO2018012080 A1 WO 2018012080A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
model
unit
brain
image processing
Prior art date
Application number
PCT/JP2017/016163
Other languages
English (en)
French (fr)
Inventor
和田 成司
高橋 康昭
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to JP2018527403A priority Critical patent/JP6883222B2/ja
Priority to US16/314,461 priority patent/US11020202B2/en
Publication of WO2018012080A1 publication Critical patent/WO2018012080A1/ja
Priority to US17/241,542 priority patent/US11707340B2/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus, e.g. for MRI, optical tomography or impedance tomography apparatus; Arrangements of imaging apparatus in a room
    • A61B5/004Features or image-related aspects of imaging apparatus, e.g. for MRI, optical tomography or impedance tomography apparatus; Arrangements of imaging apparatus in a room adapted for image acquisition of a particular organ or body part
    • A61B5/0042Features or image-related aspects of imaging apparatus, e.g. for MRI, optical tomography or impedance tomography apparatus; Arrangements of imaging apparatus in a room adapted for image acquisition of a particular organ or body part for the brain
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4887Locating particular structures in or on the body
    • A61B5/489Blood vessels
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/12Arrangements for detecting or locating foreign bodies
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/50Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
    • A61B6/501Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for diagnosis of the head, e.g. neuroimaging or craniography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/50Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
    • A61B6/504Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for diagnosis of blood vessels, e.g. by angiography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5217Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data extracting a diagnostic or physiological parameter from medical diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/20Surgical microscopes characterised by non-optical aspects
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/08Volume rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/337Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/63ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/50ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods
    • A61B2017/00017Electrical control of surgical instruments
    • A61B2017/00115Electrical control of surgical instruments with audible or visual output
    • A61B2017/00119Electrical control of surgical instruments with audible or visual output alarm; indicating an abnormal situation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/102Modelling of surgical devices, implants or prosthesis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • A61B2034/2057Details of tracking cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2059Mechanical position encoders
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/06Measuring instruments not otherwise provided for
    • A61B2090/061Measuring instruments not otherwise provided for for measuring dimensions, e.g. length
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/30Devices for illuminating a surgical field, the devices having an interrelation with other surgical devices or with a surgical procedure
    • A61B2090/309Devices for illuminating a surgical field, the devices having an interrelation with other surgical devices or with a surgical procedure using white LEDs
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/367Correlation of different images or relation of image positions in respect to the body creating a 3D dataset from 2D images using position information
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/371Surgical systems with images on a monitor during operation with simultaneous use of two cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/373Surgical systems with images on a monitor during operation using light, e.g. by using optical scanners
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/374NMR or MRI
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • A61B2090/3762Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy using computed tomography systems [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2576/00Medical imaging apparatus involving image processing or analysis
    • A61B2576/02Medical imaging apparatus involving image processing or analysis specially adapted for a particular organ or body part
    • A61B2576/026Medical imaging apparatus involving image processing or analysis specially adapted for a particular organ or body part for the brain
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0071Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence by measuring fluorescence emission
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient; User input means
    • A61B5/742Details of notification to user or communication with user or patient; User input means using visual displays
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient; User input means
    • A61B5/746Alarms related to a physiological condition, e.g. details of setting alarm thresholds or avoiding false alarms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5205Devices using data or image processing specially adapted for radiation diagnosis involving processing of raw data to produce diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/20Surgical microscopes characterised by non-optical aspects
    • A61B90/25Supports therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10056Microscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10088Magnetic resonance imaging [MRI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30016Brain
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30101Blood vessel; Artery; Vein; Vascular

Definitions

  • the present disclosure relates to an image processing device, an image processing method, a program, and a surgical navigation system.
  • Surgical navigation systems have been developed that assist the surgeon by presenting the positional relationship between the surgical site and the treatment tool of the patient to the surgeon.
  • a 3D model of a living tissue is generated from a tomographic image of the living tissue including a surgical site of a patient acquired before surgery.
  • a three-dimensional position of the biological tissue and the treatment tool is detected, and a navigation image with a display indicating the position of the treatment tool with respect to the 3D model is displayed, for example, in an operating room Display on the device.
  • the surgeon grasps, from the navigation image, the distance between the surgical site and the treatment tool, the distance between the dangerous part that should avoid contact with the treatment tool in the living tissue, and the treatment tool. Therefore, the operation can be performed more smoothly, so that the operation can be performed more smoothly and the convenience for the operator can be improved.
  • the position and shape of the actual tissue of the patient at the time of surgery may have changed from that before surgery due to changes in the patient's body position, the effects of procedures such as laparotomy and craniotomy associated with surgery. That is, the position and shape of the patient's living tissue at the time of surgery do not necessarily match the 3D model generated based on information acquired before the surgery.
  • the technique described in Patent Document 1 does not reflect the accurate position and shape of the living tissue according to the current state in the navigation image, and accurately displays the positional relationship between the living tissue and the treatment instrument. Will not be. Therefore, proper navigation cannot be performed, and there is a risk that the convenience for the surgeon may be reduced.
  • the present disclosure proposes a new and improved image processing apparatus, image processing method, program, and surgical navigation system that can further improve user convenience.
  • a predetermined pattern on a surface of a 3D model of a biological tissue including an operation part generated based on a preoperative diagnostic image, and the surface of the biological tissue included in a captured image during surgery
  • a matching unit that performs a matching process with the predetermined pattern, information about a result of the matching process, and information on a three-dimensional position of an imaging region that is an area captured during surgery on the surface of the biological tissue;
  • a shift amount estimation unit that estimates a deformation amount of the living tissue from a preoperative state, and updates the 3D model generated preoperatively based on the estimated deformation amount of the living tissue.
  • a 3D model update unit is
  • the processor includes a predetermined pattern on the surface of the 3D model of the biological tissue including the surgical site generated based on the preoperative diagnostic image and the captured image during the operation.
  • Matching processing with a predetermined pattern on the surface of the biological tissue, the result of the matching processing, and the three-dimensional position of the imaging region that is the region being imaged during surgery on the surface of the biological tissue And estimating the amount of deformation of the living tissue from the preoperative state based on the information, and updating the 3D model generated preoperatively based on the estimated amount of deformation of the living tissue And an image processing method is provided.
  • the computer includes the predetermined pattern on the surface of the 3D model of the biological tissue including the surgical site generated based on the preoperative diagnostic image and the captured image included in the operation.
  • Matching processing with a predetermined pattern on the surface of the biological tissue, the result of the matching processing, and the three-dimensional position of the imaging region that is the region being imaged during surgery on the surface of the biological tissue And estimating the amount of deformation of the living tissue from the preoperative state based on the information, and updating the 3D model generated preoperatively based on the estimated amount of deformation of the living tissue
  • a program for executing the image processing method is provided.
  • a three-dimensional view of a microscope unit that images a living tissue including an operation part of a patient during surgery and acquires a captured image with depth information, and the microscope unit, the patient, and a treatment tool.
  • a position sensor for detecting a position; a display device for displaying a navigation image with a display indicating a position of a treatment tool with respect to the 3D model of the living tissue; and an image processing device for displaying the navigation image on the display device
  • the image processing apparatus includes: a predetermined pattern on the surface of the 3D model generated based on a preoperative diagnostic image; and a surface of the biological tissue included in a captured image during surgery.
  • Imaging that is a region that is imaged during surgery by the microscope unit on the surface of the living tissue, and a matching unit that performs a matching process with a predetermined pattern, a result of the matching process
  • a shift amount estimation unit that estimates the amount of deformation of the living tissue from a preoperative state based on the information about the three-dimensional position of the region, and based on the estimated amount of deformation of the living tissue
  • a 3D model updating unit that updates the generated 3D model
  • a display control unit that displays the navigation image using the updated 3D model on the display device,
  • a surgical navigation system is provided in which information about a position is acquired based on a detection result by the position sensor and depth information of a captured image by the microscope unit.
  • a 3D model of a living tissue including an operation part generated based on information acquired before surgery and a captured image at the time of actual surgery represent patterns on the surface of the 3D model.
  • a matching process is performed between the image and an image representing a pattern on the surface of the biological tissue included in the captured image. And based on the result of the said matching process, the deformation
  • the updated 3D model reflects the position and shape of the actual living tissue at the time of surgery. Therefore, if a navigation image is generated using the updated 3D model, the updated 3D model is more realistic. Thus, an accurate navigation image can be obtained. Therefore, the convenience of the user who performs surgery using the navigation system can be further improved.
  • FIG. 6 is a diagram for explaining a case where a fixed point is set in consideration of the relationship between the brain and the spinal cord or the like when brain subsidence occurs.
  • a user who uses a surgery support system which will be described later, will be described as an operator for convenience.
  • this description does not limit the users who use the surgery support system, and the subject using the surgery support system may be another medical staff such as an assistant or a nurse.
  • the three-dimensional positions of the microscope unit, the patient, and the treatment tool are detected by the position sensor, and based on the detection result, a display indicating the region corresponding to the current field of view of the microscope unit is displayed on the 3D model
  • a navigation image with a display indicating the position of the treatment tool is displayed on a display device installed in the operating room.
  • the surgical site may be difficult to distinguish from other normal tissues in appearance.
  • the operator can indicate the positional relationship between the surgical site and the treatment tool on the navigation image that is difficult to identify with the naked eye. This is very useful.
  • the position of the blood vessel inside the brain can be reflected in the 3D model, the positional relationship between the blood vessel and the treatment tool can be displayed on the navigation image. Therefore, for example, when the operator cuts the brain to expose the surgical site, the risk of damaging a blood vessel by mistake can be reduced by referring to the navigation image.
  • the brain which is usually kept in shape by the skull and cerebrospinal fluid, loses its support by opening the head and changes its shape, so-called brain shift occurs. It has been known.
  • a brain shift occurs, the 3D model generated based on the information obtained before surgery and the shape of the brain at the time of actual surgery differ, so a 3D model that accurately reflects the brain in the navigation image is created. It will not be displayed. Therefore, the positional relationship between the surgical part and the treatment tool and the positional relationship between the blood vessel and the treatment tool as described above are not accurately represented in the navigation image, and it is difficult to perform appropriate navigation.
  • CT imaging or MRI imaging (so-called intraoperative CT imaging or intraoperative MRI imaging) is performed during surgery, and 3D displayed on the navigation image based on the obtained diagnostic image.
  • Techniques for updating the model have been proposed. According to this method, since the 3D model reflecting the brain shape after the brain shift is displayed on the navigation image, navigation according to the actual situation can be performed.
  • FIG. 1 is a block diagram illustrating an example of a configuration of a surgical navigation system according to the present embodiment.
  • a surgical navigation system 10 includes a microscope unit 110, a display device 120, a position sensor 130, and an image processing device 140.
  • the microscope unit 110 is a means for magnifying and observing the surgical site.
  • the microscope unit 110 is configured by storing an imaging element and an optical system for guiding light (observation light) from an observation target in the imaging element.
  • the imaging element receives the observation light and photoelectrically converts it to generate a signal corresponding to the observation light, that is, an image signal corresponding to the observation image.
  • the microscope unit 110 is an electronic imaging type microscope unit that electronically captures an image.
  • the microscope unit 110 is configured to be able to take an image including depth information.
  • the microscope unit 110 has an AF (Auto Focus) function, and the microscope unit 110 acquires depth information on a position in focus within the angle of view based on information on the focal length. be able to.
  • AF Auto Focus
  • the microscope unit 110 In brain surgery, a part of the patient's skull is opened, and the surface of the brain exposed from the opened head is photographed by the microscope unit 110.
  • the microscope unit 110 outputs an image signal related to the acquired captured image, that is, information about the captured image, to the image processing device 140 (specifically, a matching unit 142 and a brain shift amount estimation unit 143 of the image processing device 140 described later). And the display control unit 145).
  • the microscope unit 110 obtains depth information based on the focal length, but the present embodiment is not limited to this example.
  • the microscope unit 110 may be any configuration as long as it can capture a captured image to which depth information is added.
  • a distance measuring sensor may be provided in the microscope unit 110.
  • various known sensors such as a time-of-flight type or a laser scanning type may be used. According to this method, the three-dimensional position of the brain surface blood vessel can be measured more accurately than when the focal length is used.
  • the microscope unit 110 may be configured as a stereo camera, and depth information may be obtained based on the parallax information.
  • the configuration of the microscope unit 110 becomes complicated. Therefore, in order to obtain depth information more easily, the above-described method using the focal length is preferable. .
  • the microscope unit 110 can be supported by the arm unit.
  • an actuator is provided in each joint portion of the arm unit, and by driving the actuator, the posture of the arm unit can be controlled, and the position and posture of the microscope unit 110 can be controlled.
  • a specific configuration of the support arm device (observation device) that supports the microscope unit 110 will be described below (4. Configuration example of the observation device).
  • the display device 120 is installed at a position where it can be visually recognized by the operator in the operating room. Under the control of the image processing device 140, the display device 120 displays a captured image of the surgical part taken by the microscope unit 110. The surgeon performs various treatments on the surgical site while observing the surgical site with the captured image displayed on the display device 120.
  • a navigation image with a display indicating the current position of the treatment tool with respect to the 3D model of the brain is displayed on the display device 120 under the control of the image processing device 140.
  • the surgeon determines the positional relationship between the brain and the treatment tool (specifically, the positional relationship between the blood vessel and the treatment tool, and the positional relationship between the surgical site and the treatment tool) by the navigation image displayed on the display device 120. Operate while grasping. The details of the navigation image will be described later with reference to FIGS.
  • the specific configuration of the display device 120 is not limited, and as the display device 120, various known display devices such as a liquid crystal display device or an EL (Electro Luminescence) display device may be applied.
  • various known display devices such as a liquid crystal display device or an EL (Electro Luminescence) display device may be applied.
  • the surgical navigation system 10 may be provided with a plurality of display devices 120.
  • the captured image and the navigation image of the surgical site can be displayed on separate display devices 120, respectively.
  • the display screen of the display device 120 can be divided into two, and an operation part image and a navigation image can be displayed in those areas, respectively.
  • the position sensor 130 detects the three-dimensional positions of the patient's head, the microscope unit 110, and the treatment tool.
  • FIG. 2 is a diagram for explaining the function of the position sensor 130.
  • FIG. 2 schematically shows a positional relationship among the patient 201, the microscope unit 110, the treatment tool 205, and the position sensor 130 at the time of surgery.
  • markers 203 and 207 are attached to the microscope unit 110 and the treatment instrument 205, respectively.
  • the marker 211 is also attached to the head of the patient 201 via the support member 209.
  • the position sensor 130 is configured as a stereo camera, and based on the captured image, the three-dimensional positions of the markers 203, 207, and 211, that is, the three-dimensional positions of the head of the patient 201, the microscope unit 110, and the treatment tool 205. Can be detected.
  • the position sensor 130 uses the detected information about the three-dimensional positions of the head of the patient 201, the microscope unit 110, and the treatment tool 205 to the image processing device 140 (specifically, a matching unit 142 of the image processing device 140 described later). To the brain shift amount estimation unit 143 and the display control unit 145).
  • the configuration of the position sensor 130 is not limited to this example, and various known sensors that can detect the three-dimensional position of the object may be used as the position sensor 130.
  • the markers 203, 207, and 211 may be magnets, and a magnetic sensor may be used as the position sensor 130.
  • the image processing device 140 controls various displays in the surgical navigation system 10.
  • the image processing apparatus 140 includes a 3D model generation unit 141, a matching unit 142, a brain shift amount estimation unit 143, a 3D model update unit 144, and a display control unit 145 as functions thereof.
  • the image processing apparatus 140 includes, for example, a processor such as a CPU (Central Processing Unit) and a GPU (Graphics Processing Unit), a control board on which a processor and a storage element such as a memory are mounted, or a PC (Personal) on which the processor is mounted. It can be a general information processing apparatus such as Computer.
  • Each of the functions described above can be realized by the processor configuring the image processing apparatus 140 executing arithmetic processing according to a predetermined program.
  • diagnostic images of the patient's brain are taken before the operation, and information about the diagnostic images is managed so as to be accessible by the image processing device 140.
  • the 3D model generation unit 141 generates a 3D model of the brain based on the diagnostic image acquired before the operation.
  • the diagnostic image for generating the 3D model any image that is generally used at the time of diagnosis may be applied.
  • the 3D model of the brain generated by the 3D model generation unit 141 is used for the navigation image. Therefore, the diagnostic image is preferably an image (that is, a disease-weighted image) in which the surgical site is clearly represented so that the position of the surgical site can be shown on the 3D model.
  • an image (blood vessel pattern image) representing a blood vessel pattern is extracted from the 3D model and used for matching processing of the blood vessel pattern image. .
  • the diagnostic image is preferably an image in which the shape of the blood vessel is clearly represented (that is, a blood vessel emphasized image).
  • one or a plurality of diagnostic images may be used for generating the 3D model.
  • the diagnostic image an image taken by MRI, MRA (Magnetic Resonance Angiography), 3D-CTA (CT Angiography), 3D-DSA (Digital Subtraction Angiography), SPECT (Single Photon Emission CT) or the like is used. obtain.
  • the 3D model generation unit 141 uses a technique such as volume rendering (VR), surface rendering (SR), etc., following the continuity of the tomographic image for each composition obtained by each method such as MRI, for each composition.
  • a 3D model is generated by using the 3D model. Since the 3D model generation process by the 3D model generation unit 141 may be performed using various known methods, detailed description thereof is omitted here.
  • the 3D model generation unit 141 provides information about the generated 3D model of the brain to the matching unit 142 and the 3D model update unit 144.
  • the matching unit 142 captures an image representing a blood vessel pattern on the brain surface included in the 3D model of the brain generated by the 3D model generating unit 141 (hereinafter also referred to as a preoperative blood vessel pattern image), and is photographed by the microscope unit 110 during the operation.
  • the three-dimensional position of the surface of the brain during the operation is calculated by matching feature points of the image representing the blood vessel pattern on the brain surface (hereinafter also referred to as an intraoperative blood vessel pattern image).
  • the matching unit 142 first specifies the imaging direction and the craniotomy position of the microscope unit 110 based on the information about the three-dimensional position of the head of the patient 201 and the microscope unit 110 provided from the position sensor 130. To do. Next, the matching unit 142 extracts the brain surface blood vessels from the 3D model of the brain generated by the 3D model generation unit 141, and projects the brain surface blood vessels from the imaging direction of the microscope unit 110 at the identified cranial position.
  • a preoperative blood vessel pattern image is generated by generating a dimensional image.
  • FIG. 3 is a diagram illustrating an example of a preoperative blood vessel pattern image. As described above, by using a blood vessel enhancement image as a diagnostic image for generating a 3D model of the brain, this preoperative blood vessel pattern image can be clearly generated.
  • FIG. 4 is a diagram illustrating an example of an intraoperative blood vessel pattern image.
  • the matching unit 142 performs a feature point matching process between the generated preoperative blood vessel pattern image and the intraoperative blood vessel pattern image.
  • Various known methods such as FAST, FASTX, STAR, SIFT, SURF, ORB, BRISK, MSER, GFTT, HARRIS, Dense, SimpleBlob, and SmartAR (registered trademark) can be used for feature point matching processing, for example. .
  • feature points for example, branch points X of blood vessels 213 and 215 and bent portions Y of blood vessels as shown in FIGS. 3 and 4
  • branch points X of blood vessels 213 and 215 and bent portions Y of blood vessels as shown in FIGS. 3 and 4 are automatically obtained from two images, and matching between them is performed. Can be evaluated by the degree of coincidence.
  • the reflection of the light becomes a thin streak shape. Therefore, in the blood vessel pattern image photographed by the microscope unit 110, one blood vessel is The center may not be projected and the single blood vessel may be recognized as if it were broken into two muscles. In that case, in various known matching processes as described above, a synthesis process that regards this as a single blood vessel can be performed by image processing. However, since the blood vessel has a complicated curved shape and the light reflection direction is not uniform, the recognized streak portion does not necessarily have a form that borders the blood vessel. Due to the above synthesis processing, blood vessels that should have been connected may be recognized as being interrupted.
  • the matching unit 142 determines matching between the dotted intraoperative blood vessel pattern image and the preoperative blood vessel pattern image by the solid line from the respective vector directions and arrangement patterns.
  • the matching unit 142 provides information about the matching result (that is, information about the identified region of the surface of the 3D model of the brain corresponding to the imaging region at the time of actual surgery) to the brain shift amount estimation unit 143. .
  • an image extracted from an image captured by the microscope unit 110 that is, an image with visible light is used as the intraoperative blood vessel pattern image.
  • the present embodiment is not limited to this example.
  • the intraoperative blood vessel pattern image for example, an image obtained by emphasizing blood vessels such as ICG (indocyanine green) fluorescent angiography may be used.
  • the microscope unit 110 has a function of performing fluorescence imaging, and an ICG fluorescence image of a blood vessel can be acquired by the microscope unit 110.
  • the brain shift amount estimation unit 143 estimates the amount of brain deformation accompanying craniotomy from the preoperative state based on the result of the matching process by the matching unit 142.
  • the brain shift amount estimation unit 143 estimates the amount of brain deformation using the finite element method (FEM).
  • FEM finite element method
  • the brain shift amount estimation unit 143 first generates a FEM calculation model by defining a three-dimensional mesh at each vertex of the voxel of the 3D model of the brain generated by the 3D model generation unit 141. To do.
  • FIG. 5 is a diagram illustrating an example of an FEM calculation model.
  • the FEM calculation model 217 is generated by setting a regular tetrahedral mesh 219 for the 3D model of the brain.
  • the brain shift amount estimation unit 143 sets initial conditions and boundary conditions for FEM calculation. First, initial conditions will be described. Specifically, the brain shift amount estimation unit 143 sets, as an initial condition, the amount of brain displacement from preoperatively in the craniotomy based on the result of the matching process by the matching unit 142.
  • the brain shift amount estimation unit 143 deforms the brain based on the result of the matching process and the information about the three-dimensional position of the head of the patient 201 provided from the position sensor 130. If it is assumed that the three-dimensional coordinates of the region corresponding to the imaging region in the surface of the 3D model of the brain are assumed, the three-dimensional coordinates corresponding to the current posture of the patient 201 are calculated. That is, the three-dimensional coordinates are the three-dimensional coordinates of each mesh in the region corresponding to the imaging region in the surface of the calculation model 217 when it is assumed that the brain is not deformed.
  • the brain shift amount estimation unit 143 is included in the information about the three-dimensional position of the head of the patient 201 and the microscope unit 110 provided from the position sensor 130 and the information about the captured image provided from the microscope unit 110. Based on the depth information, the three-dimensional coordinates of the actual brain surface in the imaging region are calculated.
  • the difference between these three-dimensional coordinates is the amount of brain displacement in the imaging region, that is, the amount of brain displacement in the open head.
  • the brain shift amount estimation unit 143 calculates the difference so as to determine the amount of brain displacement in the head opening, and the state where the mesh at the position corresponding to the head opening of the calculation model 217 is moved by the amount of the displacement, This is the initial condition for FEM calculation.
  • FIG. 6 is a diagram for explaining brain swelling.
  • FIG. 7 is a diagram for explaining brain subsidence. 6 and 7 schematically show a cross section of the brain 221 at the midline.
  • the brain shift amount estimation unit 143 determines the displacement of the mesh located at the open head 223 among the meshes located on the surface of the calculation model 217 in each mesh. Expressed by extending the distance between points.
  • the brain shift amount estimation unit 143 determines the displacement of the mesh positioned at the open head 223 among the meshes positioned on the surface of the calculation model 217 as these meshes. This is expressed by reducing the distance between each point.
  • the brain shift amount estimation unit 143 sets, as a boundary condition, a mesh that is in contact with the skull, dura mater, or the like that cannot physically move from an anatomical viewpoint as a fixed point with respect to the calculation model 217. .
  • the specific content of the boundary condition varies depending on the above-described brain shift mode (swelling or settlement).
  • the brain shift amount estimation unit 143 sets, as a boundary condition, a mesh located in a region other than the head opening 223 among meshes located on the surface of the calculation model 217 as a fixed point that is not deformed.
  • a region corresponding to a mesh treated as a fixed point on the surface of the brain 221 is schematically shown by a thick line.
  • the brain shift amount estimation unit 143 uses, as a boundary condition, a mesh positioned below the contact point with the vertical plane among the meshes positioned on the surface of the calculation model 217 as a fixed point that does not deform. Set.
  • a region corresponding to a mesh treated as a fixed point on the surface of the brain 221 is schematically shown by a thick line.
  • FIG. 8 is a diagram schematically showing the state of the human skull base.
  • FIG. 8 schematically shows a state in which the human skull cavity is cut in the horizontal direction and the skull base is viewed from above. The upper part of the paper hits the front.
  • the skull base 225 includes, for example, a large occipital hole 227 through which the spinal cord passes, a rupture hole 229 through which the carotid artery passes, and the like. Since the spinal cord, the carotid artery, and the like and the surrounding brain tissue are connected by a connective tissue, a portion of the brain 221 that is connected to the spinal cord or the like can be regarded as a fixed point that does not deform. Therefore, the brain shift amount estimation unit 143 is opposed to the hole through which the spinal cord or the like is inserted in the mesh constituting the calculation model 217 in addition to the mesh positioned below the contact point with the vertical plane as a boundary condition. You may set as a fixed point which does not deform
  • FIG. 9 is a diagram for explaining a case where a fixed point is set in consideration of the relationship between the brain 221 and the spinal cord or the like when the brain 221 is subsidized.
  • FIG. 9 schematically shows a cross section taken along the midline of the brain 221 as in FIGS. 6 and 7.
  • a region corresponding to a mesh treated as a fixed point on the surface of the brain 221 is schematically shown by a thick line.
  • the mesh positioned below the contact point with the vertical surface (simulated by a dotted line in FIG. 9) of the outer surface of the brain 221 is deformed. Not treated as a fixed point.
  • a fixing point 231 that is a point fixed by being connected to the spinal cord or the like on the surface of the brain 221 is added.
  • the mesh located between the fixed point 231 and the contact point between the outer peripheral surface of the brain 221 and the vertical surface described above is also handled as the fixed point. In this way, by setting the fixed point from an anatomical viewpoint in consideration of the shape of the skull and the like, it is possible to set a boundary condition that is more realistic.
  • the brain shift amount estimation unit 143 calculates the deformation amount of the entire calculation model 217, that is, the brain shift amount by FEM.
  • the brain 221 is treated as an elastic body, and the deformation amount of the calculation model 217 is calculated under the initial condition and the boundary condition using a stress-strain relational expression for the elastic body.
  • the Young's modulus and Poisson's ratio the physical property values of the brain 221 obtained from various documents may be used. Since the FEM calculation may be performed by various known methods, description of specific processing in the FEM calculation is omitted.
  • the brain shift amount estimation unit 143 opens the head based on the result of the matching process by the matching unit 142 and information on the head of the patient 201 and the three-dimensional position of the microscope unit 110 provided from the position sensor 130.
  • the three-dimensional movement amount of the brain surface blood vessel in 223 is calculated in advance. In the FEM calculation, the calculation after deformation is performed so that the difference between the calculated three-dimensional movement amount of the brain surface blood vessels in the open head 223 and the movement amount of the mesh located in the open head 223 is minimized.
  • the shape of the model 217 is obtained.
  • the displacement amount of each mesh 219 of the calculation model 217 in this state becomes the movement amount of each voxel of the 3D model of the brain 221, that is, the brain shift amount of the brain 221.
  • the brain shift amount estimation unit 143 provides the 3D model update unit 144 with information about the obtained brain shift amount, that is, information about the movement amount of each voxel of the 3D model of the brain 221.
  • the 3D model update unit 144 updates the 3D model of the brain 221 generated by the 3D model generation unit 141 based on the information about the brain shift amount obtained by the brain shift amount estimation unit 143. Specifically, the 3D model update unit 144 deforms the 3D model by moving each voxel of the 3D model of the brain 221 by an amount corresponding to the brain shift amount obtained by the brain shift amount estimation unit 143. Let As a result, a 3D model that reflects the brain shift and more accurately represents the actual state of the actual brain 221 of the current patient 201 is generated.
  • the 3D model update unit 144 provides information about the updated 3D model of the brain 221 to the display control unit 145.
  • the display control unit 145 controls the driving of the display device 120 and causes the display device 120 to display a captured image of the surgical site by the microscope unit 110. Further, the display control unit 145 controls the driving of the display device 120, and a display indicating the position of the treatment tool 205 with respect to the 3D model of the brain 221 updated by the 3D model update unit 144 is attached to the display device 120.
  • the displayed navigation image is displayed. As described above, the captured image and the navigation image may be displayed on the same display device 120, or may be displayed on different display devices 120, respectively.
  • the “display indicating the position of the treatment tool 205” may be an icon indicating the treatment tool 205 or an actual image of the treatment tool 205 photographed by the microscope unit 110.
  • the navigation image may be obtained by synthesizing the icon indicating the treatment tool 205 with the 3D model of the brain 221, or by superimposing the actual image of the treatment tool 205 on the 3D model of the brain 221. There may be. Further, in the navigation image, a lesion part to be an operation part may be displayed with emphasis, or a blood vessel or the like that is a dangerous part where contact with the treatment tool should be avoided may be displayed with emphasis.
  • the highlighting is performed, for example, by superimposing and displaying annotation information (including symbols, words, and / or images) on the surgical site or the dangerous part.
  • the annotation information is, for example, given in advance to the 3D model of the brain 221 generated before surgery, and in the highlighting, the annotation information is the brain obtained by the brain shift amount estimation unit 143. Reflecting the shift amount, it is given to the corresponding part of the 3D model of the brain 221 updated by the 3D model updating unit 144.
  • a specific display mode of the navigation image various modes used for a navigation image in a general surgical navigation system can be applied.
  • FIG. 10 is a diagram schematically showing an example of a general existing navigation image in brain surgery.
  • FIG. 11 is a diagram schematically illustrating an example of a navigation image according to the present embodiment in brain surgery. 10 and 11, a photographed image photographed by the microscope unit is shown on the left side in the figure, and a navigation image is shown on the right side in the figure.
  • the existing navigation image since the 3D model of the brain 221 generated based on the diagnostic image acquired before the operation is used as the navigation image as it is, the actual treatment is performed for the brain shift. There is a deviation between the positional relationship between the tool 205 and the blood vessel of the brain 221 and the positional relationship between the icon 233 indicating the treatment tool 205 and the blood vessel of the 3D model 235 of the brain 221 in the navigation image.
  • the 3D model of the brain 221 generated before the operation is updated according to the brain shift amount and used for the navigation image.
  • the positional relationship between the actual treatment tool 205 and the blood vessel of the brain 221 and the positional relationship between the icon 233 indicating the treatment tool 205 in the navigation image and the blood vessel of the 3D model 235 of the brain 221 are in good agreement.
  • the brain shift amount is estimated, and a navigation image is generated using the 3D model of the brain 221 that is updated according to the estimated brain shift amount. Since the navigation image reflects the actual state of the brain 221 of the patient 201 at the time of surgery, in the navigation image, the tissue of the brain 221 (for example, an operation part, a blood vessel, etc.) and the treatment tool 205 are displayed. The positional relationship is displayed more accurately. Therefore, it is possible to provide the operator with more useful information that helps the operation.
  • the brain shift amount is estimated by the depth information included in the captured image of the surface of the brain 221 acquired by the microscope unit 110, the head of the patient 201 detected by the position sensor 130, and the treatment tool 205. And information on the three-dimensional position of the microscope unit 110.
  • Performing surgery while photographing the brain 221 with the microscope unit 110 is generally performed in brain surgery, and detection of the three-dimensional position of the head of the patient 201 and the like by the position sensor 130 is also possible with existing surgery. It is widely used in navigation systems. That is, according to the present embodiment, it is possible to estimate the brain shift amount using existing equipment without newly adding a device or the like. Therefore, a more appropriate navigation image can be obtained more easily.
  • the displacement amount of the three-dimensional position of the brain surface in the open head 223 is set as the initial condition for calculating the brain shift amount.
  • the brain shift amount cannot be obtained with high accuracy only by measuring the displacement amount at one point on the brain surface in the open head 223.
  • the amount of displacement as the “surface” of the brain surface in the open head 223 is obtained, and the brain shift amount is estimated using the amount of displacement.
  • the amount of brain shift can be obtained with higher accuracy. Therefore, a more accurate navigation image that better reflects the actual deformation of the brain 221 can be obtained.
  • the amount of brain shift can change over time during surgery. Therefore, in this embodiment, a series of processes after the blood vessel pattern image matching process described above are repeatedly executed at predetermined intervals (for example, 90 minutes) during the operation. As a result, a navigation image in accordance with the current situation is always displayed, so that a more accurate navigation image can be obtained.
  • the surgical navigation system 10 is provided with a function of issuing a warning when there is a concern that the accuracy of brain shift estimation is low and an appropriate navigation image cannot be obtained.
  • the image processing apparatus 140 further includes a warning control unit 146 as its function.
  • the warning control unit 146 controls driving of the display device 120 and / or another output device (not shown), and issues a warning that an appropriate navigation image cannot be obtained. If the navigation image is already displayed on the display device 120 at present, the warning control unit 146 cancels the display of the navigation image together with the warning (that is, stops the navigation function).
  • the specific mode of the warning is not limited, and the warning may be, for example, a visual and / or audible warning.
  • the warning control unit 146 issues a warning by displaying characters or the like on the display device 120.
  • the output device may be a bell or a speaker, and the warning control unit 146 issues a warning by sound through the bell or the speaker.
  • Judgment processing of whether or not an appropriate navigation image can be obtained can be executed by the matching unit 142.
  • the matching unit 142 performs the above-described matching process, the matching unit 142 also calculates the matching error. Then, it is determined whether or not an appropriate navigation image can be obtained by comparing the matching error with a predetermined threshold value. If the matching error is larger than a predetermined threshold value, the matching process is not properly performed, and there is a high possibility that the estimation accuracy of the brain shift amount performed based on the result of the matching process is also lowered. Therefore, in this case, the matching unit 142 determines that an appropriate navigation image cannot be obtained.
  • the matching unit 142 determines that an appropriate navigation image can be obtained.
  • a three-dimensional movement amount before and after the craniotomy of the brain surface blood vessel used for matching (that is, a movement amount of the brain surface before and after the craniotomy in the head opening 223) is used. It is done.
  • the matching unit 142 opens the head based on the result of the matching process and information on the head of the patient 201 and the three-dimensional position of the microscope unit 110 provided from the position sensor 130.
  • a three-dimensional movement amount of the brain surface blood vessel at 223 is calculated.
  • the amount of brain shift is about 2 to 3 cm. Therefore, the matching unit 142 uses the general brain shift amount as a threshold value, and compares the threshold value with the three-dimensional movement amount of the brain surface blood vessel in the open head 223 to determine the above-described determination. Process.
  • the matching error is not limited to this example, and the matching error may be calculated by various evaluation functions used as an index indicating the error in a general image matching process. Further, a threshold value for determining whether the matching process is appropriately performed may be set as appropriate according to the type of the matching error.
  • the matching unit 142 determines that an appropriate navigation image cannot be obtained as a result of the determination process, the matching unit 142 provides information to that effect to the warning control unit 146.
  • the warning control unit 146 that has acquired the information executes a process for outputting the warning described above.
  • the first factor is a lack of blood vessel information during surgery. If the defect information is insufficient, it is difficult to extract feature points, and there is a concern that matching processing may be performed between other parts having similar feature points.
  • the second factor is a deficiency or significant deformation of the brain 221 as the treatment progresses.
  • a message indicating that blood vessel information should be newly acquired may be issued simultaneously with the warning.
  • a diagnostic image of the patient 201 is newly acquired during the operation in order to supplement the blood vessel information.
  • the 3D model generation unit 141 Based on the newly acquired diagnostic image, the 3D model generation unit 141 generates a 3D model of the brain 221 again.
  • the matching unit 142 uses the newly generated 3D model of the brain 221, the matching unit 142 performs matching processing of the blood vessel pattern image, and the determination processing as to whether or not the above-described appropriate navigation image is obtained is performed again.
  • a brain shift amount estimation process by the brain shift amount estimation unit 143 and a 3D model update process by the 3D model update unit 144 are performed, and a navigation image using the updated 3D model is displayed. Can be displayed. Thus, only when it is determined that an appropriate navigation image can be obtained, a safer operation can be realized by displaying the navigation image.
  • a diagnostic image of the patient 201 during surgery can be acquired by intraoperative MRA imaging and / or intraoperative ICG fluorescence angiography.
  • intraoperative ICG fluorescent angiography it is convenient because imaging can be performed without moving the patient 201 on the patient bed.
  • an angiographic X-ray image is taken, the matching process between the intraoperative blood vessel pattern image and the angiographic X-ray image, and the angiographic X-ray image
  • a preoperative blood vessel pattern image for example, obtained by MRI, CT, etc.
  • the preoperative blood vessel pattern image and the intraoperative blood vessel pattern image are obtained via the angiographic X-ray image.
  • angiographic X-ray imaging is an imaging method widely used for observation of blood vessels and blood flow.
  • a contrast medium is intravenously injected into the patient 201.
  • the target site of the patient 201 is imaged with an X-ray CT apparatus. Thereby, information such as the three-dimensional position of the blood vessel, the blood vessel branching level, the blood flow direction, and the retention of blood can be obtained.
  • a more accurate disease position can be displayed on the navigation image corresponding to the brain shift, which helps the operator to perform an accurate procedure. Further, by evaluating the appropriateness of the navigation image and prompting the navigation to be stopped or updating the 3D model according to the evaluation result, an operation error can be prevented and further safety can be ensured.
  • the object to which the matching unit 142 performs the matching process is a two-dimensional image, but the present embodiment is not limited to such an example.
  • the matching unit 142 includes a 3D model of a brain surface blood vessel extracted from a 3D model of the brain 221 and a 3D model of a brain surface blood vessel extracted using depth information from an image captured by the microscope unit 110.
  • a matching process may be performed.
  • the display control unit 145 displays one or more display devices 120 on the captured image and navigation image of the surgical site taken during the operation by the microscope unit 110.
  • annotation information (including symbols, words, and / or images) may be superimposed on the captured image.
  • annotation information given to a site to be highlighted such as a surgical site or a dangerous site is photographed during surgery as an image of a frame surrounding the site, for example. Is superimposed on the corresponding part of the captured image.
  • the display of the annotation information follows the movement.
  • the annotation information set in the above is not displayed as it is, but can be appropriately displayed according to the display form and state of the corresponding part in the captured image during the operation.
  • the annotation information may include sound.
  • the treatment tool 205 approaches a predetermined area (for example, an area where attention is desired) in the navigation image, the annotation information is output via an output device (not shown). A voice alerting that effect may be issued.
  • the warning control unit 146 can control the display device 120 to appropriately calculate a numerical value serving as an index indicating the degree of the matching error or the matching error.
  • a numerical value or the like serving as an index indicating the reliability of the matching process may be displayed.
  • the matching control unit 146 controls the matching error.
  • Other warnings based on may be displayed on the display device 120.
  • the region where the matching error occurs is concentrated at a specific part in the image, there is a possibility that a lesion with a risk such as vascular rupture or ischemia occurs in the part. Therefore, in such a case, there is a possibility that a frame surrounding the part is displayed in the navigation image on the display device 120 or the captured image taken by the microscope unit 110, or the risk is increased in the part. A word notifying that there may be displayed.
  • the specific apparatus configuration of the image processing apparatus 140 is not limited.
  • the image processing apparatus 140 may be configured to realize the above-described functions, and the specific apparatus configuration may be arbitrary.
  • the image processing apparatus 140 may not be configured as a single apparatus, and may be configured by a plurality of apparatuses.
  • the functions illustrated in blocks in FIG. 1 are distributed and mounted on the plurality of apparatuses, and the plurality of apparatuses can communicate with each other. Are connected to each other and operate in cooperation with each other, functions similar to those of the image processing apparatus 140 can be realized.
  • a computer program for realizing each function of the image processing apparatus 140 shown in FIG. 1 and mount it on a processing apparatus such as a PC.
  • a computer-readable recording medium storing such a computer program can be provided.
  • the recording medium is, for example, a magnetic disk, an optical disk, a magneto-optical disk, a flash memory, or the like.
  • the above computer program may be distributed via a network, for example, without using a recording medium.
  • FIG. 12 is a flowchart showing an example of the processing procedure of the image processing method according to the present embodiment.
  • Each process shown in FIG. 12 corresponds to the process executed by the image processing device 140 of the surgical navigation system 10 shown in FIG. 1 described above. Since the details of each of these processes have already been described when the functional configuration of the surgical navigation system 10 is described, in the description of the processing procedure of the image processing method below, a detailed description of each process is not provided. Omit.
  • step S101 a 3D model of a brain is generated based on a diagnostic image acquired before surgery.
  • the process shown in step S101 corresponds to the process executed by the 3D model generation unit 141 of the image processing apparatus 140 shown in FIG.
  • step S101 can be executed before surgery is started.
  • the surgical setting is performed.
  • the surgical setting may include the delivery of the patient 201 into the operating room, the craniotomy operation for exposing the surgical site, and the arrangement of medical staff and surgical equipment.
  • the processing after step S103 is processing executed during the operation after the setting.
  • the preoperative blood vessel pattern image on the surface of the brain included in the 3D model and the brain included in the captured image captured by the microscope unit 110 are displayed.
  • the intraoperative blood vessel pattern image on the surface is matched (step S103).
  • steps S103 and S105 correspond to the processes executed by the matching unit 142 of the image processing apparatus 140 shown in FIG.
  • step S105 If it is determined in step S105 that the matching error is larger than the threshold value, matching between the preoperative blood vessel pattern image and the intraoperative blood vessel pattern image is not properly performed, and as a result, the brain shift amount is estimated. Cannot be performed accurately, and it is considered that an appropriate navigation image cannot be obtained. In this case, a new diagnostic image is acquired. Then, a 3D model of the brain is generated again based on the newly acquired diagnostic image (step S107). Then, the process returns to step S103, and the blood vessel pattern image matching process is executed again. Prior to the process shown in step S107, a process of displaying a numerical value serving as an index indicating the degree of matching error or a numerical value serving as an index indicating the reliability of the matching process may be performed.
  • the process may proceed to step S109, and if there is an instruction from the surgeon, the process proceeds to step S107 and is newly acquired.
  • a 3D model of the brain may be generated again based on the diagnostic image.
  • step S105 determines whether the matching error is equal to or less than the threshold value. If it is determined in step S105 that the matching error is equal to or less than the threshold value, the process proceeds to step S109.
  • step S109 the brain shift amount is estimated based on the result of the blood vessel pattern image matching process.
  • the process shown in step S109 corresponds to the process executed by the brain shift amount estimation unit 143 of the image processing apparatus 140 shown in FIG.
  • step S111 the 3D model of the brain is updated based on the estimated brain shift amount.
  • the process shown in step S111 corresponds to the process executed by the 3D model update unit 144 of the image processing apparatus 140 shown in FIG.
  • step S113 a navigation image with a display indicating the position of the treatment tool 205 with respect to the updated 3D model is displayed on the display device 120 (step S113).
  • the process shown in step S113 corresponds to the process executed by the display control unit 145 of the image processing apparatus 140 shown in FIG.
  • FIG. 13 is a diagram illustrating the configuration of the surgical navigation system 10 according to the present embodiment, including the detailed configuration of the observation apparatus.
  • the surgical navigation system 10 includes an observation device 5301, a control device 5317, and a display device 5319. Note that since the display device 5319 corresponds to the display device 120 shown in FIG. 1 described above, detailed description thereof is omitted.
  • the observation apparatus 5301 includes a microscope unit 5303 for magnifying and observing an observation target (surgical unit of the patient 201), an arm unit 5309 that supports the microscope unit 5303 at the distal end, and a base unit 5315 that supports the proximal end of the arm unit 5309. And a control device 5317 that controls the operation of the observation device 5301 in an integrated manner.
  • the microscope unit 5303 corresponds to the microscope unit 110 shown in FIG. 1 described above.
  • the microscope unit 5303 includes a substantially cylindrical cylindrical part 5305, an imaging unit (not shown) provided inside the cylindrical part 5305, and an operation unit 5307 provided in a partial area on the outer periphery of the cylindrical part 5305. And.
  • a cover glass that protects the internal imaging unit is provided on the opening surface at the lower end of the cylindrical part 5305.
  • Light from the observation target (hereinafter also referred to as observation light) passes through the cover glass and enters the imaging unit inside the cylindrical part 5305.
  • a light source such as an LED (Light Emitting Diode) may be provided inside the cylindrical portion 5305, and light is emitted from the light source to the observation target through the cover glass during imaging. May be.
  • the light source can be configured to emit excitation light having a predetermined wavelength corresponding to ICG.
  • the imaging unit includes an optical system that collects the observation light and an image sensor that receives the observation light collected by the optical system.
  • the optical system is configured by combining a plurality of lenses including a zoom lens and a focus lens, and the optical characteristics thereof are adjusted so that the observation light is imaged on the light receiving surface of the image sensor.
  • the image sensor generates an image signal corresponding to an observation image by receiving observation light and performing photoelectric conversion.
  • the imaging element for example, an element having a Bayer array capable of color photography is used.
  • the image sensor may be various known image sensors such as a CMOS (Complementary Metal Oxide Semiconductor) image sensor or a CCD (Charge Coupled Device) image sensor.
  • the image signal generated by the image sensor is transmitted to the control device 5317 as RAW data.
  • the transmission of the image signal may be preferably performed by optical communication.
  • the surgeon performs the operation while observing the state of the affected area with the captured image.
  • the moving image of the surgical site should be displayed in real time as much as possible. Because it is.
  • a captured image can be displayed with low latency.
  • the imaging unit may have a drive mechanism that moves the zoom lens and focus lens of the optical system along the optical axis. By appropriately moving the zoom lens and the focus lens by the drive mechanism, the enlargement magnification of the captured image and the focal length at the time of imaging can be adjusted.
  • the imaging unit can be equipped with various functions that can be generally provided in an electronic imaging microscope unit, such as an AE (Auto Exposure) function and an AF function.
  • the imaging unit may be configured as a so-called single-plate imaging unit having one imaging element, or may be configured as a so-called multi-plate imaging unit having a plurality of imaging elements.
  • image signals corresponding to RGB may be generated by each imaging element, and a color image may be obtained by combining them.
  • the imaging unit may be configured to have a pair of imaging elements for acquiring right-eye and left-eye image signals corresponding to stereoscopic vision (3D display) (that is, as a stereo camera). Good. By performing the 3D display, the surgeon can more accurately grasp the depth of the living tissue in the surgical site.
  • 3D display that is, as a stereo camera
  • the operation unit 5307 is configured by, for example, a cross lever or a switch, and is an input unit that receives an operation input from the operator.
  • the surgeon can input an instruction to change the magnification of the observation image and the focal length to the observation target via the operation unit 5307.
  • the magnification ratio and the focal length can be adjusted by appropriately moving the zoom lens and the focus lens by the drive mechanism of the imaging unit in accordance with the instruction.
  • the surgeon can input an instruction to switch the operation mode (all-free mode and fixed mode described later) of the arm unit 5309 via the operation unit 5307.
  • the operation unit 5307 is provided at a position where the operator can easily operate with a finger while holding the tubular portion 5305 so that the operation portion 5307 can be operated even while the operator moves the tubular portion 5305. It is preferable.
  • the arm portion 5309 is configured by a plurality of links (first link 5313a to sixth link 5313f) being connected to each other by a plurality of joint portions (first joint portion 5311a to sixth joint portion 5311f). Is done.
  • the first joint portion 5311a has a substantially cylindrical shape, and at its tip (lower end), the upper end of the cylindrical portion 5305 of the microscope portion 5303 is a rotation axis (first axis) parallel to the central axis of the cylindrical portion 5305. O 1 ) is supported so as to be rotatable around.
  • the first joint portion 5311a may be configured such that the first axis O 1 coincides with the optical axis of the imaging unit of the microscope unit 5303.
  • the first link 5313a fixedly supports the first joint portion 5311a at the tip. More specifically, the first link 5313a is a rod-shaped member having a substantially L-shaped, while stretching in the direction in which one side of the front end side is perpendicular to the first axis O 1, the end portion of the one side is first It connects to the 1st joint part 5311a so that it may contact
  • the second joint portion 5311b is connected to the end portion on the other side of the substantially L-shaped base end side of the first link 5313a.
  • the second joint portion 5311b has a substantially cylindrical shape, and at the tip thereof, the base end of the first link 5313a can be rotated around a rotation axis (second axis O 2 ) orthogonal to the first axis O 1. To support.
  • the distal end of the second link 5313b is fixedly connected to the proximal end of the second joint portion 5311b.
  • the second link 5313b is a rod-shaped member having a substantially L-shaped, while stretching in the direction in which one side of the front end side is perpendicular to the second axis O 2, the ends of the one side of the second joint portion 5311b Fixedly connected to the proximal end.
  • a third joint portion 5311c is connected to the other side of the base end side of the substantially L-shaped base of the second link 5313b.
  • the third joint portion 5311c has a substantially cylindrical shape, and at its tip, the base end of the second link 5313b is a rotation axis (third axis O 3) orthogonal to the first axis O 1 and the second axis O 2. ) Support so that it can rotate around.
  • the distal end of the third link 5313c is fixedly connected to the proximal end of the third joint portion 5311c.
  • the microscope unit 5303 is moved so as to change the position of the microscope unit 5303 in the horizontal plane by rotating the configuration on the distal end side including the microscope unit 5303 around the second axis O 2 and the third axis O 3. Can be made. That is, by controlling the rotation around the second axis O 2 and the third axis O 3 , the field of view of the captured image can be moved in a plane.
  • the third link 5313c is configured such that the distal end side thereof has a substantially cylindrical shape, and the proximal end of the third joint portion 5311c has substantially the same central axis at the distal end of the cylindrical shape. Fixedly connected.
  • the proximal end side of the third link 5313c has a prismatic shape, and the fourth joint portion 5311d is connected to the end portion thereof.
  • the fourth joint portion 5311d has a substantially cylindrical shape, and at the tip thereof, the base end of the third link 5313c can be rotated around a rotation axis (fourth axis O 4 ) orthogonal to the third axis O 3. To support.
  • the distal end of the fourth link 5313d is fixedly connected to the proximal end of the fourth joint portion 5311d.
  • Fourth link 5313d is a rod-shaped member extending substantially in a straight line, while stretched so as to be orthogonal to the fourth axis O 4, the end of the tip side of the substantially cylindrical shape of the fourth joint portion 5311d It is fixedly connected to the fourth joint portion 5311d so as to abut.
  • the fifth joint portion 5311e is connected to the base end of the fourth link 5313d.
  • the fifth joint portion 5311e has a substantially cylindrical shape, and on the distal end side thereof, the base end of the fourth link 5313d can be rotated around a rotation axis (fifth axis O 5 ) parallel to the fourth axis O 4. To support.
  • the distal end of the fifth link 5313e is fixedly connected to the proximal end of the fifth joint portion 5311e.
  • the fourth axis O 4 and the fifth axis O 5 are rotation axes that can move the microscope unit 5303 in the vertical direction.
  • the fifth link 5313e includes a first member having a substantially L shape in which one side extends in the vertical direction and the other side extends in the horizontal direction, and a portion extending in the horizontal direction of the first member in a vertically downward direction. A rod-shaped second member that extends is combined.
  • the proximal end of the fifth joint portion 5311e is fixedly connected in the vicinity of the upper end of the portion of the fifth link 5313e extending in the vertical direction of the first member.
  • the sixth joint portion 5311f is connected to the proximal end (lower end) of the second member of the fifth link 5313e.
  • the sixth joint portion 5311f has a substantially cylindrical shape, and supports the base end of the fifth link 5313e on the distal end side thereof so as to be rotatable about a rotation axis (sixth axis O 6 ) parallel to the vertical direction. .
  • the distal end of the sixth link 5313f is fixedly connected to the proximal end of the sixth joint portion 5311f.
  • the sixth link 5313f is a rod-like member extending in the vertical direction, and its base end is fixedly connected to the upper surface of the base portion 5315.
  • the rotatable range of the first joint portion 5311a to the sixth joint portion 5311f is appropriately set so that the microscope portion 5303 can perform a desired movement.
  • a total of 6 degrees of freedom of translational 3 degrees of freedom and 3 degrees of freedom of rotation can be realized with respect to the movement of the microscope unit 5303.
  • the position and posture of the microscope unit 5303 can be freely controlled within the movable range of the arm unit 5309. It becomes possible. Therefore, the surgical site can be observed from any angle, and the surgery can be performed more smoothly.
  • the configuration of the arm portion 5309 shown in the figure is merely an example, and the number and shape (length) of the links constituting the arm portion 5309, the number of joint portions, the arrangement position, the direction of the rotation axis, and the like are desired. It may be designed as appropriate so that the degree can be realized.
  • the arm unit 5309 in order to freely move the microscope unit 5303, the arm unit 5309 is preferably configured to have six degrees of freedom, but the arm unit 5309 has a greater degree of freedom (ie, redundant freedom). Degree).
  • the arm unit 5309 can change the posture of the arm unit 5309 while the position and posture of the microscope unit 5303 are fixed. Therefore, for example, control that is more convenient for the operator can be realized, such as controlling the posture of the arm unit 5309 so that the arm unit 5309 does not interfere with the field of view of the operator who views the display device 5319.
  • the first joint portion 5311a to the sixth joint portion 5311f may be provided with actuators mounted with a drive mechanism such as a motor, an encoder for detecting a rotation angle at each joint portion, and the like. Then, the drive of each actuator provided in the first joint portion 5311a to the sixth joint portion 5311f is appropriately controlled by the control device 5317, whereby the posture of the arm portion 5309, that is, the position and posture of the microscope portion 5303 can be controlled. . Specifically, the control device 5317 grasps the current posture of the arm unit 5309 and the current position and posture of the microscope unit 5303 based on information about the rotation angle of each joint unit detected by the encoder. Can do.
  • a drive mechanism such as a motor, an encoder for detecting a rotation angle at each joint portion, and the like.
  • the control device 5317 uses these pieces of grasped information to provide control values (for example, rotation angle or generated torque) for each joint unit that realizes movement of the microscope unit 5303 in accordance with an operation input from the operator. Calculate and drive the drive mechanism of each joint according to the control value.
  • control values for example, rotation angle or generated torque
  • the control method of the arm unit 5309 by the control device 5317 is not limited, and various known control methods such as force control or position control may be applied.
  • the drive of the arm unit 5309 is appropriately controlled by the control device 5317 according to the operation input, and the position and posture of the microscope unit 5303 are controlled. May be.
  • the microscope unit 5303 can be moved from an arbitrary position to an arbitrary position and then fixedly supported at the position after the movement.
  • an input device that can be operated even if the operator has a treatment tool in his / her hand.
  • non-contact operation input may be performed based on gesture detection or gaze detection using a wearable device or a camera provided in an operating room.
  • the arm portion 5309 may be operated by a so-called master slave method.
  • the arm unit 5309 can be remotely operated by an operator via an input device installed at a location away from the operating room.
  • the actuators of the first joint portion 5311a to the sixth joint portion 5311f are driven so that the external force from the operator is received and the arm portion 5309 moves smoothly according to the external force.
  • So-called power assist control may be performed.
  • the driving of the arm portion 5309 may be controlled so as to perform a pivoting operation.
  • the pivoting operation is an operation of moving the microscope unit 5303 so that the optical axis of the microscope unit 5303 always faces a predetermined point in space (hereinafter referred to as a pivot point). According to the pivot operation, the same observation position can be observed from various directions, so that more detailed observation of the affected area is possible.
  • the pivot operation is performed in a state where the distance between the microscope unit 5303 and the pivot point is fixed. In this case, the distance between the microscope unit 5303 and the pivot point may be adjusted to a fixed focal length of the microscope unit 5303.
  • the microscope unit 5303 moves on a hemispherical surface (schematically illustrated in FIG. 13) having a radius corresponding to the focal length centered on the pivot point, and is clear even if the observation direction is changed. A captured image is obtained.
  • the microscope unit 5303 is configured to be adjustable in focal length
  • the pivot operation may be performed in a state where the distance between the microscope unit 5303 and the pivot point is variable.
  • the control device 5317 calculates the distance between the microscope unit 5303 and the pivot point based on the information about the rotation angle of each joint unit detected by the encoder, and based on the calculation result, the microscope 5317
  • the focal length of the unit 5303 may be automatically adjusted.
  • the microscope unit 5303 is provided with an AF function
  • the focal length may be automatically adjusted by the AF function every time the distance between the microscope unit 5303 and the pivot point is changed by the pivot operation. .
  • the first joint portion 5311a to the sixth joint portion 5311f may be provided with a brake that restrains the rotation thereof.
  • the operation of the brake can be controlled by the control device 5317.
  • the control device 5317 activates the brake of each joint unit. Accordingly, since the posture of the arm unit 5309, that is, the position and posture of the microscope unit 5303 can be fixed without driving the actuator, power consumption can be reduced.
  • the control device 5317 may release the brake of each joint unit and drive the actuator according to a predetermined control method.
  • Such a brake operation can be performed in response to an operation input by the operator via the operation unit 5307 described above.
  • the operator wants to move the position and posture of the microscope unit 5303, the operator operates the operation unit 5307 to release the brake of each joint unit.
  • the operation mode of the arm part 5309 shifts to a mode (all free mode) in which the rotation at each joint part can be freely performed.
  • the operator wants to fix the position and posture of the microscope unit 5303, the operator operates the operation unit 5307 to activate the brakes of each joint unit.
  • the operation mode of the arm part 5309 shifts to a mode (fixed mode) in which rotation at each joint part is restricted.
  • the control device 5317 comprehensively controls the operation of the surgical navigation system 10 by controlling the operations of the observation device 5301 and the display device 5319.
  • the control device 5317 controls the driving of the arm portion 5309 by operating the actuators of the first joint portion 5311a to the sixth joint portion 5311f according to a predetermined control method.
  • the control device 5317 changes the operation mode of the arm portion 5309 by controlling the brake operation of the first joint portion 5311a to the sixth joint portion 5311f.
  • control device 5317 can have the function of the image processing device 140 shown in FIG. That is, the control device 5317 has both the function of the image processing device 140 and each function related to the driving of the observation device 5301 described above.
  • the image processing device 140 corresponds to a so-called CCU (Camera Control Unit) provided in the control device 5317 and performs various processes related to image display in the surgical navigation system 10.
  • CCU Camera Control Unit
  • a process of displaying a captured image on the display device 5319, a process of displaying a navigation image on the display device 5319, and the like can be performed.
  • the CCU performs various signal processing on the image signal acquired by the imaging unit of the microscope unit 5303 of the observation device 5301, thereby displaying image data for display.
  • the image data is displayed on the display device 5319.
  • the signal processing for example, development processing (demosaic processing), high image quality processing (band enhancement processing, super-resolution processing, NR (Noise reduction) processing and / or camera shake correction processing, etc.) and / or enlargement processing (that is, Various known signal processing such as electronic zoom processing may be performed.
  • communication between the control device 5317 and the microscope unit 5303 and communication between the control device 5317 and the first joint unit 5311a to the sixth joint unit 5311f may be wired communication or wireless communication.
  • wired communication communication using electrical signals may be performed, or optical communication may be performed.
  • a transmission cable used for wired communication can be configured as an electric signal cable, an optical fiber, or a composite cable thereof depending on the communication method.
  • wireless communication there is no need to lay a transmission cable in the operating room, so that the situation where the transmission cable prevents the medical staff from moving in the operating room can be eliminated.
  • the control device 5317 may be a processor such as a CPU or GPU, or a control board in which a storage element such as a processor and a memory is mounted.
  • the various functions described above can be realized by the processor of the control device 5317 operating according to a predetermined program.
  • the control device 5317 is provided as a separate device from the observation device 5301, but the control device 5317 is installed inside the base portion 5315 of the observation device 5301 and integrated with the observation device 5301. May be configured.
  • the control device 5317 may be configured by a plurality of devices.
  • a control board or the like is provided in each of the microscope unit 5303 and the first joint unit 5311a to the sixth joint unit 5311f of the arm unit 5309, and these are connected so as to be communicable with each other.
  • a function may be realized.
  • the observation device 5301 is configured such that an actuator is provided in each of the joint portions 5311a to 5311f of the arm portion 5309 so that the arm portion 5309 can be driven. It is not limited to.
  • the microscope unit 110 may be supported by a so-called balance arm that does not have a drive mechanism.
  • FIG. 14 is a diagram showing a state of surgery using the surgical navigation system 10 shown in FIGS. 1 and 13.
  • FIG. 14 schematically shows that the surgeon 5321 is performing surgery on the patient 5325 on the patient bed 5323 using the surgical navigation system 10.
  • the control device 5317 that is, the image processing device 140
  • the observation device 5301 is simplified.
  • the image of the surgical site taken by the observation device 5301 is displayed in an enlarged manner on a display device 5319 installed on the wall surface of the operating room.
  • the display device 5319 is installed at a position facing the surgeon 5321, and the surgeon 5321 observes the state of the surgical site by an image projected on the display device 5319, for example, the surgical site such as excision of the affected site.
  • Various treatments are performed on
  • the navigation image generated by the image processing device 140 is displayed on the display device 5319 or another display device (not shown).
  • the surgeon 5321 performs various treatments on the surgical site while also referring to the navigation image.
  • a lesion that is difficult to identify with the naked eye is highlighted and displayed, and the positional relationship between the biological tissue including the lesion and the treatment tool is displayed in real time, so refer to the navigation image.
  • the operation can be performed more smoothly.
  • the target to be matched is an image representing a blood vessel pattern on the surface of the brain, but the technology according to the present disclosure is not limited to such an example.
  • the image to be subjected to the matching process may be an image showing a pattern on the surface of the brain, and may be a pattern other than blood vessels.
  • the matching process may be performed on an image representing a pattern of the gyrus or sulcus.
  • the technology according to the present disclosure is applied to brain surgery, but the technology according to the present disclosure is not limited to such an example.
  • the technology according to the present disclosure can be applied to various types of surgery in which a navigation system is generally used.
  • the technology according to the present disclosure can be used for various types of surgery for other sites such as laparotomy or endoscopic surgery.
  • a 3D model of a living tissue including an operation part is generated, and the deformation amount of the living tissue from before the operation is generated.
  • a navigation image is generated using the 3D model updated based on the estimation result.
  • the predetermined pattern may be a blood vessel pattern existing on the surface of the biological tissue, or an uneven pattern on the surface of the biological tissue itself.
  • the matching process used in the present disclosure can be applied to matching between an existing map and a newly taken aerial photograph.
  • the difference can be extracted from the result of the matching process and used when a new map is created.
  • the matching process used in the present disclosure can be applied to a monitoring system such as a field or a rice field in the agricultural field.
  • a field image is taken periodically (for example, every day) using a fixed camera, and a matching process is performed between a past image (for example, one day ago) and the latest image to extract differences. .
  • a system for automatically notifying an appropriate harvesting time can be constructed.
  • a predetermined pattern on the surface of a 3D model of a biological tissue including an operation part generated based on a preoperative diagnostic image, and a predetermined pattern on the surface of the biological tissue included in a captured image during surgery;
  • a matching unit that performs the matching process; Based on the result of the matching process and information on the three-dimensional position of the imaging region that is the region being imaged during surgery on the surface of the living tissue, the deformation of the living tissue from the preoperative state
  • a shift amount estimation unit for estimating the amount A 3D model updating unit that updates the 3D model generated before surgery based on the estimated deformation amount of the living tissue;
  • An image processing apparatus comprising: (2) A display control unit that causes a display device to display a navigation image with a display indicating the position of the treatment tool with respect to the updated 3D model.
  • the image processing apparatus according to (1).
  • the biological tissue is a brain;
  • the predetermined pattern is a pattern of brain surface blood vessels;
  • the shift amount estimation unit estimates a brain shift amount that is a deformation amount of the brain accompanying the craniotomy,
  • the image processing apparatus according to (1) or (2).
  • the matching unit specifies an area corresponding to the imaging area from the surface of the 3D model by performing the matching process,
  • the shift amount estimation unit estimates the deformation amount based on information about a region corresponding to the shooting region on the surface of the identified 3D model and information about a three-dimensional position of the shooting region.
  • the shift amount estimation unit has a calculation model corresponding to the 3D model, with an initial condition of a state in which an area corresponding to the imaging area on the surface of the 3D model is displaced according to a three-dimensional position of the imaging area.
  • the amount of deformation is estimated by calculating the amount of deformation by the finite element method.
  • the image processing apparatus according to (4).
  • the shift amount estimation unit sets a boundary condition in the calculation by the finite element method according to the relationship between the living tissue and other living tissue existing around the living tissue.
  • the biological tissue is a brain;
  • the other biological tissue is a skull or dura mater,
  • a region corresponding to the contact portion with the skull or the dura mater in the calculation model is set as a fixed point that does not deform,
  • Information about the three-dimensional position of the shooting area is acquired based on depth information added to a captured image obtained by shooting the shooting area.
  • the depth information is acquired based on information about a focal length when photographing the photographing region.
  • the depth information is acquired based on a detection value of a distance measuring sensor,
  • the depth information is acquired based on parallax information from a stereo camera.
  • the image processing apparatus according to (8).
  • the matching unit when performing the matching process, calculates a matching error that is an index indicating the accuracy of matching;
  • the image processing apparatus further includes a warning control unit that outputs a warning when the matching error is equal to or greater than a predetermined threshold.
  • the image processing apparatus according to any one of (1) to (11).
  • the 3D model generation unit regenerates the 3D model of the living tissue based on a newly acquired diagnostic image when the warning is output.
  • a processor has a predetermined pattern on the surface of a 3D model of a biological tissue including a surgical site generated based on a preoperative diagnostic image, and a predetermined pattern on the surface of the biological tissue included in a captured image during surgery.
  • Performing a pattern matching process Based on the result of the matching process and information on the three-dimensional position of the imaging region that is the region being imaged during surgery on the surface of the living tissue, the deformation of the living tissue from the preoperative state Estimating the quantity; Updating the 3D model generated preoperatively based on the estimated amount of deformation of the biological tissue; Including an image processing method.
  • the matching process of Based on the result of the matching process and information on the three-dimensional position of the imaging region that is the region being imaged during surgery on the surface of the living tissue, the deformation of the living tissue from the preoperative state Estimating the quantity; Updating the 3D model generated preoperatively based on the estimated amount of deformation of the biological tissue;
  • a program for executing an image processing method A program for executing an image processing method.
  • a microscope unit that images a living tissue including a surgical part of a patient during surgery and acquires a captured image with depth information;
  • a position sensor for detecting a three-dimensional position of the microscope unit, the patient, and a treatment instrument;
  • a display device for displaying a navigation image with a display indicating a position of a treatment tool with respect to the 3D model of the biological tissue;
  • An image processing device for displaying the navigation image on the display device;
  • the image processing apparatus includes: Matching that performs a matching process between a predetermined pattern on the surface of the 3D model generated based on a preoperative diagnostic image and a predetermined pattern on the surface of the biological tissue included in the captured image during surgery And Based on the result of the matching process and information on the three-dimensional position of the imaging region that is the region imaged during surgery by the microscope unit on the surface of the biological tissue, A shift amount estimation unit for estimating a deformation amount from the state;
  • a 3D model updating unit that updates the 3D model generated before surgery based on the

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biophysics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Optics & Photonics (AREA)
  • Dentistry (AREA)
  • Neurology (AREA)
  • Computer Graphics (AREA)
  • Vascular Medicine (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Robotics (AREA)
  • Geometry (AREA)
  • Neurosurgery (AREA)
  • Software Systems (AREA)
  • Physiology (AREA)
  • Gynecology & Obstetrics (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • General Business, Economics & Management (AREA)
  • Business, Economics & Management (AREA)
  • Multimedia (AREA)

Abstract

【課題】ユーザの利便性をより向上させることを可能にする。 【解決手段】術前の診断画像に基づいて生成される術部を含む生体組織の3Dモデルの、表面上の所定のパターンと、手術中の撮像画像に含まれる前記生体組織の表面上の所定のパターンと、のマッチング処理を行うマッチング部と、前記マッチング処理の結果と、前記生体組織の表面のうち手術中に撮影されている領域である撮影領域の3次元位置についての情報と、に基づいて、前記生体組織の術前の状態からの変形量を推定するシフト量推定部と、推定された前記生体組織の変形量に基づいて、術前に生成された前記3Dモデルを更新する3Dモデル更新部と、を備える、画像処理装置を提供する。

Description

画像処理装置、画像処理方法、プログラム及び手術用ナビゲーションシステム
 本開示は、画像処理装置、画像処理方法、プログラム及び手術用ナビゲーションシステムに関する。
 手術時に患者の術部と処置具との位置関係を術者に対して提示することにより術者を支援する、手術用ナビゲーションシステムが開発されている。例えば、特許文献1に記載の技術では、手術前に取得された患者の術部を含む生体組織の断層画像から当該生体組織の3Dモデルを生成する。そして、手術時に、当該生体組織及び処置具の3次元位置を検出するとともに、当該3Dモデルに対して当該処置具の位置を示す表示が付されたナビゲーション画像を、例えば手術室内に設置された表示装置に表示させる。当該技術によれば、術者は、ナビゲーション画像によって、術部と処置具との距離や、生体組織内の当該処置具との接触を避けるべき危険部位と当該処置具との距離等を把握しながら手術を行うことができるため、より円滑な手術の実行が可能となり、術者の利便性を向上させることができる。
特開2013-202313号公報
 しかしながら、患者の体位の変化や、手術に伴う開腹、開頭等の処置の影響等により、手術時における実際の患者の生体組織の位置及び形状は、手術前とは変化している場合がある。つまり、手術時における患者の生体組織の位置及び形状は、手術前に取得された情報に基づいて生成される3Dモデルとは必ずしも一致しない。このような場合には、特許文献1に記載の技術では、ナビゲーション画像に現状に即した正確な生体組織の位置及び形状が反映されず、当該生体組織と処置具との位置関係も正確に表示されないこととなる。従って、適切なナビゲーションが行えず、かえって術者の利便性が低下する恐れがある。
 そこで、本開示では、ユーザの利便性をより向上させることが可能な、新規かつ改良された画像処理装置、画像処理方法、プログラム及び手術用ナビゲーションシステムを提案する。
 本開示によれば、術前の診断画像に基づいて生成される術部を含む生体組織の3Dモデルの、表面上の所定のパターンと、手術中の撮像画像に含まれる前記生体組織の表面上の所定のパターンと、のマッチング処理を行うマッチング部と、前記マッチング処理の結果と、前記生体組織の表面のうち手術中に撮影されている領域である撮影領域の3次元位置についての情報と、に基づいて、前記生体組織の術前の状態からの変形量を推定するシフト量推定部と、推定された前記生体組織の変形量に基づいて、術前に生成された前記3Dモデルを更新する3Dモデル更新部と、を備える、画像処理装置が提供される。
 また、本開示によれば、プロセッサが、術前の診断画像に基づいて生成される術部を含む生体組織の3Dモデルの、表面上の所定のパターンと、手術中の撮像画像に含まれる前記生体組織の表面上の所定のパターンと、のマッチング処理を行うことと、前記マッチング処理の結果と、前記生体組織の表面のうち手術中に撮影されている領域である撮影領域の3次元位置についての情報と、に基づいて、前記生体組織の術前の状態からの変形量を推定することと、推定された前記生体組織の変形量に基づいて、術前に生成された前記3Dモデルを更新することと、を含む、画像処理方法が提供される。
 また、本開示によれば、コンピュータに、術前の診断画像に基づいて生成される術部を含む生体組織の3Dモデルの、表面上の所定のパターンと、手術中の撮像画像に含まれる前記生体組織の表面上の所定のパターンと、のマッチング処理を行うことと、前記マッチング処理の結果と、前記生体組織の表面のうち手術中に撮影されている領域である撮影領域の3次元位置についての情報と、に基づいて、前記生体組織の術前の状態からの変形量を推定することと、推定された前記生体組織の変形量に基づいて、術前に生成された前記3Dモデルを更新することと、を含む、画像処理方法を実行させるためのプログラムが提供される。
 また、本開示によれば、手術中に患者の術部を含む生体組織を撮影し、深さ情報付きの撮像画像を取得する顕微鏡部と、前記顕微鏡部、前記患者、及び処置具の3次元位置を検出する位置センサと、前記生体組織の3Dモデルに対して処置具の位置を示す表示が付されたナビゲーション画像を表示する表示装置と、前記表示装置に前記ナビゲーション画像を表示させる画像処理装置と、を備え、前記画像処理装置は、術前の診断画像に基づいて生成される前記3Dモデルの、表面上の所定のパターンと、手術中の撮像画像に含まれる前記生体組織の表面上の所定のパターンと、のマッチング処理を行うマッチング部と、前記マッチング処理の結果と、前記生体組織の表面のうち前記顕微鏡部によって手術中に撮影されている領域である撮影領域の3次元位置についての情報と、に基づいて、前記生体組織の術前の状態からの変形量を推定するシフト量推定部と、推定された前記生体組織の変形量に基づいて、術前に生成された前記3Dモデルを更新する3Dモデル更新部と、更新された前記3Dモデルを用いた前記ナビゲーション画像を前記表示装置に表示させる表示制御部と、を有し、前記撮影領域の3次元位置についての情報は、前記位置センサによる検出結果、及び前記顕微鏡部による撮像画像の深さ情報に基づいて取得される、手術用ナビゲーションシステムが提供される。
 本開示によれば、手術前に取得される情報に基づいて生成される術部を含む生体組織の3Dモデルと、実際の手術時の撮像画像とについて、当該3Dモデルの表面上のパターンを表す画像と、当該撮像画像に含まれる当該生体組織の表面上のパターンを表す画像と、のマッチング処理が行われる。そして、当該マッチング処理の結果に基づいて、当該生体組織の手術前の状態からの変形量が推定され、その推定結果に基づいて上記3Dモデルが更新される。これにより、更新された3Dモデルは、手術時の実際の生体組織の位置及び形状が反映されたものとなるため、当該更新された3Dモデルを用いてナビゲーション画像を生成すれば、より実態に即した正確なナビゲーション画像が得られることとなる。従って、当該ナビゲーションシステムを用いて手術を行うユーザの利便性をより向上させることができる。
 以上説明したように本開示によれば、ユーザの利便性をより向上させることが可能になる。なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、又は上記の効果に代えて、本明細書に示されたいずれかの効果、又は本明細書から把握され得る他の効果が奏されてもよい。
本実施形態に係る手術用ナビゲーションシステムの構成の一例を示すブロック図である。 位置センサの機能について説明するための図である。 術前血管パターン画像の一例を示す図である。 術中血管パターン画像の一例を示す図である。 FEMの計算モデルの一例を示す図である。 脳の腫脹を説明するための図である。 脳の沈下を説明するための図である。 ヒトの頭蓋底の様子を概略的に示す図である。 脳の沈下が生じている場合において、当該脳と脊髄等との関係も考慮して固定点が設定される場合について説明するための図である。 脳外科手術における一般的な既存のナビゲーション画像の一例を概略的に示す図である。 脳外科手術における本実施形態に係るナビゲーション画像の一例を概略的に示す図である。 本実施形態に係る画像処理方法の処理手順の一例を示すフロー図である。 本実施形態に係る手術用ナビゲーションシステムの構成を、観察装置の詳細な構成を含めて示す図である。 図1及び図13に示す手術用ナビゲーションシステムを用いた手術の様子を示す図である。
 以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
 なお、説明は以下の順序で行うものとする。
 1.本開示に想到した背景
 2.手術用ナビゲーションシステムの構成
 3.画像処理方法
 4.観察装置の構成例
 5.適用例
 6.補足
 ここで、以下では、一例として、本開示に係る技術が脳外科手術に対して適用される実施形態について説明する。ただし、本開示はかかる例に限定されない。本開示に係る技術は他の手術に対して適用されてもよい。
 また、以下の説明では、後述する手術支援システムを用いるユーザのことを、便宜的に術者と記載することとする。ただし、この記載は、手術支援システムを用いるユーザを限定するものではなく、当該手術支援システムを用いる主体は、助手や看護師等、他の医療スタッフであってもよい。
 (1.本開示に想到した背景)
 本開示の好適な実施形態について説明するに先立ち、本開示をより明確なものとするために、本発明者らが、本開示に想到した背景について説明する。
 脳外科手術では、顕微鏡部によって患者の術部を拡大観察しながら手術が行われる。かかる脳外科手術においても、上記特許文献1に記載されているような手術用ナビゲーションシステムが開発されている。当該手術用ナビゲーションシステムでは、手術前にCT(Computed Tomography)やMRI(Magnetic Resonance Imaging)を用いて患者の脳の診断画像が撮影される。そして、その撮影された診断画像に基づいて脳の3Dモデルが生成される。手術時には、顕微鏡部、患者及び処置具の3次元位置が位置センサによって検出され、その検出結果に基づいて、当該3Dモデルに対して現在の顕微鏡部の視野に対応する領域を示す表示や現在の処置具の位置を示す表示が付されたナビゲーション画像が、手術室内に設置された表示装置に表示される。かかる手術用ナビゲーションシステムによれば、ナビゲーション画像に、術部(例えば、切除対象である病変部)と処置具との位置関係がリアルタイムで表示され得るため、術者は、当該位置関係を把握しながら手術を行うことができる。
 例えば、術部が外観的には他の正常な組織と区別が付き難い場合がある。かかる場合には、事前の検査で得られた術部の位置を3Dモデル上に反映しておくことにより、術者は、肉眼では判別し難い術部と処置具との位置関係をナビゲーション画像上で把握することができるため、大変有用である。また、3Dモデルには脳の内部の血管の位置も反映され得るため、血管と処置具との位置関係がナビゲーション画像上に表示され得る。従って、例えば術者が術部を露出させるために脳を切開していく際に、当該ナビゲーション画像を参照すれば、誤って血管を傷付ける危険性を低減させることが可能になる。
 しかしながら、脳外科手術では、通常は頭蓋骨や髄液により形が保たれている脳が、開頭することによりその支えを一部失い、その形状が変化してしまう、いわゆるブレインシフトと呼ばれる現象が生じることが知られている。ブレインシフトが生じると、手術前に得られた情報に基づいて生成される3Dモデルと、実際の手術時における脳の形状とが異なってしまうため、ナビゲーション画像に脳を正確に反映した3Dモデルが表示されないこととなる。従って、上述したような術部と処置具との位置関係、及び血管と処置具との位置関係も、ナビゲーション画像に正確に表されないこととなり、適切なナビゲーションを行うことが困難になる。
 そこで、ブレインシフトに対する対策の1つとして、手術中にCT撮影又はMRI撮影(いわゆる、術中CT撮影又は術中MRI撮影)を行い、その得られた診断画像に基づいて、ナビゲーション画像に表示される3Dモデルを更新する技術が提案されている。この方法によれば、ブレインシフト後の脳の形状が反映された3Dモデルがナビゲーション画像に表示されることとなるため、実態に即したナビゲーションを行うことが可能になる。
 しかしながら、術中CT撮影又は術中MRI撮影を行うためには、手術室内に専用のCT装置若しくはMRI装置を設置する、又は手術室とCT室若しくはMRI室を並設する必要があるため、導入のためのコストが高い。また、術中CT撮影又は術中MRI撮影を行うためには、一旦手術を中断してこれらの撮影処理を行わなければならないため、作業が煩雑になるとともに、手術時間の増加、及び患者の負担の増加も懸念される。
 そこで、本発明者らは、外科手術、特に脳外科手術において、より簡易に適切なナビゲーション画像を得ることにより、術者の利便性をより向上させることが可能な技術について鋭意検討した結果、本開示に想到した。以下、本発明者らが想到した本開示の好適な実施形態について説明する。
 (2.手術用ナビゲーションシステムの構成)
 図1を参照して、本開示の好適な一実施形態に係る手術用ナビゲーションシステムの構成について説明する。図1は、本実施形態に係る手術用ナビゲーションシステムの構成の一例を示すブロック図である。
 図1を参照すると、本実施形態に係る手術用ナビゲーションシステム10は、顕微鏡部110と、表示装置120と、位置センサ130と、画像処理装置140と、を備える。
 (顕微鏡部)
 顕微鏡部110は、術部を拡大観察するための手段である。顕微鏡部110は、筐体内に、撮像素子、及び当該撮像素子に観察対象からの光(観察光)を導光するための光学系等が格納されて構成される。当該撮像素子は、観察光を受光して光電変換することにより、観察光に対応した信号、すなわち観察像に対応した画像信号を生成する。このように、顕微鏡部110は、電子的に画像を撮影する、電子撮像式の顕微鏡部である。また、顕微鏡部110は、深さ情報を含む画像を撮影可能に構成される。例えば、顕微鏡部110は、AF(Auto Focus)機能を有しており、顕微鏡部110は、画角内で焦点が合っている位置の深さ情報を、焦点距離についての情報に基づいて取得することができる。
 脳外科手術では、患者の頭蓋骨の一部が開頭され、その開頭部から露出している脳の表面が、顕微鏡部110によって撮影される。顕微鏡部110は、取得した撮像画像に係る画像信号、すなわち、撮像画像についての情報を、画像処理装置140(具体的には、後述する画像処理装置140のマッチング部142、ブレインシフト量推定部143及び表示制御部145)に送信する。
 なお、上記の説明では、顕微鏡部110は焦点距離に基づいて深さ情報を得ていたが、本実施形態はかかる例に限定されない。顕微鏡部110は、深さ情報が付加された撮像画像を撮影可能であればよく、その構成は任意であってよい。例えば、顕微鏡部110に、測距センサが設けられてもよい。当該測距センサとしては、例えばタイムオブフライト方式のもの、又はレーザスキャン方式のもの等、各種の公知のセンサが用いられてよい。当該方法によれば、焦点距離を用いる場合に比べて、より正確に脳表血管の3次元位置を測定することができる。あるいは、顕微鏡部110がステレオカメラとして構成され、その視差情報に基づいて深さ情報が得られてもよい。ただし、測距センサやステレオカメラを用いる場合には、顕微鏡部110の構成が複雑化してしまうため、より簡易に深さ情報を得るためには、上述した焦点距離を利用する方法が好適である。
 また、本実施形態では、顕微鏡部110はアーム部によって支持され得る。また、当該アーム部の各関節部にはアクチュエータが設けられており、当該アクチュエータが駆動されることにより、アーム部の姿勢が制御され、顕微鏡部110の位置及び姿勢が制御され得る。顕微鏡部110を支持する支持アーム装置(観察装置)の具体的な構成については、下記(4.観察装置の構成例)で説明する。
 (表示装置)
 表示装置120は、手術室内において術者から視認され得る位置に設置される。表示装置120には、画像処理装置140からの制御により、顕微鏡部110によって撮影された術部の撮像画像が表示される。術者は、表示装置120に映し出された撮像画像によって術部を観察しながら、当該術部に対して各種の処置を行う。
 また、表示装置120には、画像処理装置140からの制御により、脳の3Dモデルに対して現在の処置具の位置を示す表示が付されたナビゲーション画像が表示される。術者は、表示装置120に映し出されたナビゲーション画像によって脳と処置具との位置関係(具体的には、血管と処置具との位置関係、及び術部と処置具との位置関係等)を把握しながら、手術を行う。なお、ナビゲーション画像の詳細については図10及び図11を参照して後述する。
 表示装置120の具体的な構成は限定されず、表示装置120としては、例えば液晶ディスプレイ装置又はEL(Electro Luminescence)ディスプレイ装置等、各種の公知の表示装置が適用されてよい。
 なお、図1では、便宜的に表示装置120を示すブロックを1つだけ図示しているが、手術用ナビゲーションシステム10には、複数の表示装置120が設けられてもよい。複数の表示装置120が用いられる場合には、術部の撮像画像とナビゲーション画像は、それぞれ別々の表示装置120に表示され得る。あるいは、1台の表示装置120のみが用いられる場合には、当該表示装置120の表示画面が2つに分割され、それらの領域に術部画像とナビゲーション画像がそれぞれ表示され得る。
 (位置センサ)
 位置センサ130は、患者の頭部、顕微鏡部110、及び処置具の3次元位置を検出する。図2は、位置センサ130の機能について説明するための図である。図2では、手術時における患者201、顕微鏡部110、処置具205及び位置センサ130の位置関係を概略的に示している。
 図2に示すように、顕微鏡部110及び処置具205には、マーカー203、207がそれぞれ付されている。また、患者201の頭部にも、支持部材209を介してマーカー211が付されている。位置センサ130は、ステレオカメラとして構成されており、その撮像画像に基づいて、マーカー203、207、211の3次元位置、すなわち患者201の頭部、顕微鏡部110、及び処置具205の3次元位置を検出することができる。
 位置センサ130は、検出した患者201の頭部、顕微鏡部110、及び処置具205の3次元位置についての情報を、画像処理装置140(具体的には、後述する画像処理装置140のマッチング部142、ブレインシフト量推定部143及び表示制御部145)に送信する。
 なお、位置センサ130の構成はかかる例に限定されず、位置センサ130としては、物体の3次元位置を検出可能な各種の公知のセンサが用いられてよい。例えば、上記マーカー203、207、211は磁石であってもよく、位置センサ130として磁気センサが用いられてもよい。
 (画像処理装置)
 画像処理装置140は、手術用ナビゲーションシステム10における各種の表示の制御を行う。以下、画像処理装置140の機能について詳細に説明する。画像処理装置140は、その機能として、3Dモデル生成部141と、マッチング部142と、ブレインシフト量推定部143と、3Dモデル更新部144と、表示制御部145と、を有する。なお、画像処理装置140は、例えば、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)等のプロセッサ、プロセッサとメモリ等の記憶素子が混載された制御基板、又はプロセッサが搭載されたPC(Personal Computer)等の一般的な情報処理装置等であり得る。画像処理装置140を構成するプロセッサが所定のプログラムに従って演算処理を実行することにより、上記の各機能が実現され得る。
 手術用ナビゲーションシステム10では、手術前に患者の脳の診断画像が撮影され、それらの診断画像についての情報が、画像処理装置140によってアクセス可能に管理されている。3Dモデル生成部141は、この手術前に取得された診断画像に基づいて、脳の3Dモデルを生成する。
 3Dモデルを生成するための診断画像としては、一般的に診断時に用いられる画像であれば、あらゆるものが適用されてよい。ただし、後述するように、3Dモデル生成部141が生成した脳の3Dモデルは、ナビゲーション画像に用いられる。従って、当該診断画像は、当該3Dモデル上に術部の位置を示すことができるように、術部が明瞭に表されている画像(すなわち、疾患強調画像)であることが好ましい。また、後述するように、3Dモデル生成部141が生成した脳の3Dモデルにおいては、その3Dモデルから血管のパターンを表す画像(血管パターン画像)が抽出され、血管パターン画像のマッチング処理に用いられる。従って、当該診断画像は、血管の形状が明瞭に表されている画像(すなわち、血管強調画像)であることが好ましい。本実施形態では、これらの点を考慮して、3Dモデルの生成には、1つ又は複数の診断画像が用いられ得る。例えば、当該診断画像としては、MRI、MRA(Magnetic Resonance Angiography)、3D-CTA(CT Angiography)、3D-DSA(Digital Subtraction Angiography)、SPECT(Single Photon Emission CT)等によって撮影された画像が用いられ得る。
 3Dモデル生成部141は、上記MRI等の各手法によって得られた組成ごとの断層画像を、当該組成ごとに連続性を辿って、例えばボリュームレンダリング(VR)、サーフェスレンダリング(SR)等の技術を用いて3Dモデル化することにより、3Dモデルを生成する。3Dモデル生成部141による3Dモデルの生成処理は、各種の公知の方法を用いて行われてよいため、ここではその詳細な説明を省略する。
 3Dモデル生成部141は、生成した脳の3Dモデルについての情報を、マッチング部142及び3Dモデル更新部144に提供する。
 マッチング部142は、3Dモデル生成部141によって生成された脳の3Dモデルに含まれる脳表の血管パターンを表す画像(以下、術前血管パターン画像ともいう)と、手術中に顕微鏡部110によって撮影された脳表の血管パターンを表す画像(以下、術中血管パターン画像ともいう)と、の特徴点をマッチングすることにより、手術中における脳の表面の3次元位置を算出する。
 具体的には、マッチング部142は、まず、位置センサ130から提供される患者201の頭部及び顕微鏡部110の3次元位置についての情報に基づいて、顕微鏡部110の撮影方向及び開頭位置を特定する。次に、マッチング部142は、3Dモデル生成部141によって生成された脳の3Dモデルから脳表血管を抽出するとともに、特定した開頭位置における顕微鏡部110の撮影方向から当該脳表血管を投影した二次元画像を生成することにより、術前血管パターン画像を生成する。図3は、術前血管パターン画像の一例を示す図である。上述したように、脳の3Dモデルを生成するための診断画像として血管強調画像を使用することにより、この術前血管パターン画像を明瞭に生成することが可能になる。
 次に、マッチング部142は、顕微鏡部110から提供される撮像画像についての情報に基づいて、当該撮像画像から開頭部における脳表血管を表す画像、すなわち術中血管パターン画像を抽出する。図4は、術中血管パターン画像の一例を示す図である。
 そして、マッチング部142は、生成した術前血管パターン画像と術中血管パターン画像との特徴点のマッチング処理を行う。特徴点のマッチング処理には、例えばFAST、FASTX、STAR、SIFT、SURF、ORB、BRISK、MSER、GFTT、HARRIS、Dense、SimpleBlob、SmartAR(登録商標)等、各種の公知の方法を用いることができる。これらの方法では、2つの画像から特徴点(例えば、図3及び図4に示すような、血管213、215の分岐箇所Xや、血管の屈曲箇所Y等)を自動的に求め、両者のマッチングの度合いを一致度により評価することができる。この際、ブレインシフトにより、術前血管パターン画像と術中血管パターン画像との間には、距離、角度にぶれがあることが予想されるため、術前血管パターン画像に対して微小な倍率と微小な角度の範囲でアフィン変換を施し、その変化させた範囲で一致度が最も高い場合を求める。これにより、脳の表面のうち実際の手術時に開頭部から露出し顕微鏡部110によって撮影されている領域(撮影領域)の脳表血管と、3Dモデル生成部141によって生成された3Dモデルの脳表血管の一部とが対応付けられる。すなわち、3Dモデル生成部141によって生成された脳の3Dモデルの表面の中から、脳の表面のうち実際の手術時の撮影領域に対応する領域が特定される。
 ここで、血管のような細長い凸形状の物体を撮影する場合には、その光の反射が細い筋状となるため、顕微鏡部110によって撮影される血管パターン画像においては、1本の血管について、その中心が映し出されず、当該1本の血管が2筋に割れたような形で認識されることがある。その場合、上述したような各種の公知のマッチング処理の過程では、通常、画像処理によって、これを1本の血管とみなす合成処理が行われ得る。しかしながら、血管は曲線状の複雑な形状を有しており、その光の反射方向は一様でないので、認識された筋状の部分が必ずしも血管を縁取るような形態にはなっておらず、上記の合成処理により、本来はつながっているはずの血管が途切れて認識されてしまうこともある。従って、この場合には、術中血管パターン画像としては、血管の縁取りがいわば点線状になっている血管パターン画像が得られることとなる。かかる場合には、マッチング部142は、点線状の術中血管パターン画像と、実線による術前血管パターン画像とのマッチングを、それぞれのベクトル方向と配置パターンから判断する。
 マッチング部142は、マッチング結果についての情報(すなわち、特定した、脳の3Dモデルの表面のうち実際の手術時の撮影領域に対応する領域についての情報)を、ブレインシフト量推定部143に提供する。
 なお、以上の説明では、術中血管パターン画像として、顕微鏡部110による撮像画像から抽出された画像、すなわち可視光での画像が用いられていたが、本実施形態はかかる例に限定されない。術中血管パターン画像としては、例えば、ICG(indocyanine green)蛍光血管撮影等の、血管を強調して撮影した画像が用いられてよい。この場合、顕微鏡部110に蛍光撮影を行う機能が備えられ、当該顕微鏡部110によって血管のICG蛍光画像が取得され得る。このように血管を強調して撮影した画像を用いることにより、術中血管パターン画像における特徴点をより明確にすることができ、マッチング処理の精度を向上させることができる。
 ブレインシフト量推定部143は、マッチング部142によるマッチング処理の結果に基づいて、術前の状態からの、開頭に伴う脳の変形量を推定する。本実施形態では、ブレインシフト量推定部143は、有限要素法(FEM)を用いて脳の変形量を推定する。具体的には、ブレインシフト量推定部143は、まず、3Dモデル生成部141によって生成された脳の3Dモデルのボクセルの各頂点に3次元のメッシュを定義することにより、FEMの計算モデルを生成する。図5は、FEMの計算モデルの一例を示す図である。図5に示す例では、脳の3Dモデルに対して正四面体形状のメッシュ219を設定することにより、FEMの計算モデル217を生成している。
 次に、ブレインシフト量推定部143は、FEM計算のための初期条件及び境界条件を設定する。まず、初期条件について説明する。具体的には、ブレインシフト量推定部143は、初期条件として、マッチング部142によるマッチング処理の結果に基づいて、開頭部における術前からの脳の変位量を設定する。
 当該変位量の設定処理では、ブレインシフト量推定部143は、マッチング処理の結果と、位置センサ130から提供される患者201の頭部の3次元位置についての情報と、に基づいて、脳が変形していないと仮定した場合における、脳の3Dモデルの表面のうち撮影領域に対応する領域の、現在の患者201の体位に応じた3次元座標を算出する。当該3次元座標は、すなわち、脳が変形していないと仮定した場合における、計算モデル217の表面のうち撮影領域に対応する領域の各メッシュの3次元座標である。
 一方、ブレインシフト量推定部143は、位置センサ130から提供される患者201の頭部及び顕微鏡部110の3次元位置についての情報と、顕微鏡部110から提供される撮像画像についての情報に含まれる深さ情報と、に基づいて、撮影領域における実際の脳の表面の3次元座標を算出する。
 これらの3次元座標の差分が、撮影領域における脳の変位量、すなわち開頭部における脳の変位量となる。ブレインシフト量推定部143は、当該差分を算出することにより、開頭部における脳の変位量を求め、当該変位量の分だけ計算モデル217の開頭部に対応する位置のメッシュが移動した状態を、FEM計算の初期条件とする。
 ここで、一般的に開頭時におけるブレインシフトには2つの種類が存在することが知られている。開頭初期に生じ得る脳の腫脹と、開頭後10分以上経過後に生じ得る脳の沈下である。図6は、脳の腫脹を説明するための図である。図7は、脳の沈下を説明するための図である。図6及び図7では、脳221の正中線での断面を概略的に図示している。
 図6に示すように腫脹が生じている場合には、ブレインシフト量推定部143は、計算モデル217の表面に位置するメッシュのうち開頭部223に位置するメッシュの変位を、これらのメッシュにおける各点間の距離を伸長させることによって表現する。一方、図7に示すように沈下が生じている場合には、ブレインシフト量推定部143は、計算モデル217の表面に位置するメッシュのうち開頭部223に位置するメッシュの変位を、これらのメッシュにおける各点間の距離を縮めることによって表現する。
 次に、境界条件について説明する。ブレインシフト量推定部143は、境界条件として、計算モデル217に対して、頭蓋骨や硬膜等と接触している、解剖学的な観点から物理的に移動し得ないメッシュを固定点として設定する。当該境界条件の具体的な内容は、上述したブレインシフトの態様(腫脹又は沈下)によって異なる。
 図6に示すように腫脹が生じている場合には、脳221のうち、開頭部223以外の領域は頭蓋骨と硬膜により固定されており、腫脹による変位が開頭部223に集中すると考えられる。従って、この場合には、ブレインシフト量推定部143は、境界条件として、計算モデル217の表面に位置するメッシュのうち開頭部223以外の領域に位置するメッシュを、変形しない固定点として設定する。図6では、模擬的に、脳221の表面のうち、固定点として扱われるメッシュに対応する領域を太線で示している。
 一方、図7に示すように沈下が生じている場合には、脳221の外周面のうち、重力が作用する方向である鉛直方向を示す鉛直面(図7に点線で模擬的に示す)との接点よりも下方の領域は頭蓋骨と硬膜により固定されており、それよりも上方の領域が変位すると考えられる。従って、この場合には、ブレインシフト量推定部143は、境界条件として、計算モデル217の表面に位置するメッシュのうち、鉛直面との接点よりも下方に位置するメッシュを、変形しない固定点として設定する。図7では、図6と同様に、模擬的に、脳221の表面のうち、固定点として扱われるメッシュに対応する領域を太線で示している。
 あるいは、沈下が生じている場合には、脳221と周囲の生体組織(例えば、脊髄や血管、神経等)との関係も考慮して、更に他の固定点が設定されてもよい。具体的には、図8に示すように、ヒトの頭蓋底には、脊髄や神経、血管等が通る大小の孔が存在している。図8は、ヒトの頭蓋底の様子を概略的に示す図である。図8では、ヒトの頭蓋腔を水平方向に切断し、その頭蓋底を上方から見た様子を概略的に図示している。紙面上方が前方に当たる。
 図8に示すように、頭蓋底225には、例えば脊髄が通る大後頭孔227や、頸動脈が通る破裂孔229等が存在する。これら脊髄、頸動脈等と周囲の脳組織とは結合組織でつながっているため、脳221のうち、脊髄等と結合している部位は、変形しない固定点とみなすことができる。従って、ブレインシフト量推定部143は、境界条件として、鉛直面との接点よりも下方に位置するメッシュに加えて、計算モデル217を構成するメッシュのうち、脊髄等が挿通される孔と対向し当該脊髄等が結合されることが想定される場所に位置するメッシュ、及びこれらのメッシュの間に位置するメッシュについては、変形しない固定点として設定してもよい。
 図9は、脳221の沈下が生じている場合において、当該脳221と脊髄等との関係も考慮して固定点が設定される場合について説明するための図である。図9では、図6及び図7と同様に、脳221の正中線での断面を概略的に図示している。また、図9では、図6及び図7と同様に、模擬的に、脳221の表面のうち、固定点として扱われるメッシュに対応する領域を太線で示している。
 図9に示す例では、図7に示す場合と同様に、脳221の外周面のうち、鉛直面(図9に点線で模擬的に示す)との接点よりも下方に位置するメッシュを、変形しない固定点として扱っている。図示する例では、更に、上記のような頭蓋底225の形状を考慮して、脳221の表面のうち脊髄等と接続されることにより固定される点である固定点231を追加している。そして、脳221の表面のうち、固定点231と、上述した脳221の外周面と鉛直面との接点との間に位置するメッシュも、固定点として扱っている。このように、頭蓋骨の形状等も考慮して、解剖学的な観点から固定点を設定することにより、より実態に即した境界条件を設定することが可能になる。
 上記初期条件及び上記境界条件を設定したら、次に、ブレインシフト量推定部143は、計算モデル217全体の変形量、すなわちブレインシフト量を、FEMによって計算する。かかるFEM計算では、例えば、脳221を弾性体として扱い、弾性体についての応力-歪み関係式を用いて、上記初期条件及び上記境界条件の下で、計算モデル217の変形量を計算する。ヤング率やポアソン比としては、各種の文献等から得られる脳221の物性値を用いればよい。当該FEM計算は各種の公知の方法によって行われてよいため、当該FEM計算における具体的な処理についての説明は省略する。
 ここで、ブレインシフト量推定部143は、マッチング部142によるマッチング処理の結果と、位置センサ130から提供される患者201の頭部及び顕微鏡部110の3次元位置についての情報に基づいて、開頭部223における脳表血管の3次元的な移動量を予め算出する。そして、上記FEM計算においては、算出した開頭部223における脳表血管の3次元的な移動量と、開頭部223に位置するメッシュの移動量との差が最小になるような、変形後の計算モデル217の形状を求める。この状態における計算モデル217の各メッシュ219の変位量が、脳221の3Dモデルの各ボクセルの移動量、すなわち脳221のブレインシフト量となる。
 ブレインシフト量推定部143は、求めたブレインシフト量についての情報、すなわち脳221の3Dモデルの各ボクセルの移動量についての情報を、3Dモデル更新部144に提供する。
 3Dモデル更新部144は、ブレインシフト量推定部143によって求められたブレインシフト量についての情報に基づいて、3Dモデル生成部141によって生成された脳221の3Dモデルを更新する。具体的には、3Dモデル更新部144は、ブレインシフト量推定部143によって求められたブレインシフト量に対応する量だけ、脳221の3Dモデルの各ボクセルを移動させることにより、当該3Dモデルを変形させる。これにより、ブレインシフトが反映された、現在の患者201の実際の脳221の状態がより正確に表された3Dモデルが生成される。
 3Dモデル更新部144は、更新した脳221の3Dモデルについての情報を、表示制御部145に提供する。
 表示制御部145は、表示装置120の駆動を制御し、当該表示装置120に顕微鏡部110による術部の撮像画像を表示させる。また、表示制御部145は、表示装置120の駆動を制御し、当該表示装置120に、3Dモデル更新部144によって更新された脳221の3Dモデルに対して処置具205の位置を示す表示が付されたナビゲーション画像を表示させる。なお、上述したように、当該撮像画像及びナビゲーション画像は、同一の表示装置120に表示されてもよいし、互いに異なる表示装置120にそれぞれ表示されてもよい。
 ここで、「処置具205の位置を示す表示」とは、処置具205を示すアイコンであってもよいし、顕微鏡部110によって撮影される処置具205の実画像であってもよい。ナビゲーション画像は、脳221の3Dモデルに対して処置具205を示すアイコンが合成されたものであってもよいし、脳221の3Dモデルに対して処置具205の実画像が重畳されたものであってもよい。また、ナビゲーション画像では、術部となる病変部が強調して表示されたり、処置具との接触が回避されるべき危険部位である血管等が強調して表示されたりしてもよい。当該強調表示は、例えば、術部や危険部位にアノテーション情報(記号、文言及び/又は画像を含む)を重畳表示することによってなされる。当該アノテーション情報は、例えば、手術前に生成された脳221の3Dモデルに対して予め付与されたものであり、当該強調表示では、当該アノテーション情報が、ブレインシフト量推定部143によって求められたブレインシフト量を反映して、3Dモデル更新部144によって更新された脳221の3Dモデルの該当部位に対して付与される。ナビゲーション画像の具体的な表示の様態としては、一般的な手術用ナビゲーションシステムにおけるナビゲーション画像に用いられている各種の様態が適用され得る。
 ここで、図10は、脳外科手術における一般的な既存のナビゲーション画像の一例を概略的に示す図である。図11は、脳外科手術における本実施形態に係るナビゲーション画像の一例を概略的に示す図である。図10及び図11では、図中左側に顕微鏡部によって撮影された撮影画像を示し、図中右側にナビゲーション画像を示している。図10に示すように、既存のナビゲーション画像では、手術前に取得された診断画像に基づいて生成された脳221の3Dモデルをそのままナビゲーション画像に用いているため、ブレインシフトの分、実際の処置具205と脳221の血管との位置関係と、ナビゲーション画像における処置具205を示すアイコン233と脳221の3Dモデル235の血管との位置関係との間にずれが生じてしまう。
 これに対して、図11に示すように、本実施形態に係るナビゲーション画像では、手術前に生成された脳221の3Dモデルをブレインシフト量に応じて更新し、ナビゲーション画像に用いているため、実際の処置具205と脳221の血管との位置関係と、ナビゲーション画像における処置具205を示すアイコン233と脳221の3Dモデル235の血管との位置関係とが、よく一致する。
 このように、本実施形態によれば、ブレインシフト量を推定し、推定した当該ブレインシフト量に応じて更新された脳221の3Dモデルを用いてナビゲーション画像が生成される。当該ナビゲーション画像は、手術時における患者201の実際の脳221の状態が反映されたものであるため、当該ナビゲーション画像では、脳221の各組織(例えば術部や血管等)と処置具205との位置関係が、より正確に表示されることとなる。従って、術者に対して、手術の手助けとなるより有益な情報をもたらすことが可能になる。
 また、この際、ブレインシフト量の推定は、顕微鏡部110によって取得される脳221の表面の撮像画像に含まれる深さ情報と、位置センサ130によって検出される患者201の頭部、処置具205及び顕微鏡部110の3次元位置についての情報と、に基づいて、行われる。顕微鏡部110によって脳221を撮影しながら手術を行うことは脳外科手術において一般的に行われていることであり、位置センサ130による患者201の頭部等の3次元位置の検出も、既存の手術用ナビゲーションシステムにおいて広く用いられているものである。つまり、本実施形態によれば、装置等を新たに追加することなく、既存の設備を用いてブレインシフト量を推定することができる。従って、より簡易に、より適切なナビゲーション画像を得ることが可能になる。
 また、本実施形態では、血管パターン画像のマッチング処理を行うことにより、開頭部223における脳表の3次元位置の変位量を、ブレインシフト量を算出する際の初期条件とする。ここで、例えば、開頭部223における脳表のある1点の変位量を測定しただけでは、ブレインシフト量を精度良く求めることはできない。本実施形態では、血管パターン画像のマッチング処理の結果を用いて、開頭部223における脳表の「面」としての変位量を求め、当該変位量を用いてブレインシフト量を推定することにより、当該ブレインシフト量をより精度良く求めることが可能になる。従って、実際の脳221の変形がより良く反映された、より正確なナビゲーション画像が得られることとなる。
 なお、手術中にブレインシフト量は経時的に変化し得る。従って、本実施形態では、以上説明した血管パターン画像のマッチング処理以降の一連の処理が、手術中に所定の間隔(例えば90分間等)で繰り返し実行される。これにより、常に現状に即したナビゲーション画像が表示されることとなるため、より正確なナビゲーション画像を得ることができる。
 ここで、ブレインシフト量の推定の精度が低くなってしまった場合には、当該ブレインシフト量に応じて更新された脳221の3Dモデルを用いたナビゲーション画像において、脳221の各組織と処置具205との位置関係が、正確に反映されないこととなる。このような不正確なナビゲーション画像を用いて手術を行うことは、安全の観点から避けられるべきである。そこで、本実施形態では、手術用ナビゲーションシステム10に、ブレインシフト量の推定の精度が低く、適切なナビゲーション画像が得られないことが懸念される場合には、警告を発する機能が備えられる。
 具体的には、画像処理装置140が、その機能として、警告制御部146を更に備える。警告制御部146は、表示装置120、及び/又は図示しない他の出力装置の駆動を制御し、適切なナビゲーション画像が得られない旨の警告を発する。また、現在既に表示装置120にナビゲーション画像が表示されている場合には、警告制御部146は、警告とともに、ナビゲーション画像の表示を取りやめる(すなわち、ナビゲーション機能を停止させる)。当該警告の具体的な態様は限定されず、当該警告は、例えば、視覚的及び/又は聴覚的な警告であってよい。例えば、警告制御部146は、表示装置120に文字等を表示させることにより警告を行う。また、例えば、上記出力装置がベル又はスピーカ等であってよく、警告制御部146は、当該ベル又はスピーカを介して音声によって警告を行う。
 適切なナビゲーション画像が得られるかどうかの判断処理は、マッチング部142によって実行され得る。マッチング部142は、上述したマッチング処理を行う際に、併せてそのマッチング誤差を算出する。そして、当該マッチング誤差を所定のしきい値と比較することにより、適切なナビゲーション画像が得られるかどうかを判断する。マッチング誤差を所定のしきい値よりも大きければ、マッチング処理が適切に行われておらず、当該マッチング処理の結果に基づいて行われるブレインシフト量の推定精度も低下する可能性が高い。従って、この場合、マッチング部142は、適切なナビゲーション画像が得られないと判断する。一方、マッチング誤差を所定のしきい値以下であれば、マッチング処理が適切に行われており、当該マッチング処理の結果に基づいて行われるブレインシフト量の推定精度も信頼できるものである可能性が高い。従って、この場合、マッチング部142は、適切なナビゲーション画像が得られると判断する。
 具体的には、本実施形態では、当該マッチング誤差として、マッチングに用いた脳表血管の開頭前後における3次元的な移動量(すなわち、開頭部223における開頭前後における脳表の移動量)が用いられる。つまり、マッチング部142は、マッチング処理を行った後、当該マッチング処理の結果と、位置センサ130から提供される患者201の頭部及び顕微鏡部110の3次元位置についての情報に基づいて、開頭部223における脳表血管の3次元的な移動量を算出する。ここで、一般的にブレインシフト量は2~3cm程度であると言われている。従って、マッチング部142は、この一般的なブレインシフト量をしきい値として用い、開頭部223における脳表血管の3次元的な移動量と当該しきい値とを比較することにより、上記の判断処理を行う。
 なお、マッチング誤差はかかる例に限定されず、当該マッチング誤差は、一般的な画像のマッチング処理において誤差を示す指標として用いられている各種の評価関数によって算出されてよい。また、マッチング処理が適切に行われているかどうかを判断するためのしきい値も、そのマッチング誤差の種類に応じて適宜設定されてよい。
 マッチング部142は、判断処理の結果、適切なナビゲーション画像が得られないと判断された場合には、その旨の情報を警告制御部146に提供する。当該情報を取得した警告制御部146は、上述した警告を出力させる処理を実行する。
 ここで、血管パターン画像のマッチング処理が適切に行われない要因としては、以下の2つが考えられる。1つ目の要因は、手術中における血管情報の不足である。欠陥情報が不足すれば、特徴点を抽出することが困難となり、特徴点が類似する他の部位間でマッチング処理を行ってしまうことが懸念される。また、2つ目の要因は、治療の進行に伴う脳221の欠損や大幅な変形である。
 従って、手術用ナビゲーションシステム10では、警告が発せられた場合には、当該警告と同時に、血管情報を新たに取得すべき旨のメッセージが発せられてもよい。当該メッセージに応じて、血管情報を補完するために、手術中に患者201の診断画像が新たに取得される。そして、この新たに取得された診断画像に基づいて、3Dモデル生成部141が、再度脳221の3Dモデルを生成する。この新たに生成された脳221の3Dモデルを用いて、マッチング部142による血管パターン画像のマッチング処理が行われ、上述した適切なナビゲーション画像が得られるかどうかの判断処理が再度行われる。判断結果が良好であれば、ブレインシフト量推定部143によるブレインシフト量の推定処理、及び3Dモデル更新部144による3Dモデルの更新処理が行われ、この更新後の3Dモデルを用いたナビゲーション画像が表示され得る。このように、適切なナビゲーション画像が得られると判断された場合のみ、当該ナビゲーション画像が表示されることにより、より安全な手術が実現され得る。
 なお、手術中における患者201の診断画像は、術中MRA撮影及び/又は術中ICG蛍光血管撮影等によって取得され得る。特に、術中ICG蛍光血管撮影が用いられる場合には、患者ベッド上の患者201を移動させることなく撮影を行うことができるため、簡便である。あるいは、血管パターン画像のマッチング処理が困難な場合には、血管造影X線撮影画像を撮像し、術中血管パターン画像と当該血管造影X線撮影画像とのマッチング処理、及び当該血管造影X線撮影画像と術前血管パターン画像(例えば、MRI、CT等によって得られたもの)とのマッチング処理をそれぞれ行う、というように、血管造影X線撮影画像を介して術前血管パターン画像と術中血管パターン画像とのマッチング処理が行われてもよい。ここで、血管造影X線撮影は、血管、血流の観察のために広く用いられている撮影方法である。血管造影X線撮影では、まず、造影剤が患者201に静脈注射される。このとき、X線ビデオ観察すると、心臓、動脈、末梢、静脈の順に、徐々に明るく光る様子を観察することができる。血管造影X線撮影では、ここで、患者201の対象部位をX線CT装置で撮影する。これにより、血管の3次元位置や、血管分岐レベル、血流方向、血の滞留等の情報を得ることができる。
 以上、本実施形態に係る手術用ナビゲーションシステム10の構成について説明した。以上説明したように、本実施形態によれば、ブレインシフトに対応して、より正確な疾患位置がナビゲーション画像に表示され得るため、術者による正確な手技の手助けとなる。また、ナビゲーション画像の適切さを評価し、その評価結果に応じてナビゲーション停止や3Dモデルの更新を促すことで、手術のミスが防止され、より一層の安全性が確保され得る。
 なお、以上の説明では、マッチング部142がマッチング処理を行う対象が2次元画像であったが、本実施形態はかかる例に限定されない。例えば、マッチング部142は、脳221の3Dモデルから抽出される脳表血管の3Dモデルと、顕微鏡部110による撮像画像から深さ情報を用いて抽出される脳表血管の3Dモデルと、の間でマッチング処理を行ってもよい。
 また、以上の説明では、表示制御部145は、1つ又は複数の表示装置120に対して、顕微鏡部110によって手術中に撮影された術部の撮像画像、及びナビゲーション画像を表示させるとしていたが、この際、当該撮像画像にもアノテーション情報(記号、文言及び/又は画像を含む)を重畳表示させてもよい。例えば、手術前に取得された脳の3Dモデルにおいて術部や危険部位等の強調表示したい部位に対して付与されたアノテーション情報が、例えば当該部位を囲む枠等の画像として、手術中に撮影された撮像画像の該当する部位に対して重畳される。この際、ブレインシフト量推定部143によって求められたブレインシフト量に基づいて、手術中の撮像画像において強調表示したい部位が移動した場合にはその移動にアノテーション情報の表示を追随させる等、手術前に設定されたアノテーション情報は、そのまま表示されるのではなく、手術中の撮像画像での該当部位の表示形態、状態に応じて適宜表示され得る。また、上記アノテーション情報は音声を含んでもよく、例えばナビゲーション画像内の所定の領域(例えば注意を喚起したい領域等)に処置具205が近付いた場合等に、出力装置(図示せず)を介してその旨を注意喚起する音声が発せられてもよい。
 また、以上の説明では、マッチング部142におけるマッチング処理においてマッチング誤差が大きい場合には、その旨の警告が発せられるとともに血管情報を新たに取得すべき旨のメッセージ(すなわち、診断画像を再度取得すべき旨のメッセージ)が発せられていたが、本実施形態はかかる例に限定されない。例えば、これらの処理に代えて、又はこれらの処理とともに、警告制御部146からの制御により、表示装置120に、当該マッチング誤差の程度を示す指標となる数値、又は当該マッチング誤差から適宜算出され得るマッチング処理の信頼度を示す指標となる数値等が表示されてもよい。かかる表示がなされることにより、術者は、マッチング誤差の正確性を定量的に把握することができるため、例えば術式等に応じて診断画像を再度取得すべきかどうかを適宜判断することができる。従って、マッチング誤差がそこまで大きくなく、必ずしも診断画像を再度取得しなくても安全に手術を行うことができると術者が判断した場合には、そのまま手術を続行することができるため、より円滑な手術が実現され得る。
 あるいは、上記のマッチング誤差が大きい旨の警告を発する処理及び血管情報を新たに取得すべき旨のメッセージを発する処理に代えて、又はこれらの処理とともに、警告制御部146からの制御により、マッチング誤差に基づく他の警告が、表示装置120に表示されてもよい。例えば、マッチング誤差が生じている領域が画像内の特定の部位に集中している場合には、当該部位において血管破裂や虚血等のリスクを伴う病変が発生している恐れがある。従って、かかる場合には、表示装置120上のナビゲーション画像又は顕微鏡部110によって撮影された撮像画像において、当該部位を囲うような枠が表示されたり、当該部位においてリスクが増加している可能性がある旨を通知する文言が表示されたりしてもよい。
 ここで、画像処理装置140の具体的な装置構成は限定されない。画像処理装置140は、上述した機能を実現するように構成されればよく、その具体的な装置構成は任意であってよい。例えば、画像処理装置140は、1つの装置として構成されなくてもよく、複数の装置によって構成されてもよい。画像処理装置140が複数の装置によって構成される場合には、例えば、これら複数の装置に図1にブロックで模擬的に示す機能が分散されて搭載されるとともに、これら複数の装置が互いに通信可能に接続され、互いに協働して動作することにより、画像処理装置140と同様の機能が実現され得る。
 また、図1に示す画像処理装置140の各機能を実現するためのコンピュータプログラムを作製し、PC等の処理装置に実装することが可能である。また、このようなコンピュータプログラムが格納された、コンピュータで読み取り可能な記録媒体も提供することができる。記録媒体は、例えば、磁気ディスク、光ディスク、光磁気ディスク、フラッシュメモリなどである。また、上記のコンピュータプログラムは、記録媒体を用いずに、例えばネットワークを介して配信してもよい。
 (3.画像処理方法)
 図12を参照して、本実施形態に係る画像処理方法の処理手順について説明する。図12は、本実施形態に係る画像処理方法の処理手順の一例を示すフロー図である。なお、図12に示す各処理は、上述した図1に示す手術用ナビゲーションシステム10の画像処理装置140によって実行される処理に対応している。これらの各処理の詳細については、手術用ナビゲーションシステム10の機能構成について説明する際に既に説明しているため、以下の画像処理方法の処理手順についての説明では、各処理についての詳細な説明は割愛する。
 図12を参照すると、本実施形態に係る画像処理方法では、まず、手術前に取得された診断画像に基づいて、脳の3Dモデルが生成される(ステップS101)。ステップS101に示す処理は、図1に示す画像処理装置140の3Dモデル生成部141によって実行される処理に対応している。
 なお、上記ステップS101に示す処理は、手術が開始される前に実行され得る。当該ステップS101に示す処理が行われた後に、手術のセッティングが行われる。手術のセッティングとは、具体的には、患者201の手術室内への搬入、術部を露出させるための開頭作業、並びに医療スタッフ及び手術機器の配置等であり得る。そして、以降のステップS103以降の処理は、当該セッティングの後、手術中に実行される処理である。
 手術が開始されると、本実施形態に係る画像処理方法では、次に、3Dモデルに含まれる脳の表面の術前血管パターン画像と、顕微鏡部110によって撮影された撮像画像に含まれる脳の表面の術中血管パターン画像と、がマッチングされる(ステップS103)。
 次に、マッチング誤差がしきい値以下かどうかが判断される(ステップS105)。ステップS103及びステップS105に示す処理は、図1に示す画像処理装置140のマッチング部142によって実行される処理に対応している。
 ステップS105でマッチング誤差がしきい値よりも大きいと判断された場合には、術前血管パターン画像と術中血管パターン画像とのマッチングが適切に行われておらず、その結果、ブレインシフト量の推定を精度良く行えず、適切なナビゲーション画像も得られないと考えられる。この場合には、新たに診断画像が取得される。そして、新たに取得された診断画像に基づいて、脳の3Dモデルが再度生成される(ステップS107)。そして、ステップS103に戻り、血管パターン画像のマッチング処理が再度実行される。なお、ステップS107に示す処理に先立ち、マッチング誤差の程度を示す指標となる数値、又はマッチング処理の信頼度を示す指標となる数値等を表示する処理が行われてもよい。この場合には、術者が十分な精度でマッチング処理が行われていると判断した場合にはステップS109に進んでよく、術者による指示があった場合のみステップS107に進み、新たに取得された診断画像に基づいて脳の3Dモデルが再度生成されてもよい。
 一方、ステップS105でマッチング誤差がしきい値以下であると判断された場合には、ステップS109に進む。ステップS109では、血管パターン画像のマッチング処理の結果に基づいて、ブレインシフト量が推定される。ステップS109に示す処理は、図1に示す画像処理装置140のブレインシフト量推定部143によって実行される処理に対応している。
 次に、推定されたブレインシフト量に基づいて、脳の3Dモデルが更新される(ステップS111)。ステップS111に示す処理は、図1に示す画像処理装置140の3Dモデル更新部144によって実行される処理に対応している。
 そして、更新後の3Dモデルに対して処置具205の位置を示す表示が付されたナビゲーション画像が、表示装置120に表示される(ステップS113)。ステップS113に示す処理は、図1に示す画像処理装置140の表示制御部145によって実行される処理に対応している。
 以上、本実施形態に係る画像処理方法の処理手順について説明した。
 (4.観察装置の構成例)
 以上説明した顕微鏡部110が備えられる観察装置の具体的な一構成例について説明する。図13は、本実施形態に係る手術用ナビゲーションシステム10の構成を、観察装置の詳細な構成を含めて示す図である。
 図13を参照すると、手術用ナビゲーションシステム10は、観察装置5301と、制御装置5317と、表示装置5319と、から構成される。なお、表示装置5319は、上述した図1に示す表示装置120に対応するものであるため、その詳細な説明を省略する。
 観察装置5301は、観察対象(患者201の術部)を拡大観察するための顕微鏡部5303と、顕微鏡部5303を先端で支持するアーム部5309と、アーム部5309の基端を支持するベース部5315と、観察装置5301の動作を統合的に制御する制御装置5317と、を有する。顕微鏡部5303は、上述した図1に示す顕微鏡部110に対応するものである。
 顕微鏡部5303は、略円筒形状の筒状部5305と、当該筒状部5305の内部に設けられる撮像部(図示せず)と、筒状部5305の外周の一部領域に設けられる操作部5307と、から構成される。
 筒状部5305の下端の開口面には、内部の撮像部を保護するカバーガラスが設けられる。観察対象からの光(以下、観察光ともいう)は、当該カバーガラスを通過して、筒状部5305の内部の撮像部に入射する。なお、筒状部5305の内部には例えばLED(Light Emitting Diode)等からなる光源が設けられてもよく、撮像時には、当該カバーガラスを介して、当該光源から観察対象に対して光が照射されてもよい。ICG蛍光血管撮影が行われる場合には、当該光源は、ICGに対応する所定の波長の励起光を発光可能に構成され得る。
 撮像部は、観察光を集光する光学系と、当該光学系が集光した観察光を受光する撮像素子と、から構成される。当該光学系は、ズームレンズ及びフォーカスレンズを含む複数のレンズが組み合わされて構成され、その光学特性は、観察光を撮像素子の受光面上に結像するように調整されている。当該撮像素子は、観察光を受光して光電変換することにより、観察像に対応した画像信号を生成する。当該撮像素子としては、例えばBayer配列を有するカラー撮影可能なものが用いられる。当該撮像素子は、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサ又はCCD(Charge Coupled Device)イメージセンサ等、各種の公知の撮像素子であってよい。撮像素子によって生成された画像信号は、RAWデータとして制御装置5317に送信される。ここで、この画像信号の送信は、好適に光通信によって行われてもよい。手術現場では、術者が撮像画像によって患部の状態を観察しながら手術を行うため、より安全で確実な手術のためには、術部の動画像が可能な限りリアルタイムに表示されることが求められるからである。光通信で画像信号が送信されることにより、低レイテンシで撮像画像を表示することが可能となる。
 なお、撮像部は、その光学系のズームレンズ及びフォーカスレンズを光軸に沿って移動させる駆動機構を有し得る。当該駆動機構によってズームレンズ及びフォーカスレンズが適宜移動されることにより、撮像画像の拡大倍率及び撮像時の焦点距離が調整され得る。また、撮像部には、AE(Auto Exposure)機能やAF機能等、一般的に電子撮像式の顕微鏡部に備えられ得る各種の機能が搭載され得る。
 また、撮像部は、1つの撮像素子を有するいわゆる単板式の撮像部として構成されてもよいし、複数の撮像素子を有するいわゆる多板式の撮像部として構成されてもよい。撮像部が多板式で構成される場合には、例えば各撮像素子によってRGBそれぞれに対応する画像信号が生成され、それらが合成されることによりカラー画像が得られてもよい。あるいは、当該撮像部は、立体視(3D表示)に対応する右目用及び左目用の画像信号をそれぞれ取得するための1対の撮像素子を有するように(すなわち、ステレオカメラとして)構成されてもよい。3D表示が行われることにより、術者は術部における生体組織の奥行きをより正確に把握することが可能になる。なお、当該撮像部が多板式で構成される場合には、各撮像素子に対応して、光学系も複数系統が設けられ得る。
 操作部5307は、例えば十字レバー又はスイッチ等によって構成され、術者の操作入力を受け付ける入力手段である。例えば、術者は、操作部5307を介して、観察像の拡大倍率及び観察対象までの焦点距離を変更する旨の指示を入力することができる。当該指示に従って撮像部の駆動機構がズームレンズ及びフォーカスレンズを適宜移動させることにより、拡大倍率及び焦点距離が調整され得る。また、例えば、術者は、操作部5307を介して、アーム部5309の動作モード(後述するオールフリーモード及び固定モード)を切り替える旨の指示を入力することができる。なお、術者が顕微鏡部5303を移動させようとする場合には、当該術者が筒状部5305を握るように把持した状態で当該顕微鏡部5303を移動させる様態が想定される。従って、操作部5307は、術者が筒状部5305を移動させている間でも操作可能なように、術者が筒状部5305を握った状態で指によって容易に操作しやすい位置に設けられることが好ましい。
 アーム部5309は、複数のリンク(第1リンク5313a~第6リンク5313f)が、複数の関節部(第1関節部5311a~第6関節部5311f)によって互いに回動可能に連結されることによって構成される。
 第1関節部5311aは、略円柱形状を有し、その先端(下端)で、顕微鏡部5303の筒状部5305の上端を、当該筒状部5305の中心軸と平行な回転軸(第1軸O)まわりに回動可能に支持する。ここで、第1関節部5311aは、第1軸Oが顕微鏡部5303の撮像部の光軸と一致するように構成され得る。これにより、第1軸Oまわりに顕微鏡部5303を回動させることにより、撮像画像を回転させるように視野を変更することが可能になる。
 第1リンク5313aは、先端で第1関節部5311aを固定的に支持する。具体的には、第1リンク5313aは略L字形状を有する棒状の部材であり、その先端側の一辺が第1軸Oと直交する方向に延伸しつつ、当該一辺の端部が第1関節部5311aの外周の上端部に当接するように、第1関節部5311aに接続される。第1リンク5313aの略L字形状の基端側の他辺の端部に第2関節部5311bが接続される。
 第2関節部5311bは、略円柱形状を有し、その先端で、第1リンク5313aの基端を、第1軸Oと直交する回転軸(第2軸O)まわりに回動可能に支持する。第2関節部5311bの基端には、第2リンク5313bの先端が固定的に接続される。
 第2リンク5313bは、略L字形状を有する棒状の部材であり、その先端側の一辺が第2軸Oと直交する方向に延伸しつつ、当該一辺の端部が第2関節部5311bの基端に固定的に接続される。第2リンク5313bの略L字形状の基端側の他辺には、第3関節部5311cが接続される。
 第3関節部5311cは、略円柱形状を有し、その先端で、第2リンク5313bの基端を、第1軸O及び第2軸Oと互いに直交する回転軸(第3軸O)まわりに回動可能に支持する。第3関節部5311cの基端には、第3リンク5313cの先端が固定的に接続される。第2軸O及び第3軸Oまわりに顕微鏡部5303を含む先端側の構成を回動させることにより、水平面内での顕微鏡部5303の位置を変更するように、当該顕微鏡部5303を移動させることができる。つまり、第2軸O及び第3軸Oまわりの回転を制御することにより、撮像画像の視野を平面内で移動させることが可能になる。
 第3リンク5313cは、その先端側が略円柱形状を有するように構成されており、当該円柱形状の先端に、第3関節部5311cの基端が、両者が略同一の中心軸を有するように、固定的に接続される。第3リンク5313cの基端側は角柱形状を有し、その端部に第4関節部5311dが接続される。
 第4関節部5311dは、略円柱形状を有し、その先端で、第3リンク5313cの基端を、第3軸Oと直交する回転軸(第4軸O)まわりに回動可能に支持する。第4関節部5311dの基端には、第4リンク5313dの先端が固定的に接続される。
 第4リンク5313dは、略直線状に延伸する棒状の部材であり、第4軸Oと直交するように延伸しつつ、その先端の端部が第4関節部5311dの略円柱形状の側面に当接するように、第4関節部5311dに固定的に接続される。第4リンク5313dの基端には、第5関節部5311eが接続される。
 第5関節部5311eは、略円柱形状を有し、その先端側で、第4リンク5313dの基端を、第4軸Oと平行な回転軸(第5軸O)まわりに回動可能に支持する。第5関節部5311eの基端には、第5リンク5313eの先端が固定的に接続される。第4軸O及び第5軸Oは、顕微鏡部5303を上下方向に移動させ得る回転軸である。第4軸O及び第5軸Oまわりに顕微鏡部5303を含む先端側の構成を回動させることにより、顕微鏡部5303の高さ、すなわち顕微鏡部5303と観察対象との距離を調整することができる。
 第5リンク5313eは、一辺が鉛直方向に延伸するとともに他辺が水平方向に延伸する略L字形状を有する第1の部材と、当該第1の部材の水平方向に延伸する部位から鉛直下向きに延伸する棒状の第2の部材と、が組み合わされて構成される。第5リンク5313eの第1の部材の鉛直方向に延伸する部位の上端近傍に、第5関節部5311eの基端が固定的に接続される。第5リンク5313eの第2の部材の基端(下端)には、第6関節部5311fが接続される。
 第6関節部5311fは、略円柱形状を有し、その先端側で、第5リンク5313eの基端を、鉛直方向と平行な回転軸(第6軸O)まわりに回動可能に支持する。第6関節部5311fの基端には、第6リンク5313fの先端が固定的に接続される。
 第6リンク5313fは鉛直方向に延伸する棒状の部材であり、その基端はベース部5315の上面に固定的に接続される。
 第1関節部5311a~第6関節部5311fの回転可能範囲は、顕微鏡部5303が所望の動きを可能であるように適宜設定されている。これにより、以上説明した構成を有するアーム部5309においては、顕微鏡部5303の動きに関して、並進3自由度及び回転3自由度の計6自由度の動きが実現され得る。このように、顕微鏡部5303の動きに関して6自由度が実現されるようにアーム部5309を構成することにより、アーム部5309の可動範囲内において顕微鏡部5303の位置及び姿勢を自由に制御することが可能になる。従って、あらゆる角度から術部を観察することが可能となり、手術をより円滑に実行することができる。
 なお、図示するアーム部5309の構成はあくまで一例であり、アーム部5309を構成するリンクの数及び形状(長さ)、並びに関節部の数、配置位置及び回転軸の方向等は、所望の自由度が実現され得るように適宜設計されてよい。例えば、上述したように、顕微鏡部5303を自由に動かすためには、アーム部5309は6自由度を有するように構成されることが好ましいが、アーム部5309はより大きな自由度(すなわち、冗長自由度)を有するように構成されてもよい。冗長自由度が存在する場合には、アーム部5309においては、顕微鏡部5303の位置及び姿勢が固定された状態で、アーム部5309の姿勢を変更することが可能となる。従って、例えば表示装置5319を見る術者の視界にアーム部5309が干渉しないように当該アーム部5309の姿勢を制御する等、術者にとってより利便性の高い制御が実現され得る。
 ここで、第1関節部5311a~第6関節部5311fには、モータ等の駆動機構、及び各関節部における回転角度を検出するエンコーダ等が搭載されたアクチュエータが設けられ得る。そして、第1関節部5311a~第6関節部5311fに設けられる各アクチュエータの駆動が制御装置5317によって適宜制御されることにより、アーム部5309の姿勢、すなわち顕微鏡部5303の位置及び姿勢が制御され得る。具体的には、制御装置5317は、エンコーダによって検出された各関節部の回転角度についての情報に基づいて、アーム部5309の現在の姿勢、並びに顕微鏡部5303の現在の位置及び姿勢を把握することができる。制御装置5317は、把握したこれらの情報を用いて、術者からの操作入力に応じた顕微鏡部5303の移動を実現するような各関節部に対する制御値(例えば、回転角度又は発生トルク等)を算出し、当該制御値に応じて各関節部の駆動機構を駆動させる。なお、この際、制御装置5317によるアーム部5309の制御方式は限定されず、力制御又は位置制御等、各種の公知の制御方式が適用されてよい。
 例えば、術者が、図示しない入力装置を介して適宜操作入力を行うことにより、当該操作入力に応じて制御装置5317によってアーム部5309の駆動が適宜制御され、顕微鏡部5303の位置及び姿勢が制御されてよい。当該制御により、顕微鏡部5303を任意の位置から任意の位置まで移動させた後、その移動後の位置で固定的に支持することができる。なお、当該入力装置としては、術者の利便性を考慮して、例えばフットスイッチ等、術者が手に処置具を有していても操作可能なものが適用されることが好ましい。また、ウェアラブルデバイスや手術室内に設けられるカメラを用いたジェスチャ検出や視線検出に基づいて、非接触で操作入力が行われてもよい。これにより、清潔域に属する術者であっても、不潔域に属する機器をより自由度高く操作することが可能になる。あるいは、アーム部5309は、いわゆるマスタースレイブ方式で操作されてもよい。この場合、アーム部5309は、手術室から離れた場所に設置される入力装置を介して術者によって遠隔操作され得る。
 また、力制御が適用される場合には、術者からの外力を受け、その外力にならってスムーズにアーム部5309が移動するように第1関節部5311a~第6関節部5311fのアクチュエータが駆動される、いわゆるパワーアシスト制御が行われてもよい。これにより、術者が、顕微鏡部5303を把持して直接その位置を移動させようとする際に、比較的軽い力で顕微鏡部5303を移動させることができる。従って、より直感的に、より簡易な操作で顕微鏡部5303を移動させることが可能となり、術者の利便性を向上させることができる。
 また、アーム部5309は、ピボット動作をするようにその駆動が制御されてもよい。ここで、ピボット動作とは、顕微鏡部5303の光軸が空間上の所定の点(以下、ピボット点という)を常に向くように、顕微鏡部5303を移動させる動作である。ピボット動作によれば、同一の観察位置を様々な方向から観察することが可能となるため、より詳細な患部の観察が可能となる。なお、顕微鏡部5303が、その焦点距離を調整不可能に構成される場合には、顕微鏡部5303とピボット点との距離が固定された状態でピボット動作が行われることが好ましい。この場合には、顕微鏡部5303とピボット点との距離を、顕微鏡部5303の固定的な焦点距離に調整しておけばよい。これにより、顕微鏡部5303は、ピボット点を中心とする焦点距離に対応する半径を有する半球面(図13に概略的に図示する)上を移動することとなり、観察方向を変更しても鮮明な撮像画像が得られることとなる。一方、顕微鏡部5303が、その焦点距離を調整可能に構成される場合には、顕微鏡部5303とピボット点との距離が可変な状態でピボット動作が行われてもよい。この場合には、例えば、制御装置5317は、エンコーダによって検出された各関節部の回転角度についての情報に基づいて、顕微鏡部5303とピボット点との距離を算出し、その算出結果に基づいて顕微鏡部5303の焦点距離を自動で調整してもよい。あるいは、顕微鏡部5303にAF機能が設けられる場合であれば、ピボット動作によって顕微鏡部5303とピボット点との距離が変化するごとに、当該AF機能によって自動で焦点距離の調整が行われてもよい。
 また、第1関節部5311a~第6関節部5311fには、その回転を拘束するブレーキが設けられてもよい。当該ブレーキの動作は、制御装置5317によって制御され得る。例えば、顕微鏡部5303の位置及び姿勢を固定したい場合には、制御装置5317は各関節部のブレーキを作動させる。これにより、アクチュエータを駆動させなくてもアーム部5309の姿勢、すなわち顕微鏡部5303の位置及び姿勢が固定され得るため、消費電力を低減することができる。顕微鏡部5303の位置及び姿勢を移動したい場合には、制御装置5317は、各関節部のブレーキを解除し、所定の制御方式に従ってアクチュエータを駆動させればよい。
 このようなブレーキの動作は、上述した操作部5307を介した術者による操作入力に応じて行われ得る。術者は、顕微鏡部5303の位置及び姿勢を移動したい場合には、操作部5307を操作し、各関節部のブレーキを解除させる。これにより、アーム部5309の動作モードが、各関節部における回転を自由に行えるモード(オールフリーモード)に移行する。また、術者は、顕微鏡部5303の位置及び姿勢を固定したい場合には、操作部5307を操作し、各関節部のブレーキを作動させる。これにより、アーム部5309の動作モードが、各関節部における回転が拘束されたモード(固定モード)に移行する。
 制御装置5317は、観察装置5301及び表示装置5319の動作を制御することにより、手術用ナビゲーションシステム10の動作を統括的に制御する。例えば、制御装置5317は、所定の制御方式に従って第1関節部5311a~第6関節部5311fのアクチュエータを動作させることにより、アーム部5309の駆動を制御する。また、例えば、制御装置5317は、第1関節部5311a~第6関節部5311fのブレーキの動作を制御することにより、アーム部5309の動作モードを変更する。
 ここで、制御装置5317は、上述した図1に示す画像処理装置140の機能を備え得る。つまり、制御装置5317は、画像処理装置140の機能と、以上説明した観察装置5301の駆動に係る各機能とを併せ持つものである。具体的には、例えば、画像処理装置140は、制御装置5317の中に備えられるいわゆるCCU(Camera Control Unit)に対応し、手術用ナビゲーションシステム10における画像の表示に関する各種の処理を行う。
 当該画像の表示に関する処理では、図1を参照して説明したように、撮像画像を表示装置5319に表示させる処理や、ナビゲーション画像を表示装置5319に表示させる処理等が行われ得る。例えば、撮像画像を表示装置5319に表示させる処理では、当該CCUは、観察装置5301の顕微鏡部5303の撮像部によって取得された画像信号に各種の信号処理を施すことにより、表示用の画像データを生成するとともに、当該画像データを表示装置5319に表示させる。当該信号処理では、例えば現像処理(デモザイク処理)、高画質化処理(帯域強調処理、超解像処理、NR(Noise reduction)処理及び/又は手ブレ補正処理等)及び/又は拡大処理(すなわち、電子ズーム処理)等、各種の公知の信号処理が行われてよい。
 なお、制御装置5317と顕微鏡部5303との通信、及び制御装置5317と第1関節部5311a~第6関節部5311fとの通信は、有線通信であってもよいし無線通信であってもよい。有線通信の場合には、電気信号による通信が行われてもよいし、光通信が行われてもよい。この場合、有線通信に用いられる伝送用のケーブルは、その通信方式に応じて電気信号ケーブル、光ファイバ、又はこれらの複合ケーブルとして構成され得る。一方、無線通信の場合には、手術室内に伝送ケーブルを敷設する必要がなくなるため、当該伝送ケーブルによって医療スタッフの手術室内の移動が妨げられる事態が解消され得る。
 制御装置5317は、CPUやGPU等のプロセッサ、又はプロセッサとメモリ等の記憶素子が混載された制御基板等であり得る。制御装置5317のプロセッサが所定のプログラムに従って動作することにより、上述した各種の機能が実現され得る。なお、図示する例では、制御装置5317は、観察装置5301と別個の装置として設けられているが、制御装置5317は、観察装置5301のベース部5315の内部に設置され、観察装置5301と一体的に構成されてもよい。あるいは、制御装置5317は、複数の装置によって構成されてもよい。例えば、顕微鏡部5303や、アーム部5309の第1関節部5311a~第6関節部5311fにそれぞれ制御基板等が配設され、これらが互いに通信可能に接続されることにより、制御装置5317と同様の機能が実現されてもよい。
 以上、顕微鏡部110が備えられる観察装置5301の具体的な一構成例について説明した。なお、図示した構成例では、観察装置5301は、そのアーム部5309の各関節部5311a~5311fにアクチュエータが設けられ、当該アーム部5309が駆動可能に構成されていたが、本実施形態はかかる例に限定されない。例えば、顕微鏡部110は、駆動機構を有しない、いわゆるバランスアームによって支持されてもよい。
 (5.適用例)
 図1及び図13に示す手術用ナビゲーションシステム10が適用された手術の様子について説明する。図14は、図1及び図13に示す手術用ナビゲーションシステム10を用いた手術の様子を示す図である。図14では、術者5321が、手術用ナビゲーションシステム10を用いて、患者ベッド5323上の患者5325に対して手術を行っている様子を概略的に示している。なお、図14では、簡単のため、手術用ナビゲーションシステム10の構成のうち制御装置5317(すなわち、画像処理装置140)の図示を省略するとともに、観察装置5301を簡略化して図示している。
 図14に示すように、手術時には、観察装置5301によって撮影された術部の画像が、手術室の壁面に設置される表示装置5319に拡大表示される。表示装置5319は、術者5321と対向する位置に設置されており、術者5321は、表示装置5319に映し出された映像によって術部の様子を観察しながら、例えば患部の切除等、当該術部に対して各種の処置を行う。
 また、表示装置5319又は図示しない他の表示装置に、画像処理装置140によって生成されるナビゲーション画像が表示される。術者5321は、当該ナビゲーション画像も参照しながら、術部に対して各種の処置を行う。ナビゲーション画像では、例えば肉眼では判別し難い病変部が強調して表示されるとともに、当該病変部を含む生体組織と処置具との位置関係がリアルタイムで表示されるため、当該ナビゲーション画像を参照することにより、手術をより円滑に行うことが可能になる。
 (6.補足)
 以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
 例えば、上記実施形態では、マッチング処理を行う対象を脳の表面の血管のパターンを表す画像としていたが、本開示に係る技術はかかる例に限定されない。当該マッチング処理の対象となる画像は、脳の表面上のパターンを示す画像であればよく、血管以外の他のパターンであってもよい。例えば、脳回又は脳溝のパターンを表す画像についてマッチング処理が行われてもよい。
 また、上記実施形態では、本開示に係る技術が脳外科手術に適用されていたが、本開示に係る技術はかかる例に限定されない。本開示に係る技術は、一般的にナビゲーションシステムが利用されている各種の外科手術に対して適用可能である。例えば、本開示に係る技術は、開腹手術、又は内視鏡手術等、他の部位を対象とする各種の外科手術に用いられ得る。これらの他の外科手術に対して本開示に係る技術が適用される場合であっても、同様に、術部を含む生体組織の3Dモデルが生成され、当該生体組織の手術前からの変形量が推定され、その推定結果に基づいて更新された3Dモデルを用いてナビゲーション画像が生成される。そして、この際、生体組織の変形量の推定処理では、生体組織の表面上の所定のパターンをマッチングした結果が用いられ得る。当該所定のパターンとしては、生体組織の表面上に存在する血管のパターンであってもよいし、生体組織自体の表面の凹凸のパターンであってもよい。
 また、上記では、本開示に係る技術の医療用途での実施形態について説明したが、本開示に係る技術はかかる例に限定されない。本開示に係る技術は、より汎用的に、他の分野において用いられてもよい。例えば、本開示で利用していたマッチング処理を、既存の地図と新たに撮影された航空写真とのマッチングに応用することができる。例えば、当該マッチング処理の結果から差異点を抽出し、新たに地図を作成する際等に当該差異点を利用することができる。あるいは、例えば、本開示で利用していたマッチング処理を、農業分野での畑や田んぼ等の監視システムに応用することができる。例えば、固定カメラを用いて畑の画像を定期的に(例えば1日ごと等)撮影し、過去(例えば1日前)の画像と最新の画像との間でマッチング処理を行い、差異点を抽出する。当該差異点から作物の成長具合等を解析することにより、適切な収穫時期を自動的に通知するシステムを構築することができる。
 また、本明細書に記載された効果は、あくまで説明的又は例示的なものであって限定的なものではない。つまり、本開示に係る技術は、上記の効果とともに、又は上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏し得る。
 なお、以下のような構成も本開示の技術的範囲に属する。
(1)
 術前の診断画像に基づいて生成される術部を含む生体組織の3Dモデルの、表面上の所定のパターンと、手術中の撮像画像に含まれる前記生体組織の表面上の所定のパターンと、のマッチング処理を行うマッチング部と、
 前記マッチング処理の結果と、前記生体組織の表面のうち手術中に撮影されている領域である撮影領域の3次元位置についての情報と、に基づいて、前記生体組織の術前の状態からの変形量を推定するシフト量推定部と、
 推定された前記生体組織の変形量に基づいて、術前に生成された前記3Dモデルを更新する3Dモデル更新部と、
 を備える、画像処理装置。
(2)
 更新された前記3Dモデルに対して処置具の位置を示す表示が付されたナビゲーション画像を表示装置に表示させる表示制御部、を更に備える、
 前記(1)に記載の画像処理装置。
(3)
 前記生体組織は脳であり、
 前記所定のパターンは脳表血管のパターンであり、
 前記シフト量推定部は、開頭に伴う脳の変形量であるブレインシフト量を推定する、
 前記(1)又は(2)に記載の画像処理装置。
(4)
 前記マッチング部は、前記マッチング処理を行うことにより、前記3Dモデルの表面の中から前記撮影領域に対応する領域を特定し、
 前記シフト量推定部は、特定された前記3Dモデルの表面上の前記撮影領域に対応する領域についての情報と、前記撮影領域の3次元位置についての情報と、に基づいて、前記変形量を推定する、
 前記(1)~(3)のいずれか1項に記載の画像処理装置。
(5)
 前記シフト量推定部は、前記3Dモデルの表面上の前記撮影領域に対応する領域を、前記撮影領域の3次元位置に応じて変位させた状態を初期条件として、前記3Dモデルに対応する計算モデルの変形量を有限要素法によって計算することにより、前記変形量を推定する、
 前記(4)に記載の画像処理装置。
(6)
 前記シフト量推定部は、前記生体組織と、前記生体組織の周囲に存在する他の生体組織との関係に応じて、前記有限要素法による計算における境界条件を設定する、
 前記(5)に記載の画像処理装置。
(7)
 前記生体組織は脳であり、
 前記他の生体組織は頭蓋骨又は硬膜であり、
 前記境界条件では、前記計算モデルにおける前記頭蓋骨又は前記硬膜との接触部位に対応する領域が変形しない固定点として設定される、
 前記(6)に記載の画像処理装置。
(8)
 前記撮影領域の3次元位置についての情報は、前記撮影領域を撮影した撮像画像に付加される深さ情報に基づいて取得される、
 前記(1)~(7)のいずれか1項に記載の画像処理装置。
(9)
 前記深さ情報は、前記撮影領域を撮影する際の焦点距離についての情報に基づいて取得される、
 前記(8)に記載の画像処理装置。
(10)
 前記深さ情報は、測距センサの検出値に基づいて取得される、
 前記(8)に記載の画像処理装置。
(11)
 前記深さ情報は、ステレオカメラによる視差情報に基づいて取得される、
 前記(8)に記載の画像処理装置。
(12)
 前記マッチング部は、前記マッチング処理を行う際に、マッチングの精度を表す指標であるマッチング誤差を算出し、
 前記画像処理装置は、前記マッチング誤差が所定のしきい値以上である場合に警告を出力させる警告制御部、を更に備える、
 前記(1)~(11)のいずれか1項に記載の画像処理装置。
(13)
 前記3Dモデル生成部は、前記警告が出力された場合に、新たに取得された診断画像に基づいて、前記生体組織の3Dモデルを再度生成する、
 前記(12)に記載の画像処理装置。
(14)
 プロセッサが、術前の診断画像に基づいて生成される術部を含む生体組織の3Dモデルの、表面上の所定のパターンと、手術中の撮像画像に含まれる前記生体組織の表面上の所定のパターンと、のマッチング処理を行うことと、
 前記マッチング処理の結果と、前記生体組織の表面のうち手術中に撮影されている領域である撮影領域の3次元位置についての情報と、に基づいて、前記生体組織の術前の状態からの変形量を推定することと、
 推定された前記生体組織の変形量に基づいて、術前に生成された前記3Dモデルを更新することと、
 を含む、画像処理方法。
(15)
 コンピュータに、
 術前の診断画像に基づいて生成される術部を含む生体組織の3Dモデルの、表面上の所定のパターンと、手術中の撮像画像に含まれる前記生体組織の表面上の所定のパターンと、のマッチング処理を行うことと、
 前記マッチング処理の結果と、前記生体組織の表面のうち手術中に撮影されている領域である撮影領域の3次元位置についての情報と、に基づいて、前記生体組織の術前の状態からの変形量を推定することと、
 推定された前記生体組織の変形量に基づいて、術前に生成された前記3Dモデルを更新することと、
 を含む、画像処理方法を実行させるためのプログラム。
(16)
 手術中に患者の術部を含む生体組織を撮影し、深さ情報付きの撮像画像を取得する顕微鏡部と、
 前記顕微鏡部、前記患者、及び処置具の3次元位置を検出する位置センサと、
 前記生体組織の3Dモデルに対して処置具の位置を示す表示が付されたナビゲーション画像を表示する表示装置と、
 前記表示装置に前記ナビゲーション画像を表示させる画像処理装置と、
 を備え、
 前記画像処理装置は、
 術前の診断画像に基づいて生成される前記3Dモデルの、表面上の所定のパターンと、手術中の撮像画像に含まれる前記生体組織の表面上の所定のパターンと、のマッチング処理を行うマッチング部と、
 前記マッチング処理の結果と、前記生体組織の表面のうち前記顕微鏡部によって手術中に撮影されている領域である撮影領域の3次元位置についての情報と、に基づいて、前記生体組織の術前の状態からの変形量を推定するシフト量推定部と、
 推定された前記生体組織の変形量に基づいて、術前に生成された前記3Dモデルを更新する3Dモデル更新部と、
 更新された前記3Dモデルを用いた前記ナビゲーション画像を前記表示装置に表示させる表示制御部と、
 を有し、
 前記撮影領域の3次元位置についての情報は、前記位置センサによる検出結果、及び前記顕微鏡部による撮像画像の深さ情報に基づいて取得される、
 手術用ナビゲーションシステム。
 10  手術用ナビゲーションシステム
 110  顕微鏡部
 120  表示装置
 130  位置センサ
 140  画像処理装置
 141  3Dモデル生成部
 142  マッチング部
 143  ブレインシフト量推定部
 144  3Dモデル更新部
 145  表示制御部
 146  警告制御部

Claims (16)

  1.  術前の診断画像に基づいて生成される術部を含む生体組織の3Dモデルの、表面上の所定のパターンと、手術中の撮像画像に含まれる前記生体組織の表面上の所定のパターンと、のマッチング処理を行うマッチング部と、
     前記マッチング処理の結果と、前記生体組織の表面のうち手術中に撮影されている領域である撮影領域の3次元位置についての情報と、に基づいて、前記生体組織の術前の状態からの変形量を推定するシフト量推定部と、
     推定された前記生体組織の変形量に基づいて、術前に生成された前記3Dモデルを更新する3Dモデル更新部と、
     を備える、画像処理装置。
  2.  更新された前記3Dモデルに対して処置具の位置を示す表示が付されたナビゲーション画像を表示装置に表示させる表示制御部、を更に備える、
     請求項1に記載の画像処理装置。
  3.  前記生体組織は脳であり、
     前記所定のパターンは脳表血管のパターンであり、
     前記シフト量推定部は、開頭に伴う脳の変形量であるブレインシフト量を推定する、
     請求項1に記載の画像処理装置。
  4.  前記マッチング部は、前記マッチング処理を行うことにより、前記3Dモデルの表面の中から前記撮影領域に対応する領域を特定し、
     前記シフト量推定部は、特定された前記3Dモデルの表面上の前記撮影領域に対応する領域についての情報と、前記撮影領域の3次元位置についての情報と、に基づいて、前記変形量を推定する、
     請求項1に記載の画像処理装置。
  5.  前記シフト量推定部は、前記3Dモデルの表面上の前記撮影領域に対応する領域を、前記撮影領域の3次元位置に応じて変位させた状態を初期条件として、前記3Dモデルに対応する計算モデルの変形量を有限要素法によって計算することにより、前記変形量を推定する、
     請求項4に記載の画像処理装置。
  6.  前記シフト量推定部は、前記生体組織と、前記生体組織の周囲に存在する他の生体組織との関係に応じて、前記有限要素法による計算における境界条件を設定する、
     請求項5に記載の画像処理装置。
  7.  前記生体組織は脳であり、
     前記他の生体組織は頭蓋骨又は硬膜であり、
     前記境界条件では、前記計算モデルにおける前記頭蓋骨又は前記硬膜との接触部位に対応する領域が変形しない固定点として設定される、
     請求項6に記載の画像処理装置。
  8.  前記撮影領域の3次元位置についての情報は、前記撮影領域を撮影した撮像画像に付加される深さ情報に基づいて取得される、
     請求項1に記載の画像処理装置。
  9.  前記深さ情報は、前記撮影領域を撮影する際の焦点距離についての情報に基づいて取得される、
     請求項8に記載の画像処理装置。
  10.  前記深さ情報は、測距センサの検出値に基づいて取得される、
     請求項8に記載の画像処理装置。
  11.  前記深さ情報は、ステレオカメラによる視差情報に基づいて取得される、
     請求項8に記載の画像処理装置。
  12.  前記マッチング部は、前記マッチング処理を行う際に、マッチングの精度を表す指標であるマッチング誤差を算出し、
     前記画像処理装置は、前記マッチング誤差が所定のしきい値以上である場合に警告を出力させる警告制御部、を更に備える、
     請求項1に記載の画像処理装置。
  13.  前記3Dモデル生成部は、前記警告が出力された場合に、新たに取得された診断画像に基づいて、前記生体組織の3Dモデルを再度生成する、
     請求項12に記載の画像処理装置。
  14.  プロセッサが、術前の診断画像に基づいて生成される術部を含む生体組織の3Dモデルの、表面上の所定のパターンと、手術中の撮像画像に含まれる前記生体組織の表面上の所定のパターンと、のマッチング処理を行うことと、
     前記マッチング処理の結果と、前記生体組織の表面のうち手術中に撮影されている領域である撮影領域の3次元位置についての情報と、に基づいて、前記生体組織の術前の状態からの変形量を推定することと、
     推定された前記生体組織の変形量に基づいて、術前に生成された前記3Dモデルを更新することと、
     を含む、画像処理方法。
  15.  コンピュータに、
     術前の診断画像に基づいて生成される術部を含む生体組織の3Dモデルの、表面上の所定のパターンと、手術中の撮像画像に含まれる前記生体組織の表面上の所定のパターンと、のマッチング処理を行うことと、
     前記マッチング処理の結果と、前記生体組織の表面のうち手術中に撮影されている領域である撮影領域の3次元位置についての情報と、に基づいて、前記生体組織の術前の状態からの変形量を推定することと、
     推定された前記生体組織の変形量に基づいて、術前に生成された前記3Dモデルを更新することと、
     を含む、画像処理方法を実行させるためのプログラム。
  16.  手術中に患者の術部を含む生体組織を撮影し、深さ情報付きの撮像画像を取得する顕微鏡部と、
     前記顕微鏡部、前記患者、及び処置具の3次元位置を検出する位置センサと、
     前記生体組織の3Dモデルに対して処置具の位置を示す表示が付されたナビゲーション画像を表示する表示装置と、
     前記表示装置に前記ナビゲーション画像を表示させる画像処理装置と、
     を備え、
     前記画像処理装置は、
     術前の診断画像に基づいて生成される前記3Dモデルの、表面上の所定のパターンと、手術中の撮像画像に含まれる前記生体組織の表面上の所定のパターンと、のマッチング処理を行うマッチング部と、
     前記マッチング処理の結果と、前記生体組織の表面のうち前記顕微鏡部によって手術中に撮影されている領域である撮影領域の3次元位置についての情報と、に基づいて、前記生体組織の術前の状態からの変形量を推定するシフト量推定部と、
     推定された前記生体組織の変形量に基づいて、術前に生成された前記3Dモデルを更新する3Dモデル更新部と、
     更新された前記3Dモデルを用いた前記ナビゲーション画像を前記表示装置に表示させる表示制御部と、
     を有し、
     前記撮影領域の3次元位置についての情報は、前記位置センサによる検出結果、及び前記顕微鏡部による撮像画像の深さ情報に基づいて取得される、
     手術用ナビゲーションシステム。
PCT/JP2017/016163 2016-07-12 2017-04-24 画像処理装置、画像処理方法、プログラム及び手術用ナビゲーションシステム WO2018012080A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018527403A JP6883222B2 (ja) 2016-07-12 2017-04-24 画像処理装置、画像処理方法、プログラム及び手術用ナビゲーションシステム
US16/314,461 US11020202B2 (en) 2016-07-12 2017-04-24 Image processing device, image processing method, and surgical navigation system
US17/241,542 US11707340B2 (en) 2016-07-12 2021-04-27 Image processing device, image processing method, and surgical navigation system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016138035 2016-07-12
JP2016-138035 2016-07-12

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US16/314,461 A-371-Of-International US11020202B2 (en) 2016-07-12 2017-04-24 Image processing device, image processing method, and surgical navigation system
US17/241,542 Continuation US11707340B2 (en) 2016-07-12 2021-04-27 Image processing device, image processing method, and surgical navigation system

Publications (1)

Publication Number Publication Date
WO2018012080A1 true WO2018012080A1 (ja) 2018-01-18

Family

ID=60952017

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/016163 WO2018012080A1 (ja) 2016-07-12 2017-04-24 画像処理装置、画像処理方法、プログラム及び手術用ナビゲーションシステム

Country Status (3)

Country Link
US (2) US11020202B2 (ja)
JP (1) JP6883222B2 (ja)
WO (1) WO2018012080A1 (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109785955A (zh) * 2018-12-25 2019-05-21 襄阳市第一人民医院(襄阳市肿瘤医院) 一种基于计算机的神经外科诊疗控制系统及方法
CN110164528A (zh) * 2018-02-15 2019-08-23 徕卡仪器(新加坡)有限公司 利用血管丛结构的弹性映射的图像处理方法和装置
JP2020156860A (ja) * 2019-03-27 2020-10-01 学校法人兵庫医科大学 脈管認識装置、脈管認識方法および脈管認識システム
CN113470167A (zh) * 2021-06-28 2021-10-01 平湖莱顿光学仪器制造有限公司 一种用于呈现三维显微图像的方法与设备
EP3854294A4 (en) * 2018-09-20 2021-10-20 NEC Corporation DEVICE AND METHOD FOR POSITION ESTIMATION, AND COMPUTER READABLE RECORDING MEDIA
WO2021250484A1 (en) * 2020-06-10 2021-12-16 Parth Chopra System and method to diagnose respiratory diseases in real-time
WO2021256168A1 (ja) * 2020-06-15 2021-12-23 ソニーグループ株式会社 医用画像処理システム、手術画像制御装置、及び、手術画像制御方法
JP2023529223A (ja) * 2020-06-12 2023-07-07 フォンダシオン・ドゥ・コオペラシオン・シアンティフィック 外科手術に関連するビデオストリームの処理
WO2023145503A1 (ja) * 2022-01-31 2023-08-03 ソニーグループ株式会社 医療用情報処理システム、医療用情報処理方法、及びプログラム

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11399900B2 (en) * 2012-06-21 2022-08-02 Globus Medical, Inc. Robotic systems providing co-registration using natural fiducials and related methods
US20220346895A1 (en) * 2012-06-21 2022-11-03 Globus Medical, Inc. Robotic systems providing co-registration using natural fiducials and related methods
CN109801368B (zh) * 2019-02-26 2023-06-13 浙江未来技术研究院(嘉兴) 一种显微镜术野光场图像融合显示方法及装置
CN110246215B (zh) * 2019-05-22 2023-03-17 上海长征医院 基于3d打印技术的颅脑病灶可视化成像系统及方法
JP7497378B2 (ja) * 2019-06-24 2024-06-10 ハーグ-シュトライト アクチェンゲゼルシャフト 少なくとも1つの制御された手動自由度を伴う眼科用顕微鏡
DE102019125413A1 (de) * 2019-09-20 2021-03-25 Carl Zeiss Meditec Ag Verfahren und Vorrichtung zum Erstellen und Anzeigen einer Karte von einem Gehirnoperationsfeld
US11769595B2 (en) * 2020-10-01 2023-09-26 Agama-X Co., Ltd. Information processing apparatus and non-transitory computer readable medium
CN115120341A (zh) * 2021-03-24 2022-09-30 上海微创医疗机器人(集团)股份有限公司 一种计算机可读存储介质、电子设备及手术机器人系统
US20240122671A1 (en) * 2021-04-28 2024-04-18 Smith & Nephew, Inc. Computerized Systems for Arthroscopic Applications Using Real-Time Blood-Flow Detection
KR102583320B1 (ko) * 2021-08-05 2023-09-27 숭실대학교 산학협력단 증강현실 기반 뇌실천자술을 위한 뇌 변형 예측 방법, 이를 수행하기 위한 기록 매체 및 장치
JP2023028949A (ja) * 2021-08-20 2023-03-03 キヤノンメディカルシステムズ株式会社 X線撮影装置、x線撮影システム、及びx線撮影装置の制御方法
US11928830B2 (en) * 2021-12-22 2024-03-12 Honeywell International Inc. Systems and methods for generating three-dimensional reconstructions of environments
WO2025122431A1 (en) * 2023-12-06 2025-06-12 Medtronic Navigation, Inc. Systems and methods for updating surgical images using nuclear magnetic resonance (nmr) measurements

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005278992A (ja) * 2004-03-30 2005-10-13 Hamamatsu Univ School Of Medicine 手術支援装置、方法及びプログラム
JP2014512210A (ja) * 2011-03-18 2014-05-22 コーニンクレッカ フィリップス エヌ ヴェ 神経外科における脳変形の追跡

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0602730B1 (en) * 1992-12-18 2002-06-19 Koninklijke Philips Electronics N.V. Registration of Volumetric images which are relatively elastically deformed by matching surfaces
US5954648A (en) * 1996-04-29 1999-09-21 U.S. Philips Corporation Image guided surgery system
US7103399B2 (en) 2003-09-08 2006-09-05 Vanderbilt University Apparatus and methods of cortical surface registration and deformation tracking for patient-to-image alignment in relation to image-guided surgery
JP4836122B2 (ja) 2006-02-09 2011-12-14 国立大学法人浜松医科大学 手術支援装置、方法及びプログラム
JP2013202313A (ja) 2012-03-29 2013-10-07 Panasonic Corp 手術支援装置および手術支援プログラム
JP6657933B2 (ja) 2015-12-25 2020-03-04 ソニー株式会社 医療用撮像装置及び手術ナビゲーションシステム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005278992A (ja) * 2004-03-30 2005-10-13 Hamamatsu Univ School Of Medicine 手術支援装置、方法及びプログラム
JP2014512210A (ja) * 2011-03-18 2014-05-22 コーニンクレッカ フィリップス エヌ ヴェ 神経外科における脳変形の追跡

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110164528A (zh) * 2018-02-15 2019-08-23 徕卡仪器(新加坡)有限公司 利用血管丛结构的弹性映射的图像处理方法和装置
JP2019141578A (ja) * 2018-02-15 2019-08-29 ライカ インストゥルメンツ (シンガポール) プライヴェット リミテッドLeica Instruments (Singapore) Pte. Ltd. 脈管叢構造の弾性マッピングを用いた画像処理方法および画像処理装置
CN110164528B (zh) * 2018-02-15 2023-12-29 徕卡仪器(新加坡)有限公司 利用血管丛结构的弹性映射的图像处理方法和装置
EP3854294A4 (en) * 2018-09-20 2021-10-20 NEC Corporation DEVICE AND METHOD FOR POSITION ESTIMATION, AND COMPUTER READABLE RECORDING MEDIA
US12082770B2 (en) 2018-09-20 2024-09-10 Nec Corporation Location estimation apparatus, location estimation method, and computer readable recording medium
CN109785955A (zh) * 2018-12-25 2019-05-21 襄阳市第一人民医院(襄阳市肿瘤医院) 一种基于计算机的神经外科诊疗控制系统及方法
WO2020194942A1 (ja) * 2019-03-27 2020-10-01 学校法人兵庫医科大学 脈管認識装置、脈管認識方法および脈管認識システム
JP7312394B2 (ja) 2019-03-27 2023-07-21 学校法人兵庫医科大学 脈管認識装置、脈管認識方法および脈管認識システム
JP2020156860A (ja) * 2019-03-27 2020-10-01 学校法人兵庫医科大学 脈管認識装置、脈管認識方法および脈管認識システム
WO2021250484A1 (en) * 2020-06-10 2021-12-16 Parth Chopra System and method to diagnose respiratory diseases in real-time
JP2023529223A (ja) * 2020-06-12 2023-07-07 フォンダシオン・ドゥ・コオペラシオン・シアンティフィック 外科手術に関連するビデオストリームの処理
WO2021256168A1 (ja) * 2020-06-15 2021-12-23 ソニーグループ株式会社 医用画像処理システム、手術画像制御装置、及び、手術画像制御方法
US12322049B2 (en) 2020-06-15 2025-06-03 Sony Group Corporation Medical image processing system, surgical image control device, and surgical image control method
CN113470167A (zh) * 2021-06-28 2021-10-01 平湖莱顿光学仪器制造有限公司 一种用于呈现三维显微图像的方法与设备
CN113470167B (zh) * 2021-06-28 2024-04-19 平湖莱顿光学仪器制造有限公司 一种用于呈现三维显微图像的方法与设备
WO2023145503A1 (ja) * 2022-01-31 2023-08-03 ソニーグループ株式会社 医療用情報処理システム、医療用情報処理方法、及びプログラム

Also Published As

Publication number Publication date
US11707340B2 (en) 2023-07-25
US11020202B2 (en) 2021-06-01
US20190151043A1 (en) 2019-05-23
JPWO2018012080A1 (ja) 2019-04-25
JP6883222B2 (ja) 2021-06-09
US20210244494A1 (en) 2021-08-12

Similar Documents

Publication Publication Date Title
JP6883222B2 (ja) 画像処理装置、画像処理方法、プログラム及び手術用ナビゲーションシステム
US20220192611A1 (en) Medical device approaches
CN104939925B (zh) 基于三角测量的深处和表面可视化
KR101572487B1 (ko) 환자와 3차원 의료영상의 비침습 정합 시스템 및 방법
US20170296292A1 (en) Systems and Methods for Surgical Imaging
JP7073618B2 (ja) 制御装置、制御方法及び医療用システム
JP2019115664A (ja) 医療手技におけるナビゲーションを補助するための拡張現実の使用
WO2017159335A1 (ja) 医療用画像処理装置、医療用画像処理方法、プログラム
JP5486432B2 (ja) 画像処理装置、その作動方法およびプログラム
KR101772187B1 (ko) 이미지 데이터의 입체적 묘사를 위한 방법 및 디바이스
JP2011193885A (ja) 内視鏡観察を支援するシステムおよび方法、並びに、装置およびプログラム
JP5961504B2 (ja) 仮想内視鏡画像生成装置およびその作動方法並びにプログラム
WO2018168261A1 (ja) 制御装置、制御方法、及びプログラム
CN110177518A (zh) 用于在图像捕获装置的视场内检测物体的系统和方法
CN113038864B (zh) 配置为生成三维信息并计算估计区域的医学观察系统和相应方法
JP5934070B2 (ja) 仮想内視鏡画像生成装置およびその作動方法並びにプログラム
CN110651333A (zh) 手术成像系统、方法和计算机程序产品
JP2014131552A (ja) 医療支援装置
WO2019155931A1 (ja) 手術システム、画像処理装置及び画像処理方法
JP2021003530A (ja) 医療用観察システム、制御装置及び制御方法
JP2020022563A (ja) 医療用観察装置
WO2022019057A1 (ja) 医療用アーム制御システム、医療用アーム制御方法及びプログラム
KR20200132174A (ko) 증강현실 대장 내시경 시스템 및 이를 이용한 모니터링 방법
JP2019154886A (ja) 医療用表示制御装置、および表示制御方法
WO2020009127A1 (ja) 医療用観察システム、医療用観察装置、及び医療用観察装置の駆動方法

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2018527403

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17827214

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17827214

Country of ref document: EP

Kind code of ref document: A1