RU2468436C2 - Система и способ для объединения ультразвуковых изображений в реальном времени с ранее полученными медицинскими изображениями - Google Patents
Система и способ для объединения ультразвуковых изображений в реальном времени с ранее полученными медицинскими изображениями Download PDFInfo
- Publication number
- RU2468436C2 RU2468436C2 RU2009124479/08A RU2009124479A RU2468436C2 RU 2468436 C2 RU2468436 C2 RU 2468436C2 RU 2009124479/08 A RU2009124479/08 A RU 2009124479/08A RU 2009124479 A RU2009124479 A RU 2009124479A RU 2468436 C2 RU2468436 C2 RU 2468436C2
- Authority
- RU
- Russia
- Prior art keywords
- image
- ultrasound
- coordinate system
- images
- imaging
- Prior art date
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/42—Details of probe positioning or probe attachment to the patient
- A61B8/4245—Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient
- A61B8/4254—Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient using sensors mounted on the probe
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/42—Details of probe positioning or probe attachment to the patient
- A61B8/4245—Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/14—Transformations for image registration, e.g. adjusting or mapping for alignment of images
- G06T3/153—Transformations for image registration, e.g. adjusting or mapping for alignment of images using elastic snapping
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10068—Endoscopic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10132—Ultrasound image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Medical Informatics (AREA)
- Animal Behavior & Ethology (AREA)
- Radiology & Medical Imaging (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- Pathology (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Ultra Sonic Daignosis Equipment (AREA)
- Magnetic Resonance Imaging Apparatus (AREA)
- Apparatus For Radiation Diagnosis (AREA)
Abstract
Изобретение относится к средствам магнитно-резонансного сканирования и визуализации. Техническим результатом является повышение точности и скорости проведения магнитно-резонансного исследования. В способе преобразуют координатную систему ультразвукового (УЗ) изображения в реальном времени в координатную систему УЗ датчика; преобразуют координатную систему УЗ датчика в координатную систему системы слежения, преобразуют координатную систему системы слежения в координатную систему ранее полученного изображения. 5 н. и 16 з.п. ф-лы, 8 ил.
Description
ПЕРЕКРЕСТНАЯ ССЫЛКА НА РОДСТВЕННЫЕ ЗАЯВКИ
В соответствии с § 119 (e) раздела 35 Кодекса законов США настоящая заявка испрашивает приоритет по предварительной заявке на патент в США №60/867221, «System and Method for Fusing Real-Time Ultrasound with Pre-Acquired Medical Images», поданной 27 ноября 2006 г. авторами Jochen Kruecker et al. Описание упомянутой предварительной заявки включено в настоящую заявку путем ссылки.
УРОВЕНЬ ТЕХНИКИ
Диагносту и терапевту доступны медицинские технологии визуализации различных типов. Каждая из упомянутых технологий обладает относительными преимуществами и относительными недостатками при разных применениях. Так, одна технология может быть полезна для одного типа исследований или одной разновидности визуализации, а другая технология может быть полезна для другого типа исследований или разновидности визуализации. По существу, часто случается, что для медицинской визуализации с целью диагностики или лечения или с той и другой целью можно воспользоваться, по меньшей мере, двумя визуализирующими системами.
Один полезный вид медицинской визуализации использует визуализацию на основе спинового резонанса, широко известную под названием магнитно-резонансной визуализации или MRI. Приборы MRI-визуализации прошли путь заметного развития и сейчас обеспечивают сканирование в реальном времени с высоким разрешением и подробностями. Магнитно-резонансные (MR) сканеры обеспечивают множество «двумерных» изображений или изображений слоев, которые можно исследовать непосредственно или можно реконструировать с использованием подходящего программного обеспечения для реконструкции (например, графического пользовательского интерфейса (GUI)) для воспроизведения трехмерного изображения на двумерном дисплее.
Хотя технология MRI обеспечивает развитые возможности визуализации, инвазивное исследование во время MR-сканирования могут быть сложными и дорогими. Например, во многих случаях полезно получать тканевые пробы с помощью процедуры, называемой биопсией. К сожалению, хотя разрешение и реальное время, обеспечиваемые MR-визуализацией, полезны для точной идентификации области расположения ткани для взятия пробы, биопсийные процедуры с использованием технологии MRI занимали бы много времени. Соответственно, возрастали бы затраты пациента.
Ультразвуковая визуализация является другой полезной технологией медицинского исследования путем визуализации. Ультразвуковая (УЗ) визуализация, помимо других преимуществ, обеспечивает сравнительно быструю визуализацию, исследование на месте выхаживания (например, биопсийное исследование) и лечение. Хотя разрешение УЗ изображения существенно повысили, это разрешение остается недостаточным для некоторых процедур исследования и лечения.
Поэтому существует потребность в способе, устройстве и системе, которые устраняют, по меньшей мере, упомянутый недостаток вышеописанных известных визуализирующих приборов и способов.
СУЩНОСТЬ ИЗОБРЕТЕНИЯ
В характерном варианте осуществления способ объединения ультразвукового изображения в реальном времени с изображением, ранее полученным по другой технологии, содержит этапы, заключающиеся в том, что преобразуют координатную систему ультразвукового (УЗ) изображения в координатную систему УЗ датчика; преобразуют координатную систему УЗ датчика в координатную систему системы слежения, выполненную с возможностью отслеживания положения УЗ датчика; и преобразуют координатную систему системы слежения в координатную систему ранее полученного изображения.
В другом характерном варианте осуществления способ медицинской визуализации содержит этапы, заключающиеся в том, что получают изображение выбранного участка; прикладывают ультразвуковой (УЗ) датчик для получения УЗ изображения участка; преобразуют координатные данные УЗ датчика в координатную систему системы слежения, выполненную с возможностью отслеживания положения УЗ датчика, для получения координатных данных в координатной системе системы слежения; преобразуют координатную систему системы слежения в координатную систему изображения для получения координатных данных в координатной системе изображения; и отображают изображение и УЗ изображение на исследуемом участке.
В другом характерном варианте осуществления устройство для объединения ультразвукового (УЗ) изображения в реальном времени с изображением, ранее полученным по другой технологии, содержит УЗ прибор, выполненный с возможностью получения УЗ изображения; датчик слежения, выполненный с возможностью определения положения УЗ прибора относительно координатной системы датчика слежения; компьютерочитаемый носитель, выполненный с возможностью преобразования координатной системы ультразвукового (УЗ) изображения в координатную систему УЗ датчика; компьютерочитаемый носитель, выполненный с возможностью преобразования координатной системы УЗ датчика в координатную систему системы слежения; и компьютерочитаемый носитель, выполненный с возможностью преобразования координатной системы системы слежения в координатную систему ранее полученного изображения.
В соответствии с еще одним характерным вариантом осуществления способ объединения ультразвукового изображения в реальном времени с изображением, ранее полученным по другой технологии, содержит этапы, заключающиеся в том, что выбирают плотное множество точек в отслеживаемом ультразвуковом изображении; согласуют плотное множество точек с сегментацией поверхности, полученной методом магнитного резонанса (MR), с использованием итеративного алгоритма ближайшей точки (ICP).
В соответствии с еще одним характерным вариантом осуществления способ объединения ультразвукового изображения в реальном времени с изображением, ранее полученным по другой технологии, содержит этапы, заключающиеся в том, что получают трехмерное (3D) ультразвуковое изображение; и вручную или автоматически совмещают 3D ультразвуковое с ранее полученным (MR) изображением.
КРАТКОЕ ОПИСАНИЕ ЧЕРТЕЖЕЙ
Принципы настоящего изобретения наиболее понятно изложены в нижеследующем подробном описании, составленном со ссылкой на прилагаемые фигуры на чертежах. Элементы на чертежах не всегда показаны в масштабе. Когда целесообразно, одинаковые числовые позиции обозначают одинаковые элементы.
Фиг.1 - концептуальная принципиальная схема системы для объединения ультразвукового (УЗ) изображения в реальном времени с изображением, ранее полученным по другой технологии в соответствии с характерным вариантом осуществления.
Фиг.2A - концептуальное представление преобразования множества точек на изображении, ранее полученном по другой технологии, в координатную систему для такого изображения в соответствии с характерным вариантом осуществления.
Фиг.2B - концептуальное представление ультразвукового изображения в реальном времени с множеством точек на поверхности органа, подлежащего совмещению с ранее полученным изображением.
Фиг.2C - концептуальное представление совмещения множества точек изображения в реальном времени с координатной системой ранее полученного изображения в соответствии с характерным вариантом осуществления.
Фиг.2D - УЗ изображение, содержащее множество областей, выбранных для анализа с использованием УЗ визуализации объединенного ранее полученного изображения в реальном времени в соответствии с характерным вариантом осуществления.
Фиг.3 - снимок экрана/отображение УЗ изображения в реальном времени и пространственно согласующаяся многоплоскостная реконструкция (MPR) ранее полученного 3D изображения, основанная на совмещении точек поверхности ультразвукового изображения с сегментацией поверхности ранее полученного изображения в соответствии с характерным вариантом осуществления.
Фиг.4 - концептуальная принципиальная схема, представляющая преобразование координатной системы УЗ прибора в координатную систему ранее полученного изображения в соответствии с характерным вариантом осуществления.
Фиг.5 - изображение альтернативного способа объединения ультразвукового изображения в реальном времени с изображением, ранее полученным по другой технологии, в соответствии с наглядным вариантом осуществления.
ОПИСАНИЕ ТЕРМИНОВ
Для целей настоящей заявки термины, приведенные в единственном числе, считаются означающими единственное или множественное число.
ПОДРОБНОЕ ОПИСАНИЕ
В нижеследующем подробном описании, в целях пояснения, а не для ограничения, характерные варианты осуществления, содержащие конкретные детали, предлагаются для обеспечения всестороннего понимания принципов настоящего изобретения. Описания известных приборов, материалов и способов изготовления могут отсутствовать во избежание неясности описания примерных вариантов осуществления. Тем не менее, в соответствии с характерными вариантами осуществления возможно применение таких приборов, материалов и способов, которые находятся в пределах компетенции специалиста со средним уровнем компетенции в данной области техники.
В нижеследующем подробном описании, в целях пояснения, а не для ограничения, наглядные варианты осуществления, содержащие конкретные детали, предлагаются для обеспечения всестороннего понимания принципов настоящего изобретения. Кроме того, описания общеизвестных приборов, аппаратных средств, программного обеспечения, микропрограммного обеспечения, способов и систем могут отсутствовать во избежание неясности описания наглядных вариантов осуществления. Тем не менее, в соответствии с наглядными вариантами осуществления возможно применение таких аппаратных средств, программного обеспечения, микропрограммного обеспечения, приборов, способов и систем, которые находятся в пределах компетенции специалиста со средним уровнем компетенции в данной области техники. И, наконец, когда целесообразно, одинаковые числовые позиции обозначают одинаковые элементы.
В нижеследующем подробном описании представлены способы, которые можно осуществить посредством стандартных программ и символическим описанием операций с информационными битами в компьютерочитаемом носителе, соответствующих процессорах, микропроцессорах, цифровых осциллографах с памятью, универсальных персональных компьютерах, технологическом оборудовании, выполненном в конфигурации с платами сбора данных и т.п. В общем, настоящий способ должен представлять собой последовательность этапов или операций, приводящих к искомому результату, и, по существу, охватывает такие технические термины, как «стандартная программа», «программа, «объекты», «функции», «стандартные подпрограммы» и «процедуры».
Что касается программного обеспечения, пригодного для вариантов осуществления, описанных в настоящей заявке, то специалистам со средним уровнем компетентности в данной области техники будет очевидно, что существует множество различных платформ и языков для создания программного обеспечения для выполнения процедур, описанных в настоящей заявке. Некоторые наглядные варианты осуществления можно реализовать с использованием любых из большого числа разнообразных операционных систем (OS) и языков программирования. Например, OS может быть любой коммерческой операционной системой компании Microsoft Corporation, Seattle, Washington, США или операционной системой Linux. Язык программирования может быть языком программирования C, например, C++, или Java.
Характерные варианты осуществления описаны в контексте медицинской визуализации для объединения ультразвукового (УЗ) изображения в реальном времени, полученного методом свободной руки, и ранее полученного магнитно-резонансного (MR) изображения. Следует подчеркнуть, что представленное применение принципов настоящего изобретения предназначено просто для наглядности. В общем случае, принципы настоящего изобретения предполагается применять для визуализации и, в частности, медицинской визуализации, в ходе которой изображение в реальном времени, получаемое по одной технологии, объединяют с медицинским изображением, ранее полученным по другой технологии.
На фиг.1 приведена концептуальная принципиальная схема системы 100 для объединения ультразвукового (УЗ) изображения в реальном времени с изображением, ранее полученным по другой технологии в соответствии с характерным вариантом осуществления. Система 100 содержит УЗ прибор 101, выполненный с возможностью получения изображений. Прибор 101 может быть одним из множества известных УЗ приборов/зондов, включая зонды для получения двумерного и трехмерного УЗ изображения. Например, прибор 101 может быть трансректальным ультразвуковым (TRUS) зондом для работы в реальном времени методом свободной руки и, как более полно описано в настоящей заявке, может служить для управления установкой игл для биопсии или постановкой радиоактивных зерен для брахитерапии.
К прибору 101 присоединен следящий прибор (не показан), который взаимодействует с генератором 102 следящего поля. Следящий прибор и генератор поля могут использовать в качестве основы одну из ряда технологий. Например, УЗ прибор 101 может осуществлять слежение с использованием электромагнитной или другой системы пространственного слежения в сочетании с датчиком слежения, присоединенным к прибору 101. Слежение выполняется во время ультразвуковой визуализации пациента (например, трансректальной визуализации простаты (TRUS)). Ультразвуковой зонд может выполнять слежение встраиванием датчиков слежения в прибор, который жестко присоединен к ультразвуковому зонду, например, в направляющую для биопсии (например, посредством насадки CIVCO), или встраиванием датчиков слежения в зонд. Одной из примерных систем слежения является коммерческая электромагнитная система слежения Aurora компании NDI, Waterloo, Канада.
УЗ сканер 103 собирает изображения в реальном времени из прибора 101 и подает их в локальный монитор и в рабочую станцию 104. Как более полно поясняется в настоящей заявке, рабочая станция 104 получает информацию пространственного отслеживания прибора 101 из контроллера слежения и объединяет данные изображения в реальном времени, полученные от УЗ сканера 103, с данными ранее полученного изображения.
Как более понятно из дальнейшего содержания настоящего описания, рабочая станция 104 содержит программное обеспечение, которое позволяет идентифицировать точки в ультразвуковом изображении из сканера 103 и которое преобразует координаты упомянутых точек из координат ультразвукового изображения в координаты в координатной системе системы слежения (следящего прибора, генератора 102 поля и контроллера 105), с использованием одноразовой калибровки отслеживаемого ультразвукового прибора 101 и с использованием информации об отслеживании зонда, обеспечиваемой в реальном времени датчиком слежения за зондом. По упомянутым данным, рабочая станция 104 и рабочий компьютерочитаемый носитель (программное обеспечение) согласуют плотное множество точек (полученные системой слежения координаты точек поверхности, идентифицированных в ультразвуковых изображениях) с поверхностной сеткой (сегментация поверхности на ранее полученном изображении); и вычисляет преобразование Tregistration совмещения (пространство слежения → пространство ранее полученного изображения) с использованием итеративного алгоритма ближайшей точки (ICP) или его модификации. Рабочая станция 104 и ее программное обеспечение принимает и отображает текущее УЗ изображение (в реальном времени); и вычисляет и отображает многоплоскостную реконструкцию (MPR) ранее полученного изображения, соответствующего тому же самому участку, что и ультразвуковое изображение, с использованием преобразования Tregistration совмещения, преобразования Ttracking отслеживания зонда в реальном времени из датчика отслеживания зонда и одноразовой калибровки отслеживаемого ультразвукового зонда. Оператор УЗ прибора 101 может размещать на полиэкранном дисплее прибор 101 в представляющем интерес участке на поверхности или внутри пациента с точностью ранее полученного изображения и возможностью УЗ сканера.
Кроме других преимуществ, совмещение ультразвуковых изображений, полученных в реальном времени методом свободной руки, с ранее полученными (например, 3D) изображениями того же органа выполняется системой 100 быстро. Система 100 не полагается на специальные опорные метки, которые могут быть не во всех случаях. Совмещение выполняется достаточно быстро, чтобы выполнять его во время обычного ультразвукового исследования, так что визуализация, в принципе, не создает длительного неудобства для пациента. Кроме того, система не ограничивает гибкого свободного ручного использования ультразвукового зонда.
На фиг.2A концептуально представлено преобразование множества точек на изображении, ранее полученном по одной технологии, в координатную систему для такого изображения в соответствии с характерным вариантом осуществления. Поверхность множества «слоев» ранее полученного изображения 201 (например, множества слоев MR-изображения, CT-изображения или 3D изображения другого типа) сегментируется в рабочей станции 104 ее программным обеспечением, и сегментированные линии и точки поверхности преобразуются в триангулированную поверхностную сетку, как показано на фиг.2A.
После преобразования множества точек на предварительно полученном изображении в координатную систему для такого изображения может быть выполнено преобразование координат/координатной системы УЗ изображения (в реальном времени). В рабочей станции 104 идентифицируют множество точек 203 на ультразвуковом изображении, как показано на фиг.2B. Координаты таких точек 203 преобразуют из координатной системы ультразвукового изображения в координаты системы слежения с использованием одноразовой калибровки отслеживаемого ультразвукового зонда и с использованием информации отслеживания зонда в реальном времени, обеспечиваемой датчиком отслеживания зонда. Как более подробно поясняется в связи с фиг.3, координатная система УЗ прибора 101 является динамичной и, следовательно, изменяется как по положению, так и по ориентации. Таким образом, координаты УЗ прибора 101 изменяются с перемещением прибора 101 во время визуализации. Преобразование координатной системы УЗ прибора в координатную систему системы слежения применяется для преобразования положения прибора 101 в координаты ранее полученного изображения.
Ультразвуковое изображение в реальном времени может передаваться в рабочую станцию с использованием метода ввода и регистрации видеокадров или с использованием потоковой передачи цифровых данных изображения. Рабочая станция получает ультразвуковые изображения (Ui) и соответствующую информацию Ttracking,i слежения из отслеживаемого ультразвукового прибора 101, по существу, одновременно (i является индексом или временной меткой полученных данных). Пользователь идентифицирует точки 203 в ультразвуковом изображении щелчком мыши, при указателе мыши на ультразвуковом изображении в реальном времени, отображаемом на рабочей станции 104. В альтернативном варианте вместо выбора точек поверхности ультразвукового изображения на ультразвуковом изображении в реальном времени изображение (и соответствующие записанные координаты слежения) можно «заморозить» и точки изображения можно выбирать на «замороженном» изображении. Выбранные таким образом координаты pi US ультразвукового изображения преобразуют в координаты pi Tracking системы слежения с использованием преобразования Tcalibration одноразовой калибровки (например, матрицы преобразования) отслеживаемого ультразвукового зонда и с использованием преобразования Ttracking,i отслеживания положения зонда в реальном времени, обеспечиваемой датчиком отслеживания зонда: pi Tracking=Ttracking,i·Tcalibratlon·pi US (где символ «·» означает матричное умножение). Выбором нескольких точек на поверхности представляющего интерес органа формируется множество точек {pi Tracking} поверхности в координатной системе системы слежения.
Затем множество точек 203 поверхности согласуется с сеткой 202 сегментированной поверхности ранее полученного изображения. Такое согласование описано на фиг.2C. Рабочая станция 104 содержит итеративный алгоритм ближайшей точки (ICP) или его модификацию для согласования плотного множества 203 точек (координаты {pi Tracking} системы слежения точек поверхности, идентифицированных в ультразвуковых изображениях) с поверхностной сеткой 202 (сегментации поверхности в ранее полученном изображении), причем упомянутый алгоритм вычисляет преобразование Tregistration совмещения, которое согласует координатную систему системы слежения с координатной системой ранее полученного изображения, где точки 204 изображают объединенные точки ранее полученного изображения и изображения в реальном времени. Упомянутое совмещение ранее полученного изображения, имеющего сравнительно высокое разрешение, и УЗ изображения в реальном времени обеспечивает возможность более точного тестирования и терапии.
На фиг.2D показано УЗ изображение, содержащее множество областей 205, 205', выбранных для анализа с использованием объединенного ранее полученного изображения в реальном времени УЗ визуализации в соответствии с характерным вариантом осуществления. В соответствии с описанием наглядных вариантов осуществления термин «допроцедурное изображение» означает ранее полученное изображение. Ранее полученное изображение содержит MR-изображение, но может быть одним из изображений, полученных по различным технологиям, включая, но без ограничения, визуализацию методом компьютерной томографии (CT); визуализацию методом позитронно-эмиссионной томографии (PET); или визуализацию методом однофотонной эмиссионной компьютерной томографии (SPECT). Области 205 выбираются врачом для просмотра в реальном времени (областей 205') внутрипроцедурного изображения. Внутрипроцедурное изображение содержит изображение, ранее полученное по выбранной технологии, объединенное с УЗ изображением в реальном времени с использованием способом и систем в соответствии с характерными вариантами осуществления. Искомые процедуры можно выполнять с использованием внутрипроцедурного изображения. Упомянутые процедуры содержат взятие пробы (биопсии) или воздействие на лечебную процедуру. Оборудование, необходимое для процедуры, можно присоединять к УЗ зонду или иначе направлять с его помощью.
На фиг.3 представлен снимок экрана/отображение УЗ изображения и пространственно согласующаяся многоплоскостная реконструкция (MPR) ранее полученного 3D изображения, основанная на совмещении точек поверхности ультразвукового изображения с сегментацией поверхности ранее полученного изображения в соответствии с характерным вариантом осуществления. Для облегчения описания сегментация поверхности налагается также на оба изображения. Отображение ультразвукового изображения (слева) в реальном времени и пространственно согласующейся MPR ранее полученного 3D изображения (справа) обеспечивает полезную иллюстрацию преимуществ способов, устройств и систем в соответствии с характерными вариантами осуществления. Отображение ультразвукового изображения в реальном времени вместе с согласованно совмещенной MPR ранее полученного 3D изображения можно выполнять с использованием дисплея с выведением рядом расположенных изображений, возможно, с наложением сегментированной поверхности или с объединением в одно изображение с использованием альфа-сопряжения, с переменной альфа-прозрачностью.
С самого начала из анализа отображения становится понятно, что УЗ изображение имеет разрешение, которое перекрывается разрешением ранее полученного изображения. Однако, так как УЗ изображение является изображением в реальном времени, и координаты УЗ изображения преобразуются в координатную систему ранее полученного изображения, то выполняется точное исследование и лечение в реальном времени. Иначе говоря, в реальном времени точно определяется положение УЗ прибора 101, и УЗ прибор 101 точно устанавливается посредством преобразования ранее полученного изображения (с более высоким разрешением) в координаты УЗ изображения, и наоборот (посредством обратного преобразования координат из пространства ранее полученного изображения в пространство изображения в реальном времени). На дисплее, показанном на фиг.3, оператор может фактически наблюдать местоположение прибора 101 в реальном времени, по существу, на ранее полученном изображении.
На фиг.4 показана концептуальная принципиальная схема, поясняющая преобразование координатной системы УЗ прибора в координатную систему ранее полученного изображения в соответствии с характерным вариантом осуществления. Преобразование из координатной системы 2D УЗ прибора 101 (Cus) описано и показано «несплошными» линиями, которые направлены против часовой стрелки на фиг.4. Как несложно понять специалисту со средним уровнем компетентности в данной области техники, для получения противоположного координатного преобразования из одного пространства изображения в другое можно применить обратное преобразование.
Данные УЗ изображения обеспечиваются в пространстве координат УЗ прибора 101 или Cus. Преобразование (Tcalibration) одноразовой калибровки преобразует координаты пространства изображения УЗ изображения в координатную систему датчика слежения. Следует понимать, что упомянутое преобразование является относительно простым и обеспечивает получение координат изображения в реальном времени в координатной системе УЗ прибора 101.
Затем координатная система прибора 101 (Csensor) преобразуется в координатную систему следящего прибора. Это преобразование обеспечивает преобразование координат изображения в реальном времени в координаты системы слежения. Как будет понятно, перемещение прибора 101 изменяет как положение, так и ориентацию координатной системы прибора, когда прибор 101 перемещают по методу свободной руки. Следовательно, изменение координатной системы прибора 101 динамически изменяет и, следовательно, осуществляет связь с другими координатными системами системы 100 визуализации. Система визуализации поддерживает определение измененного положения прибора 101, и преобразование в координаты системы слежения позволяет обеспечивать данные положения прибора 101 в неизменяющейся координатной системе.
Затем выполняется процесс совмещения. Процесс совмещения представляет собой преобразование координат изображения в реальном времени в координатную систему ранее полученного изображения. В характерных вариантах осуществления упомянутое преобразование выполняется с использованием так называемого итеративного алгоритма ближайшей точки (ICP), описанного в статье «A Method for Registration of 3-D Shapes» IEEE Trans. Pat. Anal. and Mach. Intel. 14(2), pp 239-256, Feb 1992, to P. J. Besl and N. D. McKay. Описание данной статьи в явной форме включено в настоящую заявку путем отсылки.
Таким образом, рабочая станция 104 и исполняемое в ней программное обеспечение получают и отображают текущее ультразвуковое изображение; и вычисляют и отображают многоплоскостную реконструкцию (MPR) ранее полученного изображения, согласующегося с местоположением ультразвукового изображения; используют преобразование Tregistration совмещения, одноразовую калибровку Tcalibratlon и текущее отслеживаемое положение Ttracking ультразвукового зонда:
Trealtime2preacquired=Tregistration·Ttracking·Tcalibration;
где Trealtime2preacquired означает преобразование из пространства (2D) изображения получаемого в реальном времени изображения в пространство изображения ранее полученного изображения.
По окончании процесса совмещения пространство изображения в реальном времени преобразовано в пространство ранее полученного изображения с обеспечением вышеописанных преимуществ.
В еще одном характерном варианте осуществления изображение в реальном времени является 3D УЗ изображением. Следует отметить, что многие детали соответствующего преобразования являются общими с деталями, описанными выше, и описание таких деталей не повторяется во избежание запутывания описания соответствующих вариантов осуществления.
По окончании преобразования в координатную систему (3D) УЗ прибора (Csensor) выполняют преобразование 3D УЗ изображения в реальном времени в координатную систему следящего прибора. Затем выполняют совмещение из координатной системы следящего прибора в координатную систему пространства ранее полученного изображения. Такое совмещение может выполняться в процессе исполнения ранее упомянутого ICP.
На фиг.5 представлен альтернативный способ в соответствии с наглядным вариантом осуществления. Вместо согласования точек поверхности в пространстве слежения с пространством ранее полученного изображения с помощью ICP один из объемов, непрерывно получаемых методом 3D ультразвукового сканирования в реальном времени, может быть «заморожен» и непосредственно совмещен с ранее полученным изображением с использованием методов ручного совмещения или автоматического совмещения посредством максимизации критерия подобия между объемами двух изображений.
Для создания возможности ручного совмещения система 100 содержит графический пользовательский интерфейс (GUI), который позволяет оператору манипулировать сдвигом (по направлениям x, y и z) и ориентацией (вокруг осей x, y и z) 3D ультразвукового изображения относительно ранее полученного изображения. Как должно быть понятно, GUI реализуют в рабочей станции 104. При каждой манипуляции упомянутыми параметрами система может визуализировать скорректированную пространственную подгонку ультразвуковых изображений 501 к ранее полученным изображениям 502. Для наглядности упомянутая визуализация может осуществляться с использованием полупрозрачного наложения/альфа-сопряжения двух изображений на 2D сечениях или 3D видах, чтобы обеспечивать для оператора информацию обратной связи о качестве совмещения изображений. В другом варианте осуществления система может визуализировать текущую подгонку множества сечений 3D ультразвукового изображения к соответствующим сечениям посредством сегментации в ранее полученном изображении. Получаемое преобразование представлено на фиг.5 для совмещаемых, как показано, УЗ изображений 501' и ранее полученного изображения 502'. Показаны также сечения 503 посредством сегментации ранее полученного изображения.
Для автоматического совмещения предполагается использование одного из множества различных известных критериев подобия для совмещения изображений, полученных по нескольким технологиям. Например, так называемая взаимная информация, например, описанная в работе J. B. Maintz and M. A. Viergever, «A survey of medical image registration», Med Image Anal, vol. 2, pp. 1-36, Mar 1998; и один из множества различных известных методов оптимизации, например, так называемый, нисходящий симплексный (Downhill Simplex), описанный в работе W. H. Press, B. P. Flannery, S. A. Teukolsky, and W. T. Vetterling, «Numerical Recipes in C»: Cambridge University Press, New York, 1990. Описания упомянутых работ в явной форме включены в настоящую заявку путем отсылки.
Соответственно, рабочая станция 104 и исполняемое в ней программное обеспечение получает и отображает текущее 3D ультразвуковое изображение; и вычисляет и отображает многоплоскостные реконструкции (MPR) или изображения объемов ранее полученного изображения, согласующиеся с местоположением ультразвукового изображения; использует преобразование Tregistration совмещения, одноразовую калибровку Tcalibratlon отслеживаемого ультразвукового зонда и текущее положение отслеживаемого ультразвукового зонда. Таким образом, ранее полученное изображение можно использовать для высокоточного определения положения УЗ прибора 101 относительно заданного участка в пациенте.
В другом варианте осуществления 3D ультразвуковой объем можно реконструировать из отслеживаемых 2D ультразвуковых изображений и соответствующих им отслеживаемых положений изображений с целью установления Tregistration. Описанный процесс изображен «сплошными» стрелками, направленными против часовой стрелки на фиг.4. Совмещение между реконструированным 3D УЗ изображением и ранее полученным изображением можно осуществлять таким же образом, как описано выше для совмещения одного из объемов, непрерывно получаемых методом 3D ультразвукового сканирования в реальном времени: либо с использованием выбора точки поверхности в 3D ультразвуковом изображении и затем совмещения точки с поверхностью по алгоритму ICP, либо с использованием ручного или автоматического совмещения изображений (ультразвукового изображения с ранее полученным изображением).
В связи с вышеприведенным описанием следует отметить, что различные способы, устройства и системы, описанные в настоящей заявке, можно реализовать для множества различных применений с использованием различных модификаций приборов, технологий, программных и аппаратных средств. Более того, пользу от применения принципов настоящего изобретения можно извлечь в других областях применения, кроме медицинской визуализации. Кроме того, различные приборы, технологии, программные и аппаратные средства и параметры включены в настоящее описание только для примера, а не для ограничения. С учетом настоящего описания специалисты в данной области техники смогут реализовать принципы настоящего изобретения при определении собственных применений и необходимых приборов, программных и аппаратных средств и другого оборудования для исполнения таких применений, но при этом без выхода за пределы объема притязаний прилагаемой формулы изобретения.
Claims (21)
1. Способ объединения ультразвукового изображения в реальном времени с изображением, ранее полученным по другой технологии, при этом способ содержит этапы, на которых: преобразуют координатную систему ультразвукового (УЗ) изображения в реальном времени в координатную систему УЗ датчика; преобразуют координатную систему УЗ датчика в координатную систему системы слежения, выполненную с возможностью отслеживания положения УЗ датчика; и преобразуют координатную систему системы слежения в координатную систему ранее полученного изображения.
2. Способ по п.1, в котором другая технология является одной из технологий: магнитно-резонансной (MR) визуализации, визуализации методом компьютерной томографии (СТ), визуализации методом позитронно-эмиссионной томографии (PET) или визуализации методом однофотонной эмиссионной компьютерной томографии (SPECT).
3. Способ по п.1, в котором УЗ изображение содержит множество двумерных УЗ изображений.
4. Способ по п.1, в котором УЗ изображение содержит множество трехмерных УЗ изображений.
5. Способ по п.2, в котором MR изображение является трехмерным изображением.
6. Способ медицинского исследования, при этом способ содержит этапы, на которых: получают изображение исследуемого участка; прикладывают ультразвуковой (УЗ) датчик для получения УЗ изображения в реальном времени исследуемой области; преобразуют координатные данные УЗ датчика в координатную систему системы слежения, выполненную с возможностью отслеживания положения УЗ датчика, для получения координатных данных в координатной системе системы слежения; преобразуют координатную систему системы слежения в координатную систему изображения для получения координатных данных в координатной системе изображения и отображают изображение и УЗ изображение исследуемого участка.
7. Способ по п.6, в котором изображение является магнитно-резонансным (MR) изображением.
8. Способ по п.6, дополнительно содержащий после этапа получения УЗ изображения этап выбора области в пределах исследуемого участка для получения изображения.
9. Способ по п.6, дополнительно содержащий этап выполнения медицинской процедуры после этапа отображения.
10. Способ по п.6, дополнительно содержащий после этапа отображения этап выполнения исследования, или лечения, или оба этапа на исследуемом участке.
11. Устройство для объединения ультразвукового (УЗ) изображения в реальном времени с изображением, ранее полученным по другой технологии, содержащее: УЗ прибор, выполненный с возможностью получения УЗ изображений; датчик слежения, выполненный с возможностью определения положения УЗ прибора относительно координатной системы датчика слежения; компьютерочитаемый носитель, выполненный с возможностью преобразования координатной системы ультразвукового (УЗ) изображения в координатную систему УЗ датчика; компьютерочитаемый носитель, выполненный с возможностью преобразования координатной системы УЗ датчика в координатную систему системы слежения; и компьютерочитаемый носитель, выполненный с возможностью преобразования координатной системы системы слежения в координатную систему ранее полученного изображения.
12. Устройство по п.11, в котором ранее полученное изображение является магнитно-резонансным (MR) изображением.
13. Устройство по п.11, в котором ультразвуковое (УЗ) изображение содержит множество двумерных УЗ изображений.
14. Устройство по п.11, в котором УЗ изображение содержит множество трехмерных УЗ изображений.
15. Устройство по п.11, дополнительно содержащее рабочую станцию, которая содержит рабочую станцию, содержащую процессор, выполненный с возможностью приведения в исполнение компьютерочитаемого носителя.
16. Устройство по п.11, в котором УЗ прибор дополнительно содержит следящий передатчик и медицинский прибор, выполненный с возможностью отбора проб или выполнения лечебной процедуры, или того и другого.
17. Способ объединения ультразвукового изображения в реальном времени с изображением, ранее полученным по другой технологии, при этом способ содержит этапы, на которых: выбирают плотное множество точек в отслеживаемом ультразвуковом изображении; согласуют плотное множество точек с сегментацией поверхности, полученной методом магнитного резонанса (MR), с использованием итеративного алгоритма ближайшей точки (ICP).
18. Способ объединения ультразвукового изображения в реальном времени с изображением, ранее полученным по другой технологии, при этом способ содержит этапы, на которых: получают трехмерное (3D) ультразвуковое изображение и совмещают вручную или автоматически 3D ультразвуковое с ранее полученным (MR) изображением.
19. Способ по п.18, в котором этап совмещения содержит этап отображения сегментации поверхности, полученной методом магнитного резонанса (MR), совместно с 3D ультразвуковым изображением.
20. Способ по п.18, в котором этап получения выполняют либо отслеживаемым УЗ 3D зондом, либо 3D реконструкцией множества отслеживаемых 2D ультразвуковых изображений.
21. Способ по пп.18-20, в котором другая технология является одной из технологий: магнитно-резонансной (MR) визуализации, визуализации методом компьютерной томографии (СТ), визуализации методом позитронно-эмиссионной томографии (PET) или визуализации методом однофотонной эмиссионной компьютерной томографии (SPECT).
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US86722106P | 2006-11-27 | 2006-11-27 | |
US60/867,221 | 2006-11-27 | ||
PCT/IB2007/054792 WO2008065600A2 (en) | 2006-11-27 | 2007-11-26 | System and method for fusing real-time ultrasound images with pre-acquired medical images |
Publications (2)
Publication Number | Publication Date |
---|---|
RU2009124479A RU2009124479A (ru) | 2011-01-10 |
RU2468436C2 true RU2468436C2 (ru) | 2012-11-27 |
Family
ID=39468342
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
RU2009124479/08A RU2468436C2 (ru) | 2006-11-27 | 2007-11-26 | Система и способ для объединения ультразвуковых изображений в реальном времени с ранее полученными медицинскими изображениями |
Country Status (6)
Country | Link |
---|---|
US (1) | US8731264B2 (ru) |
EP (1) | EP2104919A2 (ru) |
JP (2) | JP2010515472A (ru) |
CN (1) | CN101681504A (ru) |
RU (1) | RU2468436C2 (ru) |
WO (1) | WO2008065600A2 (ru) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU2653807C2 (ru) * | 2016-06-27 | 2018-05-14 | Государственное бюджетное образовательное учреждение высшего профессионального образования "Санкт-Петербургский государственный педиатрический медицинский университет" Министерства здравоохранения Российской Федерации (ГБОУ ВПО СПбГПМУ Минздрава России) | Способ дооперационной оценки лимфогенного метастазирования рака пищевода и желудка |
Families Citing this family (141)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2008017051A2 (en) | 2006-08-02 | 2008-02-07 | Inneroptic Technology Inc. | System and method of providing real-time dynamic imagery of a medical procedure site using multiple modalities |
US20080161687A1 (en) * | 2006-12-29 | 2008-07-03 | Suri Jasjit S | Repeat biopsy system |
US20080186378A1 (en) * | 2007-02-06 | 2008-08-07 | Feimo Shen | Method and apparatus for guiding towards targets during motion |
WO2009094646A2 (en) | 2008-01-24 | 2009-07-30 | The University Of North Carolina At Chapel Hill | Methods, systems, and computer readable media for image guided ablation |
US8340379B2 (en) | 2008-03-07 | 2012-12-25 | Inneroptic Technology, Inc. | Systems and methods for displaying guidance data based on updated deformable imaging data |
US9498600B2 (en) | 2009-07-01 | 2016-11-22 | Avinger, Inc. | Atherectomy catheter with laterally-displaceable tip |
US9125562B2 (en) | 2009-07-01 | 2015-09-08 | Avinger, Inc. | Catheter-based off-axis optical coherence tomography imaging system |
US8062316B2 (en) | 2008-04-23 | 2011-11-22 | Avinger, Inc. | Catheter system and method for boring through blocked vascular passages |
US8644913B2 (en) | 2011-03-28 | 2014-02-04 | Avinger, Inc. | Occlusion-crossing devices, imaging, and atherectomy devices |
US20090326363A1 (en) * | 2008-05-02 | 2009-12-31 | Eigen, Llc | Fused image modalities guidance |
US20110178389A1 (en) * | 2008-05-02 | 2011-07-21 | Eigen, Inc. | Fused image moldalities guidance |
US10568535B2 (en) | 2008-05-22 | 2020-02-25 | The Trustees Of Dartmouth College | Surgical navigation with stereovision and associated methods |
WO2009143491A2 (en) * | 2008-05-22 | 2009-11-26 | The Trustees Of Dartmouth College | System and method for calibration for image-guided surgery |
US11690558B2 (en) * | 2011-01-21 | 2023-07-04 | The Trustees Of Dartmouth College | Surgical navigation with stereovision and associated methods |
US8376951B2 (en) * | 2008-07-15 | 2013-02-19 | Hitachi Medical Corporation | Ultrasonic diagnostic apparatus and method for displaying probe operation guide |
US8611985B2 (en) | 2009-01-29 | 2013-12-17 | Imactis | Method and device for navigation of a surgical tool |
US11464578B2 (en) | 2009-02-17 | 2022-10-11 | Inneroptic Technology, Inc. | Systems, methods, apparatuses, and computer-readable media for image management in image-guided medical procedures |
US8554307B2 (en) | 2010-04-12 | 2013-10-08 | Inneroptic Technology, Inc. | Image annotation in image-guided medical procedures |
US8690776B2 (en) | 2009-02-17 | 2014-04-08 | Inneroptic Technology, Inc. | Systems, methods, apparatuses, and computer-readable media for image guided surgery |
US8641621B2 (en) | 2009-02-17 | 2014-02-04 | Inneroptic Technology, Inc. | Systems, methods, apparatuses, and computer-readable media for image management in image-guided medical procedures |
US10004387B2 (en) | 2009-03-26 | 2018-06-26 | Intuitive Surgical Operations, Inc. | Method and system for assisting an operator in endoscopic navigation |
US8337397B2 (en) | 2009-03-26 | 2012-12-25 | Intuitive Surgical Operations, Inc. | Method and system for providing visual guidance to an operator for steering a tip of an endoscopic device toward one or more landmarks in a patient |
WO2010129075A1 (en) | 2009-04-28 | 2010-11-11 | Avinger, Inc. | Guidewire support catheter |
US9521994B2 (en) * | 2009-05-11 | 2016-12-20 | Siemens Healthcare Gmbh | System and method for image guided prostate cancer needle biopsy |
CN102428496B (zh) * | 2009-05-18 | 2015-08-26 | 皇家飞利浦电子股份有限公司 | 用于em跟踪内窥镜系统的无标记物跟踪的配准和校准 |
EP2435815B1 (en) | 2009-05-28 | 2023-08-09 | Avinger, Inc. | Optical coherence tomography for biological imaging |
US10980508B2 (en) | 2009-06-05 | 2021-04-20 | Koninklijke Philips N.V. | System and method for integrated biopsy and therapy |
US9545242B2 (en) | 2009-07-31 | 2017-01-17 | Samsung Medison Co., Ltd. | Sensor coordinate calibration in an ultrasound system |
KR101121286B1 (ko) | 2009-07-31 | 2012-03-23 | 한국과학기술원 | 센서의 교정을 수행하는 초음파 시스템 및 방법 |
KR101232925B1 (ko) | 2011-04-27 | 2013-02-13 | 인텔렉추얼디스커버리 주식회사 | 실시간 단층 영상 생성장치, 생성방법 및 실시간 단층 영상을 이용한 의료장치 |
CN102970926B (zh) | 2010-06-28 | 2016-08-17 | 皇家飞利浦电子股份有限公司 | Em校准的实时质量控制 |
WO2014039096A1 (en) | 2012-09-06 | 2014-03-13 | Avinger, Inc. | Re-entry stylet for catheter |
WO2012003430A2 (en) | 2010-07-01 | 2012-01-05 | Avinger, Inc. | Atherectomy catheters with longitudinally displaceable drive shafts |
WO2014039099A1 (en) | 2012-09-06 | 2014-03-13 | Avinger, Inc. | Balloon atherectomy catheters with imaging |
US11382653B2 (en) | 2010-07-01 | 2022-07-12 | Avinger, Inc. | Atherectomy catheter |
JP5485853B2 (ja) * | 2010-10-14 | 2014-05-07 | 株式会社日立メディコ | 医用画像表示装置及び医用画像誘導方法 |
WO2012056034A1 (de) * | 2010-10-28 | 2012-05-03 | Fiagon Gmbh | Navigationsaufsatz für optische geräte in der medizin und verfahren |
US8472686B2 (en) * | 2010-11-08 | 2013-06-25 | Cranial Technologies, Inc. | Method and apparatus for orienting image representative data |
TWI431256B (zh) * | 2010-12-16 | 2014-03-21 | Pai Chi Li | 超音波診斷系統及其手持式超音波診斷裝置 |
US9949754B2 (en) | 2011-03-28 | 2018-04-24 | Avinger, Inc. | Occlusion-crossing devices |
JP5995408B2 (ja) | 2011-04-01 | 2016-09-21 | キヤノン株式会社 | 情報処理装置、撮影システム、情報処理方法および情報処理をコンピュータに実行させるためのプログラム |
EP2699166B1 (en) | 2011-04-21 | 2019-09-04 | Koninklijke Philips N.V. | Mpr slice selection for visualization of catheter in three-dimensional ultrasound |
JP5682873B2 (ja) * | 2011-09-27 | 2015-03-11 | ジーイー・メディカル・システムズ・グローバル・テクノロジー・カンパニー・エルエルシー | 超音波診断装置 |
US20130085383A1 (en) * | 2011-10-04 | 2013-04-04 | Emory University | Systems, methods and computer readable storage media storing instructions for image-guided therapies |
BR112014008461A2 (pt) * | 2011-10-11 | 2017-04-11 | Koninklijke Philips Nv | aparelho para pós-processamento de imagens de corte de seção transversal 2d definindo um conjunto de dados de volume de imagem 3d; interface gráfica de usuário; método de pós-processamento de imagens de corte de seção transversal 2d; sistema médico para pós-processamento de imagens de corte de seção transversal 2d; elemento de programa de computador para controle de um aparelho; e mídia executável por computador |
EP2768406B1 (en) | 2011-10-17 | 2019-12-04 | Avinger, Inc. | Atherectomy catheters and non-contact actuation mechanism for catheters |
US9345406B2 (en) | 2011-11-11 | 2016-05-24 | Avinger, Inc. | Occlusion-crossing devices, atherectomy devices, and imaging |
CN102496320B (zh) * | 2011-12-06 | 2015-08-19 | 北京理工大学 | 一种基于ct体数据的实时超声图像模拟方法 |
JP6176818B2 (ja) * | 2011-12-06 | 2017-08-09 | 東芝メディカルシステムズ株式会社 | 超音波診断装置及び座標変換プログラム |
US11510600B2 (en) | 2012-01-04 | 2022-11-29 | The Trustees Of Dartmouth College | Method and apparatus for quantitative and depth resolved hyperspectral fluorescence and reflectance imaging for surgical guidance |
US8670816B2 (en) | 2012-01-30 | 2014-03-11 | Inneroptic Technology, Inc. | Multiple medical device guidance |
WO2013172972A1 (en) | 2012-05-14 | 2013-11-21 | Avinger, Inc. | Optical coherence tomography with graded index fiber for biological imaging |
WO2013172974A1 (en) | 2012-05-14 | 2013-11-21 | Avinger, Inc. | Atherectomy catheter drive assemblies |
US11406412B2 (en) | 2012-05-14 | 2022-08-09 | Avinger, Inc. | Atherectomy catheters with imaging |
US9439627B2 (en) * | 2012-05-22 | 2016-09-13 | Covidien Lp | Planning system and navigation system for an ablation procedure |
US9439623B2 (en) * | 2012-05-22 | 2016-09-13 | Covidien Lp | Surgical planning system and navigation system |
US8750568B2 (en) | 2012-05-22 | 2014-06-10 | Covidien Lp | System and method for conformal ablation planning |
US9498182B2 (en) | 2012-05-22 | 2016-11-22 | Covidien Lp | Systems and methods for planning and navigation |
US9439622B2 (en) | 2012-05-22 | 2016-09-13 | Covidien Lp | Surgical navigation system |
US8712137B2 (en) * | 2012-05-29 | 2014-04-29 | General Electric Company | Methods and system for displaying segmented images |
WO2014003071A1 (ja) * | 2012-06-27 | 2014-01-03 | 株式会社東芝 | 超音波診断装置及び画像データの補正方法 |
CN104428684B (zh) * | 2012-07-05 | 2017-10-24 | 皇家飞利浦有限公司 | 用于在强患者运动的情况中维持扫描的几何对齐的方法 |
US9498247B2 (en) | 2014-02-06 | 2016-11-22 | Avinger, Inc. | Atherectomy catheters and occlusion crossing devices |
US11284916B2 (en) | 2012-09-06 | 2022-03-29 | Avinger, Inc. | Atherectomy catheters and occlusion crossing devices |
CN102999902B (zh) * | 2012-11-13 | 2016-12-21 | 上海交通大学医学院附属瑞金医院 | 基于ct配准结果的光学导航定位导航方法 |
DE102012111386A1 (de) | 2012-11-23 | 2014-05-28 | Surgiceye Gmbh | Hybrides Bildgebungssystem für intraoperative, interventionelle und diagnostische Anwendungen |
CN105025803B (zh) * | 2013-02-28 | 2018-02-23 | 皇家飞利浦有限公司 | 从多个三维视图对大对象的分割 |
US10314559B2 (en) | 2013-03-14 | 2019-06-11 | Inneroptic Technology, Inc. | Medical device guidance |
EP2967507B1 (en) | 2013-03-15 | 2018-09-05 | Avinger, Inc. | Tissue collection device for catheter |
US9854979B2 (en) | 2013-03-15 | 2018-01-02 | Avinger, Inc. | Chronic total occlusion crossing devices with imaging |
EP2967367B1 (en) | 2013-03-15 | 2019-02-20 | Avinger, Inc. | Optical pressure sensor assembly |
US10010727B2 (en) | 2013-04-05 | 2018-07-03 | Profound Medical Inc. | Energy deposition zone determination for a catheter with an ultrasound array |
CN104116523B (zh) * | 2013-04-25 | 2016-08-03 | 深圳迈瑞生物医疗电子股份有限公司 | 一种超声影像分析系统及其分析方法 |
KR102114417B1 (ko) | 2013-06-11 | 2020-05-22 | 삼성메디슨 주식회사 | 영상 정합 방법 및 장치 |
CN103295455B (zh) * | 2013-06-19 | 2016-04-13 | 北京理工大学 | 基于ct影像模拟与定位的超声培训系统 |
ITTO20130527A1 (it) * | 2013-06-26 | 2014-12-27 | Masmec S P A | Sistema di navigazione ecografica assistita da calcolatore, in particolare per fornire assistenza al personale medico durante interventi diagnostici e/o terapeutici. |
JP6517198B2 (ja) | 2013-07-08 | 2019-05-22 | アビンガー・インコーポレイテッドAvinger, Inc. | 介入療法を案内する弾性層の識別 |
CN103371870B (zh) * | 2013-07-16 | 2015-07-29 | 深圳先进技术研究院 | 一种基于多模影像的外科手术导航系统 |
CN104574329B (zh) * | 2013-10-09 | 2018-03-09 | 深圳迈瑞生物医疗电子股份有限公司 | 超声融合成像方法、超声融合成像导航系统 |
JP6539669B2 (ja) | 2014-02-06 | 2019-07-03 | アビンガー・インコーポレイテッドAvinger, Inc. | 粥腫切除カテーテル及び閉塞横断装置 |
US9959631B2 (en) * | 2014-02-21 | 2018-05-01 | Samsung Electronics Co., Ltd. | Tomography apparatus and method for reconstructing tomography image thereof |
EP3116403B1 (en) * | 2014-03-11 | 2019-11-13 | Koninklijke Philips N.V. | Image registration and guidance using concurrent x-plane imaging |
CN105078514A (zh) * | 2014-04-22 | 2015-11-25 | 重庆海扶医疗科技股份有限公司 | 三维模型的构建方法及装置、图像监控方法及装置 |
US11419583B2 (en) * | 2014-05-16 | 2022-08-23 | Koninklijke Philips N.V. | Reconstruction-free automatic multi-modality ultrasound registration |
KR102273020B1 (ko) * | 2014-06-18 | 2021-07-05 | 삼성전자주식회사 | 의료 영상 정합 방법 및 그 장치 |
US10729410B2 (en) * | 2014-06-18 | 2020-08-04 | Koninklijke Philips N.V. | Feature-based calibration of ultrasound imaging systems |
EP3166512B1 (en) | 2014-07-08 | 2020-08-19 | Avinger, Inc. | High speed chronic total occlusion crossing devices |
US20160015469A1 (en) * | 2014-07-17 | 2016-01-21 | Kyphon Sarl | Surgical tissue recognition and navigation apparatus and method |
US9901406B2 (en) | 2014-10-02 | 2018-02-27 | Inneroptic Technology, Inc. | Affected region display associated with a medical device |
US10991069B2 (en) * | 2014-10-08 | 2021-04-27 | Samsung Electronics Co., Ltd. | Method and apparatus for registration of medical images |
KR102530170B1 (ko) * | 2014-10-08 | 2023-05-10 | 삼성전자주식회사 | 영상 처리 장치, 영상 처리 장치 제어 방법 및 의료 영상 장치 |
CN106999728B (zh) | 2014-10-17 | 2020-06-30 | 皇家飞利浦有限公司 | 用于在介入治疗中的工具插入期间的实时器官分割和工具导航的系统以及其操作方法 |
CN106999246B (zh) | 2014-10-17 | 2020-12-08 | 皇家飞利浦有限公司 | 介入治疗系统和用于对叠加的图像进行绘制的方法 |
WO2016092408A1 (en) * | 2014-12-09 | 2016-06-16 | Koninklijke Philips N.V. | Feedback for multi-modality auto-registration |
US10188467B2 (en) | 2014-12-12 | 2019-01-29 | Inneroptic Technology, Inc. | Surgical guidance intersection display |
JP6405058B2 (ja) * | 2015-03-31 | 2018-10-17 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | 医療イメージング装置 |
CN104732485B (zh) * | 2015-04-21 | 2017-10-27 | 深圳市深图医学影像设备有限公司 | 一种数字化x线图像的拼接方法及系统 |
US10568520B2 (en) | 2015-07-13 | 2020-02-25 | Avinger, Inc. | Micro-molded anamorphic reflector lens for image guided therapeutic/diagnostic catheters |
US9949700B2 (en) | 2015-07-22 | 2018-04-24 | Inneroptic Technology, Inc. | Medical device approaches |
EP3328309B1 (en) | 2015-07-28 | 2025-03-26 | Koninklijke Philips N.V. | Workflow of needle tip identification for biopsy documentation |
JP6824967B2 (ja) | 2015-09-18 | 2021-02-03 | オーリス ヘルス インコーポレイテッド | 管状網のナビゲーション |
US10548666B2 (en) | 2015-11-17 | 2020-02-04 | Covidien Lp | Systems and methods for ultrasound image-guided ablation antenna placement |
CN108369268B (zh) * | 2015-12-14 | 2022-10-18 | 皇家飞利浦有限公司 | 用于医学设备跟踪的系统和方法 |
EP3393367B1 (en) * | 2015-12-22 | 2019-07-24 | Koninklijke Philips N.V. | Medical imaging apparatus and medical imaging method for inspecting a volume of a subject |
EP3397980B1 (en) * | 2015-12-31 | 2021-07-21 | Koninklijke Philips N.V. | Method and system for combining data from a plurality of medical devices |
KR20170084945A (ko) | 2016-01-13 | 2017-07-21 | 삼성메디슨 주식회사 | 영상 정합 방법 및 장치 |
US11278248B2 (en) | 2016-01-25 | 2022-03-22 | Avinger, Inc. | OCT imaging catheter with lag correction |
US9675319B1 (en) | 2016-02-17 | 2017-06-13 | Inneroptic Technology, Inc. | Loupe display |
CN108882948A (zh) | 2016-04-01 | 2018-11-23 | 阿维格公司 | 具有锯齿状切割器的旋切术导管 |
WO2017210466A1 (en) | 2016-06-03 | 2017-12-07 | Avinger, Inc. | Catheter device with detachable distal end |
JP7061080B2 (ja) | 2016-06-30 | 2022-04-27 | アビンガー・インコーポレイテッド | 賦形な遠位先端を有するアテレクトミーカテーテル |
CN107981875A (zh) * | 2016-10-26 | 2018-05-04 | 上海西门子医疗器械有限公司 | 医疗成像系统及方法 |
US10278778B2 (en) | 2016-10-27 | 2019-05-07 | Inneroptic Technology, Inc. | Medical device navigation using a virtual 3D space |
EP3600111A4 (en) * | 2017-03-20 | 2020-12-30 | Exact Imaging Inc. | METHOD AND SYSTEM FOR VISUAL ASSISTANCE TO AN OPERATOR OF AN ULTRASONIC SYSTEM |
JP7159192B2 (ja) | 2017-03-28 | 2022-10-24 | オーリス ヘルス インコーポレイテッド | シャフト作動ハンドル |
US11484288B2 (en) * | 2017-05-11 | 2022-11-01 | Koninklijke Philips N.V. | Workflow, system and method for motion compensation in ultrasound procedures |
CN110831498B (zh) | 2017-05-12 | 2022-08-12 | 奥瑞斯健康公司 | 活检装置和系统 |
WO2019005872A1 (en) | 2017-06-28 | 2019-01-03 | Auris Health, Inc. | INSTRUMENT INSERTION COMPENSATION |
US11259879B2 (en) | 2017-08-01 | 2022-03-01 | Inneroptic Technology, Inc. | Selective transparency to assist medical device navigation |
US11334974B2 (en) | 2017-08-16 | 2022-05-17 | Koninklijke Philips N.V. | Systems, methods, and apparatuses for image artifact cancellation |
US11484365B2 (en) | 2018-01-23 | 2022-11-01 | Inneroptic Technology, Inc. | Medical image guidance |
CN110913791B (zh) | 2018-03-28 | 2021-10-08 | 奥瑞斯健康公司 | 用于显示所估计的器械定位的系统和方法 |
CN110368027B (zh) * | 2018-04-13 | 2022-02-18 | 北京柏惠维康科技有限公司 | 一种图像融合方法和装置 |
WO2019204797A1 (en) | 2018-04-19 | 2019-10-24 | Avinger, Inc. | Occlusion-crossing devices |
CN112292710A (zh) * | 2018-05-18 | 2021-01-29 | 皇家飞利浦有限公司 | 多模态图像配准 |
US11707329B2 (en) | 2018-08-10 | 2023-07-25 | Covidien Lp | Systems and methods for ablation visualization |
CN108992084B (zh) * | 2018-09-07 | 2023-08-01 | 广东工业大学 | 使用ct系统与超声系统组合成像的方法及ct-超声检查设备 |
CN109212628B (zh) * | 2018-10-22 | 2020-02-18 | 中国科学院声学研究所 | 一种用于检测汽车底盘非常规目标的检测系统 |
CN113473917B (zh) | 2018-10-26 | 2025-02-11 | 皇家飞利浦有限公司 | 具有自动和辅助标签和书签的腔内超声成像 |
CN109360181B (zh) * | 2018-10-29 | 2020-07-24 | 中惠医疗科技(上海)有限公司 | 超声图像与核磁图像融合方法和系统 |
KR102704243B1 (ko) * | 2018-11-22 | 2024-09-09 | 삼성메디슨 주식회사 | 초음파 영상 장치 및 그 제어 방법 |
WO2020117783A1 (en) * | 2018-12-03 | 2020-06-11 | The Johns Hopkins University | Device and methods for transrectal ultrasound-guided prostate biopsy |
KR102729066B1 (ko) * | 2019-02-26 | 2024-11-13 | 삼성메디슨 주식회사 | 초음파 영상과 타 모달리티(modality) 영상을 정합하는 초음파 영상 장치 및 그 동작 방법 |
CN109976646B (zh) * | 2019-03-22 | 2020-11-10 | 上海沈德医疗器械科技有限公司 | 磁共振扫描控制和影像传输方法、服务端和程序 |
KR102285007B1 (ko) | 2019-06-21 | 2021-08-03 | 주식회사 데카사이트 | 초음파 스캐너의 탐촉자의 위치 및 자세 추적을 이용한 초음파 영상 제공 장치 및 방법 |
CN110251243B (zh) * | 2019-06-24 | 2024-06-04 | 江苏电子信息职业学院 | 一种超声融合导航辅助配准装置 |
WO2021076356A1 (en) | 2019-10-18 | 2021-04-22 | Avinger, Inc. | Occlusion-crossing devices |
CN112155594B (zh) * | 2020-10-10 | 2023-04-07 | 无锡声亚医疗科技有限公司 | 一种用于超声图像的配准方法、超声设备及存储介质 |
US12094128B2 (en) * | 2022-02-03 | 2024-09-17 | Mazor Robotics Ltd. | Robot integrated segmental tracking |
CN115294124B (zh) | 2022-10-08 | 2023-01-06 | 卡本(深圳)医疗器械有限公司 | 基于多模态医学图像配准的超声穿刺引导规划系统 |
CN116580820B (zh) * | 2023-07-13 | 2023-12-22 | 卡本(深圳)医疗器械有限公司 | 基于多模态医学图像的经会阴前列腺穿刺智能麻醉系统 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
SU738610A1 (ru) * | 1976-03-02 | 1980-06-05 | Украинский Институт Инженеров Водного Хозяйства | Устройство дл ультразвукового обследовани головного мозга |
US6775404B1 (en) * | 1999-03-18 | 2004-08-10 | University Of Washington | Apparatus and method for interactive 3D registration of ultrasound and magnetic resonance images based on a magnetic position sensor |
RU2280863C1 (ru) * | 2005-02-14 | 2006-07-27 | Вячеслав Вячеславович Казаков | Нелинейный ультразвуковой способ обнаружения трещин и их местоположений в твердом теле и устройство для его реализации |
WO2006095221A2 (de) * | 2005-03-11 | 2006-09-14 | Philips Intellectual Property & Standards Gmbh | Bildgebendes verfahren |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7697972B2 (en) * | 2002-11-19 | 2010-04-13 | Medtronic Navigation, Inc. | Navigation system for cardiac therapies |
EP2460474B1 (en) * | 2003-05-08 | 2015-12-16 | Hitachi Medical Corporation | Reference image display method for ultrasonography and ultrasonic diagnosis apparatus |
DE10340544B4 (de) * | 2003-09-01 | 2006-08-03 | Siemens Ag | Vorrichtung zur visuellen Unterstützung einer elektrophysiologischen Katheteranwendung im Herzen |
WO2005025404A2 (en) * | 2003-09-08 | 2005-03-24 | Vanderbilt University | Apparatus and methods of cortical surface registration and deformation tracking for patient-to-image alignment in relation to image-guided surgery |
JP4630564B2 (ja) * | 2004-03-30 | 2011-02-09 | 国立大学法人浜松医科大学 | 手術支援装置、方法及びプログラム |
JP4677199B2 (ja) * | 2004-04-14 | 2011-04-27 | 株式会社日立メディコ | 超音波診断装置 |
US20050251029A1 (en) * | 2004-04-21 | 2005-11-10 | Ali Khamene | Radiation therapy treatment plan |
GB0504172D0 (en) * | 2005-03-01 | 2005-04-06 | King S College London | Surgical planning |
US10143398B2 (en) * | 2005-04-26 | 2018-12-04 | Biosense Webster, Inc. | Registration of ultrasound data with pre-acquired image |
US7713205B2 (en) * | 2005-06-29 | 2010-05-11 | Accuray Incorporated | Dynamic tracking of soft tissue targets with ultrasound images, without using fiducial markers |
EP1940515A4 (en) * | 2005-09-06 | 2010-05-26 | Resonant Medical Inc | SYSTEM AND METHOD FOR CONFIGURING PATIENT DATA FOR RADIOTHERAPY TREATMENT |
US8358818B2 (en) * | 2006-11-16 | 2013-01-22 | Vanderbilt University | Apparatus and methods of compensating for organ deformation, registration of internal structures to images, and applications of same |
-
2007
- 2007-11-26 US US12/516,407 patent/US8731264B2/en active Active
- 2007-11-26 RU RU2009124479/08A patent/RU2468436C2/ru not_active IP Right Cessation
- 2007-11-26 EP EP07849258A patent/EP2104919A2/en not_active Withdrawn
- 2007-11-26 WO PCT/IB2007/054792 patent/WO2008065600A2/en active Application Filing
- 2007-11-26 CN CN200780043869A patent/CN101681504A/zh active Pending
- 2007-11-26 JP JP2009537754A patent/JP2010515472A/ja active Pending
-
2014
- 2014-07-07 JP JP2014140004A patent/JP2014236998A/ja active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
SU738610A1 (ru) * | 1976-03-02 | 1980-06-05 | Украинский Институт Инженеров Водного Хозяйства | Устройство дл ультразвукового обследовани головного мозга |
US6775404B1 (en) * | 1999-03-18 | 2004-08-10 | University Of Washington | Apparatus and method for interactive 3D registration of ultrasound and magnetic resonance images based on a magnetic position sensor |
RU2280863C1 (ru) * | 2005-02-14 | 2006-07-27 | Вячеслав Вячеславович Казаков | Нелинейный ультразвуковой способ обнаружения трещин и их местоположений в твердом теле и устройство для его реализации |
WO2006095221A2 (de) * | 2005-03-11 | 2006-09-14 | Philips Intellectual Property & Standards Gmbh | Bildgebendes verfahren |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU2653807C2 (ru) * | 2016-06-27 | 2018-05-14 | Государственное бюджетное образовательное учреждение высшего профессионального образования "Санкт-Петербургский государственный педиатрический медицинский университет" Министерства здравоохранения Российской Федерации (ГБОУ ВПО СПбГПМУ Минздрава России) | Способ дооперационной оценки лимфогенного метастазирования рака пищевода и желудка |
Also Published As
Publication number | Publication date |
---|---|
US20100208963A1 (en) | 2010-08-19 |
US8731264B2 (en) | 2014-05-20 |
WO2008065600A2 (en) | 2008-06-05 |
RU2009124479A (ru) | 2011-01-10 |
JP2014236998A (ja) | 2014-12-18 |
CN101681504A (zh) | 2010-03-24 |
EP2104919A2 (en) | 2009-09-30 |
JP2010515472A (ja) | 2010-05-13 |
WO2008065600A3 (en) | 2009-11-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
RU2468436C2 (ru) | Система и способ для объединения ультразвуковых изображений в реальном времени с ранее полученными медицинскими изображениями | |
KR102269467B1 (ko) | 의료 진단 이미징에서의 측정 포인트 결정 | |
CN106456125B (zh) | 用于将医学图像中的特征链接到解剖结构模型的系统以及其操作方法 | |
US6768811B2 (en) | System and method for analysis of imagery data | |
JP7478383B2 (ja) | マルチモーダル医用画像レジストレーションによる超音波穿刺ガイドと計画システム | |
US20050004449A1 (en) | Method for marker-less navigation in preoperative 3D images using an intraoperatively acquired 3D C-arm image | |
US11083436B2 (en) | Ultrasonic image analysis systems and analysis methods thereof | |
US20160113632A1 (en) | Method and system for 3d acquisition of ultrasound images | |
US20110249005A1 (en) | Reparametrized bull's eye plots | |
KR20220158752A (ko) | 조직 이미징 바이오마커를 생산하기 위한 시스템 및 방법 | |
CN111481292A (zh) | 手术装置及其使用方法 | |
WO2009136461A1 (ja) | 超音波診断装置 | |
JP2002330958A (ja) | 医用画像データを選択し表示する方法及び装置 | |
CN105046644B (zh) | 基于线性相关性的超声与ct图像配准方法和系统 | |
JP2003531516A (ja) | 医学的ドキュメント化のための生体乳房生検位置の視覚化強化 | |
JP2013153883A (ja) | 画像処理装置、撮影システム及び画像処理方法 | |
JP2000185036A (ja) | 医用画像表示装置 | |
JP6623166B2 (ja) | 超音波ガイド処置に対するゾーン視覚化 | |
JP2012143556A (ja) | 医用画像解析を改善する方法およびシステム | |
JP6563942B2 (ja) | 病変サイズ傾向をモニタリングするシステムおよびその動作方法 | |
JP2020036708A (ja) | 手術支援装置及び手術ナビゲーションシステム | |
JP2000350722A (ja) | 器官の注目する要素の配置および三次元表現の方法 | |
WO2009096290A1 (ja) | 医用画像診断装置及び方法 | |
Pagoulatos et al. | New spatial localizer based on fiber optics with applications in 3D ultrasound imaging | |
Jiang et al. | A semi-automated 3-D annotation method for breast ultrasound imaging: system development and feasibility study on phantoms |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
MM4A | The patent is invalid due to non-payment of fees |
Effective date: 20181127 |