RU2541887C2 - Автоматизированное оконтуривание анатомии для планирования терапии с управлением по изображениям - Google Patents
Автоматизированное оконтуривание анатомии для планирования терапии с управлением по изображениям Download PDFInfo
- Publication number
- RU2541887C2 RU2541887C2 RU2011144380/08A RU2011144380A RU2541887C2 RU 2541887 C2 RU2541887 C2 RU 2541887C2 RU 2011144380/08 A RU2011144380/08 A RU 2011144380/08A RU 2011144380 A RU2011144380 A RU 2011144380A RU 2541887 C2 RU2541887 C2 RU 2541887C2
- Authority
- RU
- Russia
- Prior art keywords
- image
- identification points
- contour
- anatomical
- landmarks
- Prior art date
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61N—ELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
- A61N5/00—Radiation therapy
- A61N5/10—X-ray therapy; Gamma-ray therapy; Particle-irradiation therapy
- A61N5/103—Treatment planning systems
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/12—Edge-based segmentation
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/149—Segmentation; Edge detection involving deformable models, e.g. active contour models
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/174—Segmentation; Edge detection involving the use of two or more images
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H20/00—ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
- G16H20/40—ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mechanical, radiation or invasive therapies, e.g. surgery, laser therapy, dialysis or acupuncture
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/20—ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/40—ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/04—Indexing scheme for image data processing or generation, in general involving 3D image data
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10081—Computed x-ray tomography [CT]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30016—Brain
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/41—Medical
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/20—Indexing scheme for editing of 3D models
- G06T2219/2021—Shape modification
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Radiology & Medical Imaging (AREA)
- Biomedical Technology (AREA)
- Primary Health Care (AREA)
- Epidemiology (AREA)
- Medical Informatics (AREA)
- Animal Behavior & Ethology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Pathology (AREA)
- Veterinary Medicine (AREA)
- Software Systems (AREA)
- Surgery (AREA)
- Urology & Nephrology (AREA)
- Magnetic Resonance Imaging Apparatus (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Radiation-Therapy Devices (AREA)
Abstract
Изобретение относится к компьютерным системам диагностической визуализации. Техническим результатом является повышение точности распознания анатомических особенностей на изображении за счет автоматизированного оконтуривания этих особенностей. Предложена система оконтуривания анатомических особенностей на изображениях, используемых для планирования терапии с управлением по изображениям. Система включает в себя процессор, который принимает исходное изображение анатомической структуры пациента из устройства формирования изображений. Упомянутый процессор также обнаруживает анатомические опознавательные точки в исходном изображении и сравнивает позиции обнаруженных анатомических опознавательных точек с опорными опознавательными точками в опорном контуре, соответствующем анатомической структуре. А также процессор осуществляет сопоставление обнаруженных анатомических опознавательных точек с опорными опознавательными точками. 5 н. и 15 з.п. ф-лы, 5 ил.
Description
Настоящая заявка находит применение, в частности, в системах диагностической визуализации. Однако, следует понимать, что описанный(ые) метод(ы) может также найти применение в системах диагностической визуализации других типов, других системах планирования терапии и/или других медицинских применениях.
Оконтуривание анатомии является необходимым предварительным этапом при планировании терапии, например планировании лучевой терапии (RTP) и т.п. Методом первичного формирования изображений, обычно используемым при RTP, является компьютерная томография (КТ). В последнее время внимание привлекает использование магнитно-резонансной томографии (МРТ) для RTP, так как данный метод обеспечивает более высокий контраст мягких тканей по сравнению с КТ.
В настоящее время на рынке имеются коммерческие системы автоматизированного планирования сканирования для магнитно-резонансных (МР) исследований. Одним из примеров подобной системы является система Philips SmartExam™, в которой получают предварительное изображение низкого разрешения, выполняют автоматизированное распознавание характерных для пациента анатомических ориентиров и оценивают ориентацию слоев при диагностическом сканировании на основании выявленных ориентиров и информации об ориентирах и ориентации, записанной при выполнении предыдущих операций сбора данных.
Автоматизированное оконтуривание анатомии является сложной задачей как в КТ, так и в МРТ. КТ изображения, обычно, не обеспечивают высокого контраста мягких тканей, что затрудняет надежное выделение границ органов. МР данные обеспечивают значительно более точное различение мягких тканей по сравнению с КТ, и их использование может дать преимущества при планировании терапии для достижения более точного оконтуривания целевых и критических структур в некоторых применениях. Однако автоматизированная сегментация данных МРТ также осложняется из-за множества разных используемых контрастов, приводящих к невоспроизводимому распределению уровней серого.
В данной области техники существует потребность в системах и способах, которые облегчают оконтуривание анатомических структур при планировании терапии с управлением по изображениям, с использованием анатомических ориентиров для переноса очертаний, используемых для планирования терапии и т.п., и, тем самым, преодолевают вышеупомянутые недостатки.
В соответствии с одним аспектом, система, которая облегчает оконтуривание анатомических признаков на изображениях, используемых для планирования терапии с управлением по изображениям, содержит процессор, который получает исходное изображение анатомической структуры в пациенте из устройства формирования изображений и обнаруживает анатомические ориентиры в исходном изображении. Процессор дополнительно сравнивает координаты обнаруженных анатомических ориентиров с опорными ориентирами в опорном контуре, соответствующем анатомической структуре, сопоставляет обнаруженные анатомические ориентиры с опорными ориентирами и подгоняет опорный контур к анатомической структуре на основании сопоставленных пар ориентиров. Процессор также подгоняет контур анатомической структуры в изображении анатомической структуры с высоким разрешением с использованием подогнанного опорного контура, записывает подогнанное изображение высокого разрешения в память и представляет подогнанное изображение высокого разрешения в компонент планирования терапии.
В соответствии с другим аспектом, способ оконтуривания анатомических признаков на изображениях, используемых для планирования терапии с управлением по изображениям, содержит этап обнаружения анатомических ориентиров в исходном изображении и этап сравнения координат обнаруженных анатомических ориентиров с опорными ориентирами в опорном контуре, соответствующем анатомической структуре. Способ дополнительно содержит этап сопоставления обнаруженных анатомических ориентиров с опорными ориентирами и этап подгонки опорного контура к анатомической структуре на основании сопоставленных пар ориентиров. Способ дополнительно содержит этап подгонки контура анатомической структуры в изображении высокого разрешения с использованием подогнанного опорного контура и этап формирования плана терапии на основании, по меньшей мере, частично подогнанного изображения высокого разрешения.
В соответствии с другим аспектом, способ формирования плана лучевой терапии для пациента содержит этап формирования изображения пациента с низким разрешением с использованием по меньшей мере одного из устройства магнитно-резонансной томографии (МРТ) и компьютерного томографического (КТ) сканера и этап обнаружения ориентиров на анатомической структуре в изображении низкого разрешения. Способ дополнительно содержит этап сопоставления обнаруженных ориентиров с опорными ориентирами в опорном контуре, хранящемся в памяти, и этап использования сплайновой интерполяции или аппроксимации, чтобы подогнать опорный контур для согласования с контуром анатомической структуры, с использованием сопоставленных ориентиров. Способ дополнительно содержит этап нанесения подогнанного опорного контура на изображение анатомической структуры с высоким разрешением для подгонки изображения высокого разрешения и этап формирования плана лучевой терапии на основании, по меньшей мере, частично подогнанного изображения высокого разрешения.
Одно из преимуществ состоит в том, что качество изображения для планирования терапии повышается.
Другое преимущество состоит в сокращении времени адаптации изображения.
Другие дополнительные преимущества настоящего изобретения будут очевидны специалистам со средним уровнем компетентности в данной области техники после прочтения и изучения нижеследующего подробного описания.
Чертежи предназначены только для иллюстрации различных аспектов и не подлежат истолкованию в ограничительном смысле.
Фиг. 1 иллюстрирует систему, которая облегчает передачу контуров или очертаний из медицинских изображений в изображения с высоким разрешением, используемые для планирования терапии.
Фиг. 2 иллюстрирует снимок экрана автоматизированного оконтуривания изображений головного мозга, сформированных с использованием устройства МРТ, который может быть отображен пользователю на устройстве отображения.
Фиг. 3 иллюстрирует другой снимок экрана автоматизированного оконтуривания изображений головного мозга, сформированных с использованием устройства МРТ, который может быть отображен пользователю на устройстве отображения.
Фиг. 4 иллюстрирует способ оконтуривания анатомических структур пациента для задания контуров в изображении пациента для терапии пациента с управлением по изображениям в соответствии с по меньшей мере одним аспектом, описанным в настоящем описании.
Фиг. 5 иллюстрирует примерную больничную систему, которая содержит множество устройств формирования изображений, например устройство МР томографии, КТ сканер, устройство радионуклидного сканирования (например, PET или SPECT) или подобное устройство, которые формируют данные формирования изображений, которые реконструируют посредством отдельных или совместно используемых реконструирующих процессоров для формирования представлений 3-мерных изображений.
В соответствии с различными признаками, представленными в настоящем описании, описаны системы и способы, которые облегчают оконтуривание анатомических структур при планировании терапии с управлением по изображениям. Описанная общая схема основана на характерном для пациента ориентире, автоматически распознаваемом программным обеспечением планирования сканирования (например, системах Philips SmartExam™ для планирования МР сканирования). Эти ориентиры используют для поддержки автоматизированного оконтуривания анатомии, а также для передачи очертаний в контексте адаптивного планирования терапии.
Аналогично, автоматизированное планирование КТ сканирования выполняют посредством обнаружения воспроизводимых ориентиров на низкодозовых предварительных сканированиях. Ориентиры, обнаруженные на предварительных изображениях, используют для управления алгоритмами автоматизированной сегментации посредством производства ближайших инициализаций, а также для передачи очертаний на последующие изображения посредством нежесткого совмещения на основе ориентиров.
Системы и способы, описанные в настоящем описании, решают проблему обеспечения воспроизводимых анатомических точечных ориентиров для планирования терапии. Например, алгоритмы автоматизированного планирования сканирования типа Philips SmartExam™, обычно, работают с 3-мерными стандартизированными предварительными изображениями низкого разрешения и способны надежно распознавать целевую анатомию в форме воспроизводимых анатомических точечных ориентиров. Таким образом, пространственная информация относительно исходной анатомии, полученная из предварительного изображения, переносится в сканирование с полным разрешением, независимо от контраста, и используется для поддержки автоматизированного оконтуривания.
На фигуре 1 иллюстрируется система 10, которая облегчает передачу контуров или очертаний из медицинских изображений в изображения с высоким разрешением, используемые для планирования терапии. Например, возможно применение системы 10 с по меньшей мере одной из рабочих станций для планирования лучевой терапии в сочетании с МР сканером, снабженным возможностью SmartExam™. Кроме того, возможно применение способа передачи контуров или планов терапии с использованием КТ изображений с соответствующими ориентирами на 3-мерных предварительных изображениях низкодозовой КТ. В соответствии с другими признаками, в системе 10 применяются мультимодальные системы, например, сочетающие КТ и МРТ, а также МРТ и/или КТ, объединенные с системами радионуклидного формирования изображений, например, сканером для позитронной эмиссионной томографии (PET), для однофотонной эмиссионной компьютерной томографии (SPECT-сканером) и т.п.
Система 10 содержит по меньшей мере одно из устройства МРТ 12 и КТ сканера 14, которые связаны с рабочей станцией 16, процессором 18 и памятью 20. Процессор может быть составной частью рабочей станции 16 или может быть ресурсом, совместно используемым посредством множества рабочих станций. Память хранит и процессор исполняет считываемые компьютером команды для выполнения различных задач и выполнения различных способов, описанных в настоящем описании.
В одном варианте осуществления, КТ сканер 14 формирует 3-мерное низкодозовое предварительное изображение 22, и процессор 18 автоматически обнаруживает воспроизводимый набор ориентиров 24 на низкодозовом предварительном изображении. Обнаруженные ориентиры экспортируются (например, с использованием протокола 26 обмена данными (DICOM) для передачи цифровых медицинских изображений или подобного протокола) в процессор для сравнения с известными ориентирами 28, хранящимися в памяти, для по меньшей мере одного контура. Процессор исполняет алгоритм 30 сравнения, чтобы сравнить обнаруженные ориентиры с известными ориентирами и извлекает по меньшей мере один контур тела из атласа 32, хранящегося в памяти. Процессор преобразует контуры с использованием обнаруженных ориентиров и, тем самым, подгоняет по меньшей мере один предварительно сформированный контур посредством сопоставления обнаруженных ориентиров с известными ориентирами для контура(ов). Например, процессор определяет преобразование, которое преобразует ориентиры 24 контрольного изображения в позиции, которые налагаются на ориентиры 28 из атласа. Контур из атласа для его преобразования в подогнанный контур 34 в пространстве пациента можно подвергнуть преобразованию, обратному этому определенному преобразованию.
В другом варианте осуществления, устройство МРТ 12 формирует предварительное изображение 22 низкого разрешения и процессор 18 автоматически обнаруживает воспроизводимый набор ориентиров 24 на предварительном изображении низкого разрешения. Обнаруженные ориентиры экспортируются (например, с использованием протокола 26 обмена данными DICOM и т.п.) в процессор для сравнения с известными ориентирами 33 мягких тканей, хранящимися в памяти, для по меньшей мере одного контура. Процессор исполняет алгоритм 30 сравнения, чтобы сравнить обнаруженные ориентиры 24 с известными ориентирами 28 и извлекает по меньшей мере один контур тела из атласа 32, хранящегося в памяти. Процессор преобразует контуры из атласа с использованием обнаруженных ориентиров 24 и, тем самым, подгоняет по меньшей мере один предварительно сформированный контур из атласа до подогнанных контуров 34 посредством сопоставления обнаруженных ориентиров с известными ориентирами для контура(ов).
В каждом сценарии (например, КТ или МРТ) атлас преобразуют в новый характерный для пациента набор данных, полученный из низкодозового предварительного изображения. То есть процессор выполняет преобразование для перемещения подогнанных контуров 34 к изображению 36 высокого разрешения, которое используют для RTP. Подогнанные контуры или очертания дополнительно используют в последующих изображениях того же пациента, чтобы контролировать продвижение терапии и облегчать адаптивное планирование терапии.
В одном варианте осуществления, процессор 18 использует по меньшей мере один тонкий плоский сплайн 38 для преобразования контуров, хотя описанные системы и способы не ограничены упомянутым подходом. Пример метода тонких плоских сплайнов описан в работе F.L. Bookstein: Principal warps: Thin-plate splines and the decomposition of deformations. IEEE Trans. Pattern. Anal. Mach Intell. 11: 567-586, 1989.
В другом варианте осуществления, рабочая станция 16 содержит устройство 40 отображения, на котором пользователю представляется по меньшей мере одно из изображения 22 низкого разрешения, изображения 36 высокого разрешения, обнаруженных ориентиров 24, известных ориентиров 28, контуров в атласе 32 и/или подогнанных контуров 34 на разных стадиях описанных способов и процессов. Рабочая станция дополнительно содержит устройство 42 ввода (например, мышь, клавиатуру, навигационную панель, стилус и т.п.), посредством которого пользователь вводит данные и/или команды в рабочую станцию, подгоняет ориентиры и т.п.
В соответствии с изложением со ссылкой на фигуру 1, на фигурах 2 и 3 иллюстрируются, соответственно, снимки 60 и 70 экранов автоматизированного оконтуривания изображений головного мозга, которые сформированы с использованием устройства МРТ и могут быть отображены пользователю на устройстве 40 отображения. На фигуре 2 изображено множество известных или опорных ориентиров 28 и на фигуре 3 показано множество обнаруженных ориентиров 24. Система 10, представленная на фигуре 1, используется, например, для поддержки оконтуривания структур, подвергающихся повышенному риску, а также для автоматической передачи законченных очертаний из первичного набора данных в последующие изображения.
Программное обеспечение для распознавания анатомии, например, SmartExam™, существует для исследований головного мозга в МР сканерах компании Philips многих типов, как сообщалось в работе Young et al.: Automated Planning of MRI Neuro Scans. Proc. of SPIE Medical Imaging, San Diego, CA, USA (2006) 61441M-1-61441M-8. Выходными данными программного обеспечения для распознавания анатомии является идентифицированный или обнаруженный набор воспроизводимых анатомических ориентиров 24. Координаты ориентиров могут быть экспортированы с использованием стандартного протокола 26 DICOM обмена данными и использованы модулем оконтуривания анатомии (не показанным) рабочей станции 16 для планирования лучевой терапии или любым автономным программным обеспечением для автоматизированного оконтуривания.
В соответствии с одним вариантом осуществления, пользователь вручную очерчивает структуры интереса в опорном наборе данных, для которого доступны координаты ориентиров. Затем эти известные ориентиры 28 совмещаются с обнаруженными ориентирами 24 в характерном для пациента наборе данных, например, с использованием тонких плоских сплайнов или подобным образом. Полученное преобразование применяют к анатомическим структурам в опорном наборе данных для их переноса в набор данных пациента (например, в изображении пациента с высоким разрешением или подобный набор данных). Пользователь может использовать дополнительные автоматизированные способы для получения повышенной точности или ручной точной подстройки перенесенных очертаний для их согласования с изображением пациента.
В связанном варианте осуществления, очертания передаются в последующие изображения того же пациента в контексте адаптивного планирования лучевой терапии. Аналогичным образом, обнаруженные ориентиры 24 в первичном наборе данных совмещают с известными ориентирами 28 в опорном наборе данных, и полученное преобразование применяют к доступному оконтуриванию в первичном изображении пациента. Поскольку существующая в данном случае изменчивость анатомии намного меньше, то способ требует только минимальных ручных подгонок данного оптимального покрытия области интереса посредством ориентиров.
На фигуре 4 представлен способ оконтуривания анатомических структур пациента для задания контуров в изображении пациента для терапии пациента с управлением по изображениям в соответствии с по меньшей мере одним аспектом, описанным в настоящем описании. На этапе 80 формируют изображение пациента или участка пациента с низким разрешением. В одном варианте осуществления, изображение является низкодозовым КТ изображением. В другом варианте осуществления, изображение является МР изображением низкого разрешения. На этапе 82 обнаруживают ориентиры в изображении пациента. На этапе 84 обнаруженные ориентиры 24 экспортируют (например, с использованием протокола 26 DICOM для передачи данных или подобного протокола) и сравнивают с известными ориентирами 26 для контуров в предварительно сформированном атласе 32 анатомических структур. Если исходное изображение пациента является низкодозовым КТ изображением, то обнаруженные ориентиры сравнивают с известными ориентирами жестких структур (например, костью и т.п.). Если исходное изображение пациента является МР изображением с низким разрешением, то обнаруженные ориентиры сравнивают с опорными ориентирами мягких тканей.
На этапе 86 опорный контур, содержащий опорные ориентиры, извлекают из атласа опорных контуров и подгоняют (например, деформируют, трансформируют, согласуют) под изображение пациента посредством сопоставления опорных ориентиров 28 с обнаруженными ориентирами 24. Подогнанный контур может быть записан в память для вывода в последующем. На этапе 88 подогнанный контур преобразуют (например, с использованием тонких плоских сплайнов или какого-то другого подобного подходящего интерполяционного метода) для согласования с изображением пациента с высоким разрешением, которое пригодно для использования в процедуре планирования терапии, например процедуре планирования лучевой терапии. Пользователь может дополнительно точно подстраивать адаптированный контур с использованием известных методов.
Следует понимать, что изображение высокого разрешения может быть сформировано с использованием любого метода формирования изображений, например КТ, МРТ, позитронной эмиссионной томографии (PET), однофотонной эмиссионной томографии (SPECT), рентгенографии, видоизмененных вышеперечисленных методов и т.п. В упомянутых сценариях процессор обеспечивает контур с ориентирами, характерными для конкретного метода, для сопоставления с обнаруженными ориентирами. Атлас 32 содержит как ориентиры жестких структур, так и ориентиры мягких тканей, PET-ориентиры, SPECT-ориентиры, рентгенографические ориентиры и т.п., так что любые или все КТ, МР, PET-, SPECT-, рентгенографические и другие изображения и ориентиры могут быть сопоставлены с контурами атласа или совмещены с ними.
В другом варианте осуществления, кроме или вместо атласа опорных контуров, для пациента получают множество исходных ориентиров при первом сеансе формирования изображений. Затем исходные ориентиры используют для сравнения с последующими сеансами формирования изображений, чтобы оценить продвижение терапии и т.п.
Как показано на фигуре 5, примерная больничная система 150 может содержать множество устройств формирования изображений, например устройство МР 12 томографии, КТ сканер 14, устройство 151 радионуклидного (например, PET или SPECT) сканирования, комбинации вышеперечисленных устройств (например, мультимодальные системы) или что-то подобное, что формирует данные формирования изображений, которые реконструируются отдельными или совместно используемыми реконструирующими процессорами 152 для формирования представлений 3-мерных изображений. Представления изображений передаются по сети 154 в центральную память 156 или локальную память 158.
На рабочей станции 16, соединенной с сетью, оператор использует пользовательский интерфейс 170 для перемещения выбранного объекта (например, 3-мерного изображения или контура и т.п. с низким разрешением) в центральную память 156 или местную память 158 или между ними. Видеопроцессор 166 отображает выбранный объект в первой области 172 1 просмотра устройства 40 отображения. Изображение пациента (например, изображение высокого разрешения, сформированное посредством одного из МР блока 12 формирования изображений, КТ сканера 14 и сканера 151 радионуклидного сканирования) отображается во второй области 172 2 просмотра. Третья область 172 3 просмотра может отображать наложение подогнанного контура и изображение высокого разрешения. Например, пользователь может располагать возможностью совмещать ориентиры, обнаруженные на (например, КТ или МР) изображении пациента с низким разрешением, с опорными ориентирами в опорном контуре, выбранном из атласа, чтобы согласовывать опорный контур с анатомией пациента. Например, оператор посредством интерфейса 170 выбирает опорные ориентиры в опорном контуре (например, с помощью мыши, стилуса или другого подходящего пользовательского устройства ввода), которые соответствуют обнаруженным ориентирам в изображении низкого разрешения. В качестве альтернативы, опорные и обнаруженные ориентиры могут выравниваться автоматически программой, исполняемой процессорами 18 и/или 166, которая хранится в памяти 20. Затем процессор 18 (фиг.1) в пользовательском интерфейсе 170 выполняет алгоритм деформирования или трансформирования для согласования формы опорного контура с формой анатомии пациента с использованием выровненных ориентиров. Процессор 18 дополнительно выполняет преобразование (например, с использованием тонких плоских сплайнов или какого-либо подходящего интерполяционного метода) для сопоставления подогнанного или согласованного контура с изображением пациента с высоким разрешением.
Когда изображение высокого разрешения включает в себя информацию о подогнанном контуре, данное изображение подается в компонент 180 планирования терапии для использования в планировании терапии (например, планирования лучевой терапии, планирования ультразвуковой терапии, планирования физиотерапии, планирования брахитерапии, терапии высокоинтенсивным сфокусированным ультразвуком (HIFU) под управлением МРТ, планирования корпускулярной лучевой терапии, планирования абляции и т.п.). Устройство 182 терапии, по желанию, связано с устройством 180 планирования терапии для исполнения по меньшей мере одного плана терапии, сформированного вышеописанным способом.
В другом варианте осуществления, отображенное наложение в области 172 3 просмотра можно подгонять путем присвоения весовых коэффициентов изображению и/или контуру низкого разрешения относительно изображения высокого разрешения или наоборот. Например, для изменения весового коэффициента изображения в областях 172 1 и 172 2 просмотра можно подстраивать бегунок или кнопку (не показанные), которые могут быть механическими или представленными на устройстве 168 отображения и допускают манипулирование посредством устройства ввода. В одном примере, оператор может подгонять изображение в области 172 3 просмотра исходя из данных изображения исключительно высокого разрешения (представленных в области 172 2 просмотра) посредством многих сочетаний и/или непрерывного сочетания данных изображений высокого разрешения и низкого разрешения под данные изображения исключительно низкого разрешения (представленные в области 172 1 просмотра). Например, отношение данных изображения высокого разрешения к данным изображения низкого разрешения можно дискретно или непрерывно подгонять от 0:1 до 1:0. В другом возможном варианте данные изображения высокого разрешения могут отображаться в серых тонах, и данные изображения низкого разрешения могут быть расцвечены или наоборот.
После того как пользователь загрузил и/или установил атлас или библиотеку контуров в центральную память 156, атлас можно вызывать по сети, чтобы облегчать преобразование подгонки контура в изображение высокого разрешения и т.п., как описано выше. В соответствии с приведенным примером, допуск к библиотеке контуров или атласу могут получать многие рабочие станции или пользовательские интерфейсы, при необходимости для конкретных пациентов или сеансов формирования изображений для различных процедур планирования терапии.
Claims (20)
1. Система оконтуривания анатомических особенностей на изображениях, используемых для планирования терапии с управлением по изображениям, причем система включает в себя:
процессор (18), который:
принимает исходное изображение (22) анатомической структуры пациента из устройства (12, 14) формирования изображений;
обнаруживает анатомические опознавательные точки (24) в исходном изображении;
сравнивает позиции обнаруженных анатомических опознавательных точек (24) с опорными опознавательными точками (28) в опорном контуре, соответствующем анатомической структуре;
сопоставляет обнаруженные анатомические опознавательные точки (24) с опорными опознавательными точками (28);
подстраивает опорный контур под анатомическую структуру, основываясь на парах сопоставленных опознавательных точек;
выполняет преобразование для перемещения подстроенного контура к изображению высокого разрешения;
подстраивает контур анатомической структуры на втором изображении анатомической структуры с использованием подстроенного опорного контура;
сохраняет подстроенное второе изображение (36) в память (20); и
обеспечивает подстроенное второе изображение (36) в компонент (180) планирования терапии.
процессор (18), который:
принимает исходное изображение (22) анатомической структуры пациента из устройства (12, 14) формирования изображений;
обнаруживает анатомические опознавательные точки (24) в исходном изображении;
сравнивает позиции обнаруженных анатомических опознавательных точек (24) с опорными опознавательными точками (28) в опорном контуре, соответствующем анатомической структуре;
сопоставляет обнаруженные анатомические опознавательные точки (24) с опорными опознавательными точками (28);
подстраивает опорный контур под анатомическую структуру, основываясь на парах сопоставленных опознавательных точек;
выполняет преобразование для перемещения подстроенного контура к изображению высокого разрешения;
подстраивает контур анатомической структуры на втором изображении анатомической структуры с использованием подстроенного опорного контура;
сохраняет подстроенное второе изображение (36) в память (20); и
обеспечивает подстроенное второе изображение (36) в компонент (180) планирования терапии.
2. Система по п.1, в которой опорный контур подстраивается с использованием сплайна (38) типа тонкой пластинки.
3. Система по п.1, в которой исходное изображение является низкодозовым КТ изображением, генерируемым КТ сканером (14).
4. Система по п.3, в которой обнаруженные опознавательные точки (24) являются опознавательными точками твердых тканей.
5. Система по п.1, в которой исходное изображение (22) является магнитно-резонансным (MR) изображением низкого разрешения, генерируемым устройством (12) формирования MR-изображений (MRI).
6. Система по п.5, в которой обнаруженные опознавательные точки (24) являются опознавательными точками мягких тканей.
7. Система по п.1, в которой информация о позициях обнаруженных опознавательных точек экспортируется с использованием протокола (26) передачи данных DICOM.
8. Система по п.1, в которой компонент (180) планирования терапии генерирует, по меньшей мере, один из плана лучевой терапии, плана ультразвуковой терапии, плана корпускулярно-лучевой терапии, плана абляционной терапии и плана физиотерапии, основываясь, по меньшей мере, частично на информации, содержащейся в подстроенном втором изображении.
9. Система по п.1, в которой исходное изображение (22) и второе изображение генерируются с использованием разных методов формирования изображений.
10. Система по п.9, в которой исходное изображение (22) генерируется с использованием, по меньшей мере, одного из компьютерного томографического (КТ) сканера и устройства (12) формирования магнитно-резонансных изображений (MRI), и при этом второе изображение генерируется с использованием, по меньшей мере, одного из КТ сканера (14), устройства (12) MRI и устройства (151) радионуклидного формирования изображений.
11. Способ оконтуривания анатомических особенностей на изображениях, используемых для планирования терапии с управлением по изображениям, при этом способ включает в себя этапы, на которых:
обнаруживают анатомические опознавательные точки (24) в исходном изображении;
сравнивают позиции обнаруженных анатомических опознавательных точек (24) с опорными опознавательными точками (28) в опорном контуре, соответствующем анатомической структуре;
сопоставляют обнаруженные анатомические опознавательные точки (24) с опорными опознавательными точками (28);
подстраивают опорный контур под анатомическую структуру на основании пар сопоставленных опознавательных точек;
выполняют преобразование для перемещения подстроенного контура к изображению высокого разрешения;
подстраивают контур анатомической структуры во втором изображении с использованием подстроенного опорного контура; и
генерируют план терапии, основываясь, по меньшей мере, частично на подстроенном втором изображении (36).
обнаруживают анатомические опознавательные точки (24) в исходном изображении;
сравнивают позиции обнаруженных анатомических опознавательных точек (24) с опорными опознавательными точками (28) в опорном контуре, соответствующем анатомической структуре;
сопоставляют обнаруженные анатомические опознавательные точки (24) с опорными опознавательными точками (28);
подстраивают опорный контур под анатомическую структуру на основании пар сопоставленных опознавательных точек;
выполняют преобразование для перемещения подстроенного контура к изображению высокого разрешения;
подстраивают контур анатомической структуры во втором изображении с использованием подстроенного опорного контура; и
генерируют план терапии, основываясь, по меньшей мере, частично на подстроенном втором изображении (36).
12. Способ по п.11, дополнительно включающий в себя, по меньшей мере, один из этапов, на которых:
отображают, по меньшей мере, одно из исходного изображения и второго изображения на устройстве (40) отображения;
сохраняют, по меньшей мере, одно из исходного изображения и второго изображения в память (20); и
сохраняют план терапии в память (20).
отображают, по меньшей мере, одно из исходного изображения и второго изображения на устройстве (40) отображения;
сохраняют, по меньшей мере, одно из исходного изображения и второго изображения в память (20); и
сохраняют план терапии в память (20).
13. Способ по п.11, дополнительно включающий в себя этап, на котором:
подстраивают опорный контур с использованием сплайна (38) типа тонкой пластинки.
подстраивают опорный контур с использованием сплайна (38) типа тонкой пластинки.
14. Способ по п.11, дополнительно включающий в себя этап, на котором:
генерируют исходное изображение (22) КТ сканером (14), при этом обнаруженные опознавательные точки (24) являются опознавательными точками твердых тканей.
генерируют исходное изображение (22) КТ сканером (14), при этом обнаруженные опознавательные точки (24) являются опознавательными точками твердых тканей.
15. Способ по п.11, дополнительно включающий в себя этап, на котором:
генерируют исходное изображение (22) устройством (12) MRI, при этом обнаруженные опознавательные точки (24) являются опознавательными точками (33) мягких тканей.
генерируют исходное изображение (22) устройством (12) MRI, при этом обнаруженные опознавательные точки (24) являются опознавательными точками (33) мягких тканей.
16. Способ по п.11, дополнительно включающий в себя этап, на котором:
генерируют, по меньшей мере, один из плана лучевой терапии, плана ультразвуковой терапии, плана корпускулярно-лучевой терапии, плана абляционной терапии и плана физиотерапии, основываясь, по меньшей мере, частично на информации, содержащейся в подстроенном втором изображении.
генерируют, по меньшей мере, один из плана лучевой терапии, плана ультразвуковой терапии, плана корпускулярно-лучевой терапии, плана абляционной терапии и плана физиотерапии, основываясь, по меньшей мере, частично на информации, содержащейся в подстроенном втором изображении.
17. Считываемый компьютером носитель (20), переносящий компьютерную программу, которая управляет одним или более компьютерами для выполнения способа по п.11.
18. Рабочая станция для планирования терапии, включающая в себя процессор (18), запрограммированный для выполнения способа по п.11.
19. Считываемый компьютером носитель (20), который хранит исполняемые компьютером инструкции для генерирования плана терапии для пациента, для исполнения процессором (18), причем инструкции содержат:
генерирование изображения (22) низкого разрешения для пациента с использованием, по меньшей мере, одного из устройства (12) формирования магнитно-резонансных изображений (MRI) и компьютерного томографического (КТ) сканера (14);
обнаружение опознавательных точек на анатомической структуре в изображении (22) низкого разрешения;
сопоставление обнаруженных опознавательных точек (24) с опорными опознавательными точками (28) в опорном контуре, хранимом в памяти (20);
использование одного или более сплайнов (38) типа тонкой пластинки для подстройки опорного контура для согласования с контуром анатомической структуры с использованием сопоставленных опознавательных точек;
выполнение преобразования для перемещения подстроенного контура к изображению высокого разрешения;
наложение подстроенного опорного контура на второе изображение анатомической структуры для подстройки второго изображения; и
генерирование плана лучевой терапии, основываясь, по меньшей мере, частично на подстроенном втором изображении (36).
генерирование изображения (22) низкого разрешения для пациента с использованием, по меньшей мере, одного из устройства (12) формирования магнитно-резонансных изображений (MRI) и компьютерного томографического (КТ) сканера (14);
обнаружение опознавательных точек на анатомической структуре в изображении (22) низкого разрешения;
сопоставление обнаруженных опознавательных точек (24) с опорными опознавательными точками (28) в опорном контуре, хранимом в памяти (20);
использование одного или более сплайнов (38) типа тонкой пластинки для подстройки опорного контура для согласования с контуром анатомической структуры с использованием сопоставленных опознавательных точек;
выполнение преобразования для перемещения подстроенного контура к изображению высокого разрешения;
наложение подстроенного опорного контура на второе изображение анатомической структуры для подстройки второго изображения; и
генерирование плана лучевой терапии, основываясь, по меньшей мере, частично на подстроенном втором изображении (36).
20. Считываемый компьютером носитель (20) по п.19, причем инструкции дополнительно содержат:
генерирование второго изображения с использованием, по меньшей мере, одного из КТ сканера (14), устройства (12) MRI и устройства (151) радионуклидного сканирования;
при этом второе изображение генерируется с использованием метода формирования изображений, отличного от метода формирования изображений низкого разрешения.
генерирование второго изображения с использованием, по меньшей мере, одного из КТ сканера (14), устройства (12) MRI и устройства (151) радионуклидного сканирования;
при этом второе изображение генерируется с использованием метода формирования изображений, отличного от метода формирования изображений низкого разрешения.
Applications Claiming Priority (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| US16592309P | 2009-04-02 | 2009-04-02 | |
| US61/165,923 | 2009-04-02 | ||
| PCT/IB2010/050893 WO2010113050A2 (en) | 2009-04-02 | 2010-03-02 | Automated anatomy delineation for image guided therapy planning |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| RU2011144380A RU2011144380A (ru) | 2013-05-10 |
| RU2541887C2 true RU2541887C2 (ru) | 2015-02-20 |
Family
ID=42799693
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| RU2011144380/08A RU2541887C2 (ru) | 2009-04-02 | 2010-03-02 | Автоматизированное оконтуривание анатомии для планирования терапии с управлением по изображениям |
Country Status (7)
| Country | Link |
|---|---|
| US (2) | US9724538B2 (ru) |
| EP (1) | EP2414976B1 (ru) |
| JP (1) | JP5759446B2 (ru) |
| CN (2) | CN102369529A (ru) |
| BR (1) | BRPI1006340A2 (ru) |
| RU (1) | RU2541887C2 (ru) |
| WO (1) | WO2010113050A2 (ru) |
Families Citing this family (44)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN1946339A (zh) | 2004-02-20 | 2007-04-11 | 佛罗里达大学研究基金会公司 | 用于提供适形放射治疗同时对软组织进行成像的系统 |
| US8617171B2 (en) * | 2007-12-18 | 2013-12-31 | Otismed Corporation | Preoperatively planning an arthroplasty procedure and generating a corresponding patient specific arthroplasty resection guide |
| CN103221976A (zh) * | 2010-08-04 | 2013-07-24 | P治疗有限公司 | 远程治疗的控制系统和方法 |
| JP6027552B2 (ja) * | 2011-03-15 | 2016-11-16 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | 相関するイメージマッピングポインタ |
| EP2727030A4 (en) * | 2011-06-29 | 2015-05-27 | Univ Johns Hopkins | SYSTEM FOR A THREE-DIMENSIONAL INTERFACE AND DATABASE |
| US20140341449A1 (en) * | 2011-09-23 | 2014-11-20 | Hamid Reza TIZHOOSH | Computer system and method for atlas-based consensual and consistent contouring of medical images |
| NL2009885C2 (en) * | 2011-11-30 | 2014-12-09 | Gen Electric | System and method for automated landmarking. |
| EP2650691A1 (en) * | 2012-04-12 | 2013-10-16 | Koninklijke Philips N.V. | Coordinate transformation of graphical objects registered to a magnetic resonance image |
| US10561861B2 (en) | 2012-05-02 | 2020-02-18 | Viewray Technologies, Inc. | Videographic display of real-time medical treatment |
| EP2911745B1 (en) | 2012-10-26 | 2019-08-07 | ViewRay Technologies, Inc. | Assessment and improvement of treatment using imaging of physiological responses to radiation therapy |
| CN103892854B (zh) * | 2012-12-28 | 2018-10-09 | 上海联影医疗科技有限公司 | 数字医疗图像处理方法和装置 |
| CN105122309B (zh) | 2013-04-17 | 2018-06-26 | 皇家飞利浦有限公司 | 与独立背景图像结合的光滑刚性线的描绘和/或校正 |
| US9818200B2 (en) | 2013-11-14 | 2017-11-14 | Toshiba Medical Systems Corporation | Apparatus and method for multi-atlas based segmentation of medical image data |
| CN106030657B (zh) * | 2014-02-19 | 2019-06-28 | 皇家飞利浦有限公司 | 医学4d成像中的运动自适应可视化 |
| JP6258084B2 (ja) * | 2014-03-12 | 2018-01-10 | 東芝メディカルシステムズ株式会社 | 医用画像表示装置、医用画像表示システムおよび医用画像表示プログラム |
| KR20150108701A (ko) * | 2014-03-18 | 2015-09-30 | 삼성전자주식회사 | 의료 영상 내 해부학적 요소 시각화 시스템 및 방법 |
| GB201406134D0 (en) * | 2014-04-04 | 2014-05-21 | Elekta Ab | Image-guided radiation therapy |
| US9740710B2 (en) | 2014-09-02 | 2017-08-22 | Elekta Inc. | Systems and methods for segmenting medical images based on anatomical landmark-based features |
| CN107209240B (zh) * | 2015-01-30 | 2018-10-23 | 皇家飞利浦有限公司 | 用于针对后续磁共振成像的自动扫描规划的系统和方法 |
| EP3181049B1 (en) * | 2015-12-18 | 2018-02-14 | RaySearch Laboratories AB | Radiotherapy method, computer program and computer system |
| US10262424B2 (en) * | 2015-12-18 | 2019-04-16 | The Johns Hopkins University | Method for deformable 3D-2D registration using multiple locally rigid registrations |
| EP3423153B1 (en) | 2016-03-02 | 2021-05-19 | ViewRay Technologies, Inc. | Particle therapy with magnetic resonance imaging |
| JP6849356B2 (ja) * | 2016-09-13 | 2021-03-24 | キヤノンメディカルシステムズ株式会社 | 医用画像診断装置 |
| US10937170B2 (en) * | 2016-09-21 | 2021-03-02 | Koninklijke Philips N.V. | Apparatus for adaptive contouring of a body part |
| EP3554635B1 (en) | 2016-12-13 | 2021-01-20 | ViewRay Technologies, Inc. | Radiation therapy systems |
| US11317880B2 (en) * | 2017-01-24 | 2022-05-03 | Brainlab Ag | Determining rotational orientation of a deep brain stimulation electrode in a three-dimensional image |
| EP3375485A1 (en) * | 2017-03-17 | 2018-09-19 | Koninklijke Philips N.V. | Image-guided radiation therapy |
| KR102394321B1 (ko) * | 2017-06-16 | 2022-05-06 | 퍼킨엘머 셀룰러 테크놀로지스 저머니 게엠베하 | 뼈를 따르는 인공 랜드마크를 이용한 3차원 영상들의 자동화된 왜곡 정정 및/또는 상호-정합을 위한 시스템 및 방법 |
| CN109620407B (zh) * | 2017-10-06 | 2024-02-06 | 皇家飞利浦有限公司 | 治疗轨迹引导系统 |
| EP3486674A1 (en) * | 2017-11-17 | 2019-05-22 | Koninklijke Philips N.V. | Artificial intelligence-enabled localization of anatomical landmarks |
| CN111712298B (zh) | 2017-12-06 | 2023-04-04 | 优瑞技术公司 | 放射疗法系统 |
| EP3759685B1 (en) * | 2018-03-02 | 2024-05-01 | General Electric Company | System and method for an accelerated clinical workflow |
| EP3564906A1 (de) * | 2018-05-04 | 2019-11-06 | Siemens Healthcare GmbH | Verfahren zur erzeugung von bilddaten bei einem computertomographiegerät, bilderzeugungsrechner, computertomographiegerät, computerprogrammprodukt und computerlesbarer datenträger |
| US11209509B2 (en) | 2018-05-16 | 2021-12-28 | Viewray Technologies, Inc. | Resistive electromagnet systems and methods |
| US10635413B1 (en) | 2018-12-05 | 2020-04-28 | Bank Of America Corporation | System for transforming using interface image segments and constructing user interface objects |
| US10678521B1 (en) | 2018-12-05 | 2020-06-09 | Bank Of America Corporation | System for image segmentation, transformation and user interface component construction |
| US11080849B2 (en) * | 2018-12-21 | 2021-08-03 | General Electric Company | Systems and methods for deep learning based automated spine registration and label propagation |
| CN110075430B (zh) * | 2019-04-28 | 2020-10-02 | 南京大学 | 一种基于信息熵的超声空化实时监测方法及系统 |
| EP3799784A1 (en) | 2019-10-03 | 2021-04-07 | Koninklijke Philips N.V. | Imaging-based reflex measurements for sedation depth monitoring |
| EP4319641A4 (en) | 2021-04-09 | 2025-01-22 | Pulmera, Inc. | MEDICAL IMAGING SYSTEMS AND RELATED DEVICES AND METHODS |
| WO2023004303A1 (en) * | 2021-07-20 | 2023-01-26 | Pulmera, Inc. | Image guidance for medical procedures |
| US12165293B2 (en) | 2021-09-28 | 2024-12-10 | Samsung Electronics Co., Ltd. | Method and apparatus for enhancing texture details of images |
| US12033740B2 (en) * | 2021-12-04 | 2024-07-09 | Vasileios K. Papaioannou | Systems and methods for robust and automatic face de-identification for CT and MRI |
| CN114494147A (zh) * | 2021-12-29 | 2022-05-13 | 深圳市联影高端医疗装备创新研究院 | 一种构建动物脑模板的方法及装置 |
Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US5946425A (en) * | 1996-06-03 | 1999-08-31 | Massachusetts Institute Of Technology | Method and apparatus for automatic alingment of volumetric images containing common subject matter |
| RU2233118C1 (ru) * | 2003-04-18 | 2004-07-27 | Мишкинис Александр Борисович | Способ ретроспективного анализа рентгеновских снимков легких |
| RU2298887C2 (ru) * | 2004-04-12 | 2007-05-10 | Автономная некоммерческая организация "Центральный научно-исследовательский и опытно-конструкторский институт "Центр перспективных исследований" (АНО ЦНИОКИ ЦПИ) | Способ получения трехмерных рентгеновских изображений |
Family Cites Families (10)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US8099152B2 (en) | 2005-02-17 | 2012-01-17 | Univeristy Of Florida Research Foundation, Inc. | Systems and methods for planning medical procedures and designing medical devices based on anatomical scan deformations |
| EP1748389A1 (en) * | 2005-07-28 | 2007-01-31 | Microsoft Corporation | Image blending |
| EP1775573A1 (de) * | 2005-10-13 | 2007-04-18 | Evotec Technologies GmbH | Verfahren zur Detektion von Konturen in biologischen Zellen |
| DE102005059210B4 (de) * | 2005-12-12 | 2008-03-20 | Siemens Ag | Radiotherapeutische Vorrichtung |
| US9757588B2 (en) * | 2006-05-11 | 2017-09-12 | Koninklijke Philips N.V. | Deformable registration of images for image guided radiation therapy |
| US8150498B2 (en) | 2006-09-08 | 2012-04-03 | Medtronic, Inc. | System for identification of anatomical landmarks |
| CN100573553C (zh) * | 2007-01-18 | 2009-12-23 | 中国科学院自动化研究所 | 基于薄板样条形变模型的活体指纹检测方法 |
| EP2160135B1 (en) * | 2007-06-21 | 2012-08-15 | Koninklijke Philips Electronics N.V. | Adjusting acquisition protocols for dynamic medical imaging using dynamic models |
| WO2009016530A2 (en) * | 2007-07-27 | 2009-02-05 | Koninklijke Philips Electronics N.V. | Interactive atlas to image registration |
| US8787648B2 (en) * | 2008-03-07 | 2014-07-22 | Koninklijke Philips N.V. | CT surrogate by auto-segmentation of magnetic resonance images |
-
2010
- 2010-03-02 EP EP10712515.5A patent/EP2414976B1/en active Active
- 2010-03-02 CN CN2010800155765A patent/CN102369529A/zh active Pending
- 2010-03-02 RU RU2011144380/08A patent/RU2541887C2/ru active
- 2010-03-02 CN CN201710067635.7A patent/CN106975163B/zh active Active
- 2010-03-02 US US13/260,735 patent/US9724538B2/en active Active
- 2010-03-02 BR BRPI1006340A patent/BRPI1006340A2/pt not_active IP Right Cessation
- 2010-03-02 WO PCT/IB2010/050893 patent/WO2010113050A2/en not_active Ceased
- 2010-03-02 JP JP2012502834A patent/JP5759446B2/ja active Active
-
2017
- 2017-06-30 US US15/638,914 patent/US10946214B2/en active Active
Patent Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US5946425A (en) * | 1996-06-03 | 1999-08-31 | Massachusetts Institute Of Technology | Method and apparatus for automatic alingment of volumetric images containing common subject matter |
| RU2233118C1 (ru) * | 2003-04-18 | 2004-07-27 | Мишкинис Александр Борисович | Способ ретроспективного анализа рентгеновских снимков легких |
| RU2298887C2 (ru) * | 2004-04-12 | 2007-05-10 | Автономная некоммерческая организация "Центральный научно-исследовательский и опытно-конструкторский институт "Центр перспективных исследований" (АНО ЦНИОКИ ЦПИ) | Способ получения трехмерных рентгеновских изображений |
Non-Patent Citations (3)
| Title |
|---|
| DAWSON J.B. et al. "Advances in image-guided radiation therapy", 10.03.2007, 6 стр. [он-лайн] [найдено 2014-03-18], URL: http://jco.ascopubs.org/content/25/8/938.full.pdf. * |
| PEKAR VLADIMIR et al. "Automated planning of scan geometries in spine MRI scans", 31.12.2007, 8 стр. [он-лайн], URL:http://www.vuiis.vanderbilt.edu/~welcheb/SmartExam/2007_MICCAI_%28Pekar%29_Automated_planning_of_scan_geometries_in_spine_MRI_scans.pdf. * |
| WANG H. et al. "Performance evolution of automatic anatomy segmentation algorithm on repeat or four-dimensional CT images using a deformable image registration method", 01.09.2008, 20 стр. [он-лайн], URL: http://www.ncbi.nlm.nih.gov/pmc/articles/PMC2593788/pdf/nihms66624.pdf. * |
Also Published As
| Publication number | Publication date |
|---|---|
| EP2414976A2 (en) | 2012-02-08 |
| BRPI1006340A2 (pt) | 2017-01-10 |
| CN106975163A (zh) | 2017-07-25 |
| WO2010113050A3 (en) | 2010-12-02 |
| WO2010113050A2 (en) | 2010-10-07 |
| JP5759446B2 (ja) | 2015-08-05 |
| US20120035463A1 (en) | 2012-02-09 |
| CN106975163B (zh) | 2020-11-24 |
| RU2011144380A (ru) | 2013-05-10 |
| CN102369529A (zh) | 2012-03-07 |
| US20170296841A1 (en) | 2017-10-19 |
| US10946214B2 (en) | 2021-03-16 |
| US9724538B2 (en) | 2017-08-08 |
| EP2414976B1 (en) | 2018-12-26 |
| JP2012522557A (ja) | 2012-09-27 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| RU2541887C2 (ru) | Автоматизированное оконтуривание анатомии для планирования терапии с управлением по изображениям | |
| US11443441B2 (en) | Deep inspiration breath-hold setup using x-ray imaging | |
| US7817836B2 (en) | Methods for volumetric contouring with expert guidance | |
| US20110019889A1 (en) | System and method of applying anatomically-constrained deformation | |
| US20080037843A1 (en) | Image segmentation for DRR generation and image registration | |
| CN109903264B (zh) | 数字人图像与ct图像的配准方法及系统 | |
| US11398035B2 (en) | Partitioning a medical image | |
| JP2023036805A (ja) | 人体部分の撮像方法、コンピュータ、コンピュータ読み取り可能記憶媒体、コンピュータプログラム、および医療システム | |
| WO2022219072A1 (en) | Combining angiographic information with fluoroscopic images | |
| Dowling et al. | Image synthesis for MRI-only radiotherapy treatment planning | |
| JP2025521828A (ja) | 最適化された撮像パラメータを用いた電極の配向の決定 | |
| US20250242177A1 (en) | Ct-less free breathing image contour for planning radiation treatment | |
| EP3526799B1 (en) | Optimizing an atlas | |
| EP4522267B1 (en) | Determining physically correct digitally reconstructed radiographs | |
| Zhou et al. | The impact of loss functions and scene representations for 3D/2D registration on single-view fluoroscopic X-ray pose estimation | |
| WO2025040243A1 (en) | Patient positioning using a surface model for medical imaging | |
| WO2025061283A1 (en) | Positioning and tracking a radiation treatment bolus | |
| WO2025026523A1 (en) | Self-validating elastic fusion |