[go: up one dir, main page]

RU2541887C2 - Автоматизированное оконтуривание анатомии для планирования терапии с управлением по изображениям - Google Patents

Автоматизированное оконтуривание анатомии для планирования терапии с управлением по изображениям Download PDF

Info

Publication number
RU2541887C2
RU2541887C2 RU2011144380/08A RU2011144380A RU2541887C2 RU 2541887 C2 RU2541887 C2 RU 2541887C2 RU 2011144380/08 A RU2011144380/08 A RU 2011144380/08A RU 2011144380 A RU2011144380 A RU 2011144380A RU 2541887 C2 RU2541887 C2 RU 2541887C2
Authority
RU
Russia
Prior art keywords
image
identification points
contour
anatomical
landmarks
Prior art date
Application number
RU2011144380/08A
Other languages
English (en)
Other versions
RU2011144380A (ru
Inventor
Владимир ПЕКАР
Даниель БИСТРОВ
Original Assignee
Конинклейке Филипс Электроникс Н.В.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Конинклейке Филипс Электроникс Н.В. filed Critical Конинклейке Филипс Электроникс Н.В.
Publication of RU2011144380A publication Critical patent/RU2011144380A/ru
Application granted granted Critical
Publication of RU2541887C2 publication Critical patent/RU2541887C2/ru

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61NELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
    • A61N5/00Radiation therapy
    • A61N5/10X-ray therapy; Gamma-ray therapy; Particle-irradiation therapy
    • A61N5/103Treatment planning systems
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/149Segmentation; Edge detection involving deformable models, e.g. active contour models
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/174Segmentation; Edge detection involving the use of two or more images
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/40ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mechanical, radiation or invasive therapies, e.g. surgery, laser therapy, dialysis or acupuncture
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30016Brain
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2021Shape modification

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biomedical Technology (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Medical Informatics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Pathology (AREA)
  • Veterinary Medicine (AREA)
  • Software Systems (AREA)
  • Surgery (AREA)
  • Urology & Nephrology (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Radiation-Therapy Devices (AREA)

Abstract

Изобретение относится к компьютерным системам диагностической визуализации. Техническим результатом является повышение точности распознания анатомических особенностей на изображении за счет автоматизированного оконтуривания этих особенностей. Предложена система оконтуривания анатомических особенностей на изображениях, используемых для планирования терапии с управлением по изображениям. Система включает в себя процессор, который принимает исходное изображение анатомической структуры пациента из устройства формирования изображений. Упомянутый процессор также обнаруживает анатомические опознавательные точки в исходном изображении и сравнивает позиции обнаруженных анатомических опознавательных точек с опорными опознавательными точками в опорном контуре, соответствующем анатомической структуре. А также процессор осуществляет сопоставление обнаруженных анатомических опознавательных точек с опорными опознавательными точками. 5 н. и 15 з.п. ф-лы, 5 ил.

Description

Настоящая заявка находит применение, в частности, в системах диагностической визуализации. Однако, следует понимать, что описанный(ые) метод(ы) может также найти применение в системах диагностической визуализации других типов, других системах планирования терапии и/или других медицинских применениях.
Оконтуривание анатомии является необходимым предварительным этапом при планировании терапии, например планировании лучевой терапии (RTP) и т.п. Методом первичного формирования изображений, обычно используемым при RTP, является компьютерная томография (КТ). В последнее время внимание привлекает использование магнитно-резонансной томографии (МРТ) для RTP, так как данный метод обеспечивает более высокий контраст мягких тканей по сравнению с КТ.
В настоящее время на рынке имеются коммерческие системы автоматизированного планирования сканирования для магнитно-резонансных (МР) исследований. Одним из примеров подобной системы является система Philips SmartExam™, в которой получают предварительное изображение низкого разрешения, выполняют автоматизированное распознавание характерных для пациента анатомических ориентиров и оценивают ориентацию слоев при диагностическом сканировании на основании выявленных ориентиров и информации об ориентирах и ориентации, записанной при выполнении предыдущих операций сбора данных.
Автоматизированное оконтуривание анатомии является сложной задачей как в КТ, так и в МРТ. КТ изображения, обычно, не обеспечивают высокого контраста мягких тканей, что затрудняет надежное выделение границ органов. МР данные обеспечивают значительно более точное различение мягких тканей по сравнению с КТ, и их использование может дать преимущества при планировании терапии для достижения более точного оконтуривания целевых и критических структур в некоторых применениях. Однако автоматизированная сегментация данных МРТ также осложняется из-за множества разных используемых контрастов, приводящих к невоспроизводимому распределению уровней серого.
В данной области техники существует потребность в системах и способах, которые облегчают оконтуривание анатомических структур при планировании терапии с управлением по изображениям, с использованием анатомических ориентиров для переноса очертаний, используемых для планирования терапии и т.п., и, тем самым, преодолевают вышеупомянутые недостатки.
В соответствии с одним аспектом, система, которая облегчает оконтуривание анатомических признаков на изображениях, используемых для планирования терапии с управлением по изображениям, содержит процессор, который получает исходное изображение анатомической структуры в пациенте из устройства формирования изображений и обнаруживает анатомические ориентиры в исходном изображении. Процессор дополнительно сравнивает координаты обнаруженных анатомических ориентиров с опорными ориентирами в опорном контуре, соответствующем анатомической структуре, сопоставляет обнаруженные анатомические ориентиры с опорными ориентирами и подгоняет опорный контур к анатомической структуре на основании сопоставленных пар ориентиров. Процессор также подгоняет контур анатомической структуры в изображении анатомической структуры с высоким разрешением с использованием подогнанного опорного контура, записывает подогнанное изображение высокого разрешения в память и представляет подогнанное изображение высокого разрешения в компонент планирования терапии.
В соответствии с другим аспектом, способ оконтуривания анатомических признаков на изображениях, используемых для планирования терапии с управлением по изображениям, содержит этап обнаружения анатомических ориентиров в исходном изображении и этап сравнения координат обнаруженных анатомических ориентиров с опорными ориентирами в опорном контуре, соответствующем анатомической структуре. Способ дополнительно содержит этап сопоставления обнаруженных анатомических ориентиров с опорными ориентирами и этап подгонки опорного контура к анатомической структуре на основании сопоставленных пар ориентиров. Способ дополнительно содержит этап подгонки контура анатомической структуры в изображении высокого разрешения с использованием подогнанного опорного контура и этап формирования плана терапии на основании, по меньшей мере, частично подогнанного изображения высокого разрешения.
В соответствии с другим аспектом, способ формирования плана лучевой терапии для пациента содержит этап формирования изображения пациента с низким разрешением с использованием по меньшей мере одного из устройства магнитно-резонансной томографии (МРТ) и компьютерного томографического (КТ) сканера и этап обнаружения ориентиров на анатомической структуре в изображении низкого разрешения. Способ дополнительно содержит этап сопоставления обнаруженных ориентиров с опорными ориентирами в опорном контуре, хранящемся в памяти, и этап использования сплайновой интерполяции или аппроксимации, чтобы подогнать опорный контур для согласования с контуром анатомической структуры, с использованием сопоставленных ориентиров. Способ дополнительно содержит этап нанесения подогнанного опорного контура на изображение анатомической структуры с высоким разрешением для подгонки изображения высокого разрешения и этап формирования плана лучевой терапии на основании, по меньшей мере, частично подогнанного изображения высокого разрешения.
Одно из преимуществ состоит в том, что качество изображения для планирования терапии повышается.
Другое преимущество состоит в сокращении времени адаптации изображения.
Другие дополнительные преимущества настоящего изобретения будут очевидны специалистам со средним уровнем компетентности в данной области техники после прочтения и изучения нижеследующего подробного описания.
Чертежи предназначены только для иллюстрации различных аспектов и не подлежат истолкованию в ограничительном смысле.
Фиг. 1 иллюстрирует систему, которая облегчает передачу контуров или очертаний из медицинских изображений в изображения с высоким разрешением, используемые для планирования терапии.
Фиг. 2 иллюстрирует снимок экрана автоматизированного оконтуривания изображений головного мозга, сформированных с использованием устройства МРТ, который может быть отображен пользователю на устройстве отображения.
Фиг. 3 иллюстрирует другой снимок экрана автоматизированного оконтуривания изображений головного мозга, сформированных с использованием устройства МРТ, который может быть отображен пользователю на устройстве отображения.
Фиг. 4 иллюстрирует способ оконтуривания анатомических структур пациента для задания контуров в изображении пациента для терапии пациента с управлением по изображениям в соответствии с по меньшей мере одним аспектом, описанным в настоящем описании.
Фиг. 5 иллюстрирует примерную больничную систему, которая содержит множество устройств формирования изображений, например устройство МР томографии, КТ сканер, устройство радионуклидного сканирования (например, PET или SPECT) или подобное устройство, которые формируют данные формирования изображений, которые реконструируют посредством отдельных или совместно используемых реконструирующих процессоров для формирования представлений 3-мерных изображений.
В соответствии с различными признаками, представленными в настоящем описании, описаны системы и способы, которые облегчают оконтуривание анатомических структур при планировании терапии с управлением по изображениям. Описанная общая схема основана на характерном для пациента ориентире, автоматически распознаваемом программным обеспечением планирования сканирования (например, системах Philips SmartExam™ для планирования МР сканирования). Эти ориентиры используют для поддержки автоматизированного оконтуривания анатомии, а также для передачи очертаний в контексте адаптивного планирования терапии.
Аналогично, автоматизированное планирование КТ сканирования выполняют посредством обнаружения воспроизводимых ориентиров на низкодозовых предварительных сканированиях. Ориентиры, обнаруженные на предварительных изображениях, используют для управления алгоритмами автоматизированной сегментации посредством производства ближайших инициализаций, а также для передачи очертаний на последующие изображения посредством нежесткого совмещения на основе ориентиров.
Системы и способы, описанные в настоящем описании, решают проблему обеспечения воспроизводимых анатомических точечных ориентиров для планирования терапии. Например, алгоритмы автоматизированного планирования сканирования типа Philips SmartExam™, обычно, работают с 3-мерными стандартизированными предварительными изображениями низкого разрешения и способны надежно распознавать целевую анатомию в форме воспроизводимых анатомических точечных ориентиров. Таким образом, пространственная информация относительно исходной анатомии, полученная из предварительного изображения, переносится в сканирование с полным разрешением, независимо от контраста, и используется для поддержки автоматизированного оконтуривания.
На фигуре 1 иллюстрируется система 10, которая облегчает передачу контуров или очертаний из медицинских изображений в изображения с высоким разрешением, используемые для планирования терапии. Например, возможно применение системы 10 с по меньшей мере одной из рабочих станций для планирования лучевой терапии в сочетании с МР сканером, снабженным возможностью SmartExam™. Кроме того, возможно применение способа передачи контуров или планов терапии с использованием КТ изображений с соответствующими ориентирами на 3-мерных предварительных изображениях низкодозовой КТ. В соответствии с другими признаками, в системе 10 применяются мультимодальные системы, например, сочетающие КТ и МРТ, а также МРТ и/или КТ, объединенные с системами радионуклидного формирования изображений, например, сканером для позитронной эмиссионной томографии (PET), для однофотонной эмиссионной компьютерной томографии (SPECT-сканером) и т.п.
Система 10 содержит по меньшей мере одно из устройства МРТ 12 и КТ сканера 14, которые связаны с рабочей станцией 16, процессором 18 и памятью 20. Процессор может быть составной частью рабочей станции 16 или может быть ресурсом, совместно используемым посредством множества рабочих станций. Память хранит и процессор исполняет считываемые компьютером команды для выполнения различных задач и выполнения различных способов, описанных в настоящем описании.
В одном варианте осуществления, КТ сканер 14 формирует 3-мерное низкодозовое предварительное изображение 22, и процессор 18 автоматически обнаруживает воспроизводимый набор ориентиров 24 на низкодозовом предварительном изображении. Обнаруженные ориентиры экспортируются (например, с использованием протокола 26 обмена данными (DICOM) для передачи цифровых медицинских изображений или подобного протокола) в процессор для сравнения с известными ориентирами 28, хранящимися в памяти, для по меньшей мере одного контура. Процессор исполняет алгоритм 30 сравнения, чтобы сравнить обнаруженные ориентиры с известными ориентирами и извлекает по меньшей мере один контур тела из атласа 32, хранящегося в памяти. Процессор преобразует контуры с использованием обнаруженных ориентиров и, тем самым, подгоняет по меньшей мере один предварительно сформированный контур посредством сопоставления обнаруженных ориентиров с известными ориентирами для контура(ов). Например, процессор определяет преобразование, которое преобразует ориентиры 24 контрольного изображения в позиции, которые налагаются на ориентиры 28 из атласа. Контур из атласа для его преобразования в подогнанный контур 34 в пространстве пациента можно подвергнуть преобразованию, обратному этому определенному преобразованию.
В другом варианте осуществления, устройство МРТ 12 формирует предварительное изображение 22 низкого разрешения и процессор 18 автоматически обнаруживает воспроизводимый набор ориентиров 24 на предварительном изображении низкого разрешения. Обнаруженные ориентиры экспортируются (например, с использованием протокола 26 обмена данными DICOM и т.п.) в процессор для сравнения с известными ориентирами 33 мягких тканей, хранящимися в памяти, для по меньшей мере одного контура. Процессор исполняет алгоритм 30 сравнения, чтобы сравнить обнаруженные ориентиры 24 с известными ориентирами 28 и извлекает по меньшей мере один контур тела из атласа 32, хранящегося в памяти. Процессор преобразует контуры из атласа с использованием обнаруженных ориентиров 24 и, тем самым, подгоняет по меньшей мере один предварительно сформированный контур из атласа до подогнанных контуров 34 посредством сопоставления обнаруженных ориентиров с известными ориентирами для контура(ов).
В каждом сценарии (например, КТ или МРТ) атлас преобразуют в новый характерный для пациента набор данных, полученный из низкодозового предварительного изображения. То есть процессор выполняет преобразование для перемещения подогнанных контуров 34 к изображению 36 высокого разрешения, которое используют для RTP. Подогнанные контуры или очертания дополнительно используют в последующих изображениях того же пациента, чтобы контролировать продвижение терапии и облегчать адаптивное планирование терапии.
В одном варианте осуществления, процессор 18 использует по меньшей мере один тонкий плоский сплайн 38 для преобразования контуров, хотя описанные системы и способы не ограничены упомянутым подходом. Пример метода тонких плоских сплайнов описан в работе F.L. Bookstein: Principal warps: Thin-plate splines and the decomposition of deformations. IEEE Trans. Pattern. Anal. Mach Intell. 11: 567-586, 1989.
В другом варианте осуществления, рабочая станция 16 содержит устройство 40 отображения, на котором пользователю представляется по меньшей мере одно из изображения 22 низкого разрешения, изображения 36 высокого разрешения, обнаруженных ориентиров 24, известных ориентиров 28, контуров в атласе 32 и/или подогнанных контуров 34 на разных стадиях описанных способов и процессов. Рабочая станция дополнительно содержит устройство 42 ввода (например, мышь, клавиатуру, навигационную панель, стилус и т.п.), посредством которого пользователь вводит данные и/или команды в рабочую станцию, подгоняет ориентиры и т.п.
В соответствии с изложением со ссылкой на фигуру 1, на фигурах 2 и 3 иллюстрируются, соответственно, снимки 60 и 70 экранов автоматизированного оконтуривания изображений головного мозга, которые сформированы с использованием устройства МРТ и могут быть отображены пользователю на устройстве 40 отображения. На фигуре 2 изображено множество известных или опорных ориентиров 28 и на фигуре 3 показано множество обнаруженных ориентиров 24. Система 10, представленная на фигуре 1, используется, например, для поддержки оконтуривания структур, подвергающихся повышенному риску, а также для автоматической передачи законченных очертаний из первичного набора данных в последующие изображения.
Программное обеспечение для распознавания анатомии, например, SmartExam™, существует для исследований головного мозга в МР сканерах компании Philips многих типов, как сообщалось в работе Young et al.: Automated Planning of MRI Neuro Scans. Proc. of SPIE Medical Imaging, San Diego, CA, USA (2006) 61441M-1-61441M-8. Выходными данными программного обеспечения для распознавания анатомии является идентифицированный или обнаруженный набор воспроизводимых анатомических ориентиров 24. Координаты ориентиров могут быть экспортированы с использованием стандартного протокола 26 DICOM обмена данными и использованы модулем оконтуривания анатомии (не показанным) рабочей станции 16 для планирования лучевой терапии или любым автономным программным обеспечением для автоматизированного оконтуривания.
В соответствии с одним вариантом осуществления, пользователь вручную очерчивает структуры интереса в опорном наборе данных, для которого доступны координаты ориентиров. Затем эти известные ориентиры 28 совмещаются с обнаруженными ориентирами 24 в характерном для пациента наборе данных, например, с использованием тонких плоских сплайнов или подобным образом. Полученное преобразование применяют к анатомическим структурам в опорном наборе данных для их переноса в набор данных пациента (например, в изображении пациента с высоким разрешением или подобный набор данных). Пользователь может использовать дополнительные автоматизированные способы для получения повышенной точности или ручной точной подстройки перенесенных очертаний для их согласования с изображением пациента.
В связанном варианте осуществления, очертания передаются в последующие изображения того же пациента в контексте адаптивного планирования лучевой терапии. Аналогичным образом, обнаруженные ориентиры 24 в первичном наборе данных совмещают с известными ориентирами 28 в опорном наборе данных, и полученное преобразование применяют к доступному оконтуриванию в первичном изображении пациента. Поскольку существующая в данном случае изменчивость анатомии намного меньше, то способ требует только минимальных ручных подгонок данного оптимального покрытия области интереса посредством ориентиров.
На фигуре 4 представлен способ оконтуривания анатомических структур пациента для задания контуров в изображении пациента для терапии пациента с управлением по изображениям в соответствии с по меньшей мере одним аспектом, описанным в настоящем описании. На этапе 80 формируют изображение пациента или участка пациента с низким разрешением. В одном варианте осуществления, изображение является низкодозовым КТ изображением. В другом варианте осуществления, изображение является МР изображением низкого разрешения. На этапе 82 обнаруживают ориентиры в изображении пациента. На этапе 84 обнаруженные ориентиры 24 экспортируют (например, с использованием протокола 26 DICOM для передачи данных или подобного протокола) и сравнивают с известными ориентирами 26 для контуров в предварительно сформированном атласе 32 анатомических структур. Если исходное изображение пациента является низкодозовым КТ изображением, то обнаруженные ориентиры сравнивают с известными ориентирами жестких структур (например, костью и т.п.). Если исходное изображение пациента является МР изображением с низким разрешением, то обнаруженные ориентиры сравнивают с опорными ориентирами мягких тканей.
На этапе 86 опорный контур, содержащий опорные ориентиры, извлекают из атласа опорных контуров и подгоняют (например, деформируют, трансформируют, согласуют) под изображение пациента посредством сопоставления опорных ориентиров 28 с обнаруженными ориентирами 24. Подогнанный контур может быть записан в память для вывода в последующем. На этапе 88 подогнанный контур преобразуют (например, с использованием тонких плоских сплайнов или какого-то другого подобного подходящего интерполяционного метода) для согласования с изображением пациента с высоким разрешением, которое пригодно для использования в процедуре планирования терапии, например процедуре планирования лучевой терапии. Пользователь может дополнительно точно подстраивать адаптированный контур с использованием известных методов.
Следует понимать, что изображение высокого разрешения может быть сформировано с использованием любого метода формирования изображений, например КТ, МРТ, позитронной эмиссионной томографии (PET), однофотонной эмиссионной томографии (SPECT), рентгенографии, видоизмененных вышеперечисленных методов и т.п. В упомянутых сценариях процессор обеспечивает контур с ориентирами, характерными для конкретного метода, для сопоставления с обнаруженными ориентирами. Атлас 32 содержит как ориентиры жестких структур, так и ориентиры мягких тканей, PET-ориентиры, SPECT-ориентиры, рентгенографические ориентиры и т.п., так что любые или все КТ, МР, PET-, SPECT-, рентгенографические и другие изображения и ориентиры могут быть сопоставлены с контурами атласа или совмещены с ними.
В другом варианте осуществления, кроме или вместо атласа опорных контуров, для пациента получают множество исходных ориентиров при первом сеансе формирования изображений. Затем исходные ориентиры используют для сравнения с последующими сеансами формирования изображений, чтобы оценить продвижение терапии и т.п.
Как показано на фигуре 5, примерная больничная система 150 может содержать множество устройств формирования изображений, например устройство МР 12 томографии, КТ сканер 14, устройство 151 радионуклидного (например, PET или SPECT) сканирования, комбинации вышеперечисленных устройств (например, мультимодальные системы) или что-то подобное, что формирует данные формирования изображений, которые реконструируются отдельными или совместно используемыми реконструирующими процессорами 152 для формирования представлений 3-мерных изображений. Представления изображений передаются по сети 154 в центральную память 156 или локальную память 158.
На рабочей станции 16, соединенной с сетью, оператор использует пользовательский интерфейс 170 для перемещения выбранного объекта (например, 3-мерного изображения или контура и т.п. с низким разрешением) в центральную память 156 или местную память 158 или между ними. Видеопроцессор 166 отображает выбранный объект в первой области 172 1 просмотра устройства 40 отображения. Изображение пациента (например, изображение высокого разрешения, сформированное посредством одного из МР блока 12 формирования изображений, КТ сканера 14 и сканера 151 радионуклидного сканирования) отображается во второй области 172 2 просмотра. Третья область 172 3 просмотра может отображать наложение подогнанного контура и изображение высокого разрешения. Например, пользователь может располагать возможностью совмещать ориентиры, обнаруженные на (например, КТ или МР) изображении пациента с низким разрешением, с опорными ориентирами в опорном контуре, выбранном из атласа, чтобы согласовывать опорный контур с анатомией пациента. Например, оператор посредством интерфейса 170 выбирает опорные ориентиры в опорном контуре (например, с помощью мыши, стилуса или другого подходящего пользовательского устройства ввода), которые соответствуют обнаруженным ориентирам в изображении низкого разрешения. В качестве альтернативы, опорные и обнаруженные ориентиры могут выравниваться автоматически программой, исполняемой процессорами 18 и/или 166, которая хранится в памяти 20. Затем процессор 18 (фиг.1) в пользовательском интерфейсе 170 выполняет алгоритм деформирования или трансформирования для согласования формы опорного контура с формой анатомии пациента с использованием выровненных ориентиров. Процессор 18 дополнительно выполняет преобразование (например, с использованием тонких плоских сплайнов или какого-либо подходящего интерполяционного метода) для сопоставления подогнанного или согласованного контура с изображением пациента с высоким разрешением.
Когда изображение высокого разрешения включает в себя информацию о подогнанном контуре, данное изображение подается в компонент 180 планирования терапии для использования в планировании терапии (например, планирования лучевой терапии, планирования ультразвуковой терапии, планирования физиотерапии, планирования брахитерапии, терапии высокоинтенсивным сфокусированным ультразвуком (HIFU) под управлением МРТ, планирования корпускулярной лучевой терапии, планирования абляции и т.п.). Устройство 182 терапии, по желанию, связано с устройством 180 планирования терапии для исполнения по меньшей мере одного плана терапии, сформированного вышеописанным способом.
В другом варианте осуществления, отображенное наложение в области 172 3 просмотра можно подгонять путем присвоения весовых коэффициентов изображению и/или контуру низкого разрешения относительно изображения высокого разрешения или наоборот. Например, для изменения весового коэффициента изображения в областях 172 1 и 172 2 просмотра можно подстраивать бегунок или кнопку (не показанные), которые могут быть механическими или представленными на устройстве 168 отображения и допускают манипулирование посредством устройства ввода. В одном примере, оператор может подгонять изображение в области 172 3 просмотра исходя из данных изображения исключительно высокого разрешения (представленных в области 172 2 просмотра) посредством многих сочетаний и/или непрерывного сочетания данных изображений высокого разрешения и низкого разрешения под данные изображения исключительно низкого разрешения (представленные в области 172 1 просмотра). Например, отношение данных изображения высокого разрешения к данным изображения низкого разрешения можно дискретно или непрерывно подгонять от 0:1 до 1:0. В другом возможном варианте данные изображения высокого разрешения могут отображаться в серых тонах, и данные изображения низкого разрешения могут быть расцвечены или наоборот.
После того как пользователь загрузил и/или установил атлас или библиотеку контуров в центральную память 156, атлас можно вызывать по сети, чтобы облегчать преобразование подгонки контура в изображение высокого разрешения и т.п., как описано выше. В соответствии с приведенным примером, допуск к библиотеке контуров или атласу могут получать многие рабочие станции или пользовательские интерфейсы, при необходимости для конкретных пациентов или сеансов формирования изображений для различных процедур планирования терапии.

Claims (20)

1. Система оконтуривания анатомических особенностей на изображениях, используемых для планирования терапии с управлением по изображениям, причем система включает в себя:
процессор (18), который:
принимает исходное изображение (22) анатомической структуры пациента из устройства (12, 14) формирования изображений;
обнаруживает анатомические опознавательные точки (24) в исходном изображении;
сравнивает позиции обнаруженных анатомических опознавательных точек (24) с опорными опознавательными точками (28) в опорном контуре, соответствующем анатомической структуре;
сопоставляет обнаруженные анатомические опознавательные точки (24) с опорными опознавательными точками (28);
подстраивает опорный контур под анатомическую структуру, основываясь на парах сопоставленных опознавательных точек;
выполняет преобразование для перемещения подстроенного контура к изображению высокого разрешения;
подстраивает контур анатомической структуры на втором изображении анатомической структуры с использованием подстроенного опорного контура;
сохраняет подстроенное второе изображение (36) в память (20); и
обеспечивает подстроенное второе изображение (36) в компонент (180) планирования терапии.
2. Система по п.1, в которой опорный контур подстраивается с использованием сплайна (38) типа тонкой пластинки.
3. Система по п.1, в которой исходное изображение является низкодозовым КТ изображением, генерируемым КТ сканером (14).
4. Система по п.3, в которой обнаруженные опознавательные точки (24) являются опознавательными точками твердых тканей.
5. Система по п.1, в которой исходное изображение (22) является магнитно-резонансным (MR) изображением низкого разрешения, генерируемым устройством (12) формирования MR-изображений (MRI).
6. Система по п.5, в которой обнаруженные опознавательные точки (24) являются опознавательными точками мягких тканей.
7. Система по п.1, в которой информация о позициях обнаруженных опознавательных точек экспортируется с использованием протокола (26) передачи данных DICOM.
8. Система по п.1, в которой компонент (180) планирования терапии генерирует, по меньшей мере, один из плана лучевой терапии, плана ультразвуковой терапии, плана корпускулярно-лучевой терапии, плана абляционной терапии и плана физиотерапии, основываясь, по меньшей мере, частично на информации, содержащейся в подстроенном втором изображении.
9. Система по п.1, в которой исходное изображение (22) и второе изображение генерируются с использованием разных методов формирования изображений.
10. Система по п.9, в которой исходное изображение (22) генерируется с использованием, по меньшей мере, одного из компьютерного томографического (КТ) сканера и устройства (12) формирования магнитно-резонансных изображений (MRI), и при этом второе изображение генерируется с использованием, по меньшей мере, одного из КТ сканера (14), устройства (12) MRI и устройства (151) радионуклидного формирования изображений.
11. Способ оконтуривания анатомических особенностей на изображениях, используемых для планирования терапии с управлением по изображениям, при этом способ включает в себя этапы, на которых:
обнаруживают анатомические опознавательные точки (24) в исходном изображении;
сравнивают позиции обнаруженных анатомических опознавательных точек (24) с опорными опознавательными точками (28) в опорном контуре, соответствующем анатомической структуре;
сопоставляют обнаруженные анатомические опознавательные точки (24) с опорными опознавательными точками (28);
подстраивают опорный контур под анатомическую структуру на основании пар сопоставленных опознавательных точек;
выполняют преобразование для перемещения подстроенного контура к изображению высокого разрешения;
подстраивают контур анатомической структуры во втором изображении с использованием подстроенного опорного контура; и
генерируют план терапии, основываясь, по меньшей мере, частично на подстроенном втором изображении (36).
12. Способ по п.11, дополнительно включающий в себя, по меньшей мере, один из этапов, на которых:
отображают, по меньшей мере, одно из исходного изображения и второго изображения на устройстве (40) отображения;
сохраняют, по меньшей мере, одно из исходного изображения и второго изображения в память (20); и
сохраняют план терапии в память (20).
13. Способ по п.11, дополнительно включающий в себя этап, на котором:
подстраивают опорный контур с использованием сплайна (38) типа тонкой пластинки.
14. Способ по п.11, дополнительно включающий в себя этап, на котором:
генерируют исходное изображение (22) КТ сканером (14), при этом обнаруженные опознавательные точки (24) являются опознавательными точками твердых тканей.
15. Способ по п.11, дополнительно включающий в себя этап, на котором:
генерируют исходное изображение (22) устройством (12) MRI, при этом обнаруженные опознавательные точки (24) являются опознавательными точками (33) мягких тканей.
16. Способ по п.11, дополнительно включающий в себя этап, на котором:
генерируют, по меньшей мере, один из плана лучевой терапии, плана ультразвуковой терапии, плана корпускулярно-лучевой терапии, плана абляционной терапии и плана физиотерапии, основываясь, по меньшей мере, частично на информации, содержащейся в подстроенном втором изображении.
17. Считываемый компьютером носитель (20), переносящий компьютерную программу, которая управляет одним или более компьютерами для выполнения способа по п.11.
18. Рабочая станция для планирования терапии, включающая в себя процессор (18), запрограммированный для выполнения способа по п.11.
19. Считываемый компьютером носитель (20), который хранит исполняемые компьютером инструкции для генерирования плана терапии для пациента, для исполнения процессором (18), причем инструкции содержат:
генерирование изображения (22) низкого разрешения для пациента с использованием, по меньшей мере, одного из устройства (12) формирования магнитно-резонансных изображений (MRI) и компьютерного томографического (КТ) сканера (14);
обнаружение опознавательных точек на анатомической структуре в изображении (22) низкого разрешения;
сопоставление обнаруженных опознавательных точек (24) с опорными опознавательными точками (28) в опорном контуре, хранимом в памяти (20);
использование одного или более сплайнов (38) типа тонкой пластинки для подстройки опорного контура для согласования с контуром анатомической структуры с использованием сопоставленных опознавательных точек;
выполнение преобразования для перемещения подстроенного контура к изображению высокого разрешения;
наложение подстроенного опорного контура на второе изображение анатомической структуры для подстройки второго изображения; и
генерирование плана лучевой терапии, основываясь, по меньшей мере, частично на подстроенном втором изображении (36).
20. Считываемый компьютером носитель (20) по п.19, причем инструкции дополнительно содержат:
генерирование второго изображения с использованием, по меньшей мере, одного из КТ сканера (14), устройства (12) MRI и устройства (151) радионуклидного сканирования;
при этом второе изображение генерируется с использованием метода формирования изображений, отличного от метода формирования изображений низкого разрешения.
RU2011144380/08A 2009-04-02 2010-03-02 Автоматизированное оконтуривание анатомии для планирования терапии с управлением по изображениям RU2541887C2 (ru)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US16592309P 2009-04-02 2009-04-02
US61/165,923 2009-04-02
PCT/IB2010/050893 WO2010113050A2 (en) 2009-04-02 2010-03-02 Automated anatomy delineation for image guided therapy planning

Publications (2)

Publication Number Publication Date
RU2011144380A RU2011144380A (ru) 2013-05-10
RU2541887C2 true RU2541887C2 (ru) 2015-02-20

Family

ID=42799693

Family Applications (1)

Application Number Title Priority Date Filing Date
RU2011144380/08A RU2541887C2 (ru) 2009-04-02 2010-03-02 Автоматизированное оконтуривание анатомии для планирования терапии с управлением по изображениям

Country Status (7)

Country Link
US (2) US9724538B2 (ru)
EP (1) EP2414976B1 (ru)
JP (1) JP5759446B2 (ru)
CN (2) CN102369529A (ru)
BR (1) BRPI1006340A2 (ru)
RU (1) RU2541887C2 (ru)
WO (1) WO2010113050A2 (ru)

Families Citing this family (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1946339A (zh) 2004-02-20 2007-04-11 佛罗里达大学研究基金会公司 用于提供适形放射治疗同时对软组织进行成像的系统
US8617171B2 (en) * 2007-12-18 2013-12-31 Otismed Corporation Preoperatively planning an arthroplasty procedure and generating a corresponding patient specific arthroplasty resection guide
CN103221976A (zh) * 2010-08-04 2013-07-24 P治疗有限公司 远程治疗的控制系统和方法
JP6027552B2 (ja) * 2011-03-15 2016-11-16 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 相関するイメージマッピングポインタ
EP2727030A4 (en) * 2011-06-29 2015-05-27 Univ Johns Hopkins SYSTEM FOR A THREE-DIMENSIONAL INTERFACE AND DATABASE
US20140341449A1 (en) * 2011-09-23 2014-11-20 Hamid Reza TIZHOOSH Computer system and method for atlas-based consensual and consistent contouring of medical images
NL2009885C2 (en) * 2011-11-30 2014-12-09 Gen Electric System and method for automated landmarking.
EP2650691A1 (en) * 2012-04-12 2013-10-16 Koninklijke Philips N.V. Coordinate transformation of graphical objects registered to a magnetic resonance image
US10561861B2 (en) 2012-05-02 2020-02-18 Viewray Technologies, Inc. Videographic display of real-time medical treatment
EP2911745B1 (en) 2012-10-26 2019-08-07 ViewRay Technologies, Inc. Assessment and improvement of treatment using imaging of physiological responses to radiation therapy
CN103892854B (zh) * 2012-12-28 2018-10-09 上海联影医疗科技有限公司 数字医疗图像处理方法和装置
CN105122309B (zh) 2013-04-17 2018-06-26 皇家飞利浦有限公司 与独立背景图像结合的光滑刚性线的描绘和/或校正
US9818200B2 (en) 2013-11-14 2017-11-14 Toshiba Medical Systems Corporation Apparatus and method for multi-atlas based segmentation of medical image data
CN106030657B (zh) * 2014-02-19 2019-06-28 皇家飞利浦有限公司 医学4d成像中的运动自适应可视化
JP6258084B2 (ja) * 2014-03-12 2018-01-10 東芝メディカルシステムズ株式会社 医用画像表示装置、医用画像表示システムおよび医用画像表示プログラム
KR20150108701A (ko) * 2014-03-18 2015-09-30 삼성전자주식회사 의료 영상 내 해부학적 요소 시각화 시스템 및 방법
GB201406134D0 (en) * 2014-04-04 2014-05-21 Elekta Ab Image-guided radiation therapy
US9740710B2 (en) 2014-09-02 2017-08-22 Elekta Inc. Systems and methods for segmenting medical images based on anatomical landmark-based features
CN107209240B (zh) * 2015-01-30 2018-10-23 皇家飞利浦有限公司 用于针对后续磁共振成像的自动扫描规划的系统和方法
EP3181049B1 (en) * 2015-12-18 2018-02-14 RaySearch Laboratories AB Radiotherapy method, computer program and computer system
US10262424B2 (en) * 2015-12-18 2019-04-16 The Johns Hopkins University Method for deformable 3D-2D registration using multiple locally rigid registrations
EP3423153B1 (en) 2016-03-02 2021-05-19 ViewRay Technologies, Inc. Particle therapy with magnetic resonance imaging
JP6849356B2 (ja) * 2016-09-13 2021-03-24 キヤノンメディカルシステムズ株式会社 医用画像診断装置
US10937170B2 (en) * 2016-09-21 2021-03-02 Koninklijke Philips N.V. Apparatus for adaptive contouring of a body part
EP3554635B1 (en) 2016-12-13 2021-01-20 ViewRay Technologies, Inc. Radiation therapy systems
US11317880B2 (en) * 2017-01-24 2022-05-03 Brainlab Ag Determining rotational orientation of a deep brain stimulation electrode in a three-dimensional image
EP3375485A1 (en) * 2017-03-17 2018-09-19 Koninklijke Philips N.V. Image-guided radiation therapy
KR102394321B1 (ko) * 2017-06-16 2022-05-06 퍼킨엘머 셀룰러 테크놀로지스 저머니 게엠베하 뼈를 따르는 인공 랜드마크를 이용한 3차원 영상들의 자동화된 왜곡 정정 및/또는 상호-정합을 위한 시스템 및 방법
CN109620407B (zh) * 2017-10-06 2024-02-06 皇家飞利浦有限公司 治疗轨迹引导系统
EP3486674A1 (en) * 2017-11-17 2019-05-22 Koninklijke Philips N.V. Artificial intelligence-enabled localization of anatomical landmarks
CN111712298B (zh) 2017-12-06 2023-04-04 优瑞技术公司 放射疗法系统
EP3759685B1 (en) * 2018-03-02 2024-05-01 General Electric Company System and method for an accelerated clinical workflow
EP3564906A1 (de) * 2018-05-04 2019-11-06 Siemens Healthcare GmbH Verfahren zur erzeugung von bilddaten bei einem computertomographiegerät, bilderzeugungsrechner, computertomographiegerät, computerprogrammprodukt und computerlesbarer datenträger
US11209509B2 (en) 2018-05-16 2021-12-28 Viewray Technologies, Inc. Resistive electromagnet systems and methods
US10635413B1 (en) 2018-12-05 2020-04-28 Bank Of America Corporation System for transforming using interface image segments and constructing user interface objects
US10678521B1 (en) 2018-12-05 2020-06-09 Bank Of America Corporation System for image segmentation, transformation and user interface component construction
US11080849B2 (en) * 2018-12-21 2021-08-03 General Electric Company Systems and methods for deep learning based automated spine registration and label propagation
CN110075430B (zh) * 2019-04-28 2020-10-02 南京大学 一种基于信息熵的超声空化实时监测方法及系统
EP3799784A1 (en) 2019-10-03 2021-04-07 Koninklijke Philips N.V. Imaging-based reflex measurements for sedation depth monitoring
EP4319641A4 (en) 2021-04-09 2025-01-22 Pulmera, Inc. MEDICAL IMAGING SYSTEMS AND RELATED DEVICES AND METHODS
WO2023004303A1 (en) * 2021-07-20 2023-01-26 Pulmera, Inc. Image guidance for medical procedures
US12165293B2 (en) 2021-09-28 2024-12-10 Samsung Electronics Co., Ltd. Method and apparatus for enhancing texture details of images
US12033740B2 (en) * 2021-12-04 2024-07-09 Vasileios K. Papaioannou Systems and methods for robust and automatic face de-identification for CT and MRI
CN114494147A (zh) * 2021-12-29 2022-05-13 深圳市联影高端医疗装备创新研究院 一种构建动物脑模板的方法及装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5946425A (en) * 1996-06-03 1999-08-31 Massachusetts Institute Of Technology Method and apparatus for automatic alingment of volumetric images containing common subject matter
RU2233118C1 (ru) * 2003-04-18 2004-07-27 Мишкинис Александр Борисович Способ ретроспективного анализа рентгеновских снимков легких
RU2298887C2 (ru) * 2004-04-12 2007-05-10 Автономная некоммерческая организация "Центральный научно-исследовательский и опытно-конструкторский институт "Центр перспективных исследований" (АНО ЦНИОКИ ЦПИ) Способ получения трехмерных рентгеновских изображений

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8099152B2 (en) 2005-02-17 2012-01-17 Univeristy Of Florida Research Foundation, Inc. Systems and methods for planning medical procedures and designing medical devices based on anatomical scan deformations
EP1748389A1 (en) * 2005-07-28 2007-01-31 Microsoft Corporation Image blending
EP1775573A1 (de) * 2005-10-13 2007-04-18 Evotec Technologies GmbH Verfahren zur Detektion von Konturen in biologischen Zellen
DE102005059210B4 (de) * 2005-12-12 2008-03-20 Siemens Ag Radiotherapeutische Vorrichtung
US9757588B2 (en) * 2006-05-11 2017-09-12 Koninklijke Philips N.V. Deformable registration of images for image guided radiation therapy
US8150498B2 (en) 2006-09-08 2012-04-03 Medtronic, Inc. System for identification of anatomical landmarks
CN100573553C (zh) * 2007-01-18 2009-12-23 中国科学院自动化研究所 基于薄板样条形变模型的活体指纹检测方法
EP2160135B1 (en) * 2007-06-21 2012-08-15 Koninklijke Philips Electronics N.V. Adjusting acquisition protocols for dynamic medical imaging using dynamic models
WO2009016530A2 (en) * 2007-07-27 2009-02-05 Koninklijke Philips Electronics N.V. Interactive atlas to image registration
US8787648B2 (en) * 2008-03-07 2014-07-22 Koninklijke Philips N.V. CT surrogate by auto-segmentation of magnetic resonance images

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5946425A (en) * 1996-06-03 1999-08-31 Massachusetts Institute Of Technology Method and apparatus for automatic alingment of volumetric images containing common subject matter
RU2233118C1 (ru) * 2003-04-18 2004-07-27 Мишкинис Александр Борисович Способ ретроспективного анализа рентгеновских снимков легких
RU2298887C2 (ru) * 2004-04-12 2007-05-10 Автономная некоммерческая организация "Центральный научно-исследовательский и опытно-конструкторский институт "Центр перспективных исследований" (АНО ЦНИОКИ ЦПИ) Способ получения трехмерных рентгеновских изображений

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
DAWSON J.B. et al. "Advances in image-guided radiation therapy", 10.03.2007, 6 стр. [он-лайн] [найдено 2014-03-18], URL: http://jco.ascopubs.org/content/25/8/938.full.pdf. *
PEKAR VLADIMIR et al. "Automated planning of scan geometries in spine MRI scans", 31.12.2007, 8 стр. [он-лайн], URL:http://www.vuiis.vanderbilt.edu/~welcheb/SmartExam/2007_MICCAI_%28Pekar%29_Automated_planning_of_scan_geometries_in_spine_MRI_scans.pdf. *
WANG H. et al. "Performance evolution of automatic anatomy segmentation algorithm on repeat or four-dimensional CT images using a deformable image registration method", 01.09.2008, 20 стр. [он-лайн], URL: http://www.ncbi.nlm.nih.gov/pmc/articles/PMC2593788/pdf/nihms66624.pdf. *

Also Published As

Publication number Publication date
EP2414976A2 (en) 2012-02-08
BRPI1006340A2 (pt) 2017-01-10
CN106975163A (zh) 2017-07-25
WO2010113050A3 (en) 2010-12-02
WO2010113050A2 (en) 2010-10-07
JP5759446B2 (ja) 2015-08-05
US20120035463A1 (en) 2012-02-09
CN106975163B (zh) 2020-11-24
RU2011144380A (ru) 2013-05-10
CN102369529A (zh) 2012-03-07
US20170296841A1 (en) 2017-10-19
US10946214B2 (en) 2021-03-16
US9724538B2 (en) 2017-08-08
EP2414976B1 (en) 2018-12-26
JP2012522557A (ja) 2012-09-27

Similar Documents

Publication Publication Date Title
RU2541887C2 (ru) Автоматизированное оконтуривание анатомии для планирования терапии с управлением по изображениям
US11443441B2 (en) Deep inspiration breath-hold setup using x-ray imaging
US7817836B2 (en) Methods for volumetric contouring with expert guidance
US20110019889A1 (en) System and method of applying anatomically-constrained deformation
US20080037843A1 (en) Image segmentation for DRR generation and image registration
CN109903264B (zh) 数字人图像与ct图像的配准方法及系统
US11398035B2 (en) Partitioning a medical image
JP2023036805A (ja) 人体部分の撮像方法、コンピュータ、コンピュータ読み取り可能記憶媒体、コンピュータプログラム、および医療システム
WO2022219072A1 (en) Combining angiographic information with fluoroscopic images
Dowling et al. Image synthesis for MRI-only radiotherapy treatment planning
JP2025521828A (ja) 最適化された撮像パラメータを用いた電極の配向の決定
US20250242177A1 (en) Ct-less free breathing image contour for planning radiation treatment
EP3526799B1 (en) Optimizing an atlas
EP4522267B1 (en) Determining physically correct digitally reconstructed radiographs
Zhou et al. The impact of loss functions and scene representations for 3D/2D registration on single-view fluoroscopic X-ray pose estimation
WO2025040243A1 (en) Patient positioning using a surface model for medical imaging
WO2025061283A1 (en) Positioning and tracking a radiation treatment bolus
WO2025026523A1 (en) Self-validating elastic fusion