[go: up one dir, main page]

WO2018055841A1 - 超音波診断装置及び超音波診断装置の制御方法 - Google Patents

超音波診断装置及び超音波診断装置の制御方法 Download PDF

Info

Publication number
WO2018055841A1
WO2018055841A1 PCT/JP2017/020928 JP2017020928W WO2018055841A1 WO 2018055841 A1 WO2018055841 A1 WO 2018055841A1 JP 2017020928 W JP2017020928 W JP 2017020928W WO 2018055841 A1 WO2018055841 A1 WO 2018055841A1
Authority
WO
WIPO (PCT)
Prior art keywords
ultrasonic
image
image analysis
unit
probe
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/JP2017/020928
Other languages
English (en)
French (fr)
Inventor
松本 剛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to EP17852622.4A priority Critical patent/EP3517048B1/en
Priority to JP2018540632A priority patent/JP6625760B2/ja
Publication of WO2018055841A1 publication Critical patent/WO2018055841A1/ja
Priority to US16/294,749 priority patent/US11116481B2/en
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/752Contour matching
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/42Details of probe positioning or probe attachment to the patient
    • A61B8/4245Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient
    • A61B8/4254Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient using sensors mounted on the probe
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5238Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/54Control of the diagnostic device
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Clinical applications
    • A61B8/0833Clinical applications involving detecting or locating foreign bodies or organic structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/42Details of probe positioning or probe attachment to the patient
    • A61B8/4245Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/44Constructional features of the ultrasonic, sonic or infrasonic diagnostic device
    • A61B8/4427Device being portable or laptop-like
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/48Diagnostic techniques
    • A61B8/485Diagnostic techniques involving measuring strain or elastic properties
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/48Diagnostic techniques
    • A61B8/486Diagnostic techniques involving arbitrary m-mode
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/48Diagnostic techniques
    • A61B8/488Diagnostic techniques involving Doppler signals
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5223Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for extracting a diagnostic or physiological parameter from medical diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5269Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving detection or reduction of artifacts
    • A61B8/5276Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving detection or reduction of artifacts due to motion
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images
    • G06V2201/034Recognition of patterns in medical or anatomical images of medical instruments

Definitions

  • the present invention relates to an ultrasonic diagnostic apparatus and a method for controlling the ultrasonic diagnostic apparatus, and more particularly to an ultrasonic diagnostic apparatus that determines a part of a subject on which an ultrasonic image is generated.
  • Some of such ultrasonic diagnostic apparatuses can easily and quickly perform ultrasonic diagnosis by detecting the movement of an ultrasonic probe and using the detection result.
  • Patent Document 1 when the movement of an ultrasonic probe is detected and it is determined that the ultrasonic probe is stationary in the detection result, acquisition of an ultrasonic image, determination of a diagnostic part, and ultrasonic wave An ultrasonic diagnostic apparatus that analyzes an image is disclosed.
  • the present invention has been made to solve such a conventional problem, and an ultrasonic wave that can select an image analysis method based on the movement of an ultrasonic probe and accurately determine a diagnostic site. It is an object of the present invention to provide a control method for a diagnostic apparatus and an ultrasonic diagnostic apparatus.
  • an ultrasonic diagnostic apparatus of the present invention includes an ultrasonic probe, an image acquisition unit that transmits and receives an ultrasonic beam from the ultrasonic probe toward a subject, and acquires an ultrasonic image.
  • An image analysis unit that analyzes the ultrasonic image acquired by the image acquisition unit, and a motion amount detection unit that detects a motion amount of the ultrasonic probe, and the image analysis unit is detected by the motion amount detection unit.
  • image analysis is performed on a single-frame ultrasonic image, and the amount of motion of the ultrasonic probe detected by the motion amount detection unit is determined. If it is less, the image analysis is performed on the ultrasonic images of a plurality of frames.
  • the image analysis unit preferably performs image analysis including pattern recognition or pixel value analysis on a single-frame ultrasonic image as image analysis on a single-frame ultrasonic image.
  • the image analysis unit performs an analysis on a motion of a specific pattern included in the plurality of frames of ultrasonic images in common as an image analysis of the plurality of frames of ultrasonic images.
  • the image analysis unit performs image analysis on a plurality of frames of ultrasonic images acquired in time series by the image acquisition unit as image analysis on a plurality of frames of ultrasonic images, and analyzes the images. Results may be integrated.
  • a part discriminating unit that discriminates a part of the subject included in the ultrasonic image subjected to the image analysis based on the result of the image analysis in the image analyzing unit.
  • the motion amount detection unit preferably includes a motion sensor attached to the ultrasonic probe, and the motion sensor preferably detects the acceleration, angular velocity, or position of the ultrasonic probe.
  • the motion amount detection unit may include an operation sensor installed away from the ultrasonic probe, and the operation sensor may detect the position of the ultrasonic probe.
  • the ultrasonic diagnostic apparatus has an image analysis unit that performs image analysis on a single-frame ultrasonic image or image analysis on multiple-frame ultrasonic images based on the amount of movement of the ultrasonic probe. According to the movement of the ultrasonic probe, the diagnostic site can be discriminated precisely.
  • FIG. 1 shows the configuration of an ultrasonic diagnostic apparatus according to Embodiment 1 of the present invention.
  • the ultrasonic diagnostic apparatus 1 includes an ultrasonic probe 2 including a transducer array 2A, and a display control unit 8 and a display unit 9 are sequentially connected to the ultrasonic probe 2 via an image acquisition unit 3.
  • the image acquisition unit 3 includes a reception circuit 5 and a transmission circuit 6 connected to the transducer array 2A of the ultrasonic probe 2, and an image generation unit 7 connected to the reception circuit 5.
  • the display control unit 8 includes , Connected to the image generator 7.
  • the image generation unit 7 is connected to the image analysis unit 12.
  • the ultrasonic probe 2 is provided with a motion sensor 10, and the motion sensor 10 is connected to the probe motion amount calculation unit 11.
  • the probe motion amount calculation unit 11 is connected to the image analysis unit 12, and the part determination unit 13 is connected to the image analysis unit 12. Further, the motion sensor 10 and the probe motion amount calculation unit 11 constitute a motion amount detection unit 4.
  • the device control unit 14 is connected to the image acquisition unit 3, the display control unit 8, the probe motion amount calculation unit 11, the image analysis unit 12, and the region determination unit 13, and the operation control unit 15 and the storage unit 16 are connected to the device control unit 14. Are connected to each other.
  • the device control unit 14 and the storage unit 16 are connected so as to be able to exchange information in both directions.
  • Each element includes, for example, a piezoelectric ceramic represented by PZT (Lead Zirconate Titanate), a polymer piezoelectric element represented by PVDF (PolyVinylidene DiDifluoride), and PMN-PT (Lead It is configured using a vibrator in which electrodes are formed on both ends of a piezoelectric body made of a piezoelectric single crystal or the like typified by MagnesiumLeNiobate-Lead Titanate: magnesium niobate-lead titanate solid solution).
  • PZT Lead Zirconate Titanate
  • PVDF PolyVinylidene DiDifluoride
  • PMN-PT Lead It is configured using a vibrator in which electrodes are formed on both ends of a piezoelectric body made of a piezoelectric single crystal or the like typified by MagnesiumLeNiobate-Lead Titanate: magnesium niobate-lead titan
  • the piezoelectric material expands and contracts, and pulse or continuous wave ultrasonic waves are generated from the respective vibrators, and the synthesis of these ultrasonic waves. From the wave, an ultrasonic beam is formed.
  • Each transducer expands and contracts by receiving propagating ultrasonic waves to generate electric signals, and these electric signals are output from the respective transducers to the receiving circuit 5 as ultrasonic reception signals.
  • the receiving circuit 5 of the image acquisition unit 3 has a configuration in which an amplification unit 17 and an A / D (Analog / Digital) conversion unit 18 are connected in series.
  • the reception circuit 5 amplifies the reception signal output from each element of the transducer array 2 ⁇ / b> A in the amplification unit 17, and outputs the element data obtained by digitization in the A / D conversion unit 18 to the image generation unit 7.
  • the transmission circuit 6 of the image acquisition unit 3 includes, for example, a plurality of pulse generators, and based on the transmission delay pattern selected according to the control signal from the device control unit 14, a plurality of transducer arrays 2A. The delay amount of each drive signal is adjusted and supplied to a plurality of elements so that the ultrasonic waves transmitted from the elements form an ultrasonic beam.
  • the image generation unit 7 of the image acquisition unit 3 has a configuration in which a B mode (brightness mode) processing unit 19 and an image processing unit 20 are sequentially connected in series.
  • the B-mode processing unit 19 Based on the reception delay pattern selected according to the control signal from the device control unit 14, the B-mode processing unit 19 gives each element data according to the set sound speed and performs addition (phased addition).
  • Receive focus processing By this reception focus processing, a sound ray signal in which the focus of the ultrasonic echo is narrowed is generated.
  • the B-mode processing unit 19 corrects the attenuation caused by the propagation distance according to the depth of the reflection position of the ultrasonic wave with respect to the sound ray signal, and then performs an envelope detection process, A B-mode image signal that is tomographic image information related to the tissue is generated.
  • the B mode image signal generated in the B mode processing unit 19 is output to the display control unit 8 or the image analysis unit 12.
  • the image processing unit 20 converts (raster conversion) the B-mode image signal generated in the B-mode processing unit 19 into an image signal in accordance with a normal television signal scanning method, and performs various processes such as gradation processing on the B-mode image signal. After performing necessary image processing, a B-mode image signal is output to the display control unit 8.
  • the display control unit 8 of the ultrasonic diagnostic apparatus 1 displays an ultrasonic diagnostic image on the display unit 9 based on the B-mode image signal acquired by the image acquisition unit 3.
  • the display unit 9 includes, for example, a display device such as an LCD (Liquid Crystal Display), and displays an ultrasound diagnostic image under the control of the device control unit 14.
  • the motion sensor 10 of the motion amount detector 4 is provided in the ultrasound probe 2 and detects the motion or position of the ultrasound probe 2 operated by an operator during ultrasound diagnosis as an electrical signal.
  • the motion sensor 10 is not particularly limited as long as the motion sensor 10 can detect the motion or position of the ultrasonic probe 2.
  • an acceleration sensor that detects the motion of the ultrasonic probe 2 is used as the motion sensor 10 will be described. To do.
  • the motion sensor 10 detects three-component acceleration along three axes orthogonal to each other in the three-dimensional space as an electrical signal. Further, the signal detected by the motion sensor 10 is output to the probe motion amount calculation unit 11 of the motion amount detection unit 4.
  • the probe motion amount calculation unit 11 of the motion amount detection unit 4 is based on a signal indicating the operation of the ultrasound probe 2 detected by the motion sensor 10 and is an ultrasonic wave that is an index of the motion of the ultrasound probe 2 during the ultrasound diagnosis.
  • the amount of movement of the probe 2 is calculated. For example, after calculating the attitude angle of the ultrasonic probe 2 from the acceleration in the three-dimensional space obtained by the motion sensor 10 using a known calculation method for each frame of the ultrasonic image, the amount of motion of the ultrasonic probe 2 is calculated. As described above, the time change amount of the posture angle between frames can be calculated using the calculated plurality of posture angles.
  • the probe motion amount calculation unit 11 for example, as a time change amount of the posture angle of the ultrasonic probe 2, a standard deviation with respect to the posture angle calculated for each fixed number of ultrasonic images acquired in time series by the image acquisition unit 3. Can be calculated.
  • the calculated plurality of posture angles only increase in time series or only decrease in time series, and a plurality of frames used for calculation of the motion amount of the ultrasonic probe 2 are preferably used. It is preferable that the acquisition time interval between ultrasonic images is sufficiently short.
  • the image analysis unit 12 performs image analysis such as motion analysis and pattern recognition on the B-mode image signal generated in the B-mode processing unit 19 of the image generation unit 7 of the image acquisition unit 3, and the image analysis result is used as a part determination unit. 13 is output. Furthermore, the image analysis unit 12 applies an ultrasonic image of a single frame when the movement amount of the ultrasonic probe 2 calculated by the probe movement amount calculation unit 11 of the movement amount detection unit 4 is equal to or greater than a predetermined threshold. Image analysis. In addition, the image analysis unit 12 performs image analysis on an ultrasonic image of a plurality of frames when the amount of movement of the ultrasonic probe 2 is less than a predetermined threshold. The part discriminating unit 13 discriminates the part of the subject included in the ultrasonic image based on the analysis result of the ultrasonic image in the image analyzing unit 12, and outputs the discriminated part information to the apparatus control unit 14. .
  • the apparatus control unit 14 controls each unit of the ultrasonic diagnostic apparatus 1 based on a command input by the operator via the operation unit 15. In addition, the apparatus control unit 14 changes the imaging condition at the time of acquiring the ultrasound image to an imaging condition suitable for the part determined by the part determining unit 13.
  • the operation unit 15 is for an operator to perform an input operation, and can be configured to include a keyboard, a mouse, a trackball, a touch panel, and the like.
  • the storage unit 16 stores an operation program and the like of the ultrasonic diagnostic apparatus 1, and includes an HDD (Hard Disc Drive), an SSD (Solid State Drive), an FD (Flexible Disc), MO disc (Magneto-Optical disc), MT (Magnetic Tape), RAM (Random Access Memory), CD (Compact Disc), DVD (Digital Versatile Disc: Digital Versatile Disc)
  • HDD Hard Disc Drive
  • SSD Solid State Drive
  • an FD Fexible Disc
  • MO disc Magnetic-Optical disc
  • MT Magnetic Tape
  • RAM Random Access Memory
  • CD Compact Disc
  • DVD Digital Versatile Disc: Digital Versatile Disc
  • a recording medium such as a disk), an SD card (Secure Digital card), a USB memory (Universal Serial Bus memory), a server, or the like can be used.
  • the image generation unit 7, the display control unit 8 of the image acquisition unit 3, the probe motion amount calculation unit 11 of the motion amount detection unit 4, the image analysis unit 12, the region determination unit 13, and the device control unit 14 include a CPU (Central processing unit). Unit: a central processing unit) and an operation program for causing the CPU to perform various processes, but these may be configured using a digital circuit. Further, the image generation unit 7, the display control unit 8, the probe motion amount calculation unit 11, the image analysis unit 12, the part determination unit 13, and the device control unit 14 are partially or entirely integrated into one CPU. It can also be configured.
  • CPU Central processing unit
  • step S1 transmission / reception and scanning of an ultrasonic beam using a plurality of ultrasonic transducers of the transducer array 2A of the ultrasonic probe 2 under the defined imaging conditions are performed by the reception circuit 5 of the image acquisition unit 3. And by the transmission circuit 6. At this time, reception signals are output to the reception circuit 5 from the respective ultrasonic transducers that have received the ultrasonic echoes from the subject, and the amplification unit 17 and the A / D conversion unit 18 of the reception circuit 5 amplify the reception signals. A / D conversion is performed to generate a reception signal.
  • the motion sensor 10 of the motion amount detection unit 4 detects the operation of the ultrasonic probe 2 being scanned by the operator as an electrical signal.
  • the imaging condition defined as the initial value used in step S1 is, for example, an imaging condition in which general-purpose settings are made for a plurality of diagnostic sites. Such general-purpose imaging conditions for a plurality of diagnosis parts are often set so that a plurality of parts can be quickly diagnosed in a continuous diagnosis such as eFAST examination, for example.
  • step S ⁇ b> 2 the received signal is input to the image generation unit 7, and a B mode image signal is generated in the B mode processing unit 19 of the image generation unit 7.
  • step S ⁇ b> 3 the apparatus control unit 14 determines whether or not an N-th frame ultrasound image has been acquired from the start of ultrasound diagnosis for each part of the subject.
  • N is a natural number of 2 or more. If it is determined in step S3 that the acquired ultrasonic image is less than N frames, the process returns to step S1, and the ultrasonic image is acquired again in steps S1 and S2. If it is determined in step S3 that an Nth frame ultrasound image has been acquired, the process proceeds to step S4.
  • step S ⁇ b> 4 the probe motion amount calculation unit 11 of the motion amount detection unit 4 transmits and receives the ultrasonic beam performed in step S ⁇ b> 1 based on the electrical signal representing the operation of the ultrasound probe 2 input from the motion sensor 10.
  • the probe motion amount calculation unit 11 first uses a known calculation method to calculate a plurality of frames from three-component accelerations along three axes that are orthogonal to each other in the three-dimensional space detected by the motion sensor 10. The attitude angle of the ultrasonic probe 2 can be calculated for each frame of the ultrasonic image. Next, the probe motion amount calculation unit 11 can calculate, for example, standard deviations of a plurality of calculated posture angles as the motion amount of the ultrasonic probe 2.
  • step S5 the image analysis unit 12 determines whether or not the amount of motion of the ultrasonic probe 2 calculated in step S4 is equal to or greater than a predetermined threshold value. That is, in step S5, the image analysis unit 12 determines whether or not the ultrasonic probe 2 has been moved by the operator during the ultrasonic diagnosis by performing a determination using the threshold value with respect to the movement amount of the ultrasonic probe 2. Determine.
  • This threshold value can be determined by, for example, calculating a statistical value for the amount of movement of the ultrasonic probe 2 in the past diagnosis or preliminary test.
  • step S6 the process proceeds to step S6.
  • the image analysis unit 12 performs image analysis on the single-frame ultrasonic image among the multiple-frame ultrasonic images acquired by the image acquisition unit 3.
  • Image analysis for a single-frame ultrasound image can be performed using various methods. For example, pattern recognition such as template matching is performed, and similarity between a part included in the ultrasound image and a template of a plurality of parts is obtained. The degree can be calculated as a score.
  • step S7 following step S6, the part determination unit 13 determines a part included in the ultrasonic image based on the result of image analysis on the single-frame ultrasonic image in step S6. For example, when template matching is performed as an image analysis for a single-frame ultrasonic image in step S6, it is determined whether or not the calculated similarity score is a certain value or more, thereby determining the part. It can be performed.
  • step S ⁇ b> 8 the apparatus control unit 14 changes the imaging condition to an imaging condition appropriate for the part determined by the part determination unit 13.
  • the reception circuit 5 and the transmission circuit 6 of the image acquisition unit 3 transmit and receive an ultrasonic beam to the part determined by the part determination unit 13 using the imaging condition changed in step S8.
  • scanning Further, in step S10, the image generation unit 7 of the image acquisition unit 3 generates a B-mode image signal from the reception signals acquired by the reception circuit 5 and the transmission circuit 6 using the imaging condition changed in step S8. .
  • step S11 determines whether or not the diagnostic region has been changed. If it is determined in step S11 that the diagnostic region has been changed, the process returns to step S1. Thereafter, when the process proceeds to step S3 via step S2, it is determined whether or not the ultrasonic image acquired for the new diagnostic site is the Nth frame.
  • step S5 If it is determined in step S5 that the amount of motion of the ultrasonic probe 2 calculated in step S4 is less than a predetermined threshold, the process proceeds to step S12.
  • the image analysis unit 12 performs image analysis on a plurality of frames acquired by the image acquisition unit 3, that is, N-frame ultrasonic images.
  • Image analysis for a plurality of frames of ultrasonic images can be performed using various methods. For example, a time-series image analysis method called optical flow can be used.
  • the optical flow uses a plurality of characteristic patterns in the same part that are commonly included in the ultrasonic images using the ultrasonic images of adjacent frames acquired in time series order acquired by the image acquisition unit 3.
  • this is a method of mapping the moving direction and distance of each pattern using a vector or the like.
  • the image analysis unit 12 can calculate the number of vectors (number of vectors) mapped to the ultrasonic image by the optical flow.
  • step S7 the part determination unit 13 determines a part included in the ultrasonic image using the analysis result of the ultrasonic image of a plurality of frames in step S12. For example, when image analysis using an optical flow is performed in step S12, the region is determined by determining whether the number of vectors calculated in step S12 is equal to or greater than a certain value. be able to. As described above, when the amount of motion of the ultrasonic probe 2 is small, the region is discriminated using a time-series analysis method, for example, a region with a large amount of movement such as a heart and a small amount of movement such as an abdomen. The site can be easily distinguished.
  • a time-series analysis method for example, a region with a large amount of movement such as a heart and a small amount of movement such as an abdomen. The site can be easily distinguished.
  • the ultrasonic diagnostic apparatus 1 of the present invention shown in FIG. 1 the amount of movement of the ultrasonic probe 2 is detected, and a single frame is determined based on whether the amount of movement is equal to or greater than a predetermined threshold.
  • the image analysis is performed on the ultrasonic image or the image analysis is performed on the ultrasonic image of a plurality of frames.
  • the ultrasonic diagnostic apparatus 1 determines a part included in the ultrasonic image using the result of the image analysis, and acquires an ultrasonic image again using an imaging condition suitable for the determined part.
  • the ultrasonic diagnostic apparatus 1 of the present invention can select an image analysis method for discriminating a part included in an ultrasonic image based on the amount of movement of the ultrasonic probe 2, it can be quickly The part can be determined, and the accuracy in the part determination can be improved.
  • the frame number which is the threshold value of this determination N may be input to the operator via the operation unit 15 before the diagnosis by the ultrasonic diagnostic apparatus 1 is started, or may be incorporated in the operation program of the ultrasonic diagnostic apparatus 1. .
  • Step S3 is a trigger for moving to step S4, but if an ultrasonic image of two or more frames is acquired before moving to step S4 for calculating the amount of movement of the ultrasonic probe 2,
  • the determination performed in step S3 is not limited to the example described above.
  • the apparatus control unit 14 can determine whether or not a predetermined time has elapsed since the start of ultrasonic diagnosis for each part of the subject. In that case, the ultrasonic diagnostic apparatus 1 repeats steps S1 to S3 until the predetermined time elapses, and the ultrasonic image acquisition is repeated, and when the predetermined time elapses, The process proceeds to step S4.
  • the predetermined time may be input by an operator via the operation unit 15 before diagnosis by the ultrasonic diagnostic apparatus 1 is started. It may be incorporated.
  • step S3 the apparatus control unit 14 determines whether or not an ultrasonic image having a predetermined number of frames has been acquired from the start of ultrasonic diagnosis of each part of the subject. Can be determined. In that case, the ultrasonic diagnostic apparatus 1 repeats steps S1 to S3 until ultrasonic waves of a predetermined number of frames are acquired from the start of the ultrasonic diagnosis for each part of the subject. Thus, the acquisition of the ultrasonic image is repeated. After that, when it is determined in step S3 that the predetermined number of ultrasonic images have been acquired, the process proceeds to step S4.
  • the predetermined number of frames may be input by the operator via the operation unit 15 before the diagnosis by the ultrasonic diagnostic apparatus 1 is started. It may be built in.
  • the posture angle calculation method in the probe motion amount calculation unit 11 of the motion amount detection unit 4 is not limited to the above-described method as long as the posture angle of the ultrasonic probe 2 can be calculated.
  • the posture angle of the ultrasonic probe 2 may be calculated.
  • the acceleration sensor is exemplified as the motion sensor 10 that detects the movement amount of the ultrasonic probe 2
  • the motion sensor 10 may be another sensor as long as it detects the motion or position of the ultrasound probe 2. May be used.
  • a gyro sensor, a magnetic sensor, or a GPS (Global Positioning System) sensor can be used as the motion sensor 10 in addition to the acceleration sensor.
  • these sensors may be attached to the ultrasonic probe 2 or may be built in the ultrasonic probe 2.
  • a gyro sensor attached to the ultrasonic probe 2 is used as the motion sensor 10 and the attitude angle of the ultrasonic probe 2 is detected from a known calculation method based on the angular velocity of the ultrasonic probe 2 obtained from the gyro sensor.
  • a magnetic sensor may be used as the motion sensor 10 and the posture angle of the ultrasonic probe 2 may be detected based on the position information of the ultrasonic probe 2 detected by the magnetic sensor.
  • a GPS sensor can be used as the motion sensor 10, and the attitude angle of the ultrasonic probe 2 can be detected based on the position information of the ultrasonic probe 2 obtained from the GPS sensor.
  • the motion sensor 10 may not be attached to or built in the ultrasound probe 2 as long as it detects the motion or position of the ultrasound probe 2, and may be installed away from the ultrasound probe 2. good.
  • an operation sensor 10 for example, although not shown, the position information of the ultrasonic probe 2 is detected using a known camera or the like, and the operation sensor 10 detects the detected position information of the ultrasonic probe 2. Based on this, the posture angle of the ultrasonic probe 2 may be detected.
  • the standard deviation of the posture angle of the ultrasonic probe 2 has been described. What added the difference of the attitude
  • the amount of movement of the ultrasonic probe 2 is not limited to that using the attitude angle of the ultrasonic probe 2 as long as it represents the movement of the ultrasonic probe 2.
  • the movement amount of the ultrasonic probe 2 may be the moving distance of the ultrasonic probe 2.
  • the image analysis on the single-frame ultrasonic image in step S6 is not limited to the template matching described as an example.
  • the image analysis unit 12 performs pixel value analysis such as edge analysis, machine learning, and deep layers. A known analysis method such as learning can be performed.
  • edge analysis is performed as the image analysis in step S ⁇ b> 6
  • the image analysis unit 12 may calculate the area of the edge structure pixels facing a specific direction, for example, an oblique direction, in the ultrasonic image. it can.
  • the part determination unit 13 determines a part included in the ultrasonic image by determining whether the area of the edge structure calculated in step S6 is a certain value or more. it can.
  • the image analysis for the single-frame ultrasonic image in step S6 may fail due to imaging conditions and blurring of the ultrasonic probe 2 during transmission / reception of the ultrasonic beam.
  • the image analysis unit 12 can perform image analysis for each of the plurality of frames of ultrasonic images acquired in time series and integrate the results of the plurality of image analysis. .
  • the image analysis unit 12 can use various methods as a method of integrating a plurality of image analysis results. For example, the image analysis unit 12 uses the maximum value or median value among the area values in the pixel value analysis for the similarity score and the edge structure in pattern recognition such as template matching as the result of the final image analysis. Can do.
  • the image analysis unit 12 can also determine success or failure of image analysis.
  • image analysis such as a similarity score in pattern recognition and an area value in pixel value analysis for a plurality of ultrasonic images. It is possible to give a score of a certain value or higher to those for which the result of the above can be calculated, and to give a score of less than a certain value to those for which the result of the image analysis cannot be calculated. Further, the image analysis unit 12 can integrate a plurality of image analysis results when the average value or median value of the given scores is equal to or greater than a certain value.
  • the process may return to step S1, or after displaying an error on the display unit 9, The operation of the ultrasonic diagnostic apparatus 1 may be terminated.
  • step S12 the number of vectors representing the motion of the characteristic pattern calculated from the ultrasonic images of adjacent frames in time series order has been described.
  • the number of vectors mapped in a plurality of frames can be time-integrated using a plurality of ultrasonic images acquired in time series. That is, the image analysis unit 12 uses, for example, N-1 sets of ultrasonic images that are adjacent to each other in the time series order among N ultrasonic images acquired in time series.
  • the time change of the number of vectors can be calculated, and the time change of these N-1 sets of vectors can be integrated using the time from the ultrasonic image of the first frame to the ultrasonic image of the Nth frame.
  • the part determination unit 13 determines a part included in the ultrasonic image by determining whether or not the integral value of the number of vectors calculated in step S12 is equal to or greater than a predetermined value. be able to.
  • the image analysis unit 12 may perform image analysis other than the optical flow.
  • the image analysis unit 12 can calculate the movement amount of the same edge structure that is commonly included in the ultrasonic images of a plurality of frames.
  • the image analysis unit 12 can calculate a movement amount for a structure having a certain level or higher luminance in a common region of interest in a plurality of frames of ultrasonic images.
  • the part determination unit 13 can determine the part included in the ultrasonic image by determining whether or not the movement amount calculated in step S12 is a certain value or more. it can.
  • the image analysis unit 12 is, of course, not limited to the image analysis method described above, and the amount of movement of the structure of the part commonly included in the ultrasonic images of a plurality of frames using a known image analysis method. May be calculated.
  • the image generation unit 7 of the image acquisition unit 3 generates the B-mode image signal from the reception signal output from the reception circuit 5
  • an image signal other than the B-mode image signal may be generated from the reception signal.
  • the B mode processing unit of the image generation unit 7 generates an M mode (Motion mode) image signal, a color Doppler image signal, an elastic image signal, or a sound velocity map signal from the received signal. 19 may be replaced with a processing unit that generates an M-mode image signal, a color Doppler image signal, an elastic image signal, or a sound velocity map signal.
  • image analysis according to the type of each image signal may be performed.
  • the image analysis unit 12 may perform pattern recognition using template matching, texture analysis, machine learning, or the like, and a time series using an optical flow. Image analysis may be performed. For example, when a color Doppler image signal, an elastic image signal, or a sound velocity map signal is generated from the received signal, the image analysis unit 12 can analyze color information included in each image signal. it can.
  • the ultrasonic diagnostic apparatus 1 described above since the ultrasonic diagnostic apparatus 1 described above is small, it may be a portable ultrasonic diagnostic apparatus that is easily carried and used, and is a stationary ultrasonic wave that is used in an examination room or the like. It may be a diagnostic device.
  • the ultrasonic probe 2 is not particularly limited as long as it can transmit and receive an ultrasonic beam toward the subject, and may be a sector type, a convex type, a linear type, a radial type, or the like.
  • 1 ultrasonic diagnostic device 1 ultrasonic diagnostic device, 2 ultrasonic probe, 3 image acquisition unit, 4 motion amount detection unit, 5 reception circuit, 6 transmission circuit, 7 image generation unit, 8 display control unit, 9 display unit, 10 motion sensor, 11 probe Motion amount calculation unit, 12 image analysis unit, 13 part determination unit, 14 device control unit, 15 operation unit, 16 storage unit, 17 amplification unit, 18 A / D conversion unit, 19 B mode processing unit, 20 image processing unit.

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • General Physics & Mathematics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Pathology (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

超音波診断装置は、超音波プローブから被検体に向けて超音波ビームの送受信を行って超音波画像を取得する画像取得部と取得された超音波画像を解析する画像解析部と超音波プローブの動き量を検出する動き量検出部とを備え、画像解析部は、超音波プローブの動き量が閾値以上の場合に、単フレームの超音波画像に対して画像解析を行い、超音波プローブの動き量が閾値未満の場合に、複数フレームの超音波画像に対して画像解析を行う。

Description

超音波診断装置及び超音波診断装置の制御方法
 本発明は、超音波診断装置及び超音波診断装置の制御方法に係り、特に、超音波画像が生成された被検体の部位を判別する超音波診断装置に関する。
 従来から、被検体に振動子アレイを当てて被検体の内部の画像を得るものとして、超音波診断装置が知られている。一般的な超音波診断装置は、複数の素子が配列された振動子アレイから被検体内に向けて超音波ビームを送信し、被検体からの超音波エコーを振動子アレイにおいて受信して素子データを取得する。更に、超音波診断装置は、得られた素子データを電気的に処理して、被検体の当該部位に対する超音波画像を得る。
 このような超音波診断装置においては、超音波プローブの動きを検出し、その検出結果を用いることにより、超音波診断を容易に、かつ迅速に行うことができるものがある。例えば、特許文献1には、超音波プローブの動きを検出し、その検出結果において、超音波プローブが静止していると判定された場合に、超音波画像の取得、診断部位の判別及び超音波画像の解析を行う超音波診断装置が開示されている。
特表2016-501605号公報
 ところで、例えば、救急における外傷患者の初期診察のために複数の診断部位を連続的に診断するeFAST(extended Focused Assessment with Sonography for Trauma)検査においては、複数の診断部位に対して超音波診断が迅速に行われることが要求される。そのため、例えば、eFAST検査においては、生成された超音波画像から得られるそれぞれの診断部位を判別するための情報量が少なく、診断部位を精緻に判別することが難しいという問題があった。
 また、特許文献1に開示の技術では、超音波プローブが動いている場合には、診断部位の判別及び超音波画像の解析ができないという問題があった。更に、特許文献1に開示の技術では、診断部位に対して適切な画像解析方法を選択することが困難であるという問題があった。
 本発明は、このような従来の問題点を解消するためになされたものであり、超音波プローブの動きに基づいて画像の解析方法を選択し、診断部位を精緻に判別することができる超音波診断装置及び超音波診断装置の制御方法を提供することを目的とする。
 上記目的を達成するために、本発明の超音波診断装置は、超音波プローブと、超音波プローブから被検体に向けて超音波ビームの送受信を行って、超音波画像を取得する画像取得部と、画像取得部により取得された超音波画像を解析する画像解析部と、超音波プローブの動き量を検出する動き量検出部と、を備え、画像解析部は、動き量検出部により検出された超音波プローブの動き量が定められた閾値以上である場合に、単フレームの超音波画像に対して画像解析を行い、動き量検出部により検出された超音波プローブの動き量が定められた閾値未満である場合に、複数フレームの超音波画像に対して画像解析を行うことを特徴とする。
 また、画像解析部は、単フレームの超音波画像に対する画像解析として、単フレームの超音波画像に対するパターン認識又は画素値解析を含む画像解析を行うことが好ましい。
 また、画像解析部は、複数フレームの超音波画像に対する画像解析として、複数フレームの超音波画像に共通して含まれる特定のパターンの動きに対する解析を行うことが好ましい。
 もしくは、画像解析部は、複数フレームの超音波画像に対する画像解析として、画像取得部により時系列に取得された複数フレームの超音波画像に対してフレーム毎に画像解析を行って、それらの画像解析結果を統合しても良い。
 また、画像解析部における画像解析の結果に基づいて、画像解析が行われた超音波画像に含まれる被検体の部位を判別する部位判別部を更に有することが好ましい。
 また、動き量検出部は、超音波プローブに取り付けられた動作センサを備え、動作センサは、超音波プローブの加速度、角速度又は位置を検出することが好ましい。
 もしくは、動き量検出部は、超音波プローブから離れて設置された動作センサを備え、動作センサは、超音波プローブの位置を検出しても良い。
 また、本発明の超音波診断装置の制御方法は、超音波プローブから被検体に向けて超音波ビームの送受信を行って、超音波画像を取得し、取得された超音波画像を解析し、超音波プローブの動き量を検出するに際し、検出された超音波プローブの動き量が定められた閾値以上である場合に、単フレームの超音波画像に対して画像解析を行い、検出された超音波プローブの動き量が定められた閾値未満である場合に、複数フレームの超音波画像に対して画像解析を行うことを特徴とする。
 本発明によれば、超音波診断装置は、超音波プローブの動き量に基づいて、単フレームの超音波画像に対する画像解析又は複数フレームの超音波画像に対する画像解析を行う画像解析部を有するため、超音波プローブの動きに応じて、診断部位を精緻に判別することができる。
本発明の実施の形態1に係る超音波診断装置の構成を示すブロック図である。 図1の受信回路の内部構成を示すブロック図である。 図1の画像生成部の内部構成を示すブロック図である。 本発明の超音波診断装置の動作に係るフローチャートである。
 以下、この発明の実施の形態を添付図面に基づいて説明する。
実施の形態1
 図1に、本発明の実施の形態1に係る超音波診断装置の構成を示す。超音波診断装置1は、振動子アレイ2Aを内蔵する超音波プローブ2を備え、超音波プローブ2に、画像取得部3を介して表示制御部8及び表示部9が順次接続されている。
 画像取得部3は、超音波プローブ2の振動子アレイ2Aに接続される受信回路5及び送信回路6と受信回路5に接続された画像生成部7とを有しており、表示制御部8は、画像生成部7に接続されている。また、画像生成部7は、画像解析部12に接続されている。また、超音波プローブ2には、動作センサ10が備えられ、動作センサ10は、プローブ動き量算出部11に接続されている。プローブ動き量算出部11に画像解析部12に接続されており、画像解析部12に部位判別部13が接続されている。また、動作センサ10及びプローブ動き量算出部11は、動き量検出部4を構成する。
 更に、画像取得部3、表示制御部8、プローブ動き量算出部11、画像解析部12及び部位判別部13に装置制御部14が接続され、装置制御部14に、操作部15及び格納部16がそれぞれ接続されている。なお、装置制御部14と格納部16とは、それぞれ双方向に情報を受け渡し可能に接続される。
 図1に示す超音波プローブ2の振動子アレイ2Aは、1次元又は2次元に配列された複数の素子(超音波振動子)を有している。これらの素子は、それぞれ送信回路6から供給される駆動信号に従って超音波を送信すると共に被検体からの超音波エコーを受信して受信信号を出力する。各素子は、例えば、PZT(Lead Zirconate Titanate:チタン酸ジルコン酸鉛)に代表される圧電セラミック、PVDF(Poly Vinylidene Di Fluoride:ポリフッ化ビニリデン)に代表される高分子圧電素子及びPMN-PT(Lead Magnesium Niobate-Lead Titanate:マグネシウムニオブ酸-チタン酸鉛固溶体)に代表される圧電単結晶等からなる圧電体の両端に電極を形成した振動子を用いて構成される。
 そのような振動子の電極に、パルス状又は連続波状の電圧を印加すると、圧電体が伸縮し、それぞれの振動子からパルス状又は連続波状の超音波が発生して、それらの超音波の合成波から、超音波ビームが形成される。また、それぞれの振動子は、伝搬する超音波を受信することにより伸縮して電気信号を発生し、それらの電気信号は、超音波の受信信号として、それぞれの振動子から受信回路5に出力される。
 画像取得部3の受信回路5は、図2に示すように、増幅部17とA/D(Analog/Digital:アナログ/デジタル)変換部18が直列接続された構成を有している。受信回路5は、振動子アレイ2Aの各素子から出力される受信信号を増幅部17において増幅し、A/D変換部18においてデジタル化して得られた素子データを画像生成部7に出力する。
 画像取得部3の送信回路6は、例えば、複数のパルス発生器を含んでおり、装置制御部14からの制御信号に応じて選択された送信遅延パターンに基づいて、振動子アレイ2Aの複数の素子から送信される超音波が超音波ビームを形成するようにそれぞれの駆動信号の遅延量を調節して複数の素子に供給する。
 画像取得部3の画像生成部7は、図3に示すように、Bモード(Brightness mode:輝度モード)処理部19と画像処理部20とが順次直列に接続された構成を有している。
 Bモード処理部19は、装置制御部14からの制御信号に応じて選択された受信遅延パターンに基づき、設定された音速に従う各素子データにそれぞれの遅延を与えて加算(整相加算)を施す、受信フォーカス処理を行う。この受信フォーカス処理により、超音波エコーの焦点が絞り込まれた音線信号が生成される。更に、Bモード処理部19は、音線信号に対し、超音波の反射位置の深度に応じて伝搬距離に起因する減衰の補正を施した後、包絡線検波処理を施して、被検体内の組織に関する断層画像情報であるBモード画像信号を生成する。Bモード処理部19において生成されたBモード画像信号は、表示制御部8又は画像解析部12に出力される。
 画像処理部20は、Bモード処理部19において生成されたBモード画像信号を通常のテレビジョン信号の走査方式に従う画像信号に変換(ラスター変換)し、Bモード画像信号に諧調処理等の各種の必要な画像処理を施した後、Bモード画像信号を表示制御部8に出力する。
 図1に示すように、超音波診断装置1の表示制御部8は、画像取得部3において取得されたBモード画像信号に基づいて、表示部9に超音波診断画像を表示させる。
 表示部9は、例えば、LCD(Liquid Crystal Display:液晶ディスプレイ)等のディスプレイ装置を含んでおり、装置制御部14の制御の下、超音波診断画像を表示する。
 動き量検出部4の動作センサ10は、超音波プローブ2に備えられ、超音波診断中にオペレータにより操作される超音波プローブ2の動作又は位置を電気信号として検出するものである。
 動作センサ10は、超音波プローブ2の動作又は位置を検出できるものであれば特に制限されないが、以下においては、動作センサ10として超音波プローブ2の動作を検出する加速度センサを用いた場合について説明する。この際、動作センサ10は、3次元空間内において互いに直交する3つの軸に沿った3成分の加速度を電気信号として検出する。更に、動作センサ10が検出した信号は、動き量検出部4のプローブ動き量算出部11に出力される。
 動き量検出部4のプローブ動き量算出部11は、動作センサ10が検出した超音波プローブ2の動作を示す信号に基づいて、超音波診断中における超音波プローブ2の動きの指標である超音波プローブ2の動き量を算出する。例えば、動作センサ10において得られた3次元空間内の加速度から、超音波画像のフレーム毎に周知の計算方法を用いて超音波プローブ2の姿勢角を算出した後に、超音波プローブ2の動き量として、算出された複数の姿勢角を用いてフレーム間における姿勢角の時間変化量を算出することができる。プローブ動き量算出部11は、例えば、超音波プローブ2の姿勢角の時間変化量として、画像取得部3により時系列に取得された一定枚数の超音波画像毎に算出された姿勢角に対する標準偏差を算出することができる。この場合には、算出された複数の姿勢角が時系列に増加するのみであること又は時系列に減少するのみであることが好ましく、超音波プローブ2の動き量の算出に用いられる複数フレームの超音波画像間の取得時間間隔は、十分短いことが好ましい。
 画像解析部12は、画像取得部3の画像生成部7のBモード処理部19において生成されたBモード画像信号に対する動き解析及びパターン認識等の画像解析を行い、その画像解析結果を部位判別部13に出力する。更に、画像解析部12は、動き量検出部4のプローブ動き量算出部11により算出された超音波プローブ2の動き量が定められた閾値以上である場合に、単フレームの超音波画像に対して画像解析を行う。また、画像解析部12は、超音波プローブ2の動き量が定められた閾値未満である場合に、複数フレームの超音波画像に対して画像解析を行う。
 部位判別部13は、画像解析部12における超音波画像の解析結果に基づいて、超音波画像に含まれる被検体の部位を判別し、装置制御部14に対して判別した部位の情報を出力する。
 装置制御部14は、オペレータにより操作部15を介して入力された指令に基づいて超音波診断装置1の各部の制御を行う。また、装置制御部14は、超音波画像の取得の際の画像化条件を、部位判別部13により判別された部位に適切な画像化条件に変更する。
 操作部15は、オペレータが入力操作を行うためのものであり、キーボード、マウス、トラックボール及びタッチパネル等を備えて構成することができる。
 格納部16は、超音波診断装置1の動作プログラム等を格納するもので、HDD(Hard Disc Drive:ハードディスクドライブ)、SSD(Solid State Drive:ソリッドステートドライブ)、FD(Flexible Disc:フレキシブルディスク)、MOディスク(Magneto-Optical disc:光磁気ディスク)、MT(Magnetic Tape:磁気テープ)、RAM(Random Access Memory:ランダムアクセスメモリ)、CD(Compact Disc:コンパクトディスク)、DVD(Digital Versatile Disc:デジタルバーサタイルディスク)、SDカード(Secure Digital card:セキュアデジタルカード)、USBメモリ(Universal Serial Bus memory:ユニバーサルシリアルバスメモリ)等の記録メディア、又はサーバ等を用いることができる。
 なお、画像取得部3の画像生成部7、表示制御部8、動き量検出部4のプローブ動き量算出部11、画像解析部12、部位判別部13及び装置制御部14は、CPU(Central Processing Unit:中央処理装置)と、CPUに各種の処理を行わせるための動作プログラムから構成されるが、それらを、デジタル回路を用いて構成しても良い。また、これらの画像生成部7、表示制御部8、プローブ動き量算出部11、画像解析部12、部位判別部13及び装置制御部14を、部分的にあるいは全体的に1つのCPUに統合させて構成することもできる。
 次に、図4に示すフローチャートを用いて、実施の形態1における超音波診断装置1の動作について説明する。
 まず、ステップS1において、定められた画像化条件の下、超音波プローブ2の振動子アレイ2Aの複数の超音波振動子を用いた超音波ビームの送受信及び走査が画像取得部3の受信回路5及び送信回路6により行われる。この際に、被検体からの超音波エコーを受信した各超音波振動子から受信信号が受信回路5に出力され、受信回路5の増幅部17及びA/D変換部18において受信信号の増幅及びA/D変換が行われて受信信号が生成される。また、超音波ビームの送受信及び走査が行われている際に、動き量検出部4の動作センサ10は、オペレータにより走査されている超音波プローブ2の動作を電気信号として検出する。なお、ステップS1において用いられる、初期値として定められた画像化条件は、例えば、複数の診断部位に対して汎用な設定がなされた画像化条件である。このような、複数の診断部位に対して汎用な画像化条件は、例えば、eFAST検査等の連続診断において、複数の部位を迅速に診断できるように設定されることが多い。
 更に、ステップS2において、受信信号が画像生成部7に入力され、画像生成部7のBモード処理部19においてBモード画像信号が生成される。
 ステップS3において、装置制御部14は、被検体の各部位に対する超音波診断の開始から数えてNフレーム目の超音波画像が取得されたか否かを判定する。ここで、Nは2以上の自然数である。ステップS3において、取得された超音波画像がNフレーム未満であると判定された場合には、ステップS1に戻り、ステップS1及びS2において超音波画像が再度取得される。
 ステップS3においてNフレーム目の超音波画像が取得されたと判定された場合には、ステップS4に進む。ステップS4において、動き量検出部4のプローブ動き量算出部11は、動作センサ10から入力された超音波プローブ2の動作を表す電気信号に基づいて、ステップS1において行われた超音波ビームの送受信又は走査の際の超音波プローブ2の姿勢角を算出した後、その姿勢角のフレーム間における時間変化量を算出する。例えば、プローブ動き量算出部11は、まず、動作センサ10により検出された、3次元空間内において互いに直交する3つの軸に沿った3成分の加速度から、公知の計算方法を用いて、複数フレームの超音波画像に対してフレーム毎に超音波プローブ2の姿勢角を算出することができる。プローブ動き量算出部11は、次に、超音波プローブ2の動き量として、例えば、算出された複数の姿勢角の標準偏差を算出することができる。
 ステップS5において、画像解析部12は、ステップS4において算出された超音波プローブ2の動き量が、定められた閾値以上か否かを判定する。すなわち、ステップS5において、画像解析部12は、超音波プローブ2の動き量に対して閾値を用いた判定を行うことにより、超音波診断の際にオペレータにより超音波プローブ2が動かされたか否かを判定する。なお、この閾値は、例えば、過去の診断又は予備試験等における超音波プローブ2の動き量に対して統計値を算出する等により決定されることができる。
 ステップS5において、算出された超音波プローブ2の動き量が定められた閾値以上であると判定された場合には、ステップS6に進む。超音波診断の際に、オペレータによる超音波プローブ2の動きが多い場合には、超音波プローブ2の動きにより、複数フレームの超音波画像における心臓の拍動等の被検体の部位自体の動きが隠蔽される。そのため、ステップS6において、画像解析部12は、画像取得部3において取得された複数フレームの超音波画像のうち単フレームの超音波画像に対して画像解析を行う。単フレームの超音波画像に対する画像解析は、種々の方法を用いて行うことができるが、例えば、テンプレートマッチング等のパターン認識を行い、超音波画像に含まれる部位及び複数の部位のテンプレートとの類似度をスコアとして算出することができる。
 ステップS6に続くステップS7において、部位判別部13は、ステップS6における単フレームの超音波画像に対する画像解析の結果に基づいて、超音波画像に含まれる部位の判別を行う。例えば、ステップS6における単フレームの超音波画像に対する画像解析としてテンプレートマッチングが行われた場合には、算出された類似度のスコアが一定値以上であるか否かを判定することにより、部位の判定を行うことができる。
 ステップS8において、装置制御部14は、画像化条件を、部位判別部13により判別された部位に適切な画像化条件に変更する。
 続くステップS9において、画像取得部3の受信回路5及び送信回路6は、ステップS8において変更された画像化条件を用いて、部位判別部13により判別された部位に対して、超音波ビームの送受信及び走査を行う。
 更に、ステップS10において、画像取得部3の画像生成部7は、ステップS8において変更された画像化条件を用いて受信回路5及び送信回路6により取得された受信信号からBモード画像信号を生成する。
 ステップS11において、装置制御部14は、現在超音波診断を行っている被検体の部位が変更されたか否かを判定する。例えば、診断部位が心臓から肺に移行すると、診断部位が変更されたと判定される。具体的には、一般に診断部位が変更される場合にはプローブが体表から離れて空中放射になるため、このような空中放射状態(反射信号が得られない状態)を検出することにより、診断部位の変更を判定することができる。ステップS11において、診断部位が変更されていない、すなわち、同一の診断部位を診断していると判定された場合には、ステップS9に戻り、ステップS8において変更された画像化条件を用いた超音波画像の取得が再度行われる。一方、ステップS11において、診断部位が変更されたと判定された場合には、ステップS1に戻る。その後、ステップS2を経てステップS3へ移行すると、新たな診断部位に対して取得された超音波画像がNフレーム目であるか否かが判定される。
 また、ステップS5において、ステップS4において算出された超音波プローブ2の動き量が定められた閾値未満であると判定された場合には、ステップS12に進む。超音波診断の際に、オペレータによる超音波プローブ2の動きが少ない場合には、複数フレームの超音波画像における心臓の拍動等の被検体の部位自体の動きは、超音波プローブ2の動きに影響され難い。そのため、ステップS12において、画像解析部12は、画像取得部3において取得された複数フレーム、すなわち、Nフレームの超音波画像に対して画像解析を行う。複数フレームの超音波画像に対する画像解析は、種々の方法を用いて行うことができるが、例えば、オプティカルフローと呼ばれる時系列な画像解析の方法を用いることができる。オプティカルフローは、図示しないが、画像取得部3により取得された時系列順において隣接したフレームの超音波画像を用いて、それらの超音波画像に共通に含まれる同一部位における複数の特徴的なパターンに対して、各パターンの動く方向及び距離を、ベクトル等を用いてマッピングする手法である。画像解析部12は、オプティカルフローにより超音波画像にマッピングされたベクトルの数(ベクトル数)を算出することができる。
 ステップS12に続くステップS7において、部位判別部13は、ステップS12における複数フレームの超音波画像に対する解析結果を用いて、超音波画像に含まれる部位を判別する。例えば、ステップS12において、オプティカルフローを用いた画像解析が行われた場合には、ステップS12において算出されたベクトル数に対して、一定値以上か否かを判定することにより、部位の判別をすることができる。このように、超音波プローブ2の動き量が少ない場合には、時系列の解析方法を用いて部位を判別することにより、例えば、心臓のような動きの多い部位と腹部のような動きの少ない部位とを容易に判別することができる。
 以上のように、図1に示す本発明の超音波診断装置1によれば、超音波プローブ2の動き量を検出して、その動き量が定められた閾値以上か否かに基づいて単フレームの超音波画像に対する画像解析又は複数フレームの超音波画像に対する画像解析を行う。更に、超音波診断装置1は、画像解析の結果を用いて、超音波画像に含まれる部位を判別し、判別された部位に適した画像化条件を用いて再度超音波画像を取得する。このように、本発明の超音波診断装置1は、超音波プローブ2の動き量に基づいて、超音波画像に含まれる部位を判別するための画像解析方法を選択することができるため、迅速に部位の判別を行うことができ、かつ、部位の判別における精度を向上させることができる。
 また、ステップS3において、被検体の各部位の超音波診断の開始から数えてNフレーム目の超音波画像が取得されたか否かを判定する態様を説明したが、この判定の閾値であるフレーム数Nは、超音波診断装置1による診断が開始される前に、操作部15を介してオペレータに入力されるものであっても良く、超音波診断装置1の動作プログラムに組み込まれていても良い。
 また、ステップS3は、ステップS4に移行するためのトリガであるが、超音波プローブ2の動き量を算出するステップS4に移行するまでに2フレーム以上の超音波画像を取得するものであれば、ステップS3において行われる判定は、上述した例に限定されない。例えば、図示しないが、ステップS3において、装置制御部14は、被検体の各部位に対する超音波診断の開始から定められた時間が経過したか否かを判定することができる。その場合には、超音波診断装置1は、定められた時間が経過するまでは、ステップS1~ステップS3を繰り返すことにより超音波画像の取得が繰り返され、定められた時間が経過した場合に、ステップS4に移行する。なお、この定められた時間は、超音波診断装置1による診断が開始される前に、操作部15を介してオペレータにより入力されるものであっても良く、超音波診断装置1の動作プログラムに組み込まれていても良い。
 また、他の例として、図示しないが、ステップS3において、装置制御部14は、被検体の各部位の超音波診断の開始から数えて定められたフレーム数の超音波画像が取得されたか否かを判定することができる。その場合には、超音波診断装置1は、被検体の各部位に対する超音波診断の開始から数えて、定められたフレーム数の超音波が取得されるまでは、ステップS1~ステップS3を繰り返すことにより、超音波画像の取得が繰り返される。その後、ステップS3において、定められたフレーム数の超音波画像が取得されたと判定された場合に、ステップS4に移行する。なお、この定められたフレーム数は、超音波診断装置1による診断が開始される前に、操作部15を介してオペレータにより入力されるものであっても良く、超音波診断装置1の動作プログラムに組み込まれていても良い。
 また、動き量検出部4のプローブ動き量算出部11における姿勢角の計算方法は、超音波プローブ2の姿勢角を計算することができれば、上述した方法には限定されない。例えば、図示しないが、プローブ動き量算出部11において、動作センサ10が検出した加速度を2回、一定の時間内において時間積分することにより算出した超音波プローブ2の位置情報に基づいて、超音波プローブ2の姿勢角を計算しても良い。
 また、超音波プローブ2の動き量を検出する動作センサ10として加速度センサを用いることを例示したが、動作センサ10は、超音波プローブ2の動作又は位置を検出するものであれば、他のセンサが用いられても良い。このような動作センサ10としては、例えば、加速度センサの他、ジャイロセンサ、磁気センサ又はGPS(Global Positioning System:全地球測位システム)センサ等を用いることができる。また、これらのセンサは、超音波プローブ2に装着されていても良く、超音波プローブ2に内蔵されていても良い。
 例えば、動作センサ10として超音波プローブ2に取り付けられたジャイロセンサを用い、ジャイロセンサから得られる超音波プローブ2の角速度に基づいて、周知の計算方法から超音波プローブ2の姿勢角を検出することができる。また、例えば、動作センサ10として磁気センサを用い、磁気センサにより検出された超音波プローブ2の位置情報に基づいて超音波プローブ2の姿勢角を検出しても良い。更に、例えば、動作センサ10としてGPSセンサを用い、GPSセンサから得られた超音波プローブ2の位置情報に基づいて超音波プローブ2の姿勢角を検出することができる。
 また、動作センサ10は、超音波プローブ2の動作又は位置を検出するものであれば、超音波プローブ2に装着又は内蔵されていなくても良く、超音波プローブ2から離れて設置されていても良い。このような動作センサ10としては、例えば、図示しないが、周知のカメラ等を用いて、超音波プローブ2の位置情報を検出し、動作センサ10は、検出された超音波プローブ2の位置情報に基づいて超音波プローブ2の姿勢角を検出しても良い。
 また、超音波プローブ2の動き量の例として、超音波プローブ2の姿勢角の標準偏差を説明したが、一定時間内において姿勢角が変化した量、つまり、時系列順において隣接したフレームの超音波画像間に対する姿勢角の差を一定時間内において足し合わせたものを超音波プローブ2の動き量として用いても良い。
 また、超音波プローブ2の動き量は、超音波プローブ2の動きを表すものであれば、超音波プローブ2の姿勢角を用いたものに限定されない。例えば、超音波プローブ2の動き量は、超音波プローブ2の移動距離であっても良い。
 また、ステップS6における単フレームの超音波画像に対する画像解析は、例として説明したテンプレートマッチングに限定されるものではなく、例えば、画像解析部12は、エッジ解析等の画素値解析、機械学習及び深層学習等の公知の解析方法を行うことができる。例えば、ステップS6における画像解析として、エッジ解析が行われる場合には、画像解析部12は、超音波画像において特定の方向、例えば、斜め方向を向いたエッジ構造の画素の面積を算出することができる。その場合には、ステップS7において、部位判別部13は、ステップS6において算出されたエッジ構造の面積が一定値以上か否かを判定することにより、超音波画像に含まれる部位を判定することができる。
 また、ステップS6における単フレームの超音波画像に対する画像解析は、画像化条件及び超音波ビームの送受信の際の超音波プローブ2のぶれ等に起因して、画像解析が失敗する場合もある。そのために、ステップS12において、画像解析部12は、時系列に取得された複数フレームの超音波画像に対してフレーム毎に画像解析を行い、それらの複数の画像解析の結果を統合することができる。画像解析部12は、複数の画像解析の結果を統合する方法として、種々の方法を用いることができる。例えば、画像解析部12は、テンプレートマッチング等のパターン認識における類似度のスコア及びエッジ構造等に対する画素値解析における面積値のうち最大の値又は中央値等を最終的な画像解析の結果とすることができる。また、画像解析部12は、画像解析の成功及び失敗を判断することもでき、例えば、複数の超音波画像に対して、パターン認識における類似度のスコア及び画素値解析における面積値等の画像解析の結果が算出できたものに一定値以上のスコアを付与し、かつ、画像解析の結果が算出できなかったものに一定値未満のスコアを付与することができる。更に、画像解析部12は、付与された複数のスコアの平均値又は中央値が一定値以上であった場合には、複数の画像解析の結果を統合することができる。また、画像解析部12により付与された複数のスコアの平均値又は中央値が一定値未満であった場合には、ステップS1に戻っても良いし、表示部9にエラー表示をさせた後、超音波診断装置1の動作を終了させても良い。
 また、ステップS12において説明したオプティカルフローを用いた画像解析においては、時系列順において隣接したフレームの超音波画像から算出した、特徴的なパターンの動きを表すベクトル数を算出するものとして説明した。ステップS12においては、時系列に取得された複数の超音波画像を用いて、複数フレーム内にマッピングされたベクトル数を時間積分することもできる。すなわち、画像解析部12は、例えば、時系列に取得されたN枚の超音波画像のうち、時系列順において互いに隣接したN-1組の超音波画像の対を用いてN-1組のベクトル数の時間変化を算出し、これらN-1組のベクトル数の時間変化を、第1フレームの超音波画像から第Nフレームの超音波画像までの時間を用いて積分することができる。この場合には、続くステップS7において、部位判別部13は、ステップS12において算出されたベクトル数の積分値が一定値以上か否かを判定することにより、超音波画像に含まれる部位を判別することができる。
 また、ステップS12において、画像解析部12は、オプティカルフロー以外の画像解析を行っても良い。例えば、画像解析部12は、複数フレームの超音波画像に共通して含まれる同一のエッジ構造の移動量を算出することができる。また、例えば、画像解析部12は、複数フレームの超音波画像における共通した関心領域内の一定以上の輝度を有する構造に対して移動量を算出することができる。これらの場合には、続くステップS7において、部位判別部13は、ステップS12において算出された移動量が一定値以上か否かを判定することにより、超音波画像に含まれる部位を判定することができる。
 また、画像解析部12は、もちろん、以上に説明した画像解析の方法に限定されず、公知の画像解析方法を用いて、複数フレームの超音波画像に共通して含まれる部位の構造の移動量を算出しても良い。
 また、画像取得部3の画像生成部7において、受信回路5から出力された受信信号からBモード画像信号を生成したが、受信信号から、Bモード画像信号以外の画像信号が生成されても良い。例えば、図示しないが、受信信号から、Mモード(Motion mode:動きモード)画像信号、カラードプラ画像信号、弾性画像信号又は音速マップ信号が生成されるように、画像生成部7のBモード処理部19が、Mモード画像信号、カラードプラ画像信号、弾性画像信号又は音速マップ信号を生成する処理部に置換されても良い。
 このように、受信信号からBモード画像信号以外の画像信号が生成された場合には、それぞれの画像信号の種類に応じた画像解析を行っても良い。例えば、受信信号からMモード画像信号が生成された場合には、画像解析部12は、テンプレートマッチング、テクスチャ解析及び機械学習等を用いたパターン認識を行っても良く、オプティカルフローを用いた時系列の画像解析を行っても良い。
 また、例えば、受信信号から、カラードプラ画像信号、弾性画像信号又は音速マップ信号が生成された場合には、画像解析部12は、それぞれの画像信号に含まれる色情報の解析等を行うことができる。
 また、以上において説明した超音波診断装置1は、小型のため、容易に携帯されて用いられる携帯型の超音波診断装置であっても良く、診察室等に備え付けて用いられる据置型の超音波診断装置であっても良い。
 また、超音波プローブ2は、被検体に向けて超音波ビームを送受信できるものであれば特に限定されず、セクタ型、コンベックス型、リニア型及びラジアル型等の形態であっても良い。
 以上、本発明に係る超音波診断装置について詳細に説明したが、本発明は、以上の例には限定されず、本発明の要旨を逸脱しない範囲において、各種の改良及び変形を行っても良いのはもちろんである。また、以上において示した複数の例は、適宜組み合わせて用いることができる。
1 超音波診断装置、2 超音波プローブ、3 画像取得部、4 動き量検出部、5 受信回路、6 送信回路、7 画像生成部、8 表示制御部、9 表示部、10 動作センサ、11 プローブ動き量算出部、12 画像解析部、13 部位判別部、14 装置制御部、15 操作部、16 格納部、17 増幅部、18 A/D変換部、19 Bモード処理部、20 画像処理部。

Claims (8)

  1.  超音波プローブと、
     前記超音波プローブから被検体に向けて超音波ビームの送受信を行って、超音波画像を取得する画像取得部と、
     前記画像取得部により取得された超音波画像を解析する画像解析部と、
     前記超音波プローブの動き量を検出する動き量検出部と、を備え、
     前記画像解析部は、前記動き量検出部により検出された前記超音波プローブの動き量が定められた閾値以上である場合に、単フレームの超音波画像に対して画像解析を行い、前記動き量検出部により検出された前記超音波プローブの動き量が定められた閾値未満である場合に、複数フレームの超音波画像に対して画像解析を行うことを特徴とする超音波診断装置。
  2.  前記画像解析部は、前記単フレームの超音波画像に対する画像解析として、単フレームの超音波画像に対するパターン認識又は画素値解析を含む画像解析を行う請求項1に記載の超音波診断装置。
  3.  前記画像解析部は、前記複数フレームの超音波画像に対する画像解析として、複数フレームの超音波画像に共通して含まれる特定のパターンの動きに対する解析を行う請求項1又は2に記載の超音波診断装置。
  4.  前記画像解析部は、前記複数フレームの超音波画像に対する画像解析として、前記画像取得部により時系列に取得された複数フレームの超音波画像に対してフレーム毎に画像解析を行って、それらの画像解析結果を統合する請求項1又は2に記載の超音波診断装置。
  5.  前記画像解析部における前記画像解析に結果に基づいて、前記画像解析が行われた超音波画像に含まれる被検体の部位を判別する部位判別部を更に有する請求項1~4のいずれか一項に記載の超音波診断装置。
  6.  前記動き量検出部は、前記超音波プローブに取り付けられた動作センサを備え、
     前記動作センサは、前記超音波プローブの加速度、角速度又は位置を検出する請求項1~5のいずれか一項に記載の超音波診断装置。
  7.  前記動き量検出部は、前記超音波プローブから離れて設置された動作センサを備え、
     前記動作センサは、前記超音波プローブの位置を検出する請求項1~5のいずれか一項に記載の超音波診断装置。
  8.  超音波プローブから被検体に向けて超音波ビームの送受信を行って、超音波画像を取得し、
     取得された超音波画像を解析し、
     前記超音波プローブの動き量を検出するに際し、
     検出された前記超音波プローブの動き量が定められた閾値以上である場合に、単フレームの超音波画像に対して画像解析を行い、検出された前記超音波プローブの動き量が定められた閾値未満である場合に、複数フレームの超音波画像に対して画像解析を行うことを特徴とする超音波診断装置の制御方法。
PCT/JP2017/020928 2016-09-21 2017-06-06 超音波診断装置及び超音波診断装置の制御方法 Ceased WO2018055841A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP17852622.4A EP3517048B1 (en) 2016-09-21 2017-06-06 Ultrasound diagnostic device and method for control of ultrasound diagnostic device
JP2018540632A JP6625760B2 (ja) 2016-09-21 2017-06-06 超音波診断装置及び超音波診断装置の制御方法
US16/294,749 US11116481B2 (en) 2016-09-21 2019-03-06 Ultrasound diagnostic apparatus and control method of ultrasound diagnostic apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016184049 2016-09-21
JP2016-184049 2016-09-21

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/294,749 Continuation US11116481B2 (en) 2016-09-21 2019-03-06 Ultrasound diagnostic apparatus and control method of ultrasound diagnostic apparatus

Publications (1)

Publication Number Publication Date
WO2018055841A1 true WO2018055841A1 (ja) 2018-03-29

Family

ID=61689504

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/020928 Ceased WO2018055841A1 (ja) 2016-09-21 2017-06-06 超音波診断装置及び超音波診断装置の制御方法

Country Status (4)

Country Link
US (1) US11116481B2 (ja)
EP (1) EP3517048B1 (ja)
JP (1) JP6625760B2 (ja)
WO (1) WO2018055841A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2025163737A1 (ja) * 2024-01-30 2025-08-07 ファナック株式会社 制御装置、機械システムおよび制御プログラム

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6937731B2 (ja) * 2018-09-27 2021-09-22 富士フイルム株式会社 超音波診断装置および超音波診断装置の制御方法
GB201911201D0 (en) * 2019-08-06 2019-09-18 Darkvision Tech Methods and apparatus for coiled tubing inspection by ultrasound
EP4360564A4 (en) * 2021-06-24 2024-11-27 FUJIFILM Corporation Ultrasonic diagnostic device and method for controlling ultrasonic diagnostic device

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007301398A (ja) * 2007-07-26 2007-11-22 Aloka Co Ltd 超音波診断装置
JP2011110431A (ja) * 2009-11-25 2011-06-09 Medison Co Ltd 超音波映像処理を行う超音波システムおよび方法
JP2015131100A (ja) * 2013-12-12 2015-07-23 コニカミノルタ株式会社 超音波診断装置、超音波画像記録方法、及びコンピュータ読み取り可能な非一時的な記録媒体
JP2016501605A (ja) 2012-12-21 2016-01-21 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. ポイントオブケア用の解剖学的にインテリジェントな超音波心臓検査
US20160048737A1 (en) * 2014-08-14 2016-02-18 Samsung Electronics Co., Ltd. Apparatus and method for adaptive computer-aided diagnosis
WO2016088758A1 (ja) * 2014-12-01 2016-06-09 国立研究開発法人産業技術総合研究所 超音波検査システム及び超音波検査方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5843748B2 (ja) * 2012-12-04 2016-01-13 ジーイー・メディカル・システムズ・グローバル・テクノロジー・カンパニー・エルエルシー 超音波画像表示装置及びその制御プログラム
US20140213901A1 (en) * 2013-01-29 2014-07-31 Karen Shackelford System & Method for Delineation and Quantification of Fluid Accumulation in EFAST Trauma Ultrasound Images
KR102294193B1 (ko) * 2014-07-16 2021-08-26 삼성전자주식회사 프로브 속도에 기초한 컴퓨터 보조 진단 지원 장치 및 방법

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007301398A (ja) * 2007-07-26 2007-11-22 Aloka Co Ltd 超音波診断装置
JP2011110431A (ja) * 2009-11-25 2011-06-09 Medison Co Ltd 超音波映像処理を行う超音波システムおよび方法
JP2016501605A (ja) 2012-12-21 2016-01-21 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. ポイントオブケア用の解剖学的にインテリジェントな超音波心臓検査
JP2015131100A (ja) * 2013-12-12 2015-07-23 コニカミノルタ株式会社 超音波診断装置、超音波画像記録方法、及びコンピュータ読み取り可能な非一時的な記録媒体
US20160048737A1 (en) * 2014-08-14 2016-02-18 Samsung Electronics Co., Ltd. Apparatus and method for adaptive computer-aided diagnosis
WO2016088758A1 (ja) * 2014-12-01 2016-06-09 国立研究開発法人産業技術総合研究所 超音波検査システム及び超音波検査方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3517048A4

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2025163737A1 (ja) * 2024-01-30 2025-08-07 ファナック株式会社 制御装置、機械システムおよび制御プログラム

Also Published As

Publication number Publication date
JP6625760B2 (ja) 2019-12-25
EP3517048A4 (en) 2019-10-02
US20190216441A1 (en) 2019-07-18
JPWO2018055841A1 (ja) 2019-06-27
EP3517048A1 (en) 2019-07-31
US11116481B2 (en) 2021-09-14
EP3517048B1 (en) 2021-02-17

Similar Documents

Publication Publication Date Title
JP6637610B2 (ja) 超音波診断装置及び超音波診断装置の制御方法
JP6423540B2 (ja) 超音波診断装置および超音波診断装置の制御方法
JP6419976B2 (ja) 超音波診断装置および超音波診断装置の制御方法
JP6718520B2 (ja) 超音波診断装置及び超音波診断装置の制御方法
US20190192121A1 (en) Ultrasound diagnostic apparatus and control method of ultrasound diagnostic apparatus
US11116481B2 (en) Ultrasound diagnostic apparatus and control method of ultrasound diagnostic apparatus
WO2017038162A1 (ja) 超音波診断装置および超音波診断装置の制御方法
US20230086973A1 (en) Ultrasound diagnostic apparatus, method for controlling ultrasound diagnostic apparatus, and processor for ultrasound diagnostic apparatus
WO2018142954A1 (ja) 超音波診断装置、超音波診断装置の制御方法及び超音波診断装置の制御プログラム
WO2022230379A1 (ja) 超音波診断装置および超音波診断装置の制御方法
US11324487B2 (en) Ultrasound diagnostic apparatus and control method of ultrasound diagnostic apparatus
EP4248874A1 (en) Ultrasound diagnostic system and method for controlling ultrasound diagnostic system
WO2019163225A1 (ja) 超音波診断装置および超音波診断装置の制御方法
WO2018142950A1 (ja) 超音波診断装置、超音波診断装置の制御方法及び超音波診断装置の制御プログラム
EP4193930B1 (en) Ultrasound diagnostic apparatus and control method of ultrasound diagnostic apparatus

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17852622

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2018540632

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2017852622

Country of ref document: EP

Effective date: 20190423