[go: up one dir, main page]

KR20090047860A - How to calculate meat fat content from ultrasound image - Google Patents

How to calculate meat fat content from ultrasound image Download PDF

Info

Publication number
KR20090047860A
KR20090047860A KR1020070113928A KR20070113928A KR20090047860A KR 20090047860 A KR20090047860 A KR 20090047860A KR 1020070113928 A KR1020070113928 A KR 1020070113928A KR 20070113928 A KR20070113928 A KR 20070113928A KR 20090047860 A KR20090047860 A KR 20090047860A
Authority
KR
South Korea
Prior art keywords
image
fat content
interest
meat
ultrasound
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
KR1020070113928A
Other languages
Korean (ko)
Other versions
KR100930883B1 (en
Inventor
김남철
김상현
소현주
정재경
Original Assignee
농업협동조합중앙회
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 농업협동조합중앙회 filed Critical 농업협동조합중앙회
Priority to KR1020070113928A priority Critical patent/KR100930883B1/en
Publication of KR20090047860A publication Critical patent/KR20090047860A/en
Application granted granted Critical
Publication of KR100930883B1 publication Critical patent/KR100930883B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Clinical applications
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/13Tomography
    • A61B8/14Echo-tomography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5223Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for extracting a diagnostic or physiological parameter from medical diagnostic data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N33/00Investigating or analysing materials by specific methods not covered by groups G01N1/00 - G01N31/00
    • G01N33/02Food
    • G01N33/12Meat; Fish
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Pathology (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Veterinary Medicine (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Food Science & Technology (AREA)
  • Chemical & Material Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Physiology (AREA)
  • Medicinal Chemistry (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • Immunology (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

본 발명은 초음파 영상으로부터 육질의 지방함량 산출 방법에 관한 것으로서, 초음파의 반사 및 음영효과에 의해 생기는 밝기 변화에 민감하지 않도록 초음파 영상으로부터 에지와 밸리와 같은 질감에 대한 영상특징을 추출하여 가축의 특성에 따른 육질의 실질적인 상태를 반영하여 육질의 지방함량을 실질적인 상황에 적합하도록 추정하여 산출함으로써 가축을 도축하지 않은 상태에서 육질의 지방함량을 산출하여 산육의 특성을 추정함으로써 고급육 생산에 필요한 출하적기를 예측하고 조절할 수 있는 효과가 있다. The present invention relates to a method for calculating the fat content of meat from an ultrasound image, and extracts image features of textures such as edges and valleys from ultrasound images so as not to be sensitive to changes in brightness caused by the reflection and shadowing effects of ultrasound. By calculating the fat content of meat in consideration of the actual condition of meat quality according to the actual situation, the meat content is estimated without calculating slaughter, and the fat content of meat is estimated to estimate the characteristics of livestock. It has a predictable and adjustable effect.

초음파, 영상, ROI, 관심영역, BDIP, BVLC Ultrasound, Imaging, ROI, Region of Interest, BDIP, BVLC

Description

초음파 영상으로부터 육질의 지방함량 산출 방법{METHOD MEASURING FAT CONTENT IN MEAT FROM ULTRASOUND VISUAL IMAGE}METHODS MEASURING FAT CONTENT IN MEAT FROM ULTRASOUND VISUAL IMAGE}

본 발명은 초음파 영상으로부터 육질의 지방함량 산출 방법에 관한 것으로서, 보다 상세하게는 초음파의 반사 및 음영효과에 의해 생기는 밝기 변화에 민감하지 않도록 초음파 영상으로부터 에지와 밸리와 같은 질감에 대한 영상특징을 추출하여 가축의 특성에 따른 육질의 실질적인 상태를 반영하여 육질의 지방함량을 실질적인 상황에 적합하도록 추정하여 산출할 수 있도록 한 초음파 영상으로부터 육질의 지방함량 산출 방법에 관한 것이다. The present invention relates to a method for calculating meat fat content from an ultrasound image, and more particularly, to extract image characteristics of textures such as edges and valleys from an ultrasound image so as not to be sensitive to a change in brightness caused by the reflection and shading effects of the ultrasound. Therefore, the present invention relates to a method for calculating the fat content of meat from an ultrasound image, which can estimate and calculate the fat content of meat in consideration of the actual state of meat according to the characteristics of livestock.

초음파 영상 장비는 다른 영상 장비들과는 달리 생체에 해를 주지 않으며 장시간 동안 실시간으로 생체내부에 대한 지속적인 관찰이 용이하다. 그리고 타 장비에 비교해서 가격이 저렴하고 소형인 장점이 있어서 동물이나 가축의 질병 진단 및 치료에 많이 활용되고 있다.Ultrasonic imaging equipment, unlike other imaging equipments, does not harm the living body, and it is easy to continuously observe the inside of the living body for a long time in real time. In addition, it has a low price and small size compared to other equipments, and is widely used for diagnosing and treating diseases of animals and livestock.

이러한 초음파 영상 장비의 특성들을 활용하여 살아 있는 상태에서의 가축들 의 지방함량을 판단하고 우수 종자의 보전 및 출하시기를 결정하려는 시도들이 많이 이루어지고 있다. Many attempts have been made to determine the fat content of livestock and to preserve and release excellent seed by utilizing the characteristics of these ultrasound imaging equipment.

현재까지 국내에서는 대부분 숙련된 전문가의 육안에 의존하여 정성적으로 초음파 영상에서 지방함량을 판단하거나 Esaote Piemedical와 같은 외국계 초음파 장비 업체들의 지방함량 판단 프로그램을 이용하여 지방함량을 판단하고 있다.To date, most domestic experts have determined fat content on ultrasound images qualitatively or by using fat content determination programs of foreign ultrasonic equipment companies such as Esaote Piemedical.

또한, Iowa 주립대학에서는 초음파 영상에서 영상 특징이 잘 나타나는 위치에 전문가가 가로 세로 각 100화소 크기의 관심영역(ROI: Region Of Interest)을 설정한 후 관심영역에 대해 다양한 영상처리 기법을 이용하여 영상 특징을 추출하고 회귀방정식을 이용하여 지방함량을 추정한다. In addition, Iowa State University has established a region of interest (ROI) of 100 pixels in width and height at a location where image characteristics are well represented on an ultrasound image, and then uses various image processing techniques for the region of interest. Extract the features and estimate the fat content using the regression equation.

이때 사용되는 영상특징 추출을 위해 사용되는 영상처리 기법은 퓨리에 변환 (Fourier transform), 그래디언트 (gradient), 히스토그램 (histogram), co-occurrence 행렬(matrix) 등이 사용된다. The image processing technique used to extract the image features used here is Fourier transform, gradient, histogram, co-occurrence matrix.

그러나 이러한 영상처리 기법들은 일반영상에서 에지(edge)와 밸리(valley)와 같은 영상 특징들을 추출하는 가장 전통적인 방법들로써 초음파 영상처럼 잡음이 심하고 부분적으로 음영 등이 많이 존재하는 특수한 초음파 영상에 사용하기에는 다소 적합하지 않은 문제점이 있다. However, these image processing techniques are the most traditional methods of extracting image features such as edges and valleys from general images. They are somewhat difficult to use for special ultrasound images that are noisy and partially shaded like ultrasonic images. There is an unsuitable problem.

또한, 관심영역(ROI)설정에서 단순히 가로 세로 각 100화소 크기의 박스를 설정하면 숙련된 전문가가 육안으로 설정할 수 있는 근육의 전체 크기나 분포형태 등을 지방함량 판단에 활용할 수 없고 관심영역(ROI)의 위치에 따라 상당히 민감하게 추정되는 지방함량 값이 변동되는 문제점이 있다. In addition, if you simply set the box size of 100 pixels in the ROI setting, the total size and distribution of muscles that can be set by the expert can not be used to determine fat content. There is a problem that the fat content value which is estimated to be very sensitive varies depending on the position of.

본 발명은 상기와 같은 문제점을 해결하기 위해 창작된 것으로서, 본 발명의 목적은 초음파의 반사 및 음영효과에 의해 생기는 밝기 변화에 민감하지 않도록 초음파 영상으로부터 에지와 밸리와 같은 질감에 대한 영상특징을 추출하여 가축의 특성에 따른 육질의 실질적인 상태를 반영하여 육질의 지방함량을 실질적인 상황에 적합하도록 추정하여 산출할 수 있도록 한 육질의 지방함량 산출 방법을 제공함에 있다. The present invention was created to solve the above problems, and an object of the present invention is to extract image features for textures such as edges and valleys from ultrasonic images so as not to be sensitive to brightness variations caused by the reflection and shadowing effects of ultrasonic waves. Therefore, the present invention provides a method for calculating the fat content of meat so that the fat content of meat can be estimated and calculated to reflect the actual condition of meat according to the characteristics of livestock.

상기와 같은 목적을 이루기 위한 본 발명은 가축의 육질 초음파 영상과 함께 가축의 특성을 입력받아 획득하는 단계와, 초음파 영상에서 관심영역을 설정하는 단계와, 관심영역을 추출하여 영상의 밝기에 대한 정규화를 수행하여 정규화 영상을 획득하는 단계와, 정규화 영상에 대해 블록별 영상처리기법으로 영상특징을 강조하는 영상특징 강조 단계와, 영상특징 강조에 의해 추출된 영상 특징값들을 가축의 특성에 따른 회귀방정식에 적용하여 지방함량을 산출하는 단계를 포함하여 이루어진 것을 특징으로 한다. The present invention for achieving the above object is the step of receiving the characteristics of the livestock with the meat ultrasound image of the livestock, the step of setting the region of interest in the ultrasound image, extracting the region of interest to normalize the brightness of the image A step of obtaining a normalized image by performing a method, an image feature emphasis step of emphasizing the image feature by a block-by-block image processing method, and a regression equation according to the characteristics of the livestock. It is characterized in that it comprises a step of calculating the fat content by applying to.

본 발명에서 가축의 특성은 거세우, 비거세우, 암소인 것을 특징으로 한다. In the present invention, the characteristics of the livestock are characterized by being castrated, non-steered, and cow.

본 발명에서 관심영역을 설정하는 단계는 사용자가 근육을 감싸는 임의의 형 태로 1차 관심영역을 설정하는 단계와, 1차 관심영역을 기반으로 영상의 특징을 표현하기 위한 2차 관심영역을 설정하는 단계를 포함하여 이루어진 것을 특징으로 한다. In the present invention, the setting of the ROI includes setting a primary ROI in an arbitrary shape surrounding the muscle by the user, and setting a secondary ROI for expressing a feature of the image based on the primary ROI. Characterized in that it comprises a step.

이때 2차 관심영역은 1차 관심영역에 외접하는 사각형으로 설정하거나, 1차 관심영역에 내접하는 사각형으로 설정하거나, 1차 관심영역에서 일정간격 내부로 이동하여 설정하거나, 1차 관심영역의 무게중심을 계산한 후 이 중심점을 기준으로 일정크기의 사각형으로 설정하는 것을 특징으로 한다. In this case, the secondary region of interest may be set to a rectangle circumscribed to the primary region of interest, or set to a square inscribed to the primary region of interest, or may be set by moving within a certain interval from the primary region of interest, or the weight of the primary region of interest. After calculating the center is characterized in that the set to a square of a certain size based on the center point.

본 발명의 영상특징 강조 단계에서 블록별 영상처리기법은 블록내의 최대 밝기값과 각 화소의 밝기값의 차의 평균을 최대 밝기값으로 정규화하는 BDIP 기법과, 블록에 인접한 4방향에 따른 위치 상관계수의 변화를 측정하는 BVLC 기법인 것을 특징으로 한다. In the image feature enhancement step of the present invention, the image processing technique for each block includes a BDIP technique for normalizing the average of the difference between the maximum brightness value in the block and the brightness value of each pixel to the maximum brightness value, and a position correlation coefficient along four directions adjacent to the block. It is characterized by a BVLC technique for measuring the change of.

상기한 바와 같이 본 발명은 초음파의 반사 및 음영효과에 의해 생기는 밝기 변화에 민감하지 않도록 초음파 영상으로부터 에지와 밸리와 같은 질감에 대한 영상특징을 추출하여 가축의 특성에 따른 육질의 실질적인 상태를 반영하여 육질의 지방함량을 실질적인 상황에 적합하도록 추정하여 산출함으로써 가축을 도축하지 않은 상태에서 육질의 지방함량을 산출하여 산육의 특성을 추정함으로써 고급육 생산에 필요한 출하적기를 예측하고 조절할 수 있는 효과가 있다. As described above, the present invention extracts image characteristics of textures such as edges and valleys from ultrasonic images to reflect the actual state of meat according to the characteristics of livestock, so as not to be sensitive to changes in brightness caused by the reflection and shading effects of ultrasonic waves. By estimating the fat content of meat to be suitable for the practical situation, it is possible to calculate the fat content of meat without estimating livestock and to estimate the characteristics of livestock, thereby predicting and controlling the delivery time required for high-quality meat production.

또한, 본 발명은 생체상태로 산육 특성을 정확하게 추정할 수 있어 우량 번 식집단을 조성하고 우량 종축을 선발하여 품종개량을 촉진할 수 있는 효과가 있다. In addition, the present invention can accurately estimate the breeding characteristics in a biological state has the effect of promoting breeding by forming a good breeding population and selecting a good breeder.

이하, 본 발명의 바람직한 실시예를 첨부된 도면을 참조하여 설명하며 종래 구성과 동일한 부분은 동일한 부호 및 명칭을 사용한다. 또한 본 실시예는 본 발명의 권리범위를 한정하는 것은 아니고, 단지 예시로 제시된 것이며 당 분야에서 통상의 지식을 가진 자라면 본 발명의 기술적 사상 내에서 많은 변형이 가능할 것이다.Hereinafter, exemplary embodiments of the present invention will be described with reference to the accompanying drawings, and the same parts as in the prior art use the same reference numerals and names. In addition, the present embodiment is not intended to limit the scope of the present invention, but is presented by way of example only and those skilled in the art will be capable of many modifications within the technical spirit of the present invention.

도 1은 본 발명에 의한 육질의 지방함량 산출 방법을 설명하기 위한 흐름도이다. 1 is a flowchart illustrating a method for calculating fat content of meat according to the present invention.

본 발명은 한우의 근내지방도를 측정하기 위해 제 13늑골과 제 1요추사이에서 촬영된 초음파 영상과 함께 한우의 특성을 입력받게 된다(S10)(S12). The present invention is to receive the characteristics of the Korean beef along with the ultrasound image taken between the thirteenth rib and the first lumbar spine to measure the intramuscular fat of the Korean beef (S10) (S12).

한우의 특성은 거세우, 비거세우, 암소 등의 특성으로써 각각의 특성에 따라 근내지방의 분포가 달라지는 특성을 정확하게 추정할 수 있도록 한다. The characteristics of Hanwoo are castrated, non-stocked, cow, etc., so that it is possible to accurately estimate the characteristics of the distribution of intramuscular fat according to each characteristic.

이렇게 입력된 초음파 영상에 대해 가죽이나 경계에서의 밝기 변화 등을 고려하여 근내지방이 분포되는 근육을 감싸는 영역에 대해 도 2에 도시된 바와 같이 임의의 형태로 1차 관심영역을 설정하게 된다(S14). The primary region of interest is set in an arbitrary form as shown in FIG. 2 for the region surrounding the muscle where the intramuscular fat is distributed in consideration of the change in brightness of the leather or the boundary of the input ultrasound image (S14). ).

이러한 1차 관심영역에 대해서는 전문가에 의해 영상을 통해 근내지방도를 산출할 수 있는 영역을 판단하여 설정할 수 있다. The primary region of interest may be determined by an expert to determine an area for calculating intramuscular fat through images.

이렇게 1차 관심영역이 설정되면 1차 관심영역 안에서도 각 위치별로 영상의 밝기 특성이 발생하기 때문에 이를 보상하기 위해 도 3에 도시된 바와 같이 빨간색으로 표시된 1차 관심영역에 파란색의 2차 관심영역을 설정하게 된다. When the primary ROI is set, the brightness of the image is generated at each position even within the primary ROI. To compensate for this, as shown in FIG. Will be set.

이때 2차 관심영역은 도 3의 (a)에 도시된 바와 같이 1차 관심영역에 외접하는 사각형으로 설정할 수 있으며, (b)에 도시된 바와 같이 1차 관심영역에 내접하는 사각형으로 설정할 수 있다. In this case, the secondary ROI may be set to a quadrangle circumscribed to the primary ROI as shown in FIG. 3A, and may be set to a quadrangle inscribed to the primary ROI as shown in (b). .

또한, (c)에 도시된 바와 같이 1차 관심영역에서 일정간격 내부로 이동하여 설정할 수도 있으며, (d)에 도시된 바와 같이 1차 관심영역의 무게중심을 계산한 후 이 중심점을 기준으로 일정크기의 사각형으로 설정할 수도 있다. In addition, as shown in (c), it may be set by moving within a predetermined interval from the primary region of interest, and as shown in (d), the center of gravity of the primary region of interest is calculated and then fixed based on the center point. It can also be set to a rectangle of size.

이렇게 1차와 2차에 걸쳐 관심영역을 설정한 후 관심영역의 영상을 추출하여 영상의 밝기에 대한 정규화를 수행한다. After setting the ROIs in the 1st and 2nd phases, the image of the ROI is extracted and normalized to the brightness of the image.

즉, 영상의 밝기 값이나 표준편차가 환경에 따라 다양하게 나타날 수 있기 때문에 이러한 차이를 해소하기 위해 영상의 평균 밝기값과 표준편차를 미리 정의된 값으로 수학식 1에 의해 정규화(normalization)를 수행하여 정규화 영상을 획득한다(S16). That is, since the brightness value or the standard deviation of the image may vary depending on the environment, the average brightness value and the standard deviation of the image are normalized by using Equation 1 to eliminate the difference. In operation S16, a normalized image is obtained.

Figure 112007080342648-PAT00001
Figure 112007080342648-PAT00001

I(x,y) : 원영상 내의 화소 (x,y)에서의 밝기값I (x, y): Brightness value at pixel (x, y) in original image

μ : 원영상의 평균 밝기값μ: Average brightness value of original image

σ : 원영상의 밝기의 표준편차σ: standard deviation of the brightness of the original image

Figure 112007080342648-PAT00002
: 정규화된 영상 내의 화소(x,y)에서의 밝기값
Figure 112007080342648-PAT00002
: Brightness value at pixel (x, y) in normalized image

Figure 112007080342648-PAT00003
: 정규화된 영상의 평균 밝기값
Figure 112007080342648-PAT00003
: Average brightness value of normalized image

Figure 112007080342648-PAT00004
: 정규화된 영상의 밝기의 표준편차
Figure 112007080342648-PAT00004
: Standard deviation of brightness of normalized image

이와 같이 영상의 밝기에 대한 정규화를 수행한 정규화 영상에 대해 블록별 영상처리기법에 의해 영상 특징을 강조하게 된다(S18). As described above, the image characteristic is emphasized by the image processing technique for each block on the normalized image having normalized the brightness of the image (S18).

즉, 영상내 물체의 형태나 질감은 에지나 밸리로써 추출하게 되는데 이러한 특징을 보다 잘 추출할 수 있도록 영상의 특징을 강조할 필요가 있게 된다. That is, the shape or texture of an object in the image is extracted as an edge or a valley, and it is necessary to emphasize the feature of the image so that the feature can be extracted better.

일반적인 영상처리기법으로는 퓨리에 변환, DCT(discrete cosine transform), sobel이나 그래디언트와 같은 에지 연산자를 이용하는데 이러한 연산자는 밝기변화에 민감하지 않을 뿐만 아니라 에지 연산자를 사용하여 에지와 밸리를 추출할 경우 방향성에 따라 그 특성이 달라지기 때문에 추출된 값의 크기가 에지일 대와 밸리일 때 상당한 차이가 발생하여 에지와 밸리를 동시에 추출하기 어렵게 된다. Common image processing techniques use edge operators such as Fourier transform, discrete cosine transform (DCT), sobel or gradient, which are not only sensitive to changes in brightness, but also when using edge operators to extract edges and valleys. Since the characteristics vary depending on the size of the extracted value, a significant difference occurs when the size of the edge band and valley is difficult to extract the edge and valley at the same time.

따라서, 본 발명에서는 한 블록내의 최대 밝기값과 각 화소 밝기값의 차의 평균을 최대 밝기값으로 정규화하는 BDIP(block difference of inverse probabilities) 기법과, 블록에 인접한 4방향에 따른 위치 상관계수의 변화를 측정하는 BVLC(block variation of local correlation coefficients) 기법에 의해 에지와 밸리를 용이하게 동시에 추출할 수 있는 영상특징이 강조된 영상을 획득하게 된다. Accordingly, in the present invention, a block difference of inverse probabilities (BDIP) technique for normalizing the average of the difference between the maximum brightness value in each block and each pixel brightness value to the maximum brightness value, and a change in the position correlation coefficient along four directions adjacent to the block By using the block variation of local correlation coefficients (BVLC) technique, an image with emphasis on image features that can easily extract edges and valleys can be obtained.

이하 BDIP 기법과 BVLC 기법을 설명하면 다음과 같다. Hereinafter, the BDIP technique and the BVLC technique will be described.

먼저, BDIP 기법은 영상내 임의의 위치(x,y)에서 그 크기가 W인 정방형의 국부영역 윈도우를 설정하고 국부영역의 최대 밝기값 IM(x,y)에 대한 각 화소 밝기값의 차를 계산하여 평균을 구하고 그 값을 다시 국부영역의 최대 밝기값으로 나눈 값으로 정의된다. First, the BDIP method sets up a square local window of size W at an arbitrary position (x, y) in the image and calculates the difference of each pixel brightness value with respect to the maximum brightness value IM (x, y) of the local area. It is defined as the average of the calculations and the value divided by the maximum brightness of the local area.

Figure 112007080342648-PAT00005
Figure 112007080342648-PAT00005

BDIP(x,y) : 화소(x,y)에서의 BDIP값BDIP (x, y): BDIP value in pixel (x, y)

I(x,y) : 화소(x,y)에서의 밝기값I (x, y): Brightness value in pixel (x, y)

W : 화소(x,y)를 중심으로 하는 주변 영역W: Peripheral area centered on pixel (x, y)

Figure 112007080342648-PAT00006
: 영역 W 내의 화소의 개수
Figure 112007080342648-PAT00006
: The number of pixels in the area W

IM(x,y) : 화소(x,y)를 중심으로 하는 영역 내의 최대 밝기값I M (x, y): Maximum brightness in the area centered on pixel (x, y)

이와 같이 BDIP 기법은 분자에서 국부영역의 최대 밝기값에 대한 각 화소의 밝기값의 차를 계산하기 때문에 방향성에 상관없이 에지나 밸리의 값을 추출할 수 있을 뿐만 아니라 분모에서 국부영역의 최대 밝기값으로 정규화를 함으로써 어두운 영역에서의 에지나 밸리를 보다 민감하게 추출해 냄으로써 잡음이 많고 영상 내에서도 밝기의 변화가 심한 초음파 영상의 특징을 용이하게 추출하게 된다. As such, the BDIP method calculates the difference of the brightness value of each pixel with respect to the maximum brightness value of the local area in the molecule, so that the edge or valley value can be extracted regardless of the direction and the maximum brightness value of the local area in the denominator. By normalizing, the edges and valleys in the dark region are more sensitively extracted, which makes it easier to extract the features of an ultrasound image that is noisy and has a high brightness change even in the image.

또한, BVLC 기법은 먼저 수학식 3에서와 같이 임의의 위치(x,y)에서 그 크기가 W인 정방형의 윈도우와 (k,l)만큼 위치가 떨어져 있는 윈도우 사이의 위치 상관계수(local correlation coefficients)를 구한다. In addition, the BVLC technique first uses local correlation coefficients between a square window of size W at any position (x, y) and a window spaced apart by (k, l) as shown in Equation 3. )

Figure 112007080342648-PAT00007
Figure 112007080342648-PAT00007

여기서 (k,l)의 값을 도 4와 같이 4방향으로 설정하고 각각의 상관계수를 구한 후 수학식 4와 같이 최대치에서 최소치를 뺀 값을 BVLC로 정의한다. Here, the value of (k, l) is set in four directions as shown in FIG. 4, and after each correlation coefficient is obtained, the value obtained by subtracting the minimum value from the maximum value is defined as BVLC, as shown in Equation 4.

Figure 112007080342648-PAT00008
Figure 112007080342648-PAT00008

BVLC(x,y) : 화소(x,y)에서의 BVLC값BVLC (x, y): BVLC value in pixel (x, y)

ρ(x,y) : 상관계수(correlation coefficient)ρ (x, y): correlation coefficient

μ,σ : 평균 및 표준편차μ, σ: mean and standard deviation

Figure 112007080342648-PAT00009
: 영역 W 내의 화소의 개수
Figure 112007080342648-PAT00009
: The number of pixels in the area W

이와 같이 BVLC 기법은 인접 영역간의 상관계수의 차를 강조함으로써 영상 내 질감의 거친 정도를 보다 효과적으로 추출하여 나타낼 수 있도록 한다. As described above, the BVLC method emphasizes the difference in the correlation coefficient between adjacent regions so that the roughness of the texture in the image can be extracted more effectively.

이렇게 관심영역에 대해 BDIP와 BVLC를 적용하면 에지나 밸리, 질감 등의 영 상특징들이 강조된 영상을 얻을 수 있는데, 이 영상의 평균 및 표준편차 등을 수학식 6과 같은 회귀방정식에 적용하여 지방함량을 산출하게 된다(S20). If BDIP and BVLC are applied to the region of interest, an image with emphasis on image features such as edges, valleys, and textures can be obtained.Average and standard deviation of the image are applied to a regression equation such as Equation 6 to express fat content. It is calculated (S20).

Figure 112007080342648-PAT00010
Figure 112007080342648-PAT00010

여기서 μ,σ는 각각 평균과 표준편차를 나타내며, K는 1부터 8까지의 크기를 갖는 윈도우를 나타낸다. Where μ and sigma represent the mean and standard deviation, respectively, and K represents the window with a size from 1 to 8.

이때 회귀방정식은 가축의 특성에 따라 각각 특성값이 반영된 상수들로 정의된 다수개의 회귀방정식을 정의하여 선택된 가축의 특성에 따라 적용하게 된다. In this case, the regression equation is defined according to the characteristics of the livestock, and a plurality of regression equations defined by constants reflecting the characteristic values are defined and applied according to the characteristics of the selected livestock.

도 5는 가축의 근내지방도에 따른 지방함량을 실질적인 가축의 지방함량과 비교한 그래프로써 (a)는 거세된 한우 60여두에 대해 에지연산자를 사용하여 산출한 지방함량이며, (b)는 본 발명에 의한 방법으로 산출한 지방함량을 나타낸 그래프이다.Figure 5 is a graph comparing the fat content according to the domestic fat of the livestock with the actual fat content of the livestock (a) is the fat content calculated using the edge operator for 60 or more castrated Hanwoo cattle, (b) is the present invention It is a graph showing the fat content calculated by the method.

그래프에서 x축은 실제 측정된 지방함량을 나타내고, y축은 추정된 지방함량을 나타낸다. In the graph, the x-axis represents the actual measured fat content and the y-axis represents the estimated fat content.

그래프에서 보는 바와 같이 추정된 지방함량과 측정된 지방함량 사이의 결과 그래프가 대각선에 가까울수록 더 정확하게 추정된 것으로써 본원 발명에 의한 방법으로 추정한 그래프가 종래의 방법으로 추정한 그래프보다 대각선 형태에 가까운 것을 확인 할 수 있고 상관도를 조사했을 때 본원 발명에 의한 상관도는 0.83이고 종래의 에지연산자를 이용한 방법에 의한 상관도는 0.72정도 인 것을 확인 할 수 있다.As shown in the graph, the closer the result graph between the estimated fat content and the measured fat content is to the diagonal, the more accurately the graph is estimated by the method according to the present invention. When the correlation was examined, the correlation was 0.83, and the correlation by the conventional method using the edge operator was about 0.72.

도 1은 본 발명에 의한 초음파 영상으로부터 육질의 지방함량 산출 방법을 설명하기 위한 흐름도이다. 1 is a flow chart illustrating a method for calculating the fat content of meat from an ultrasound image according to the present invention.

도 2는 본 발명에 의한 가축의 육질 초음파 영상 사진이다. 2 is a meat ultrasound image of livestock according to the present invention.

도 3은 본 발명에 의한 방법에 따라 관심영역을 설정한 상태의 초음파 영상 사진이다. 3 is an ultrasound image photograph of a region of interest set according to the method of the present invention.

도 4는 본 발명에 의한 BVLC 기법에 의한 2×2 윈도우에 대한 4방향 상관계수를 구하기 위한 윈도우의 움직임을 나타낸 도면이다. 4 is a diagram illustrating the movement of a window to obtain a four-way correlation coefficient for a 2x2 window by the BVLC method according to the present invention.

도 5는 본 발명에 의해 산출된 지방함량을 비교 그래프이다. 5 is a graph comparing the fat content calculated by the present invention.

Claims (5)

가축의 육질 초음파 영상과 함께 가축의 특성을 입력받아 획득하는 단계와, Obtaining and acquiring the characteristics of the livestock along with the ultrasound image of the livestock meat; 상기 초음파 영상에서 관심영역을 설정하는 단계와, Setting a region of interest in the ultrasound image; 상기 관심영역을 추출하여 영상의 밝기에 대한 정규화를 수행하여 정규화 영상을 획득하는 단계와, Extracting the region of interest to normalize the brightness of the image to obtain a normalized image; 상기 정규화 영상에 대해 블록별 영상처리기법으로 영상특징을 강조하는 영상특징 강조 단계와, An image feature enhancement step of emphasizing the image feature by block image processing on the normalized image; 상기 영상특징 강조에 의해 추출된 영상 특징값들을 가축의 특성에 따른 회귀방정식에 적용하여 지방함량을 산출하는 단계Calculating fat content by applying the image feature values extracted by the image feature emphasis to a regression equation according to the characteristics of the livestock 를 포함하여 이루어진 것을 특징으로 하는 초음파 영상으로부터 육질의 지방함량 산출 방법. Method for calculating the fat content of meat from an ultrasound image, characterized in that consisting of. 제 1항에 있어서, 상기 가축의 특성은 거세우, 비거세우, 암소인 것을 특징으로 하는 초음파 영상으로부터 육질의 지방함량 산출 방법. The method of claim 1, wherein the characteristics of the livestock are castration, non-gerration and cow. 제 1항에 있어서, 상기 관심영역을 설정하는 단계는 사용자가 근육을 감싸는 임의의 형태로 1차 관심영역을 설정하는 단계와, The method of claim 1, wherein the setting of the ROI comprises: setting a primary ROI in an arbitrary form in which the user wraps the muscle; 상기 1차 관심영역을 기반으로 영상의 특징을 표현하기 위한 2차 관심영역을 설정하는 단계Setting a second ROI to express a feature of an image based on the primary ROI; 를 포함하여 이루어진 것을 특징으로 하는 초음파 영상으로부터 육질의 지방함량 산출 방법. Method for calculating the fat content of meat from an ultrasound image, characterized in that consisting of. 제 3항에 있어서, 상기 2차 관심영역은 The method of claim 3, wherein the secondary region of interest is 상기 1차 관심영역에 외접하는 사각형으로 설정하거나, 상기 1차 관심영역에 내접하는 사각형으로 설정하거나, 상기 1차 관심영역에서 일정간격 내부로 이동하여 설정하거나, 상기 1차 관심영역의 무게중심을 계산한 후 이 중심점을 기준으로 일정크기의 사각형으로 설정하는 것을 특징으로 하는 초음파 영상으로부터 육질의 지방함량 산출 방법. Set to a rectangle circumscribed to the primary region of interest, or set to a square circumscribed to the primary region of interest, or set to move within a predetermined interval from the primary region of interest, or to set the center of gravity of the primary region of interest After calculating the fat content of the ultrasound from the ultrasound image, characterized in that for setting a square of a certain size based on the center point. 제 1항에 있어서, 상기 영상특징 강조 단계에서 상기 블록별 영상처리기법은 블록내의 최대 밝기값과 각 화소의 밝기값의 차의 평균을 최대 밝기값으로 정규화하는 BDIP 기법과, 블록에 인접한 4방향에 따른 위치 상관계수의 변화를 측정하는 BVLC 기법인 것을 특징으로 하는 초음파 영상으로부터 육질의 지방함량 산출 방법. The image processing method of each block in the image feature enhancement step comprises: a BDIP technique for normalizing the average of the difference between the maximum brightness value in the block and the brightness value of each pixel to the maximum brightness value; Method for calculating the fat content of meat from the ultrasound image, characterized in that the BVLC technique for measuring the change in the position correlation coefficient according to.
KR1020070113928A 2007-11-08 2007-11-08 How to calculate meat fat content from ultrasound image Active KR100930883B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020070113928A KR100930883B1 (en) 2007-11-08 2007-11-08 How to calculate meat fat content from ultrasound image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020070113928A KR100930883B1 (en) 2007-11-08 2007-11-08 How to calculate meat fat content from ultrasound image

Publications (2)

Publication Number Publication Date
KR20090047860A true KR20090047860A (en) 2009-05-13
KR100930883B1 KR100930883B1 (en) 2009-12-10

Family

ID=40857143

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020070113928A Active KR100930883B1 (en) 2007-11-08 2007-11-08 How to calculate meat fat content from ultrasound image

Country Status (1)

Country Link
KR (1) KR100930883B1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101429813B1 (en) * 2011-09-28 2014-08-18 아오이 세이키 가부시키가이샤 Test preprocessing apparatus, test preprocessing method and specimen processing apparatus
KR20170032929A (en) 2015-09-15 2017-03-24 경상북도 (관련부서:경상북도축산기술연구소장) System for measuring intramuscular fat content and measuring method using the same
KR102204448B1 (en) * 2019-08-28 2021-01-18 농협경제지주 주식회사 Method for calculating oleic acid content of domestic animals from ultrasonic image and electronic device thereof
WO2024169826A1 (en) * 2023-02-15 2024-08-22 陈嘉宏 Food processing testing device and method

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100419292B1 (en) * 2002-01-26 2004-02-21 주식회사 이화정공 the ceiling support
KR100870412B1 (en) * 2005-12-01 2008-11-26 주식회사 메디슨 Ultrasound system for forming 3d fetus ultrasound image based on fetus surface image extracted by svm-based texture classification and method for the same

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101429813B1 (en) * 2011-09-28 2014-08-18 아오이 세이키 가부시키가이샤 Test preprocessing apparatus, test preprocessing method and specimen processing apparatus
US9261449B2 (en) 2011-09-28 2016-02-16 Aoi Seiki Co., Ltd. Test preprocessing apparatus, test preprocessing method, and specimen processing apparatus
KR20170032929A (en) 2015-09-15 2017-03-24 경상북도 (관련부서:경상북도축산기술연구소장) System for measuring intramuscular fat content and measuring method using the same
KR102204448B1 (en) * 2019-08-28 2021-01-18 농협경제지주 주식회사 Method for calculating oleic acid content of domestic animals from ultrasonic image and electronic device thereof
WO2024169826A1 (en) * 2023-02-15 2024-08-22 陈嘉宏 Food processing testing device and method

Also Published As

Publication number Publication date
KR100930883B1 (en) 2009-12-10

Similar Documents

Publication Publication Date Title
Jun et al. Estimating pig weights from images without constraint on posture and illumination
US5915036A (en) Method of estimation
Al-Bander et al. Improving fetal head contour detection by object localisation with deep learning
Cernadas et al. Analyzing magnetic resonance images of Iberian pork loin to predict its sensorial characteristics
US6226393B1 (en) Method for estimating the bone quality or skeletal status of a vertebrate
JP6570145B2 (en) Method, program, and method and apparatus for constructing alternative projections for processing images
CN105488781A (en) Dividing method based on CT image liver tumor focus
US20100220913A1 (en) System and Method for Detection of Lesions in Three-Dimensional Digital Medical Image
KR100930883B1 (en) How to calculate meat fat content from ultrasound image
Anand et al. Directionlet transform based sharpening and enhancement of mammographic X-ray images
CN110603566B (en) Image analysis and evaluation method, computer program, image analysis and evaluation device
Tu et al. Vision analysis and prediction for estimation of pig weight in slaughter pens
Sarkar et al. Slaahe: selective apex adaptive histogram equalization
Torres et al. Morphological area gradient: System-independent dense tissue segmentation in mammography images
Xiao et al. A diffusion stick method for speckle suppression in ultrasonic images
Gómez et al. A comparative study of automatic thresholding approaches for 3D x‐ray microtomography of trabecular bone
WO2018098697A1 (en) Image feature repeatability measurement method and device
Sahli et al. Analytic approach for fetal head biometric measurements based on log gabor features
Singh et al. Objective and optical evaluation of despeckle filters in breast ultrasound images
KR101745502B1 (en) System for measuring intramuscular fat content and measuring method using the same
Nitta et al. Estimation of nonlinear elasticity parameter of tissues by ultrasound
Huang et al. Intravascular optical coherence tomography image segmentation based on support vector machine algorithm
Lai et al. A protozoan parasite extraction scheme for digital microscopic images
Xiao et al. Automated measurement method of common carotid artery intima-media thickness in ultrasound image based on Markov random field models
Caro et al. Mathematical morphology on MRI for the determination of Iberian ham fat content

Legal Events

Date Code Title Description
A201 Request for examination
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20071108

PA0201 Request for examination
PG1501 Laying open of application
E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20090521

Patent event code: PE09021S01D

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20091126

GRNT Written decision to grant
PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20091202

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20091203

End annual number: 3

Start annual number: 1

PG1601 Publication of registration
FPAY Annual fee payment

Payment date: 20121204

Year of fee payment: 4

PR1001 Payment of annual fee

Payment date: 20121204

Start annual number: 4

End annual number: 4

FPAY Annual fee payment

Payment date: 20131203

Year of fee payment: 5

PR1001 Payment of annual fee

Payment date: 20131203

Start annual number: 5

End annual number: 5

FPAY Annual fee payment

Payment date: 20141120

Year of fee payment: 6

PR1001 Payment of annual fee

Payment date: 20141120

Start annual number: 6

End annual number: 6

FPAY Annual fee payment

Payment date: 20151203

Year of fee payment: 7

PR1001 Payment of annual fee

Payment date: 20151203

Start annual number: 7

End annual number: 7

FPAY Annual fee payment

Payment date: 20161118

Year of fee payment: 8

PR1001 Payment of annual fee

Payment date: 20161118

Start annual number: 8

End annual number: 8

FPAY Annual fee payment

Payment date: 20171123

Year of fee payment: 9

PR1001 Payment of annual fee

Payment date: 20171123

Start annual number: 9

End annual number: 9

FPAY Annual fee payment

Payment date: 20191203

Year of fee payment: 11

PR1001 Payment of annual fee

Payment date: 20191203

Start annual number: 11

End annual number: 11

PR1001 Payment of annual fee

Payment date: 20201203

Start annual number: 12

End annual number: 12

PR1001 Payment of annual fee

Payment date: 20230404

Start annual number: 15

End annual number: 15

PR1001 Payment of annual fee

Payment date: 20240409

Start annual number: 16

End annual number: 16