WO2025135266A1 - 이미지 기반의 미세먼지 측정 방법 및 시스템 - Google Patents
이미지 기반의 미세먼지 측정 방법 및 시스템 Download PDFInfo
- Publication number
- WO2025135266A1 WO2025135266A1 PCT/KR2023/021489 KR2023021489W WO2025135266A1 WO 2025135266 A1 WO2025135266 A1 WO 2025135266A1 KR 2023021489 W KR2023021489 W KR 2023021489W WO 2025135266 A1 WO2025135266 A1 WO 2025135266A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- image
- fine dust
- converted
- conversion
- type
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N15/00—Investigating characteristics of particles; Investigating permeability, pore-volume or surface-area of porous materials
- G01N15/02—Investigating particle size or size distribution
- G01N15/0205—Investigating particle size or size distribution by optical means
- G01N15/0227—Investigating particle size or size distribution by optical means using imaging; using holography
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N15/00—Investigating characteristics of particles; Investigating permeability, pore-volume or surface-area of porous materials
- G01N2015/0096—Investigating consistence of powders, dustability, dustiness
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30232—Surveillance
Definitions
- An embodiment of the present invention relates to a fine dust measurement technology.
- the disclosed embodiment is intended to provide a novel method and system for measuring fine dust.
- the above image capturing device can determine which type of conversion to perform among the first type of conversion and the second type of conversion depending on the degree of network communication between the above image capturing device and the above fine dust measuring device.
- the above image capturing device generates a plurality of converted images of different types according to a preset conversion method during the first type of conversion and transmits the converted images to the fine dust measuring device, and the fine dust measuring device inputs the plurality of converted images into the deep learning model, respectively, to output fine dust concentration prediction values for the plurality of converted images, and trains the deep learning model so that the difference between each fine dust concentration prediction value and the correct answer value is minimized.
- the above fine dust measuring device extracts a predicted value closest to the correct answer value among the predicted values of the fine dust concentration, matches the type of the converted image corresponding to the extracted predicted value with at least one of the environmental information and climate information at the time of shooting and stores it, and can share the information thus matched and stored with the image shooting device.
- the above image capturing device can obtain at least one of environmental information and climate information when capturing a target location, determine whether to convert all or part of a captured image into a certain type of image based on at least one of the acquired environmental information and climate information, generate a converted image by converting all or part of the captured image into the determined type of image, and transmit the converted image to the fine dust measuring device.
- the above fine dust measuring device can input the converted image into a pre-trained deep learning model and output the fine dust concentration of the target location.
- the above generating step may include a step of determining to perform the first type of conversion when the network communication level with the fine dust measuring device is equal to or higher than a first reference level set in advance, and a step of determining to perform the second type of conversion when the network communication level is lower than a second reference level set lower than the first reference level.
- the above fine dust measuring method may further include a step of acquiring at least one of environmental information and climate information when photographing a target location; and a step of determining whether to convert all or part of a photographed image into a certain type of image based on at least one of the acquired environmental information and climate information when converting the first type.
- a method for measuring fine dust is a method performed in a computing device having one or more processors and a memory storing one or more programs executed by the one or more processors, the method comprising: acquiring a photographed image of a target location; generating a converted image by converting all or part of the photographed image; and inputting the converted image into a deep learning model to train the deep learning model to output the fine dust concentration of the target location.
- the step of generating the above-described converted image may include generating a plurality of converted images of different types according to a preset conversion method, and the step of training may include inputting the plurality of converted images into the deep learning model to output a fine dust concentration prediction value for each of the plurality of converted images, and training the deep learning model so that the difference between each fine dust concentration prediction value and the correct answer value is minimized.
- the above fine dust measurement method may further include a step of extracting a predicted value closest to the correct answer value among the fine dust concentration predicted values; and a step of matching and storing the type of a converted image corresponding to the extracted predicted value with at least one of environmental information and climate information at the time of shooting of the shot image.
- an image captured by an image capturing device into a converted image or converted data having characteristics sensitive to fine dust and then inputting it into a deep learning model to output the fine dust concentration of a target location, it is possible to easily measure the fine dust concentration of a specific location without expensive fine dust measuring equipment.
- the fine dust concentration can be measured with only a photographed image of the target location, the fine dust concentration can be easily checked using CCTV cameras installed throughout the area.
- users want to know the fine dust concentration of a specific location while moving they only need to provide an image taken of that location.
- Figure 1 is a diagram showing the configuration of an image-based fine dust measurement system according to one embodiment of the present invention.
- Figure 2 is a block diagram showing the configuration of an image capturing device according to one embodiment of the present invention.
- FIG. 3 is a diagram showing a state of extracting a region of interest from an image according to one embodiment of the present invention.
- FIG. 4 is a drawing showing the first transformed image to the sixth transformed image generated by performing the first type of transformation on the image of the region of interest in one embodiment of the present invention.
- Figure 5 is a diagram schematically illustrating a learning method of a deep learning model in one embodiment of the present invention.
- Figure 6 is a block diagram showing the configuration of a fine dust measuring device according to another embodiment of the present invention.
- Figure 8 is a flow chart for explaining the inference process of a deep learning model in one embodiment of the present invention.
- FIG. 9 is a block diagram illustrating a computing environment including a computing device suitable for use in exemplary embodiments.
- the fine dust measurement system (100) may include an image capturing device (102) and a fine dust measurement device (104).
- the image capturing device (102) may be communicatively connected to the fine dust measurement device (104) through a communication network (150).
- the communication network (150) may include the Internet, one or more local area networks, wide area networks, a cellular network, a mobile network, other types of networks, or a combination of these networks.
- the video recording device (102) can record a location (target location) where the concentration of fine dust is to be measured.
- the video recording device (102) can also be fixedly installed at a location where the concentration of fine dust is to be measured.
- the video recording device (102) can be fixedly installed on a building or road, like a CCTV camera.
- FIG. 2 is a block diagram showing the configuration of an image capturing device (102) according to one embodiment of the present invention.
- the image capturing device (102) may include a shooting module (111), an area of interest extraction module (113), a conversion module (115), and a communication module (117).
- the photographing module (111) may include a camera.
- the photographing module (111) may photograph a location where the concentration of fine dust is to be measured through the camera.
- the image photographed by the photographing module (111) may be an RGB (Red, Green, Blue) image.
- the region of interest extraction module (113) can extract a region of interest from a captured image.
- the region of interest extraction module (113) can extract a boundary region of each object included in the captured image, and if a change in pixel value within the boundary region exceeds a preset threshold value, the region including the object can be extracted as a region of interest. Since the technology for extracting a boundary region of an object within an image is a known technology, a detailed description thereof will be omitted.
- FIG. 3 is a diagram showing a state of extracting a region of interest from an image according to one embodiment of the present invention.
- the region of interest extraction module (113) can extract the boundary area of each object included in the captured image, that is, a mountain, a vinyl house, a tree, and a temporary building.
- the transformation module (115) can perform transformation to use the image of the region of interest as an input of the deep learning model (104a). That is, the transformation module (115) can transform the image of the region of interest (i.e., the RGB image) into an image of a different characteristic (the first type of transformation) or into a different form of data (the second type of transformation). The transformation module (115) can determine which type of transformation between the first type and the second type to perform on the image of the region of interest depending on the network communication environment between the image capturing device (102) and the fine dust measuring device (104).
- the conversion module (115) may perform a first type of conversion on the image of the region of interest when the degree of network communication between the image capturing device (102) and the fine dust measuring device (104) is equal to or higher than a preset first reference level. That is, when the degree of network communication is equal to or higher than the preset first reference level, the conversion module (115) may convert the image of the region of interest into an image of different characteristics.
- the degree of network communication may be calculated based on one or more of a network communication delay, a network bandwidth, and a network communication speed between the image capturing device (102) and the fine dust measuring device (104).
- the conversion module (115) can generate a first converted image by converting an RGB (Red, Green, Blue) image of a region of interest into an HSV (Hue, Saturation, Value) image.
- HSV Hue, Saturation, Value
- the HSV image has pure color information in H (Hue), it can classify colors more easily than an RGB image, and can be less affected by changes in illuminance or shade by adjusting the V (Value) value.
- the conversion module (115) can generate a second conversion image by converting the RGB image of the region of interest by applying the DCP (Dark Channel Prior) technique.
- the DCP (Dark Channel Prior) technique When the DCP (Dark Channel Prior) technique is applied to the RGB image of the region of interest, haze (a phenomenon in which the object appears hazy due to the propagation of light being obstructed by materials existing between the object and the camera) present in the RGB image of the region of interest can be removed.
- the image conversion module (106) can extract the transmittance feature of the RGB image of the region of interest based on the DCP (Dark Channel Prior) technique and use this as the second conversion image.
- the second conversion image has different turbidity depending on the concentration of fine dust.
- the transformation module (115) can generate a third transformation image by applying a Gabor filter to the RGB image of the region of interest and transforming the image.
- a Gabor filter When the Gabor filter is applied to the RGB image of the region of interest, an edge can be extracted from the region of interest, and the clarity of the edge varies depending on the amount of fine dust.
- the transformation module (115) can generate a fourth transformed image by applying a Sobel filter to the RGB image of the region of interest to transform the image.
- the Sobel filter is a filter that filters according to the directionality of frequencies in an image, and can detect diagonal edges more sensitively than horizontal and vertical edges.
- the transformation module (115) can generate a fifth transformation image by applying the LBP (Local Binary Pattern) technique to the RGB image of the region of interest to transform the image.
- the LBP (Local Binary Pattern) technique extracts the features of the image by converting the pixel values around each pixel of the image into binary numbers (0 or 1), and the binary numbers are generated based on the relative brightness difference between the central pixel and the neighboring pixels. In other words, if the neighboring pixel is larger than the central pixel, it is processed as 1, and if it is smaller, it is processed as 0 in binary.
- FIG. 4 is a diagram showing first to sixth transformed images generated by performing a first type of transformation on an image of a region of interest in one embodiment of the present invention.
- the transformation module (115) can generate the first to sixth transformed images, respectively, based on the image of the region of interest in the learning stage of the deep learning model (104a).
- the transformation module (115) can transform the image of the region of interest into a data value through the second type of transformation.
- the transformation module (115) can calculate the RMS (Root Mean Square) Contrast for the image of the region of interest and use it as the first transformation data.
- the RMS (Root Mean Square) Contrast can be defined as the standard deviation of the image pixel intensity.
- the RMS Contrast can be expressed by the mathematical expression 1.
- I ij intensity of pixel (i,j) of an image of size M ⁇ N
- the transformation module (115) can calculate entropy for the image of the region of interest and use it as second transformation data.
- entropy quantifies information contained in the image and is related to image texture, and can be calculated using the following mathematical expression 2.
- the RMS Room Mean Square Contrast or entropy is a single numerical value, even if the level of network communication between the image capturing device (102) and the fine dust measuring device (104) is below the preset second reference level, the conversion data for the image of the region of interest can be transmitted without difficulty.
- the transformation module (115) is described here as performing the first type transformation or the second type transformation on the image of the region of interest, it is not limited thereto and the first type transformation or the second type transformation may be performed on the captured image.
- the communication module (117) can communicate with the fine dust measuring device (104).
- the communication module (117) can measure the degree of network communication between the image capturing device (102) and the fine dust measuring device (104).
- the communication module (117) can transmit a converted image or converted data for an image of a region of interest generated by the conversion module (115) to the fine dust measuring device (104).
- module may mean a functional and structural combination of hardware for performing the technical idea of the present invention and software for operating the hardware.
- the “module” may mean a logical unit of a given code and hardware resources for performing the given code, and does not necessarily mean physically connected code or a type of hardware.
- the image conversion module (125) can convert an image of a region of interest (i.e., an RGB image) into an image of a different characteristic.
- the image conversion module (125) can convert an image of a region of interest into one or more images having a characteristic sensitive to fine dust.
- the image conversion module (125) can generate one or more of the first converted image to the sixth converted image through image conversion for the image of a region of interest.
- Fig. 7 is a flow chart for explaining the learning process of a deep learning model in one embodiment of the present invention.
- the method is described by dividing it into multiple steps, but at least some of the steps may be performed in a different order, combined with other steps and performed together, omitted, divided into detailed steps and performed, or one or more steps not illustrated may be added and performed.
- the image of the region of interest is converted according to a preset conversion method to generate all of the first converted image to the sixth converted image, and the first converted image to the sixth converted image is input to a pre-trained deep learning model (104a) respectively to output the fine dust concentration, and the fine dust concentration of the target location can be calculated by averaging the output fine dust concentration values.
- the illustrated computing environment (10) includes a computing device (12).
- the computing device (12) may be an image capturing device (102).
- the computing device (12) may be a fine dust measuring device (104).
- the computing device (12) may also include one or more input/output interfaces (22) that provide interfaces for one or more input/output devices (24) and one or more network communication interfaces (26).
- the input/output interfaces (22) and the network communication interfaces (26) are coupled to the communication bus (18).
- the input/output devices (24) may be coupled to other components of the computing device (12) via the input/output interfaces (22).
- Exemplary input/output devices (24) may include input devices such as a pointing device (such as a mouse or trackpad), a keyboard, a touch input device (such as a touchpad or a touchscreen), a voice or sound input device, various types of sensor devices and/or photographing devices, and/or output devices such as a display device, a printer, speakers, and/or a network card.
- the exemplary input/output devices (24) may be included within the computing device (12) as a component that constitutes the computing device (12), or may be coupled to the computing device (12) as a separate device distinct from the computing device (12).
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Chemical & Material Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Quality & Reliability (AREA)
- Evolutionary Computation (AREA)
- Biomedical Technology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Dispersion Chemistry (AREA)
- Analytical Chemistry (AREA)
- Biochemistry (AREA)
- Immunology (AREA)
- Pathology (AREA)
- Image Analysis (AREA)
Abstract
이미지 기반의 미세먼지 측정 방법 및 시스템이 개시된다. 개시되는 일 실시예에 따른 미세먼지 측정 시스템은, 타겟 장소를 촬영하고, 촬영 이미지의 전부 또는 일부를 변환하여 변환 이미지 또는 변환 데이터를 생성하고, 변환 이미지 또는 변환 데이터를 송신하는 영상 촬영 장치 및 영상 촬영 장치로부터 변환 이미지 또는 변환 데이터를 수신하고, 수신한 변환 이미지 또는 변환 데이터를 딥러닝 모델에 입력하여 딥러닝 모델이 타겟 장소의 미세먼지 농도를 출력하도록 학습시키는 미세먼지 측정장치를 포함한다.
Description
본 발명의 실시예는 미세먼지 측정 기술과 관련된다.
미세먼지는 눈에 보이지 않을 정도로 입자의 크기가 작은 먼지이다. 이러한 미세먼지는 신체의 방어 체계를 무시하여 심혈관, 호흡기, 뇌혈관 질환 등 다양한 영향을 미친다는 연구가 있으며, WHO(World Health Organization) 산하 국제 암 연구소 IARC(International Agency for Research on Cancer)에서는 미세먼지를 1군 발암물질로 지정하여 발표하였다. 이러한 위험성에 따라 미세먼지는 사회 구성원들의 경제 활동 저하의 문제에 대한 원인으로 분석되고 있다.
한편, CCTV 카메라는 방범, 보안, 차량 감시 등의 목적으로 건물 또는 도로 등 지역 곳곳에 설치되어 있다. 그래서 CCTV 영상을 통해 각 지역별 상황을 실시간으로 확인할 수 있다. 그러나, 미세먼지 농도 측정에서는 CCTV 영상이 활용되고 있지 못한 실정이다. CCTV 카메라에서 촬영되는 RGB 영상은 미세먼지 보다는 조도, 습도, 및 기후 환경에 따른 변화를 더 크게 인식하기 때문에, 미세먼지로 인한 영향을 정확하게 측정하는 것이 쉽지 않다.
개시되는 실시예는 새로운 기법의 미세먼지 측정 방법 및 시스템을 제공하기 위한 것이다.
개시되는 일 실시예에 따른 미세먼지 측정 시스템은, 타겟 장소를 촬영하고, 촬영 이미지의 전부 또는 일부를 변환하여 변환 이미지 또는 변환 데이터를 생성하고, 상기 변환 이미지 또는 변환 데이터를 송신하는 영상 촬영 장치; 및 상기 영상 촬영 장치로부터 상기 변환 이미지 또는 변환 데이터를 수신하고, 수신한 상기 변환 이미지 또는 변환 데이터를 딥러닝 모델에 입력하여 상기 딥러닝 모델이 상기 타겟 장소의 미세먼지 농도를 출력하도록 학습시키는 미세먼지 측정장치를 포함한다.
상기 영상 촬영 장치는, 상기 촬영 이미지의 전부 또는 일부를 다른 특성의 이미지로 변환하는 제1 타입의 변환을 수행하여 변환 이미지를 생성하거나, 상기 촬영 이미지의 전부 또는 일부를 다른 형태의 데이터로 변환하는 제2 타입의 변환을 수행하여 변환 데이터를 생성할 수 있다.
상기 영상 촬영 장치는, 상기 영상 촬영 장치와 상기 미세먼지 측정장치 간의 네트워크 통신 정도에 따라 상기 제1 타입의 변환 및 상기 제2 타입의 변환 중 어떤 타입의 변환을 수행할지 여부를 결정할 수 있다.
상기 영상 촬영 장치는, 상기 네트워크 통신 정도가 기 설정된 제1 기준 레벨 이상인 경우 상기 제1 타입의 변환을 수행하는 것으로 결정하고, 상기 네트워크 통신 정도가 상기 제1 기준 레벨보다 낮게 설정된 제2 기준 레벨 미만인 경우 상기 제2 타입의 변환을 수행하는 것으로 결정할 수 있다.
상기 영상 촬영 장치는, 상기 제1 타입의 변환 시 기 설정된 변환 방법에 따라 종류가 다른 복수 개의 변환 이미지를 각각 생성하여 상기 미세먼지 측정장치로 송신하고, 상기 미세먼지 측정장치는, 상기 복수 개의 변환 이미지를 각각 상기 딥러닝 모델에 입력하여 상기 복수 개의 변환 이미지에 대한 미세먼지 농도 예측 값을 각각 출력하도록 하며, 각 미세먼지 농도 예측 값과 정답 값 간의 차이가 최소화 되도록 상기 딥러닝 모델을 학습시킬 수 있다.
상기 미세먼지 측정장치는, 상기 미세먼지 농도 예측 값들 중 상기 정답 값과 가장 가까운 예측 값을 추출하고, 추출한 예측 값에 대응하는 변환 이미지의 종류를 상기 촬영 시 환경 정보 및 기후 정보 중 하나 이상과 매칭하여 저장하며, 상기 매칭하여 저장한 정보를 상기 영상 촬영 장치와 공유할 수 있다.
상기 영상 촬영 장치는, 타겟 장소의 촬영 시 환경 정보 및 기후 정보 중 하나 이상을 획득하고, 상기 획득한 환경 정보 및 기후 정보 중 하나 이상에 기초하여 촬영 이미지의 전부 또는 일부를 어떤 종류의 이미지로 변환할지 여부를 결정하며, 상기 촬영 이미지의 전부 또는 일부를 상기 결정된 종류의 이미지로 변환하여 변환 이미지를 생성하고, 상기 변환 이미지를 상기 미세먼지 측정장치로 송신할 수 있다.
상기 미세먼지 측정장치는, 상기 변환 이미지를 기 학습된 딥러닝 모델에 입력하여 상기 타겟 장소의 미세먼지 농도를 출력할 수 있다.
개시되는 일 실시예에 따른 미세먼지 측정 방법은, 하나 이상의 프로세서들, 및 상기 하나 이상의 프로세서들에 의해 실행되는 하나 이상의 프로그램들을 저장하는 메모리를 구비한 컴퓨팅 장치에서 수행되는 방법으로서, 타겟 장소를 촬영하는 단계; 촬영 이미지의 전부 또는 일부를 변환하여 변환 이미지 또는 변환 데이터를 생성하는 단계; 및 상기 변환 이미지 또는 상기 변환 데이터를 딥러닝 모델을 구비하는 미세먼지 측정장치로 송신하는 단계를 포함하고, 상기 미세먼지 측정장치는, 상기 변환 이미지 또는 변환 데이터를 딥러닝 모델에 입력하여 상기 딥러닝 모델이 상기 타겟 장소의 미세먼지 농도를 출력하도록 학습시킨다.
상기 생성하는 단계는, 상기 촬영 이미지의 전부 또는 일부를 다른 특성의 이미지로 변환하는 제1 타입의 변환을 수행하여 변환 이미지를 생성하거나, 상기 촬영 이미지의 전부 또는 일부를 다른 형태의 데이터로 변환하는 제2 타입의 변환을 수행하여 변환 데이터를 생성할 수 있다.
상기 생성하는 단계는, 상기 미세먼지 측정장치와의 네트워크 통신 정도가 기 설정된 제1 기준 레벨 이상인 경우 상기 제1 타입의 변환을 수행하는 것으로 결정하고, 상기 네트워크 통신 정도가 상기 제1 기준 레벨보다 낮게 설정된 제2 기준 레벨 미만인 경우 상기 제2 타입의 변환을 수행하는 것으로 결정하는 단계를 포함할 수 있다.
상기 미세먼지 측정 방법은, 타겟 장소의 촬영 시 환경 정보 및 기후 정보 중 하나 이상을 획득하는 단계; 및 상기 제1 타입의 변환 시 상기 획득한 환경 정보 및 기후 정보 중 하나 이상에 기초하여 촬영 이미지의 전부 또는 일부를 어떤 종류의 이미지로 변환할지 여부를 결정하는 단계를 더 포함할 수 있다.
개시되는 다른 실시예에 따른 미세먼지 측정 방법은, 하나 이상의 프로세서들, 및 상기 하나 이상의 프로세서들에 의해 실행되는 하나 이상의 프로그램들을 저장하는 메모리를 구비한 컴퓨팅 장치에서 수행되는 방법으로서, 타겟 장소의 촬영 이미지를 획득하는 단계; 상기 촬영 이미지의 전부 또는 일부를 변환하여 변환 이미지를 생성하는 단계; 및 상기 변환 이미지를 딥러닝 모델에 입력하여 상기 딥러닝 모델이 상기 타겟 장소의 미세먼지 농도를 출력하도록 학습시키는 단계를 포함한다.
상기 변환 이미지를 생성하는 단계는, 기 설정된 변환 방법에 따라 종류가 다른 복수 개의 변환 이미지를 각각 생성하고, 상기 학습시키는 단계는, 상기 복수 개의 변환 이미지를 각각 상기 딥러닝 모델에 입력하여 상기 복수 개의 변환 이미지에 대한 미세먼지 농도 예측 값을 각각 출력하도록 하며, 각 미세먼지 농도 예측 값과 정답 값 간의 차이가 최소화 되도록 상기 딥러닝 모델을 학습시킬 수 있다.
상기 미세먼지 측정 방법은, 상기 미세먼지 농도 예측 값들 중 상기 정답 값과 가장 가까운 예측 값을 추출하는 단계; 및 추출한 예측 값에 대응하는 변환 이미지의 종류를 상기 촬영 이미지의 촬영 시 환경 정보 및 기후 정보 중 하나 이상과 매칭하여 저장하는 단계를 더 포함할 수 있다.
개시되는 실시예에 의하면, 영상 촬영 장치에서 촬영된 이미지를 미세먼지에 민감한 특성의 변환 이미지 또는 변환 데이터로 변환한 후 딥러닝 모델에 입력하여 타겟 장소의 미세먼지 농도를 출력하도록 함으로써, 고가의 미세먼지 측정 장비 없이도 특정 장소의 미세먼지 농도를 쉽게 측정할 수 있게 된다.
또한, 타겟 장소의 촬영 이미지만으로 미세먼지 농도를 측정할 수 있으므로, 지역 곳곳에 설치된 CCTV 카메라를 이용하여 미세먼지 농도를 쉽게 확인할 수 있게 된다. 또한, 사용자들이 이동하면서 특정 장소의 미세먼지 농도를 알고 싶으면 해당 장소를 촬영한 이미지를 제공하기만 하면 된다.
도 1은 본 발명의 일 실시예에 따른 이미지 기반의 미세먼지 측정 시스템의 구성을 나타낸 도면
도 2는 본 발명의 일 실시예에 따른 영상 촬영 장치의 구성을 나타낸 블록도
도 3은 본 발명의 일 실시예에서 따른 이미지에서 관심영역을 추출하는 상태를 나타낸 도면
도 4는 본 발명의 일 실시예에서 관심영역의 이미지에 대해 제1 타입의 변환을 수행하여 생성한 제1 변환 이미지 내지 제6 변환 이미지를 나타낸 도면
도 5는 본 발명의 일 실시예에서 딥러닝 모델의 학습 방법을 개략적으로 나타낸 도면
도 6은 본 발명의 다른 실시예에 따른 미세먼지 측정장치의 구성을 나타낸 블록도
도 7은 본 발명의 일 실시예에서 딥러닝 모델의 학습 과정을 설명하기 위한 흐름도
도 8은 본 발명의 일 실시예에서 딥러닝 모델의 추론 과정을 설명하기 위한 흐름도
도 9는 예시적인 실시예들에서 사용되기에 적합한 컴퓨팅 장치를 포함하는 컴퓨팅 환경을 예시하여 설명하기 위한 블록도
이하, 도면을 참조하여 본 발명의 구체적인 실시형태를 설명하기로 한다. 이하의 상세한 설명은 본 명세서에서 기술된 방법, 장치 및/또는 시스템에 대한 포괄적인 이해를 돕기 위해 제공된다. 그러나 이는 예시에 불과하며 본 발명은 이에 제한되지 않는다.
본 발명의 실시예들을 설명함에 있어서, 본 발명과 관련된 공지기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략하기로 한다. 그리고, 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다. 상세한 설명에서 사용되는 용어는 단지 본 발명의 실시예들을 기술하기 위한 것이며, 결코 제한적이어서는 안 된다. 명확하게 달리 사용되지 않는 한, 단수 형태의 표현은 복수 형태의 의미를 포함한다. 본 설명에서, "포함" 또는 "구비"와 같은 표현은 어떤 특성들, 숫자들, 단계들, 동작들, 요소들, 이들의 일부 또는 조합을 가리키기 위한 것이며, 기술된 것 이외에 하나 또는 그 이상의 다른 특성, 숫자, 단계, 동작, 요소, 이들의 일부 또는 조합의 존재 또는 가능성을 배제하도록 해석되어서는 안 된다.
또한, 제1, 제2 등의 용어는 다양한 구성 요소들을 설명하는데 사용될 수 있지만, 상기 구성 요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성 요소를 다른 구성 요소로부터 구별하는 목적으로 사용될 수 있다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성 요소는 제2 구성 요소로 명명될 수 있고, 유사하게 제2 구성 요소도 제1 구성 요소로 명명될 수 있다.
도 1은 본 발명의 일 실시예에 따른 이미지 기반의 미세먼지 측정 시스템의 구성을 나타낸 도면이다.
도 1을 참조하면, 미세먼지 측정 시스템(100)은 영상 촬영 장치(102) 및 미세먼지 측정장치(104)를 포함할 수 있다. 영상 촬영 장치(102)는 통신 네트워크(150)를 통해 미세먼지 측정장치(104)와 통신 가능하게 연결될 수 있다.
여기서, 통신 네트워크(150)는 인터넷, 하나 이상의 로컬 영역 네트워크(local area networks), 광역 네트워크(wide area networks), 셀룰러 네트워크, 모바일 네트워크, 그 밖에 다른 종류의 네트워크들, 또는 이러한 네트워크들의 조합을 포함할 수 있다.
영상 촬영 장치(102)는 미세먼지의 농도를 측정하고자 하는 장소(타겟 장소)를 촬영할 수 있다. 영상 촬영 장치(102)는 미세먼지의 농도를 측정하고자 하는 장소에 고정 설치될 수도 있다. 예를 들어, 영상 촬영 장치(102)는 CCTV 카메라와 같이 건물 또는 도로 등에 고정 설치될 수 있다.
그러나, 이에 한정되는 것은 아니며 영상 촬영 장치(102)는 별도의 이동 수단을 통해 이동 가능하게 마련될 수도 있다. 예를 들어, 영상 촬영 장치(102)는 차량에 탑재되어 이동 하면서 미세먼지의 농도를 측정하고자 하는 장소를 촬영하도록 마련될 수 있다.
또한, 영상 촬영 장치(102)는 사람들이 휴대하고 다니며 카메라를 구비하는 모바일 기기(예를 들어, 스마트 폰, 태블릿 PC, 스마트 글라스, 웨어러블 기기 등)일 수 있으며, 그 이외에 영상 촬영이 가능한 전자 장치를 포함할 수 있다.
도 2는 본 발명의 일 실시예에 따른 영상 촬영 장치(102)의 구성을 나타낸 블록도이다. 도 2를 참조하면, 영상 촬영 장치(102)는 촬영 모듈(111), 관심영역 추출모듈(113), 변환 모듈(115), 및 통신 모듈(117)을 포함할 수 있다.
촬영 모듈(111)은 카메라를 포함할 수 있다. 촬영 모듈(111)은 카메라를 통해 미세먼지의 농도를 측정하고자 하는 장소를 촬영할 수 있다. 일 실시예에서, 촬영 모듈(111)에 의해 촬영된 이미지는 RGB(Red, Green, Blue) 이미지일 수 있다.
관심영역 추출모듈(113)은 촬영된 이미지에서 관심영역(Region of Interest)을 추출할 수 있다. 관심영역 추출모듈(113)은 촬영된 이미지에 포함된 각 객체의 경계 영역을 추출하고, 경계 영역 내에서 픽셀 값의 변화가 기 설정된 임계 값을 초과하는 경우, 해당 객체를 포함하는 영역을 관심영역으로 추출할 수 있다. 이미지 내에서 객체의 경계 영역을 추출하는 기술은 이미 공지된 기술인 바, 이에 대한 자세한 설명은 생략하기로 한다.
도 3은 본 발명의 일 실시예에서 따른 이미지에서 관심영역을 추출하는 상태를 나타낸 도면이다. 도 3을 참조하면, 관심영역 추출모듈(113)은 촬영된 이미지에 포함된 각 객체 즉, 산, 비닐 하우스, 나무, 및 가건물의 경계 영역을 추출할 수 있다.
여기서, 산과 나무의 경계 영역 내에서는 픽셀들이 대체로 어둡게 표시되므로, 픽셀 값의 변화가 작게 된다. 반면, 비닐 하우스의 경계 영역 내의 픽셀들은 주변 배경보다 밝고, 일정 간격으로 드러나는 내부 철골로 인해 픽셀 값의 변화가 크게 된다. 또한, 가건물(도 2에서는 녹색 지붕을 가지는 건물)의 경계 영역 내 픽셀들은 지붕의 불 균일한 색상과 굴곡으로 인해 픽셀 값의 변화가 크게 나타난다. 따라서, 관심영역 추출모듈(113)은 촬영된 이미지 중 가건물과 비닐 하우스의 부분을 각각 관심영역(ROI)으로 추출할 수 있다.
변환 모듈(115)은 관심영역의 이미지를 딥러닝 모델(104a)의 입력으로 사용하기 위해 변환을 수행할 수 있다. 즉, 변환 모듈(115)은 관심영역의 이미지(즉, RGB 이미지)를 다른 특성의 이미지로 변환(제1 타입의 변환)하거나 다른 형태의 데이터로 변환(제2 타입의 변환)할 수 있다. 변환 모듈(115)은 영상 촬영 장치(102)와 미세먼지 측정장치(104) 간의 네트워크 통신 환경에 따라 관심영역의 이미지에 대해 제1 타입 및 제2 타입 중 어떤 타입의 변환을 수행할지 여부를 결정할 수 있다.
일 실시예에서, 변환 모듈(115)은 영상 촬영 장치(102)와 미세먼지 측정장치(104) 간의 네트워크 통신 정도가 기 설정된 제1 기준 레벨 이상인 경우, 관심영역의 이미지에 대해 제1 타입의 변환을 수행할 수 있다. 즉, 상기 네트워크 통신 정도가 기 설정된 제1 기준 레벨 이상인 경우, 변환 모듈(115)은 관심영역의 이미지를 다른 특성의 이미지로 변환할 수 있다. 여기서, 네트워크 통신 정도는 영상 촬영 장치(102)와 미세먼지 측정장치(104) 간의 네트워크 통신 지연, 네트워크 대역폭, 및 네트워크 통신 속도 중 하나 이상에 기초하여 산출될 수 있다.
구체적으로, 변환 모듈(115)은 관심영역의 이미지를 미세먼지에 민감한 특성을 갖는 하나 이상의 이미지로 변환할 수 있다. 즉, 변환 모듈(115)은 관심영역의 이미지를 미세먼지의 농도를 측정하기에 적합한 하나 이상의 이미지로 변환할 수 있다.
일 실시예에서, 변환 모듈(115)은 관심영역의 RGB(Red, Green, Blue) 이미지를 HSV(Hue(색조), Saturation(채도), Value(명도)) 이미지로 변환하여 제1 변환 이미지를 생성할 수 있다. 여기서, HSV 이미지는 H(Hue: 색조)가 순수한 색 정보를 가지고 있기 때문에, RGB 이미지보다 쉽게 색을 분류할 수 있고, V(Value: 명도) 값의 조절을 통해 조도의 변화 또는 그늘의 변화에 영향을 적게 받을 수 있게 된다.
변환 모듈(115)은 관심영역의 이미지를 HSV 이미지로 변환하였을 때, HSV 이미지 자체를 제1 변환 이미지로 사용할 수도 있고, HSV 이미지에서 H(Hue) 및 S(Saturation) 채널을 이용하여 제1 변환 이미지로 사용하거나, HSV 이미지에서 S(Saturation) 채널만을 이용하여 제1 변환 이미지로 사용할 수도 있다. 이때, 미세먼지의 농도에 따라 H(Hue) 또는 S(Saturation) 값이 달라지게 된다.
또한, 변환 모듈(115)은 관심영역의 RGB 이미지에 DCP(Dark Channel Prior) 기법을 적용하여 이미지 변환함으로써 제2 변환 이미지를 생성할 수 있다. 관심영역의 RGB 이미지에 DCP(Dark Channel Prior) 기법을 적용하면, 관심영역의 RGB 이미지에 존재하는 헤이즈(Haze, 객체와 카메라 사이에 존재하는 물질들에 의해 빛의 진행이 방해를 받아 객체가 뿌옇게 보이는 현상)를 제거할 수 있게 된다. 이때, 이미지 변환 모듈(106)은 DCP(Dark Channel Prior) 기법에 기초하여 관심영역의 RGB 이미지의 투과율(transmittance) 특징을 추출하고 이를 제2 변환 이미지로 사용할 수도 있다. 제2 변환 이미지는 미세먼지의 농도에 따라 혼탁도가 달라지게 된다.
또한, 변환 모듈(115)은 관심영역의 RGB 이미지에 가버 필터(Gabor Filter)를 적용하여 이미지 변환함으로써 제3 변환 이미지를 생성 할 수 있다. 관심영역의 RGB 이미지에 가버 필터를 적용하면, 관심영역에서 에지(edge)를 추출할 수 있게 되는데, 미세먼지의 양에 따라 에지의 명확도가 달라지게 된다.
또한, 변환 모듈(115)은 관심영역의 RGB 이미지에 소벨 필터(Sobel Filter)를 적용하여 이미지 변환함으로써 제4 변환 이미지를 생성 할 수 있다. 소벨 필터는 이미지에서 주파수의 방향성에 따라 필터링을 해주는 필터로서, 수평과 수직 에지 보다는 대각선 방향의 에지를 더욱 민감하게 검출할 수 있다.
또한, 변환 모듈(115)은 관심영역의 RGB 이미지에 LBP(Local Binary Pattern) 기법을 적용하여 이미지 변환함으로써 제5 변환 이미지를 생성 할 수 있다. LBP(Local Binary Pattern) 기법은 이미지의 각 픽셀 주변의 픽셀 값을 이진수(0 또는 1)로 변환하여 이미지의 특징을 추출하는 것으로, 이진수는 중심 픽셀과 이웃 픽셀 간의 상대적인 밝기 차이에 따라 생성된다. 즉, 이웃 픽셀이 중심 픽셀보다 크면 1, 작으면 0으로 이진수 처리하게 된다.
또한, 변환 모듈(115)은 관심영역의 RGB 이미지에 라플라시안 필터(Laplacian Filter)를 적용하여 이미지 변환함으로써 제6 변환 이미지를 생성 할 수 있다. 라플라시안 필터는 이미지의 수평 방향과 수직 방향으로 2차 미분을 수행하는 것으로 이를 통해 에지 부분의 중심(즉, 픽셀 값 변화의 변곡점)을 찾을 수 있게 된다.
도 4는 본 발명의 일 실시예에서 관심영역의 이미지에 대해 제1 타입의 변환을 수행하여 생성한 제1 변환 이미지 내지 제6 변환 이미지를 나타낸 도면이다. 변환 모듈(115)은 딥러닝 모델(104a)의 학습 단계에서 관심영역의 이미지를 기초로 제1 변환 이미지 내지 제6 변환 이미지를 각각 생성할 수 있다.
한편, 변환 모듈(115)은 후술하는 딥러닝 모델(104a)의 학습이 완료된 후 미세먼지의 농도를 측정하기 위한 추론 단계에서, 관심 영역의 이미지에 대해 제1 타입의 변환을 수행할 때 어떤 이미지 변환을 수행할지 여부를 입력되는 추가 정보에 기초하여 결정할 수 있다. 여기서, 추가 정보는 미세먼지의 농도를 측정하기 위한 장소의 환경 정보 또는 기후 정보일 수 있다. 일 실시예에서, 추가 정보는 미세먼지의 농도를 측정하기 위한 장소의 온도, 습도, 조도, 및 풍속 등이 될 수 있으나, 이에 한정되는 것은 아니다.
변환 모듈(115)은 영상 촬영 장치(102)와 미세먼지 측정장치(104) 간의 네트워크 통신 정도가 기 설정된 제2 기준 레벨 미만인 경우, 관심영역의 이미지에 대해 제2 타입의 변환을 수행할 수 있다. 여기서, 제2 기준 레벨은 제1 기준 레벨보다 낮은 레벨이다.
변환 모듈(115)은 제2 타입의 변환을 통해 관심영역의 이미지를 데이터 값으로 변환할 수 있다. 일 실시예에서, 변환 모듈(115)은 관심영역의 이미지에 대해 RMS(Root Mean Square) Contrast를 산출하여 제1 변환 데이터로 사용할 수 있다. RMS(Root Mean Square) Contrast는 이미지 픽셀 강도의 표준편차로 정의될 수 있다. RMS Contrast는 수학식 1로 나타낼 수 있다.
(수학식 1)
Iij : M×N 크기의 이미지의 픽셀 (i,j)의 강도(intensity)
avg(I) : 이미지의 모든 픽셀의 평균 강도
또한, 변환 모듈(115)은 관심영역의 이미지에 대해 엔트로피를 산출하여 제2 변환 데이터로 사용할 수 있다. 여기서, 엔트로피(entropy)는 이미지에 포함된 정보를 수량화하고 이미지 질감과 관련된 것으로, 하기 수학식 2를 통해 산출할 수 있다.
(수학식 2)
pi : 픽셀 강도가 i와 같을 확률
M : 이미지의 최대 강도
여기서, RMS(Root Mean Square) Contrast 또는 엔트로피는 하나의 숫자 값이므로, 영상 촬영 장치(102)와 미세먼지 측정장치(104) 간의 네트워크 통신 정도가 기 설정된 제2 기준 레벨 미만인 경우에도 관심영역의 이미지에 대한 변환 데이터를 어려움 없이 송신할 수 있게 된다.
한편, 여기서는 변환 모듈(115)이 관심영역의 이미지에 대해 제1 타입 변환 또는 제2 타입 변환을 수행하는 것으로 설명하였으나, 이에 한정되는 것은 아니며 촬영된 이미지에 대해 제1 타입 변환 또는 제2 타입 변환을 수행할 수도 있다.
통신 모듈(117)은 미세먼지 측정장치(104)와 통신을 수행할 수 있다. 통신 모듈(117)은 영상 촬영 장치(102)와 미세먼지 측정장치(104) 간의 네트워크 통신 정도를 측정할 수 있다. 또한, 통신 모듈(117)은 변환 모듈(115)에서 생성되는 관심영역의 이미지에 대한 변환 이미지 또는 변환 데이터를 미세먼지 측정장치(104)로 송신할 수 있다.
미세먼지 측정장치(104)는 영상 촬영 장치(102)로부터 변환 이미지 또는 변환 데이터를 수신하고, 이에 기초하여 해당 장소의 미세먼지 농도를 측정할 수 있다. 여기서, 변환 이미지 또는 변환 데이터는 촬영 이미지 또는 촬영 이미지의 관심영역에 대한 것일 수 있다. 미세먼지 측정장치(104)는 딥러닝 기술에 기반하여 미세먼지 농도를 측정할 수 있다. 이에, 미세먼지 측정장치(104)는 딥러닝 모델(104a)을 포함할 수 있다.
딥러닝 모델(104a)은 변환 이미지 또는 변환 데이터를 입력 받고, 입력된 변환 이미지 또는 변환 데이터에 기초하여 해당 장소의 미세먼지 농도를 예측하도록 학습될 수 있다. 딥러닝 모델(104a)은 예측된 미세먼지 농도와 실제 측정된 미세먼지 농도(즉, 정답 값)의 차이가 최소화 되도록 학습될 수 있다.
여기서, 정답 값은 타겟 장소(미세먼지를 측정하고자 하는 장소)의 미세먼지 농도를 실제 측정하는 기기(예를 들어, 광 산란 센서 등)로부터 획득할 수 있다. 미세먼지 농도 측정 기기는 타겟 장소를 촬영하는 시간대에 맞추어 타겟 장소의 미세먼지 농도를 실측할 수 있다. 그러나, 이에 한정되는 것은 아니며 정답 값은 타겟 장소를 포함하는 지역에 대한 미세먼지 농도 데이터를 외부의 기관으로부터 수신할 수도 있다.
영상 촬영 장치(102)로부터 변환 이미지를 수신한 경우, 딥러닝 모델(104a)의 학습 방법에 대해 도 5를 참조하여 설명하기로 한다. 도 5는 본 발명의 일 실시예에서 딥러닝 모델(104a)의 학습 방법을 개략적으로 나타낸 도면이다.
도 5를 참조하면, 미세먼지 측정장치(104)는 영상 촬영 장치(102)로부터 촬영 이미지(또는 관심영역의 이미지)에 대한 제1 변환 이미지 내지 제6 변환 이미지를 각각 수신할 수 있다.
미세먼지 측정장치(104)는 제1 변환 이미지 내지 제6 변환 이미지를 각각 딥러닝 모델(104a)에 입력할 수 있다. 제1 변환 이미지 내지 제6 변환 이미지는 동시에 입력되는 것은 아니며 학습 에포크 별로 순차적으로 입력될 수 있다. 일 실시예에서, 딥러닝 모델(104a)은 이미지 기반의 분류 모델일 수 있다. 예를 들어, 딥러닝 모델(104a)은 ResNet 50일 수 있으나, 이에 한정되는 것은 아니며 그 이외의 다양한 딥러닝 모델을 사용할 수 있음은 물론이다.
딥러닝 모델(104a)은 제1 변환 이미지를 입력 받아 제1 미세먼지 농도 예측 값을 출력할 수 있다. 딥러닝 모델(104a)은 제2 변환 이미지를 입력 받아 제2 미세먼지 농도 예측 값을 출력할 수 있다. 마찬가지로, 딥러닝 모델(104a)은 제3 변환 이미지 내지 제6 변환 이미지를 입력 받아 각각 제3 미세먼지 농도 예측 값 내지 제6 미세먼지 농도 예측 값을 출력할 수 있다. 딥러닝 모델(104a)은 제1 미세먼지 농도 예측 값 내지 제6 미세먼지 농도 예측 값을 각각 정답 값(실제 측정한 미세먼지 농도 값)과 비교하여 그 차이를 각각 최소화 하도록 학습될 수 있다.
일 실시예에서, 학습 과정에서 미세먼지 측정장치(104)는 제1 미세먼지 농도 예측 값 내지 제6 미세먼지 농도 예측 값 중 정답 값과 가장 가까운 예측 값을 추출하고, 추출한 예측 값에 대응하는 변환 이미지의 종류를 해당 이미지의 촬영 시 환경 정보(예를 들어, 타겟 장소의 조도 등) 및 기후 정보(예를 들어, 타겟 장소의 온도, 습도, 및 풍속 등) 중 하나 이상과 매칭하여 저장할 수 있다.
예를 들어, 제6 미세먼지 농도 예측 값이 정답 값과 가장 가까운 경우, 미세먼지 측정장치(104)는 제6 미세먼지 농도 예측 값에 대응하는 변환 이미지의 종류를 이미지 촬영 시 환경 정보 및 기후 정보 등과 매칭하여 저장할 수 있다. 이를 통해, 어떤 환경 정보 및 기후 정보에서 촬영 이미지를 어떤 종류의 이미지로 변환(즉, 제1 변환 이미지 내지 제6 변환 이미지 중 어떤 이미지로 변환)할지에 대한 기준을 마련할 수 있게 된다. 미세먼지 측정장치(104)는 상기 매칭한 정보를 영상 촬영 장치(102)와 공유할 수 있다.
미세먼지 측정장치(104)는 딥러닝 모델(104a)의 학습 시 다양한 장소 및 시간대에서 촬영된 이미지의 변환 이미지들을 수신하고, 수신된 변환 이미지들을 학습 데이터로 하여 딥러닝 모델(104a)을 학습할 수 있다.
또한, 미세먼지 측정장치(104)는 영상 촬영 장치(102)로부터 변환 데이터(예를 들어, 촬영 이미지(또는 관심영역 이미지)에 대한 RMS Contrast 값 또는 엔트로피 값 등)를 수신하여 딥러닝 모델(104a)을 학습시킬 수 있다. 딥러닝 모델(104a)은 변환 데이터를 입력으로 하여 미세먼지 농도 예측 값을 출력할 수 있다. 딥러닝 모델(104a)은 미세먼지 농도 예측 값과 정답 값 간의 차이가 최소화 되도록 학습될 수 있다.
한편, 여기서는 딥러닝 모델(104a)이 하나인 것을 일 예로 설명하였으나, 이에 한정되는 것은 아니며 각 변환 이미지 또는 변환 데이터 별로 딥러닝 모델이 마련될 수도 있다. 예를 들어, 제1 변환 이미지를 입력으로 하여 제1 미세먼지 농도 예측 값을 출력하는 제1 딥러닝 모델, 제2 변환 이미지를 입력으로 하여 제2 미세먼지 농도 예측 값을 출력하는 제2 딥러닝 모델 등과 같이 각 변환 이미지 또는 변환 데이터마다 그에 대응하는 딥러닝 모델이 구비될 수도 있다.
개시되는 실시예에 의하면, 영상 촬영 장치에서 촬영된 이미지를 미세먼지에 민감한 특성의 변환 이미지 또는 변환 데이터로 변환한 후 딥러닝 모델에 입력하여 타겟 장소의 미세먼지 농도를 출력하도록 함으로써, 고가의 미세먼지 측정 장비 없이도 특정 장소의 미세먼지 농도를 쉽게 측정할 수 있게 된다.
또한, 타겟 장소의 촬영 이미지만으로 미세먼지 농도를 측정할 수 있으므로, 지역 곳곳에 설치된 CCTV 카메라를 이용하여 미세먼지 농도를 쉽게 확인할 수 있게 된다. 또한, 사용자들이 이동하면서 특정 장소의 미세먼지 농도를 알고 싶으면 해당 장소를 촬영한 이미지를 제공하기만 하면 된다.
본 명세서에서 모듈이라 함은, 본 발명의 기술적 사상을 수행하기 위한 하드웨어 및 상기 하드웨어를 구동하기 위한 소프트웨어의 기능적, 구조적 결합을 의미할 수 있다. 예컨대, 상기 "모듈"은 소정의 코드와 상기 소정의 코드가 수행되기 위한 하드웨어 리소스의 논리적인 단위를 의미할 수 있으며, 반드시 물리적으로 연결된 코드를 의미하거나, 한 종류의 하드웨어를 의미하는 것은 아니다.
또한, 도 1 및 도 2에서는 영상 촬영 장치(102)에서 촬영 이미지의 관심영역을 추출하고, 관심영역의 이미지를 다른 특성의 이미지로 변환하는 것으로 설명하였으나, 이에 한정되는 것은 아니며 이러한 과정을 미세먼지 측정장치(104)에서 수행할 수도 있다. 도 6은 본 발명의 다른 실시예에 따른 미세먼지 측정장치(104)의 구성을 나타낸 블록도이다.
도 6을 참조하면, 미세먼지 측정장치(104)는 이미지 획득 모듈(121), 관심영역 추출모듈(123), 이미지 변환 모듈(125), 및 미세먼지 측정 모듈(127)을 포함할 수 있다.
이미지 획득 모듈(121)은 미세먼지의 농도를 측정하고자 하는 장소가 촬영된 이미지를 획득할 수 있다. 일 실시예에서, 이미지 획득 모듈(121)은 영상 촬영 장치로부터 이미지를 획득할 수 있다. 영상 촬영 장치는 방범, 보안, 차량 감시 등의 목적으로 건물 또는 도로에 설치된 CCTV 카메라 또는 카메라를 구비한 모바일 기기일 수 있으나, 이에 한정되는 것은 아니다.
관심영역 추출모듈(123)은 획득한 이미지에서 관심영역(Region of Interest)을 추출할 수 있다. 관심영역 추출모듈(123)은 획득한 이미지에 포함된 각 객체의 경계 영역을 추출하고, 경계 영역 내에서 픽셀 값의 변화가 기 설정된 임계 값을 초과하는 경우, 해당 객체를 포함하는 영역을 관심영역으로 추출할 수 있다. 관심영역 추출모듈(123)은 도 2의 관심영역 추출모듈(113)과 동일 또는 유사하므로 이에 대한 자세한 설명은 생략하기로 한다.
이미지 변환 모듈(125)은 관심영역의 이미지(즉, RGB 이미지)를 다른 특성의 이미지로 변환할 수 있다. 이미지 변환 모듈(125)은 관심영역의 이미지를 미세먼지에 민감한 특성을 갖는 하나 이상의 이미지로 변환할 수 있다. 예를 들어, 이미지 변환 모듈(125)은 관심영역의 이미지에 대해 이미지 변환을 통해 제1 변환 이미지 내지 제6 변환 이미지 중 하나 이상을 생성할 수 있다.
이미지 변환 모듈(125)은 후술하는 딥러닝 모델(127a)의 학습이 완료된 후 미세먼지의 농도를 측정하기 위한 추론 단계에서, 관심 영역의 이미지에 대해 어떤 이미지 변환을 수행할지 여부를 입력되는 추가 정보(환경 정보 또는 기후 정보 등)에 기초하여 결정할 수 있다.
미세먼지 측정모듈(127)은 이미지 변환 모듈(125)로부터 변환 이미지를 수신하고, 이에 기초하여 이미지가 촬영된 장소의 미세먼지 농도를 측정할 수 있다. 미세먼지 측정모듈(127)은 딥러닝 모델(127a)을 포함할 수 있다. 딥러닝 모델(127a)은 변환 이미지를 입력 받고, 입력된 변환 이미지에 기초하여 해당 장소의 미세먼지 농도를 예측하도록 학습될 수 있다. 딥러닝 모델(127a)은 도 1의 딥러닝 모델(104a)과 동일 또는 유사하므로 이에 대한 자세한 설명은 생략하기로 한다.
도 7은 본 발명의 일 실시예에서 딥러닝 모델의 학습 과정을 설명하기 위한 흐름도이다. 도시된 흐름도에서는 상기 방법을 복수 개의 단계로 나누어 기재하였으나, 적어도 일부의 단계들은 순서를 바꾸어 수행되거나, 다른 단계와 결합되어 함께 수행되거나, 생략되거나, 세부 단계들로 나뉘어 수행되거나, 또는 도시되지 않은 하나 이상의 단계가 부가되어 수행될 수 있다.
도 7을 참조하면, 미세먼지 측정장치(104)는 미세먼지의 농도를 측정하고자 하는 장소가 촬영된 이미지를 획득할 수 있다(S 101). 다음으로, 미세먼지 측정장치(104)는 획득한 이미지에서 관심영역을 추출할 수 있다(S 103).
다음으로, 미세먼지 측정장치(104)는 관심영역의 이미지를 기 설정된 변환 방법에 따라 이미지 변환하여 복수 개의 변환 이미지를 생성할 수 있다(S 105). 일 실시예에서, 미세먼지 측정장치(104)는 관심영역의 이미지에 대해 이미지 변환을 수행하여 제1 변환 이미지 내지 제6 변환 이미지를 각각 생성할 수 있다.
다음으로, 미세먼지 측정장치(104)는 복수 개의 변환 이미지를 각각 딥러닝 모델(104a)에 입력하여 딥러닝 모델(104a)을 학습시킬 수 있다(S 107). 여기서, 딥러닝 모델(104a)은 복수 개의 변환 이미지 각각에 대해 미세먼지 농도 예측 값을 출력하고, 출력되는 미세먼지 농도 예측 값과 정답 값 간의 차이가 최소화 되도록 학습될 수 있다.
다음으로, 미세먼지 측정장치(104)는 복수 개의 변환 이미지 각각에 대한 미세먼지 농도 예측 값 중 정답 값과 가장 가까운 예측 값을 추출하고(S 109), 추출한 예측 값에 대응하는 변환 이미지의 종류를 상기 획득한 이미지의 촬영 시 환경 정보 및 기후 정보 중 하나 이상과 매칭하여 저장할 수 있다(S 111).
도 8은 본 발명의 일 실시예에서 딥러닝 모델의 추론 과정을 설명하기 위한 흐름도이다. 도시된 흐름도에서는 상기 방법을 복수 개의 단계로 나누어 기재하였으나, 적어도 일부의 단계들은 순서를 바꾸어 수행되거나, 다른 단계와 결합되어 함께 수행되거나, 생략되거나, 세부 단계들로 나뉘어 수행되거나, 또는 도시되지 않은 하나 이상의 단계가 부가되어 수행될 수 있다.
도 8을 참조하면, 미세먼지 측정장치(104)는 미세먼지의 농도를 측정하고자 하는 장소(타겟 장소)가 촬영된 이미지를 획득할 수 있다(S 201). 다음으로, 미세먼지 측정장치(104)는 획득한 이미지에서 관심영역을 추출할 수 있다(S 203).
다음으로, 미세먼지 측정장치(104)는 획득한 이미지의 촬영 시 환경 정보 및 기후 정보 중 하나 이상을 획득할 수 있다(S 205). 다음으로, 미세먼지 측정장치(104)는 환경 정보 및 기후 정보 중 하나 이상에 기초하여 관심영역의 이미지를 어떤 종류의 이미지로 변환할지 여부를 결정할 수 있다(S 207).
다음으로, 미세먼지 측정장치(104)는 관심영역의 이미지를 기 결정된 종류의 이미지로 변환하여 변환 이미지를 생성할 수 있다(S 209). 다음으로, 미세먼지 측정장치(104)는 변환 이미지를 기 학습된 딥러닝 모델(104a)에 입력하여 타겟 장소의 미세먼지 농도를 출력할 수 있다(S 211).
한편, 여기서는 환경 정보 및 기후 정보 중 하나 이상에 기초하여 관심영역의 이미지를 어떤 종류의 이미지로 변환할지 여부를 결정하고, 결정된 종류의 변환 이미지를 생성하는 것으로 설명하였으나, 이에 한정되는 것은 아니며 관심영역의 이미지를 기 설정된 변환 방법에 따라 변환하여 제1 변환 이미지 내지 제6 변환 이미지를 모두 생성하고, 제1 변환 이미지 내지 제6 변환 이미지를 기 학습된 딥러닝 모델(104a)에 각각 입력하여 미세먼지 농도를 출력하게 하며, 출력된 미세먼지 농도 값들을 평균하여 타겟 장소의 미세먼지 농도를 산출할 수도 있다.
도 9는 예시적인 실시예들에서 사용되기에 적합한 컴퓨팅 장치를 포함하는 컴퓨팅 환경(10)을 예시하여 설명하기 위한 블록도이다. 도시된 실시예에서, 각 컴포넌트들은 이하에 기술된 것 이외에 상이한 기능 및 능력을 가질 수 있고, 이하에 기술된 것 이외에도 추가적인 컴포넌트를 포함할 수 있다.
도시된 컴퓨팅 환경(10)은 컴퓨팅 장치(12)를 포함한다. 일 실시예에서, 컴퓨팅 장치(12)는 영상 촬영 장치(102)일 수 있다. 또한, 컴퓨팅 장치(12)는 미세먼지 측정장치(104)일 수 있다.
컴퓨팅 장치(12)는 적어도 하나의 프로세서(14), 컴퓨터 판독 가능 저장 매체(16) 및 통신 버스(18)를 포함한다. 프로세서(14)는 컴퓨팅 장치(12)로 하여금 앞서 언급된 예시적인 실시예에 따라 동작하도록 할 수 있다. 예컨대, 프로세서(14)는 컴퓨터 판독 가능 저장 매체(16)에 저장된 하나 이상의 프로그램들을 실행할 수 있다. 상기 하나 이상의 프로그램들은 하나 이상의 컴퓨터 실행 가능 명령어를 포함할 수 있으며, 상기 컴퓨터 실행 가능 명령어는 프로세서(14)에 의해 실행되는 경우 컴퓨팅 장치(12)로 하여금 예시적인 실시예에 따른 동작들을 수행하도록 구성될 수 있다.
컴퓨터 판독 가능 저장 매체(16)는 컴퓨터 실행 가능 명령어 내지 프로그램 코드, 프로그램 데이터 및/또는 다른 적합한 형태의 정보를 저장하도록 구성된다. 컴퓨터 판독 가능 저장 매체(16)에 저장된 프로그램(20)은 프로세서(14)에 의해 실행 가능한 명령어의 집합을 포함한다. 일 실시예에서, 컴퓨터 판독 가능 저장 매체(16)는 메모리(랜덤 액세스 메모리와 같은 휘발성 메모리, 비휘발성 메모리, 또는 이들의 적절한 조합), 하나 이상의 자기 디스크 저장 디바이스들, 광학 디스크 저장 디바이스들, 플래시 메모리 디바이스들, 그 밖에 컴퓨팅 장치(12)에 의해 액세스되고 원하는 정보를 저장할 수 있는 다른 형태의 저장 매체, 또는 이들의 적합한 조합일 수 있다.
통신 버스(18)는 프로세서(14), 컴퓨터 판독 가능 저장 매체(16)를 포함하여 컴퓨팅 장치(12)의 다른 다양한 컴포넌트들을 상호 연결한다.
컴퓨팅 장치(12)는 또한 하나 이상의 입출력 장치(24)를 위한 인터페이스를 제공하는 하나 이상의 입출력 인터페이스(22) 및 하나 이상의 네트워크 통신 인터페이스(26)를 포함할 수 있다. 입출력 인터페이스(22) 및 네트워크 통신 인터페이스(26)는 통신 버스(18)에 연결된다. 입출력 장치(24)는 입출력 인터페이스(22)를 통해 컴퓨팅 장치(12)의 다른 컴포넌트들에 연결될 수 있다. 예시적인 입출력 장치(24)는 포인팅 장치(마우스 또는 트랙패드 등), 키보드, 터치 입력 장치(터치패드 또는 터치스크린 등), 음성 또는 소리 입력 장치, 다양한 종류의 센서 장치 및/또는 촬영 장치와 같은 입력 장치, 및/또는 디스플레이 장치, 프린터, 스피커 및/또는 네트워크 카드와 같은 출력 장치를 포함할 수 있다. 예시적인 입출력 장치(24)는 컴퓨팅 장치(12)를 구성하는 일 컴포넌트로서 컴퓨팅 장치(12)의 내부에 포함될 수도 있고, 컴퓨팅 장치(12)와는 구별되는 별개의 장치로 컴퓨팅 장치(12)와 연결될 수도 있다.
이상에서 본 발명의 대표적인 실시예들을 상세하게 설명하였으나, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 상술한 실시예에 대하여 본 발명의 범주에서 벗어나지 않는 한도 내에서 다양한 변형이 가능함을 이해할 것이다. 그러므로 본 발명의 권리범위는 설명된 실시예에 국한되어 정해져서는 안 되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.
Claims (15)
- 타겟 장소를 촬영하고, 촬영 이미지의 전부 또는 일부를 변환하여 변환 이미지 또는 변환 데이터를 생성하고, 상기 변환 이미지 또는 변환 데이터를 송신하는 영상 촬영 장치; 및상기 영상 촬영 장치로부터 상기 변환 이미지 또는 변환 데이터를 수신하고, 수신한 상기 변환 이미지 또는 변환 데이터를 딥러닝 모델에 입력하여 상기 딥러닝 모델이 상기 타겟 장소의 미세먼지 농도를 출력하도록 학습시키는 미세먼지 측정장치를 포함하는, 미세먼지 측정 시스템.
- 청구항 1에 있어서,상기 영상 촬영 장치는,상기 촬영 이미지의 전부 또는 일부를 다른 특성의 이미지로 변환하는 제1 타입의 변환을 수행하여 변환 이미지를 생성하거나, 상기 촬영 이미지의 전부 또는 일부를 다른 형태의 데이터로 변환하는 제2 타입의 변환을 수행하여 변환 데이터를 생성하는, 미세먼지 측정 시스템.
- 청구항 2에 있어서,상기 영상 촬영 장치는,상기 영상 촬영 장치와 상기 미세먼지 측정장치 간의 네트워크 통신 정도에 따라 상기 제1 타입의 변환 및 상기 제2 타입의 변환 중 어떤 타입의 변환을 수행할지 여부를 결정하는, 미세먼지 측정 시스템.
- 청구항 3에 있어서,상기 영상 촬영 장치는,상기 네트워크 통신 정도가 기 설정된 제1 기준 레벨 이상인 경우 상기 제1 타입의 변환을 수행하는 것으로 결정하고, 상기 네트워크 통신 정도가 상기 제1 기준 레벨보다 낮게 설정된 제2 기준 레벨 미만인 경우 상기 제2 타입의 변환을 수행하는 것으로 결정하는, 미세먼지 측정 시스템.
- 청구항 2에 있어서,상기 영상 촬영 장치는,상기 제1 타입의 변환 시 기 설정된 변환 방법에 따라 종류가 다른 복수 개의 변환 이미지를 각각 생성하여 상기 미세먼지 측정장치로 송신하고,상기 미세먼지 측정장치는,상기 복수 개의 변환 이미지를 각각 상기 딥러닝 모델에 입력하여 상기 복수 개의 변환 이미지에 대한 미세먼지 농도 예측 값을 각각 출력하도록 하며, 각 미세먼지 농도 예측 값과 정답 값 간의 차이가 최소화 되도록 상기 딥러닝 모델을 학습시키는, 미세먼지 측정 시스템.
- 청구항 5에 있어서,상기 미세먼지 측정장치는,상기 미세먼지 농도 예측 값들 중 상기 정답 값과 가장 가까운 예측 값을 추출하고, 추출한 예측 값에 대응하는 변환 이미지의 종류를 상기 촬영 시 환경 정보 및 기후 정보 중 하나 이상과 매칭하여 저장하며, 상기 매칭하여 저장한 정보를 상기 영상 촬영 장치와 공유하는, 미세먼지 측정 시스템.
- 청구항 6에 있어서,상기 영상 촬영 장치는,타겟 장소의 촬영 시 환경 정보 및 기후 정보 중 하나 이상을 획득하고, 상기 획득한 환경 정보 및 기후 정보 중 하나 이상에 기초하여 촬영 이미지의 전부 또는 일부를 어떤 종류의 이미지로 변환할지 여부를 결정하며, 상기 촬영 이미지의 전부 또는 일부를 상기 결정된 종류의 이미지로 변환하여 변환 이미지를 생성하고, 상기 변환 이미지를 상기 미세먼지 측정장치로 송신하는, 미세먼지 측정 시스템.
- 청구항 7에 있어서,상기 미세먼지 측정장치는,상기 변환 이미지를 기 학습된 딥러닝 모델에 입력하여 상기 타겟 장소의 미세먼지 농도를 출력하는, 미세먼지 측정 시스템.
- 하나 이상의 프로세서들, 및상기 하나 이상의 프로세서들에 의해 실행되는 하나 이상의 프로그램들을 저장하는 메모리를 구비한 컴퓨팅 장치에서 수행되는 방법으로서,타겟 장소를 촬영하는 단계;촬영 이미지의 전부 또는 일부를 변환하여 변환 이미지 또는 변환 데이터를 생성하는 단계; 및상기 변환 이미지 또는 상기 변환 데이터를 딥러닝 모델을 구비하는 미세먼지 측정장치로 송신하는 단계를 포함하고,상기 미세먼지 측정장치는, 상기 변환 이미지 또는 변환 데이터를 딥러닝 모델에 입력하여 상기 딥러닝 모델이 상기 타겟 장소의 미세먼지 농도를 출력하도록 학습시키는, 미세먼지 측정 방법.
- 청구항 9에 있어서,상기 생성하는 단계는,상기 촬영 이미지의 전부 또는 일부를 다른 특성의 이미지로 변환하는 제1 타입의 변환을 수행하여 변환 이미지를 생성하거나, 상기 촬영 이미지의 전부 또는 일부를 다른 형태의 데이터로 변환하는 제2 타입의 변환을 수행하여 변환 데이터를 생성하는, 미세먼지 측정 방법.
- 청구항 10에 있어서,상기 생성하는 단계는,상기 미세먼지 측정장치와의 네트워크 통신 정도가 기 설정된 제1 기준 레벨 이상인 경우 상기 제1 타입의 변환을 수행하는 것으로 결정하고, 상기 네트워크 통신 정도가 상기 제1 기준 레벨보다 낮게 설정된 제2 기준 레벨 미만인 경우 상기 제2 타입의 변환을 수행하는 것으로 결정하는 단계를 포함하는, 미세먼지 측정 방법.
- 청구항 10에 있어서,상기 미세먼지 측정 방법은,타겟 장소의 촬영 시 환경 정보 및 기후 정보 중 하나 이상을 획득하는 단계; 및상기 제1 타입의 변환 시 상기 획득한 환경 정보 및 기후 정보 중 하나 이상에 기초하여 촬영 이미지의 전부 또는 일부를 어떤 종류의 이미지로 변환할지 여부를 결정하는 단계를 더 포함하는, 미세먼지 측정 방법.
- 하나 이상의 프로세서들, 및상기 하나 이상의 프로세서들에 의해 실행되는 하나 이상의 프로그램들을 저장하는 메모리를 구비한 컴퓨팅 장치에서 수행되는 방법으로서,타겟 장소의 촬영 이미지를 획득하는 단계;상기 촬영 이미지의 전부 또는 일부를 변환하여 변환 이미지를 생성하는 단계; 및상기 변환 이미지를 딥러닝 모델에 입력하여 상기 딥러닝 모델이 상기 타겟 장소의 미세먼지 농도를 출력하도록 학습시키는 단계를 포함하는, 미세먼지 측정 방법.
- 청구항 13에 있어서,상기 변환 이미지를 생성하는 단계는, 기 설정된 변환 방법에 따라 종류가 다른 복수 개의 변환 이미지를 각각 생성하고,상기 학습시키는 단계는, 상기 복수 개의 변환 이미지를 각각 상기 딥러닝 모델에 입력하여 상기 복수 개의 변환 이미지에 대한 미세먼지 농도 예측 값을 각각 출력하도록 하며, 각 미세먼지 농도 예측 값과 정답 값 간의 차이가 최소화 되도록 상기 딥러닝 모델을 학습시키는, 미세먼지 측정 방법.
- 청구항 14에 있어서,상기 미세먼지 측정 방법은,상기 미세먼지 농도 예측 값들 중 상기 정답 값과 가장 가까운 예측 값을 추출하는 단계; 및추출한 예측 값에 대응하는 변환 이미지의 종류를 상기 촬영 이미지의 촬영 시 환경 정보 및 기후 정보 중 하나 이상과 매칭하여 저장하는 단계를 더 포함하는, 미세먼지 측정 방법.
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020230187347A KR102865772B1 (ko) | 2023-12-20 | 2023-12-20 | 이미지 기반의 미세먼지 측정 방법 및 시스템 |
| KR10-2023-0187347 | 2023-12-20 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2025135266A1 true WO2025135266A1 (ko) | 2025-06-26 |
Family
ID=96095374
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/KR2023/021489 Pending WO2025135266A1 (ko) | 2023-12-20 | 2023-12-22 | 이미지 기반의 미세먼지 측정 방법 및 시스템 |
Country Status (3)
| Country | Link |
|---|---|
| US (1) | US20250209584A1 (ko) |
| KR (1) | KR102865772B1 (ko) |
| WO (1) | WO2025135266A1 (ko) |
Families Citing this family (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN119738324B (zh) * | 2024-11-01 | 2025-11-14 | 湖南科技大学 | 基于图像处理的粉尘检测方法、装置及相关设备 |
Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR20180127782A (ko) * | 2017-05-22 | 2018-11-30 | 삼성전자주식회사 | 카메라를 이용하여 획득한 이미지를 처리하는 전자 장치 및 그 동작 방법 |
| CN112149543A (zh) * | 2020-09-16 | 2020-12-29 | 北京工业大学 | 一种基于计算机视觉的建筑扬尘识别系统与方法 |
| KR20220057024A (ko) * | 2020-10-29 | 2022-05-09 | 주식회사 딥비전스 | 인공지능 기반의 광도 잔차 산출을 통한 미세먼지 판독 솔루션 및 시스템 |
| KR102468753B1 (ko) * | 2020-10-29 | 2022-11-18 | 주식회사 딥비전스 | 인공지능 기반의 rgb 채널 잔차 산출을 통한 미세먼지 판독 솔루션 및 시스템 |
| KR20230143832A (ko) * | 2022-04-06 | 2023-10-13 | 광주과학기술원 | Cctv 영상을 이용하여 미세먼지 농도를 예측하는 방법 |
Family Cites Families (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN103985086A (zh) * | 2013-02-07 | 2014-08-13 | 株式会社日立制作所 | 图像除雾装置、摄像装置及图像除雾方法 |
| KR101952122B1 (ko) | 2018-02-23 | 2019-02-26 | 주식회사 딥비전스 | 미세 먼지 분석 방법 및 이를 수행하기 위한 장치 |
| KR102233402B1 (ko) | 2019-12-05 | 2021-03-29 | 주식회사 딥비전스 | 미세먼지 농도 추정 방법 및 이를 수행하기 위한 장치 |
| US11393077B2 (en) * | 2020-05-13 | 2022-07-19 | Adobe Inc. | Correcting dust and scratch artifacts in digital images |
| KR102641561B1 (ko) | 2020-12-09 | 2024-02-29 | 에이치케이엠엔에스(주) | 미세먼지 질량 농도 측정 시스템 |
| KR102326208B1 (ko) * | 2021-08-11 | 2021-11-16 | 한국건설기술연구원 | 영상 인식 기반 3차원 미세 먼지 정보를 구축하기 위한 시스템 및 그 방법 |
| KR102379390B1 (ko) | 2021-08-11 | 2022-03-29 | 한국건설기술연구원 | 영역 크기 가변이 가능한 3차원 미세 먼지 정보를 구축하기 위한 시스템 및 그 방법 |
-
2023
- 2023-12-20 KR KR1020230187347A patent/KR102865772B1/ko active Active
- 2023-12-22 WO PCT/KR2023/021489 patent/WO2025135266A1/ko active Pending
- 2023-12-26 US US18/395,985 patent/US20250209584A1/en active Pending
Patent Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR20180127782A (ko) * | 2017-05-22 | 2018-11-30 | 삼성전자주식회사 | 카메라를 이용하여 획득한 이미지를 처리하는 전자 장치 및 그 동작 방법 |
| CN112149543A (zh) * | 2020-09-16 | 2020-12-29 | 北京工业大学 | 一种基于计算机视觉的建筑扬尘识别系统与方法 |
| KR20220057024A (ko) * | 2020-10-29 | 2022-05-09 | 주식회사 딥비전스 | 인공지능 기반의 광도 잔차 산출을 통한 미세먼지 판독 솔루션 및 시스템 |
| KR102468753B1 (ko) * | 2020-10-29 | 2022-11-18 | 주식회사 딥비전스 | 인공지능 기반의 rgb 채널 잔차 산출을 통한 미세먼지 판독 솔루션 및 시스템 |
| KR20230143832A (ko) * | 2022-04-06 | 2023-10-13 | 광주과학기술원 | Cctv 영상을 이용하여 미세먼지 농도를 예측하는 방법 |
Also Published As
| Publication number | Publication date |
|---|---|
| US20250209584A1 (en) | 2025-06-26 |
| KR20250096261A (ko) | 2025-06-27 |
| KR102865772B1 (ko) | 2025-09-29 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| WO2020027607A1 (ko) | 객체 탐지 장치 및 제어 방법 | |
| WO2019164074A1 (ko) | 미세 먼지 분석 방법 및 이를 수행하기 위한 장치 | |
| WO2011019192A2 (ko) | Ir 조명을 이용한 얼굴인식 시스템 및 방법 | |
| WO2017090892A1 (ko) | Osd 정보 생성 카메라, osd 정보 합성 단말기(20) 및 이들로 구성된 osd 정보 공유 시스템 | |
| WO2015182904A1 (ko) | 관심객체 검출을 위한 관심영역 학습장치 및 방법 | |
| WO2021118047A1 (ko) | 딥러닝을 이용한 사고 영상의 사고과실 평가 방법 및 장치 | |
| WO2022186426A1 (ko) | 자동 세그먼트 분류를 위한 영상처리장치 및 그 장치의 구동방법 | |
| WO2016024680A1 (ko) | 주행차량의 번호판 인식이 실시간으로 가능한 차량용 블랙박스 | |
| WO2024210406A1 (ko) | Thz 스캔 이미지를 이용한 인공지능 학습모델 기반의 은닉물 탐지 장치 및 시스템 | |
| WO2023210839A1 (ko) | 다중 카메라 및 이동 카메라를 이용한 영상 분석 장치 | |
| WO2025135266A1 (ko) | 이미지 기반의 미세먼지 측정 방법 및 시스템 | |
| CN112101107B (zh) | 一种智能网联模型车在环仿真交通信号灯智能识别方法 | |
| WO2018097384A1 (ko) | 밀집도 알림 장치 및 방법 | |
| WO2023158205A1 (ko) | Ai 기반 객체인식을 통한 감시 카메라 영상의 노이즈 제거 | |
| WO2016064107A1 (ko) | 팬틸트줌 카메라 기반의 영상 재생방법 및 장치 | |
| WO2011043498A1 (ko) | 지능형 영상 감시 장치 | |
| WO2023172031A1 (ko) | 파노라마 감시 영상의 생성 | |
| WO2023080667A1 (ko) | Ai 기반 객체인식을 통한 감시카메라 wdr 영상 처리 | |
| WO2022245177A1 (en) | Method and electronic device for obtaining reconstructed image | |
| WO2014021490A1 (ko) | 화면 인지성 검사 장치 및 이를 이용한 화면 인지성 테스트 시스템 | |
| WO2022080680A1 (ko) | 인공지능 기반 이미지 인페인팅 방법 및 디바이스 | |
| WO2021071258A1 (ko) | 인공지능 기반의 휴대용 보안영상 학습장치 및 방법 | |
| WO2023219466A1 (en) | Methods and systems for enhancing low light frame in a multi camera system | |
| WO2017086522A1 (ko) | 배경스크린이 필요 없는 크로마키 영상 합성 방법 | |
| WO2025135267A1 (ko) | 미세먼지 모니터링 방법 및 장치와 이를 이용한 시스템 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 23962372 Country of ref document: EP Kind code of ref document: A1 |