[go: up one dir, main page]

KR102300799B1 - 작물 상태 판단 장치 및 이를 포함하는 작물 재배 정보 서비스 플랫폼 - Google Patents

작물 상태 판단 장치 및 이를 포함하는 작물 재배 정보 서비스 플랫폼 Download PDF

Info

Publication number
KR102300799B1
KR102300799B1 KR1020200124869A KR20200124869A KR102300799B1 KR 102300799 B1 KR102300799 B1 KR 102300799B1 KR 1020200124869 A KR1020200124869 A KR 1020200124869A KR 20200124869 A KR20200124869 A KR 20200124869A KR 102300799 B1 KR102300799 B1 KR 102300799B1
Authority
KR
South Korea
Prior art keywords
crop
image
information
service platform
aerial vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
KR1020200124869A
Other languages
English (en)
Inventor
정호
김대성
정철훈
정형균
김정선
박병배
박주원
Original Assignee
주식회사 이노드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 이노드 filed Critical 주식회사 이노드
Application granted granted Critical
Publication of KR102300799B1 publication Critical patent/KR102300799B1/ko
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D45/00Aircraft indicators or protectors not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D47/00Equipment not otherwise provided for
    • B64D47/08Arrangements of cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U50/00Propulsion; Power supply
    • B64U50/10Propulsion
    • B64U50/19Propulsion using electrically powered motors
    • B64C2201/042
    • B64C2201/127
    • B64C2201/141
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/10UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS]

Landscapes

  • Engineering & Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

본 실시예들은 프로세서 및 프로세서에 의해 실행되는 프로그램을 저장하는 메모리를 포함하는 작물 재배 정보 서비스 플랫폼에 있어서, 프로세서는, 기 설정된 지형 정보와 이륙 지점 및 착륙 지점을 고려하여 형성된 필지에 따른 무인 비행체의 비행 경로를 생성하고, 무인 비행체가 획득한 작물 영상을 전달받아 분석하여 비행 경로에 따른 작물 정보를 획득하며, 작물의 종류 및 작물의 상태를 포함하는 작물 정보를 고려하여 비행 경로에 따른 재배 면적 별 수확 현황 및 재해 현황이 표시되는 작물 지도를 생성하는 것을 특징으로 하는 작물 재배 정보 서비스 플랫폼을 제안한다.

Description

작물 상태 판단 장치 및 이를 포함하는 작물 재배 정보 서비스 플랫폼{Crop state judgment apparatus and crop cultivation information service platform including the same}
본 발명은 작물 상태 판단 장치 및 이를 포함하는 작물 재배 정보 서비스 플랫폼에 관한 것으로서, 특히 드론을 통해 획득한 영상을 이용하여 작물의 재배 면적 별 작물의 종류를 작물 상태 판단 장치를 통해 판단하고, 작물을 표시한 작물 지도를 생성하기 위한 작물 재배 정보 서비스 플랫폼에 관한 것이다.
이 부분에 기술된 내용은 단순히 본 실시예에 대한 배경 정보를 제공할 뿐 종래기술을 구성하는 것은 아니다.
지구 온난화에 따른 기상 이변, 경작지 용도 변경, 작목 갱신, 농법의 변화 및 경작의 규모화에 따른 작물 수급의 변동성이 커지면서 정밀한 농업 관측이 필요해지고 있다. 농업용지, 임업용지에서의 실제로 존재하는 작물, 수목의 현황을 파악하는 통계는 농산물, 임산물 등의 수급을 예상하고, 미래의 수급 계획을 수립하는데 기본적인 정보이다. 하지만, 기존의 방법들은 건축 기술 내지는 측량 기술 기반으로 공간 정보를 구축하는 방법에 국한되어 있어, 실제 현장에서의 식생을 파악하기 위한 자료로는 불충한 한계가 있다. 즉, 기존의 방식에 따를 때 현재의 식생 파악에 대한 정확한 정보를 제공하지 못하기 때문에, 이후의 수요 예측 역시 부정확하다는 한계가 있다.
종래에는 농촌경제연구원, 통계청 등의 기관에서, 농지, 산지의 식생에 대한 정보를 제공하였지만, 상술한 이유로 예측이 부정확한 이유가 있어, 특정 농작물의 공급이 너무 많아, 가격이 폭락하는 등 다양한 문제가 있었으며, 이는 수요예측의 베이스가 되는 토지 재배지 기본면적 자체가 잘못되었기 때문이다.
본 발명의 실시예들은 상기한 문제점을 해결하기 위해 안출된 것으로서, 무인 비행체를 통해 획득한 영상을 분석하여 작물 지도에 면적 별 작물의 종류를 표시하여 재배 면적 출하 변동 상황 및 기상 이변에 대한 빠르고 신속한 상황파악으로 수급 예측력을 강화시키는데 발명의 주된 목적이 있다.
본 발명의 명시되지 않은 또 다른 목적들은 하기의 상세한 설명 및 그 효과로부터 용이하게 추론할 수 있는 범위 내에서 추가적으로 고려될 수 있다.
본 실시예의 일 측면에 의하면, 본 발명은 프로세서 및 상기 프로세서에 의해 실행되는 프로그램을 저장하는 메모리를 포함하는 작물 재배 정보 서비스 플랫폼에 있어서, 상기 프로세서는, 기 설정된 지형 정보와 이륙 지점 및 착륙 지점을 고려하여 형성된 필지에 따른 무인 비행체의 비행 경로를 생성하고, 상기 무인 비행체가 획득한 작물 영상을 전달받아 분석하여 상기 비행 경로에 따른 작물 정보를 획득하며, 작물의 종류 및 작물의 상태를 포함하는 상기 작물 정보를 고려하여 상기 비행 경로에 따른 상기 재배 면적 별 수확 현황 및 재해 현황이 표시되는 상기 작물 지도를 생성하는 것을 특징으로 하는 작물 재배 정보 서비스 플랫폼을 제안한다.
본 발명의 또 다른 실시예에 따르면, 본 발명은 프로세서 및 상기 프로세서에 의해 실행되는 프로그램을 저장하는 메모리를 포함하는 작물 상태 판단 장치에 있어서, 상기 프로세서는 작물의 종류에 따른 복수의 분류 모델 및 상기 작물의 상태에 따른 복수의 상태 모델을 학습하고, 비행 경로를 따라 이동하는 무인 비행체가 획득한 작물 영상을 전달받아 합성곱 신경망(CNN, Convolutional Neural Network)을 통해 분석하여 작물 별로 분류하여 작물의 종류 및 작물의 상태를 포함하는 상기 작물 정보를 획득하는 것을 특징으로 작물 상태 판단 장치를 제안한다.
이상에서 설명한 바와 같이 본 발명의 실시예들에 의하면, 본 발명은 인공신경망을 통해 이렇게 획득된 작물 영상에 대한 객체 인식이 가능하므로, 필지 별 작물의 현황을 기존 기술 대비 좀더 정확하게 파악할 수 있는 효과가 있다.
또한. 본 발명의 실시예들에 의하면, 본 발명은 작물 영상에 따라 작물 종류를 판단하고, 작물 종류에 따른 작물의 상태를 판단하여 면적 별 작물 종류에 따른 작물의 상태를 표시한 작물 지도를 생성하여 제공함에 따라 작물의 현황을 자세히 파악할 수 있는 효과가 있다.
여기에서 명시적으로 언급되지 않은 효과라 하더라도, 본 발명의 기술적 특징에 의해 기대되는 이하의 명세서에서 기재된 효과 및 그 잠정적인 효과는 본 발명의 명세서에 기재된 것과 같이 취급된다.
도 1은 본 발명의 일 실시예에 따른 작물 재배 정보 서비스 플랫폼을 이용한 작물 재배 정보 서비스를 나타내는 예시도이다.
도 2는 예시적인 실시예들에서 사용되기에 적합한 컴퓨팅 디바이스를 포함하는 컴퓨팅 환경을 예시하여 설명하기 위한 블록도이다.
도 3은 본 발명의 일 실시예에 따른 작물 재배 정보 획득 과정을 순서대로 나타내는 도면이다.
도 4는 본 발명의 일 실시예에 따른 필지 대표점을 추출하고, 추출된 필지 대표점에 따라 비행 궤적을 생성한 도면이다.
도 5는 발명의 일 실시예에 따른 AI를 통해 영상 학습을 수행하고, 이를 통해 작물의 종류를 인식하는 개념을 나타낸 도면이다.
도 6은 발명의 일 실시예에 따른 드론 비행을 통해 획득한 영상을 이용하여, 작물의 상태를 나타내는 도면이다.
도 7은 발명의 일 실시예에 따른 관제 센터에서의 주제도 제작을 위한 수행 과정을 나타내는 흐름도이다.
도 8은 발명의 일 실시예에 따른 도 7의 단계 S730에서 AI 서버가 수행하는 과정을 나타내는 흐름도이다.
도 9는 본 발명의 일 실시예의 AI 서버에서 수행되는 작물 분석을 위한 학습 개념을 설명하기 위한 블록도이다.
도 10은 도 9를 통해 결정된 생성자를 통해 이미지 분류를 위한 입력 영상을 생성하는 방법을 설명하는 개념도이다.
이하, 첨부된 도면을 참조하여 본 발명의 실시 예를 상세히 설명한다. 본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시 예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 게시되는 실시 예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예들은 본 발명의 게시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.
본 출원에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다, 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
제2, 제1 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제2 구성요소는 제1 구성요소로 명명될 수 있고, 유사하게 제1 구성요소도 제2 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.
본 발명은 작물 재배 정보 서비스 플랫폼에 관한 것이다.
작물 재배 정보 서비스 플랫폼(10)은 무인 비행체(20)를 활용하여 영상 정보를 전달 받아 빠르고 정확한 재배 면적 파악이 가능하다. 작물 재배 정보 서비스 플랫폼(10)은 빠르고, 정확한 관측이 가능하며, 경제적 효과를 가져올 수 있으며, 관측의 양과 질을 높일 수 있다. 이에 따라 농민의 소득을 보장할 수 있으며, 소비자 가격이 안정될 수 있으며, 농업 관측 정확도를 제고하고 수급 예측력을 강화할 수 있다.
여기서, 빠른 관측은 작목 전환 또는 수급 대비를 위한 빠른 결과물을 도출할 수 있으며, 정확한 관측은 부정확한 관측 데이터의 고도화와 현대화가 가능하고, 경제적 관측은 관측 소요 비용과 관측 오차로 인한 경제 피해가 감소하는 효과가 있다. 또한, 관측의 양과 질은 기상재해, 병해충, 식생지수 등의 다양한 정보를 제공할 수 있는 효과가 있다.
무인 비행체(20)는 고랭지 작물에 대해 조사할 수 있으며, 영상을 획득하여 신속하고 정확한 작물 재배 면적 및 생육을 관측할 수 있으며, 해발 850m 이상의 지역으로 지형이 험준하며 일교차가 심한 지역에서도 관측할 수 있다.
본 발명의 일 실시예에 따르면, 작물 재배 정보 서비스 플랫폼(10)은 무인 비행체(20)를 이용한 촬영을 통해 고랭지 배추 재배 면적의 시기별, 순차적 변화 양상을 파악하여 표출할 수 있다. 작물 재배 정보 서비스 플랫폼(10)은 드론을 활용하여 획득한 이미지의 빠르고 정확한 처리와 지리정보시스템(GIS, Geographic Information System) 기반의 시계열 변화관리를 통해 관측업무의 효율성을 향상시키고 농업 관측업무 전반에 드론 영상 데이터를 효과적으로 활용할 수 있다. 여기서, 작물을 나타내는 고랭지 배추는 일 예로서, 반드시 이에 한정되는 것은 아니다.
지리정보시스템(GIS, Geographic Information System)은 지리정보 즉 공간적으로 분포하는 정보를 처리, 관리하는 정보시스템의 일종이다. 여기서 공간적으로 분포하는 정보 즉 지리정보는 보통 지도의 형태로 나타나며, 지리정보시스템은 이러한 지리정보를 입력, 저장, 처리, 분석, 관리, 출력 등을 할 수 있는 정보시스템을 의미한다. GIS는 농가 지도(Farm Map) 기반의 필지 구분 및 면적 도출할 수 있다. 여기서, Farm Map은 필지 별 경계선을 추출할 때 이용될 수 있다.
따라서, 작물 재배 정보 서비스 플랫폼(10)은 재배 면적의 시계열적 변화를 관측할 수 있으며, 드론을 통한 재배 면적, 출하 변동 관측의 경제성 및 효용성을 확인할 수 있고, 실시간 영상 파악으로 변동성 파악이 가능하며, 노지 작물을 효과적으로 관측하고, 고도화를 위한 병해충, 기상 피해 상황 파악 등 생육 판단의 기초 데이터를 선제적으로 확보할 수 있다.
도 1은 본 발명의 일 실시예에 따른 작물 재배 정보 서비스 플랫폼을 이용한 작물 재배 정보 서비스를 나타내는 예시도이다.
도 1을 참조하면, 작물 재배 정보 서비스 플랫폼(10)은 무인 비행체(20), 제1 단말기(30) 및 제2 단말기(32)와 정보를 주고 받을 수 있으며, 도 1에서 예시적으로 도시한 다양한 구성요소들 중에서 일부 구성요소를 생략하거나 다른 구성요소를 추가로 포함하여 정보를 주고 받을 수 있다.
도 1을 참조하면, 작물 재배 정보 서비스 플랫폼(10)은 작물 상태 판단 장치(12) 및 모니터링부(14)를 포함할 수 있다. 여기서, 작물 상태 판단 장치(12)는 작물 재배 정보 서비스 플랫폼(10)에 포함되어 구현될 수 있지만, 별도의 장치로 구현될 수도 있다.
작물 상태 판단 장치(12)는 무인 비행체(20)에서 획득한 작물 영상을 전달받아 작물의 종류 및 작물의 상태를 판단하는 장치이다. 작물 재배 정보 서비스 플랫폼(10)은 무인 비행체(20)가 비행한 비행 경로와 작물 상태 판단 장치(12)에서 판단된 작물의 종류 및 작물의 상태를 이용하여 작물 지도를 생성할 수 있다.
본 발명의 일 실시예에 따르면, 작물 재배 정보 서비스 플랫폼(10)은 무인 비행체(20)를 통해 비행을 실행하여 생산된 영상 정보를 활용할 수 있다. 무인 비행체(20)는 이미지, 열 영상, 초분광 영상 등을 획득하여 작물 재배 정보 서비스 플랫폼(10)에 전송할 수 있다. 작물 재배 정보 서비스 플랫폼(10)은 무인 비행체(20)의 비행경로를 생성하고 실증하고, 무인 비행체(20)에서 생산된 정보를 취합하며, 빅데이터를 가공하여 AI 작물 분류, 재배, 수확 현황 도출, 시각화, GIS 기반 분석 표출 등을 수행하고, 공간 정보를 활용하여 비행 경로, 수집방법 개발(DSM 3D 지형 입력, Farm Map 입력) 및 조사 영역, 전송 데이터 송수신 등을 조사원이 관리할 수 있다. 또한, 작물 재배 정보 서비스 플랫폼(10)은 무인 비행체(20)의 경로 제공, 수집, 저장, 분석 등을 무인 비행체(20)를 관리하는 어플, 공공기관, 연구 기관, 기업, 학계, 타산업군 등에 제공할 수 있으며, 반드시 이에 한정되는 것은 아니다.
무인 비행체(20)는 비행 경로를 따라 비행을 수행하며 환경 정보 또는 작물 영상을 획득한다. 여기서, 비행 경로는 무인 비행체(20)가 비행을 수행하며 환경 정보 또는 작물 영상을 획득하기 위해 비행하는 경로로서, 이륙 지점과 착륙 지점을 고려하여 비행하는 경로를 생성할 수 있다.
제1 단말기(30) 및 제2 단말기(32)는 작물 재배 정보 서비스 플랫폼(10)과 무인 비행체(20)가 처리하는데 필요한 데이터를 전송하고, 처리된 데이터를 수신하는 전자 장치이다. 제1 단말기(30) 및 제2 단말기(32)는 컴퓨팅 디바이스로 구현될 수 있으며, 스마트폰(Smart Phone), 개인용 컴퓨터(Personal Computer, PC), 태블릿 PC(Tablet PC), 휴대용 개인정보 단말기(Personal Digital Assistant, PDA), 랩톱(Laptop) 등이 있을 수 있으나 이에 한정되는 것은 아니다.
작물 재배 정보 서비스 플랫폼(10), 무인 비행체(20), 제1 단말기(30) 및 제2 단말기(32)는 통신망으로 연결되어 있다. 통신망은 작물 재배 정보 서비스 플랫폼(10), 무인 비행체(20), 제1 단말기(30) 및 제2 단말기(32) 간의 통신을 가능케 할 목적으로 연결해 놓은 통신설비의 집합을 의미한다. 통신망은 노드(Node), 회선, 간선, 및 위성 등을 포함하고 이들은 서로 연결 및 접속되어 있다.
작물 재배 정보 서비스 플랫폼(10), 무인 비행체(20), 제1 단말기(30) 및 제2 단말기(32)는 유무선통신이 가능하다. 예컨대, 무선통신에는 근거리 무선통신, 원거리 무선통신, 이동통신, 및 무선랜 통신 등 다양한 통신 프로토콜이 사용될 수 있다. 무선통신 프로토콜을 예로 들면, 근거리 무선통신(Near Field Communication, NFC), 지그비(ZigBee), 블루투스(Bluetooth), 와이파이(Wi-Fi), 와이맥스(WiMAX), GSM(Global System For Mobile Communication), 3G(Third Generation) 이동통신, LTE(Long Term Evolution), 4G, 5G 등이 있으나, 이에 한정되는 것은 아니다.
작물 재배 정보 서비스 플랫폼(10)은 데이터베이스를 포함한다. 데이터베이스는 데이터의 검색, 추출, 삭제, 편집, 추가 등을 자유롭게 행할 수 있는 데이터의 저장형태를 의미한다. 데이터베이스는 오라클(Oracle), 인포믹스(Infomix), 사이베이스(Sybase), 관계형 데이터베이스 관리시스템(Relational Data Base Management System, RDBMS), 겜스톤(Gemston), 오리온(Orion), 객체 지향형 데이타베이스 관리 시스템(Object Oriented Database Management System, OODBMS) 분산 데이터베이스, 클라우드 등을 이용하여 본 실시예의 목적에 맞게 구현될 수 있다.
작물 재배 정보 서비스 플랫폼(10)은 프로세서 및 프로세서에 의해 실행되는 프로그램을 저장하는 메모리를 포함한다. 여기서, 작물 재배 정보 서비스 플랫폼(10)은 작물 재배 정보 서비스 서버로 구현될 수 있다.
작물 재배 정보 서비스 플랫폼(10)은 프로세서에 의해 후술하는 과정들이 수행될 수 있으며, 과정에 따른 데이터가 메모리에 저장될 수 있으며, 반드시 이에 한정되는 것은 아니다.
본 발명의 일 실시예에 따르면, 프로세서는 작물 재배 정보 서비스 플랫폼(10), 무인 비행체(20), 제1 단말기(30) 및 제2 단말기(32)가 서로 정보를 주고 받는 행위에 의한 행동 이력을 생성하고 저장할 수 있다. 예를 들어, 행동 이력은 작물 재배 정보 서비스 플랫폼(10)이 제1 단말기(30) 및 제2 단말기(32)에 제공하는 작물 지도, 무인 비행체(20)에 제공하는 비행 경로 등을 포함할 수 있으며, 이를 통해 지역 별 작물 지도 제공 상황, 일정 기간 동안 무인 비행체(20)가 비행한 이력 등을 확인할 수 있다.
본 발명의 일 실시예에 따르면, 무인 비행체(20)와 작물 재배 정보 서비스 플랫폼(10)은 실시간으로 데이터를 주고 받으며, 4G, 5G 무선망 및 Wifi를 활용하여 이미지 즉시 전송이 가능하고, 데이터 삭제 전송기능을 수행할 수 있다.
무인 비행체(20)는 획득한 작물 영상을 실시간으로 작물 재배 정보 서비스 플랫폼(10)에 전송하고, 위도, 경도, 상태 정보, 짐벌 상태 정보 등을 추가적으로 전송할 수 있다.
제1 단말기(30)는 무인 비행체(20)를 확인하는 사용자가 사용하는 단말기로서, 실시간 앱을 통해 영상 정보 및 비행 정보를 실시간으로 확인할 수 있으며, 무인 비행체(20)와 OcuSync, Lightbridge2, WiFi 등을 통해 통신을 수행할 수 있다.
제2 단말기(32)는 재배면적, 수확현황, 생육, 병해충, 재해 정보를 시각화한 작물 지도를 모니터링할 수 있는 단말기로, 정보를 제공받으려는 공공기관, 국민, 연구기관, 기업, 학계, 타산업군 등에서 사용되는 단말기일 수 있으며 반드시 이에 한정되는 것은 아니다.
작물 재배 정보 서비스 플랫폼(10)은 기 설정된 지형 정보와 이륙 지점 및 착륙 지점을 고려하여 형성된 필지에 따른 무인 비행체(20)의 비행 경로를 생성할 수 있다. 작물 재배 정보 서비스 플랫폼(10)은 무인 비행체(20)가 획득한 작물 영상을 전달받아 분석하여 비행 경로에 따른 작물 정보를 획득하며, 비행 경로 및 작물 정보를 기반으로 재배 면적 별 수확 현황 및 재해 현황에 따른 작물 지도를 생성할 수 있다.
작물 재배 정보 서비스 플랫폼(10)은 필지에 대한 필지 정보를 포함하는 기 설정된 지형 정보를 기반으로 필지의 중심점을 나타내는 상기 필지의 대표점을 추출하고, 추출된 대표점에 따라 비행 궤적을 고려하여 비행 경로를 생성할 수 있다.
필지 정보는 필지간 구분 경계 정보, 필지에 포함되는 영역들의 고도 정보를 포함할 수 있다.
작물 재배 정보 서비스 플랫폼(10)은 비행 경로 생성 시 무인 비행체(20)의 이착륙 지점을 설정할 수 있다. 여기서, 이착륙 지점은 이륙과 착륙이 모두 가능한 지점이다. 이착륙 지점은 접근성이 용이한 곳으로, 전신주, 교목 등이 없고 시야 확보가 용이한 곳으로 설정할 수 있다. 또한, 주민차량 통행에 방해가 되지 않는 곳에 이착륙 지점이 설정될 수 있다.
본 발명의 일 실시예에 따르면, 이착륙 지점은 이륙 지점과 착륙 지점을 포함하는 2곳으로 설정될 수 있으나 반드시 이에 한정되는 것은 아니며, 적어도 하나 이상의 이착륙 지점을 설정할 수 있다. 적어도 하나 이상의 이착륙 지점을 통해 무인 비행체(20)는 이륙과 착륙을 안전하게 수행할 수 있다.
이착륙 지점은 작물 재배 정보 서비스 플랫폼(10)에서 설정될 수 있으며, 무인 비행체(20)로 이착륙 지점의 좌표를 송신할 수 있다.
또한, 무인 비행체(20)는 복수의 서브 영역을 비행하며 작물 영상을 획득할 수 있다. 이때, 서브 영역은 면적, 고도차 등을 기준으로 적어도 두 영역으로 작물 재배 정보 서비스 플랫폼(10)에서 분할되어 설정될 수 있다.
작물 재배 정보 서비스 플랫폼(10)은 비행 경로를 제외하고 재설정한 재설정 경로를 무인 비행체(20)로 전송할 수 있다.
재설정 경로는 비행 경로에 따라 획득한 작물 영상을 통해 작물 정보를 인식하지 못한 경우, 작물 영상을 재촬영하기 위한 경로를 추가로 더 포함할 수 있다. 구체적으로, 재설정 경로는 비행 경로를 따라서 무인 비행체(20)가 이동하면서 주변 환경 정보를 획득하고, 획득한 환경 정보를 기반으로 최적의 비행 경로를 재설정하여 생성될 수 있다. 여기서, 환경 정보는 장애물의 개수, 장애물의 크기, 날씨 등과 같이 무인 비행체(20)가 비행하며 작물 영상을 촬영하는데 있어 방해되는 요소를 포함할 수 있다.
작물 재배 정보 서비스 플랫폼(10)은 무인 비행체(20)의 비행 경로에 따른 이동을 실시간으로 관찰하고, 무인 비행체(20)가 비행 경로를 이탈하는 경우, 무인 비행체(20)의 점검 신호를 생성할 수 있고, 점검 신호에 의해 무인 비행체(20)의 위치 및 이동 방향을 확인하는 GPS, 라이다 센서의 상태를 점검하여 생성된 이상 신호 또는 정상 신호를 전달받을 수 있다.
작물 재배 정보 서비스 플랫폼(10)은 무인 비행체(20)의 상태 점검 시 이상이 있는 경우 이상 신호를 수신하여 무인 비행체(20)가 복귀하기 위한 복귀 신호를 생성하고, 이상이 없는 경우 정상 신호를 수신하여 무인 비행체(20)로 비행 경로를 재전송하여 비행 경로에 따른 이동을 재관찰할 수 있다.
작물 재배 정보 서비스 플랫폼(10)은 작물 영상을 합성곱 신경망(CNN, Convolutional Neural Network)을 통해 분석하여 작물 별로 분류하여 작물의 종류 및 작물의 상태를 포함하는 작물 정보를 획득할 수 있다.
작물 재배 정보 서비스 플랫폼(10)은 합성곱 신경망을 통해 제1 작물 영상을 분석하여 1차 작물 인식을 수행하고, 1차 작물 인식을 통해 작물 정보를 획득하지 못한 경우, 무인 비행체(20)의 위치 또는 촬영 각도를 조절하여 획득된 제2 작물 영상을 합성곱 신경망을 통해 분석하여 2차 작물 인식을 수행하고, 2차 작물 인식을 통해 작물 정보를 획득하지 못한 경우, 제1 작물 영상 및 제2 작물 영상을 적대적 생성 신경망(GAN)을 통해 합성하여 합성 영상을 생성하고, 생성된 합성 영상을 합성곱 신경망을 통해 분석하여 3차 작물 인식을 수행할 수 있다.
3차 작물 인식은 제1 작물 영상 또는 제2 작물 영상과 제1 작물 영상 또는 제2 작물 영상의 레이블 정보를 입력으로 하여 생성자를 통해 합성하는 적대적 생성 신경망(GAN)을 통해 생성된 합성 영상을 분석하여 수행될 수 있다. 레이블 정보는 제1 작물 영상 또는 제2 작물 영상이 획득된 시간 정보, 위치 정보 및 색상 정보를 포함할 수 있다.
작물 재배 정보 서비스 플랫폼(10)은 상기 작물 영상에 합성곱 신경망을 1차적으로 사용하여 작물의 종류에 따른 복수의 분류 모델 및 정상, 결핍, 고온 피해, 병을 포함하는 작물의 상태에 따른 복수의 상태 모델을 학습할 수 있으며, 학습된 복수의 분류 모델을 적용하여 작물 영상에서 추출된 특징을 분석하여 작물의 종류를 판단하며, 판단된 작물의 종류에 상태 모델을 적용하여 작물의 상태를 판단할 수 있다.
작물 재배 정보 서비스 플랫폼(10)은 복수의 상태 모델을 적용하여 작물의 상태에 따른 상태 특징값을 추출하고, 상태 특징값과 기 설정된 기준 특징값을 비교하여 정상, 결핍, 고온 피해, 병을 포함하는 상기 작물의 상태를 판단할 수 있으며, 상태 모델에 적용된 시간값을 적용하여 시간값 별 상기 기 설정된 기준 특징값이 변화할 수 있다.
작물 재배 정보 서비스 플랫폼(10)은 작물의 종류 및 작물의 상태를 포함하는 작물 정보를 고려하여 비행 경로에 따른 위치에 재배 면적 별 수확 현황 및 재해 현황이 표시되는 작물 지도를 생성할 수 있다.
작물 재배 정보 서비스 플랫폼(10)은 비행 경로에 따른 총 면적 중 작물 정보에 따른 재배 면적을 산출하여 작물 정보의 좌표를 추출하여 비행 경로, 작물 정보, 재배 면적 및 좌표를 이용하여 작물 지도를 생성할 수 있다.
상술한 작물 재배 정보 서비스 플랫폼(10)이 작물의 종류 및 작물 상태를 판단하는 과정은 작물 상태 판단 장치(12)를 통해 수행될 수 있다. 따라서, 작물 상태 판단 장치(12)는 작물의 종류에 따른 복수의 분류 모델 및 작물의 상태에 따른 복수의 상태 모델을 학습하고, 비행 경로를 따라 이동하는 무인 비행체(20)가 획득한 작물 영상을 전달받아 합성곱 신경망(CNN, Convolutional Neural Network)을 통해 분석하여 작물 별로 분류하여 작물의 종류 및 작물의 상태를 포함하는 작물 정보를 획득할 수 있다.
작물 지도는 무인 비행체(20)가 작물 영상을 획득함과 동시에 작물 정보를 획득하여 생성될 수 있다.
본 실시예의 무인 비행체(20)는 드론, 소형 헬리콥터, 비행기 등으로 구현될 수 있으며, 구체적으로, 사람이 탑승하여 조종하지 않고, 주로 원격 조종으로 움직이는 비행체로 구현될 수 있다.
본 발명의 일 실시예에 따르면, 작물 재배 정보 서비스 플랫폼(10)은 작물 지도를 통해 주, 월, 년도 별로 작물 데이터를 관리할 수 있다. 구체적으로, 작물 재배 정보 서비스 플랫폼(10)은 매년 매달 작물 상황을 비교할 수 있으며, 년도 별 재배 선호 작물, 재배 면적 변화, 재해에 따른 작물 변화 등을 확인할 수 있으며, 이를 기반으로 앞으로의 상황을 예측하여 제공받으려는 공공기관, 국민, 연구기관, 기업, 학계, 타산업군 등에 제공할 수 있다.
작물 재배 정보 서비스 플랫폼(10)은 작물의 종류와 작물의 상태를 포함하는 작물 지도를 제공함에 따라 시장에 유통될 작물의 종류 별 수확량을 예측할 수 있으며, 이를 통해 시장가를 예측할 수 있다. 구체적으로, 작물 재배 정보 서비스 플랫폼(10)은 작물의 종류 별 수확량을 예측하고, 수확량에서 작물의 상태에 따라 폐기되는 양을 예측하여 전체 수확량 중 유통 가능한 작물 비율을 예측할 수 있다.
또한, 작물 재배 정보 서비스 플랫폼(10)은 유통 가능한 작물 비율을 이용하여 작물 별 목표 수확량을 수확하기 위해 작물을 재배해야 될 양을 설정하여 제공할 수도 있다. 작물 재배 정보 서비스 플랫폼(10)은 유통 가능한 작물 비율을 기반으로 추가 재배가 필요한 작물의 종류 또는 재배가 더 이상 필요하지 않은 작물의 종류를 제공하여 작물의 재배량을 관리하고 작물 재배 종류를 제안하며, 이에 따라 시장가를 안정적으로 관리할 수 있다.
도 2는 예시적인 실시예들에서 사용되기에 적합한 컴퓨팅 디바이스를 포함하는 컴퓨팅 환경을 예시하여 설명하기 위한 블록도이다. 도시된 실시예에서, 각 컴포넌트들은 이하에 기술된 것 이외에 상이한 기능 및 능력을 가질 수 있고, 이하에 기술되지 것 이외에도 추가적인 컴포넌트를 포함할 수 있다.
도시된 컴퓨팅 환경은 작물 재배 정보 서비스 플랫폼(10)을 포함한다. 일 실시예에서 작물 재배 정보 서비스 플랫폼(10)은 타 단말기와 신호를 송수신하는 모든 형태의 컴퓨팅 기기일 수 있다.
작물 재배 정보 서비스 플랫폼(10)은 적어도 하나의 프로세서(110), 컴퓨터 판독 가능한 저장매체(120) 및 통신 버스(160)를 포함한다. 프로세서(110)는 작물 재배 정보 서비스 플랫폼(10)으로 하여금 앞서 언급된 예시적인 실시예에 따라 동작하도록 할 수 있다. 예컨대, 프로세서(110)는 컴퓨터 판독 가능한 저장 매체(120)에 저장된 하나 이상의 프로그램들을 실행할 수 있다. 상기 하나 이상의 프로그램들은 하나 이상의 컴퓨터 실행 가능 명령어를 포함할 수 있으며, 상기 컴퓨터 실행 가능 명령어는 프로세서(110)에 의해 실행되는 경우 작물 재배 정보 서비스 플랫폼(10)으로 하여금 예시적인 실시예에 따른 동작들을 수행하도록 구성될 수 있다.
컴퓨터 판독 가능한 저장 매체(120)는 컴퓨터 실행 가능 명령어 내지 프로그램 코드, 프로그램 데이터 및/또는 다른 적합한 형태의 정보를 저장하도록 구성된다. 컴퓨터 판독 가능한 저장 매체(120)에 저장된 프로그램(130)은 프로세서(110)에 의해 실행 가능한 명령어의 집합을 포함한다. 일 실시예에서, 컴퓨터 판독한 가능 저장 매체(120)는 메모리(랜덤 액세스 메모리와 같은 휘발성 메모리, 비휘발성 메모리, 또는 이들의 적절한 조합), 하나 이상의 자기 디스크 저장 기기들, 광학 디스크 저장 기기들, 플래시 메모리 기기들, 그 밖에 작물 재배 정보 서비스 플랫폼(10)에 의해 액세스되고 원하는 정보를 저장할 수 있는 다른 형태의 저장 매체, 또는 이들의 적합한 조합일 수 있다.
통신 버스(160)는 프로세서(110), 컴퓨터 판독 가능한 저장 매체(120)를 포함하여 작물 재배 정보 서비스 플랫폼(10)의 다른 다양한 컴포넌트들을 상호 연결한다.
작물 재배 정보 서비스 플랫폼(10)은 또한 하나 이상의 입출력 장치(미도시)를 위한 인터페이스를 제공하는 하나 이상의 입출력 인터페이스(140) 및 하나 이상의 통신 인터페이스(150)를 포함할 수 있다. 입출력 인터페이스(140) 및 통신 인터페이스(150)는 통신 버스(160)에 연결된다. 입출력 장치(미도시)는 입출력 인터페이스(140)를 통해 작물 재배 정보 서비스 플랫폼(10)의 다른 컴포넌트들에 연결될 수 있다. 예시적인 입출력 장치는 포인팅 장치(마우스 또는 트랙패드 등), 키보드, 터치 입력 장치(터치패드 또는 터치스크린 등), 음성 또는 소리 입력 장치, 다양한 종류의 센서 장치 및/또는 촬영 장치와 같은 입력 장치, 및/또는 디스플레이 장치, 프린터, 스피커 및/또는 네트워크 카드와 같은 출력 장치를 포함할 수 있다. 예시적인 입출력 장치(미도시)는 작물 재배 정보 서비스 플랫폼(10)을 구성하는 일 컴포넌트로서 작물 재배 정보 서비스 플랫폼(10)의 내부에 포함될 수도 있고, 작물 재배 정보 서비스 플랫폼(10)과는 구별되는 별개의 장치로 컴퓨팅 기기와 연결될 수도 있다.
도 3은 본 발명의 일 실시예에 따른 작물 재배 정보 획득 과정을 순서대로 나타내는 도면이다.
도 3의 (a)는 작물 재배 정보 서비스 플랫폼(10)에서 비행 경로를 생성하는 과정이다. 이때, 생성된 비행 경로는 무인 비행체(20)로 전달된다. 예를 들어, 풍력 발전소가 위치하는 지역에서는 자기장 영향권을 벗어나도록 경로를 벗어나도록 설계하여 비행 경로를 설정할 수 있다. 이와 같이 비행 경로는 무인 비행체(20)의 비행에 방해가 될 수 있는 요소를 모두 고려하여 설정된다. 비행경로는 목적지의 평면좌표를 추출하고 고도변화값을 반영하여 3차원적인 비행경로가 자동으로 생성될 수 있다.
도 3의 (b)는 무인 비행체(20)가 비행하며 작물 영상을 획득하는 과정이다. 이때, 비행은 도 3의 (a)에서 획득된 비행 경로를 따라 이동한다.
무인 비행체(20)는 비행 경로를 따라 이동하며 작물 영상을 획득하고, 획득된 작물 영상을 실시간으로 작물 재배 정보 서비스 플랫폼(10)으로 전송한다.
도 3의 (c)는 작물 영상을 전달 받은 작물 재배 정보 서비스 플랫폼(10)에서 작물을 판독하고, 작물의 좌표를 추출하는 과정이다. 이때, 작물 판독은 인공 지능(AI, Artificial Intelligence)을 통해 수행할 수 있으며, 반드시 이에 한정되는 것은 아니다. 구체적으로, 작물 재배 정보 서비스 플랫폼(10)은 작물 판독을 합성곱 신경망(CNN, Convolutional Neural Network)을 통해 수행할 수 있으며, 이는 도 5에서 자세히 설명한다.
도 3의 (d)는 작물 재배 정보 서비스 플랫폼(10)에서 정사 지도와 주제도를 제작하는 과정으로, 작물 지도를 생성할 수 있다.
정사 지도는 지표면의 비고에 의해 발생하는 작물 영상 상의 각 점의 왜곡을 보정하여 동일 축척이 되도록 만든 지도이다. 구체적으로, 정사 지도는 무인 비행체(20)에서 획득한 작물 영상의 지형 기복에 의한 기하학적 왜곡을 보정하고 모든 물체를 수직으로 내려다보았을 때의 모습으로 변환한 도면이며, 좌표와 주기 포함한다.
주제도는 특정한 주제를 표현할 것을 목적으로 작성된 지도이다. 본 발명의 일 실시예에 따르면, 주제도는 필지에 따라 작물이 구분되어 표시되는 지도일 수 있으며, 반드시 이에 한정되는 것은 아니다.
작물 재배 정보 서비스 플랫폼(10)은 무인 비행체(20)를 통해 촬영과 동시에 작물의 종류를 판독하고, 지도상에 표시하고 재배 면적을 도출할 수 있다. 이때, 작물 재배 정보 서비스 플랫폼(10)은 실시간 재배 면적 제공으로 촬영과 결과 생성이 동시간대에 완성될 수 있으며, 시계열적 작물 재배 변동 상황 확인이 가능한 효과가 있다.
무인 비행체(20)는 현장 조사, 이착륙 포인트가 설정된 비행 경로를 작물 재배 정보 서비스 플랫폼(10)으로부터 수신하고, 정사와 고도를 촬영하여 획득한 데이터들을 송신할 수 있다.
작물 재배 정보 서비스 플랫폼(10)은 GIS 데이터를 세팅하고, 무인 비행체(20)의 최적의 비행 경로를 생성하여 비행 경로를 전송하고, 데이터를 수신하고 관리할 수 있다. 또한, 작물 재배 정보 서비스 플랫폼(10)은 작물 영상을 분석하여 작물을 구분하고, 재배 면적을 산출하고, 주제도 지도 GUI, AI 학습 데이터를 확보하고, GIS 공간정보를 입력하고, 데이터 서버를 관리할 수 있다.
여기서, GUI는 사용자가 컴퓨터와 정보를 교환할 때, 그래픽을 통해 작업할 수 있는 환경을 말한다.
따라서, 작물 재배 정보 서비스 플랫폼(10)은 산지 지형 조사의 특성을 반영하여 3D 지형비행을 통하여 작물 재배 현황과 생육 상태를 파악한다. 무인 비행체(20)에서 보내온 실시간 이미지 데이터는 영상분석을 통하여 촬영 당일 주제 현황도를 생성할 수 있으며, 이는 농업관측의 목표와 부합하는 기술이며 실시간 영상전송 및 작물 분석 기술을 통해 관측업무의 적시성과 정확성을 확보할 수 있다.
작물 재배 정보 서비스 플랫폼(10)은 정사영상을 작성하고, 작물 영상을 통해 작물을 분류하며, 작물 별, 필지 별 재배 지도를 제작하고, 배추 재배 필지를 분리하며, 배추 재배 필지 변화를 표시하고 시계열화할 수 있다. 여기서, 웹 기반의 실시간 시계열화값 그림은 작물 재배 현황, 출하 면적, 정식시기 분포도, 수확 시기 분포도 등을 모두 그림과 값으로 표기할 수 있다.
작물 재배 정보 서비스 플랫폼(10)은 무인 비행체(20)로부터 획득한 작물 영상을 기반으로 정사 영상을 생성할 수 있으며, 작물 영상을 통해 작물의 분류는 도 5의 AI 서버를 통해 작물을 분류할 수 있다.
작물 재배 정보 서비스 플랫폼(10)은 작물 영상을 통해 분류된 작물을 서로 다른 색으로 표시하여 각각의 필지에 따른 작물을 표시하여 작물 지도를 제작할 수 있으며, 획득한 작물 지도에서 배추만 추출할 수 있다. 단계 S1440은 일 실시예로 도시한 것으로 배추가 아닌 다른 작물 재배 필지로 분리할 수 있다.
작물 재배 정보 서비스 플랫폼(10)은 기존에 확인된 배추 재배 필지와 현재 무인 비행체(20)를 통해 확인한 배추 재배 필지를 비교하여 변화를 표시할 수 있다. 구체적으로, 배추 재배 필지가 늘었을 경우, 기존과 다른 영역을 다른 색으로 표시하여 추가된 필지를 확인하도록 할 수 있다.
작물 재배 정보 서비스 플랫폼(10)은 배추 재배 필지의 변화가 표시된 영역을 정사 지도에 표시하여 형성할 수 있다. 구체적으로, 시계열화는 관측 결과를 일정한 기준에 따라 계열로 정리한 것이다.
작물 재배 정보 서비스 플랫폼(10)은 작물의 종류 및 작물의 상태를 판단할 때 시간값을 추가로 고려하여 작물의 상태를 더 자세히 관찰할 수 있다. 구체적으로, 작물 재배 정보 서비스 플랫폼(10)은 계절 별로 작물의 색상이 차이가 날 수 있으며, 계절 별 작물의 색상에 따라 정상 상태 또는 비정상 상태로 나뉠 수 있으므로 시간값을 더 고려하여 작물의 상태를 더 확실하게 알 수 있다.
웹 기반의 실시간 시계열화값 그림은 GIS 기술과 데이터 분석 영상 구현 기술을 활용하여 실시간으로 재배지 면적의 변화 상을 시계열화한 것이다.
작물 재배 정보 서비스 플랫폼(10)은 작물 품목별. 필지 별 재배 면적, 저식 면적, 출하 면적 등을 이미지와 값으로 산출하고, 데이터베이스 분석툴을 활용하여 작물구분도, 정식시기 분포도, 수확시기 분포도 등을 구현할 수 있다. 이때, 각 필지에는 현장의 저고도 사진이 배치되어 클릭으로 현장 사진을 오픈 할 수 있다.
도 4는 본 발명의 일 실시예에 따른 필지 대표점을 추출하고, 추출된 필지 대표점에 따라 비행 궤적을 생성한 도면이다.
작물 재배 정보 서비스 플랫폼(10)은 필지에 대한 필지 정보를 농지정보 데이터베이스(GIS)로부터 획득할 수 있다. 필지 정보는, 필지간 구분 경계 정보, 필지에 포함되는 영역들의 고도 정보를 포함한다. 본 실시예에서 필지 대표점은 각 필지의 중심점, 내지는 필지의 특성을 잘 나타내는 특징점일 수 있다.
도 4를 참조하면, 각 필지의 중심점을 필지 대표점으로 표시하여 필지의 대표점을 이은 경로를 나타낼 수 있다. 도 4의 대표점을 이은 경로는 무인 비행체(20)의 실제 주행 경로일 수 있으며, 반드시 이에 한정되는 것은 아니다.
좌측의 비행 영역은 총 비행 거리가 3.83Km이며, 예상 비행 시간은 12분 23초이고, 총 포인트는 73개일 수 있다. 우측의 비행 영역은 총 비행 거리가 6.21Km이며, 예상 비행 시간은 17분 12초이고, 총 포인트는 94개일 수 있다. 여기서, 좌측 및 우측의 비행 영역에서의 드론은 비행 고도가 20m로 동일하다.
따라서, 무인 비행체(20)의 주행 경로는 필지 대표점들을 연결하는 연결 거리의 총합을 최소로 하도록 결정될 수 있다. 주행 경로는 작물 재배 정보 서비스 플랫폼(10)에서 미리 결정한 비행 경로일 수 있으며, 주행 중 경로를 변경할 수도 있다.
본 발명의 다른 실시예에 따르면, 무인 비행체(20)는 카메라를 통해 획득한 영상을 외부의 작물 재배 정보 서비스 플랫폼(10)으로 실시간 전송이 가능하다. 작물 재배 정보 서비스 플랫폼(10)은 획득된 영상에 대한 영상 처리를 통해 신속하게, 또는 실시간으로 작물의 종류와 분포를 분석할 수 있다.
무인 비행체(20)는 기존의 작물 정보를 고려하여 비행이 수정될 수 있다. 예를 들어, 양파같은 경우는 수직 영상만으로는 구별이 안되며, 측면 45도에서 영상을 촬영하는 것이 필요하다. 따라서, 무인 비행체(20)의 경로 결정에 있어서, 작물의 히스토리 정보를 활용하여, 양파경작의 히스토리가 있는 필지의 경우, 20미터보다 낮은 높이 예를 들어 10~15미터 구간에서 비스듬한 각도로 영상을 획득하는 것이 바람직하다. 이 경우, 무인 비행체(20)의 위치는 필지의 대표점이 아니라, 무인 비행체(20)의 카메라가 주시하는 지점이 필지의 대표점인 것이 바람직하다.
도 5는 발명의 일 실시예에 따른 AI를 통해 영상 학습을 수행하고, 이를 통해 작물의 종류를 인식하는 개념을 나타낸 도면이다.
인공신경망은 학습 단계와 적용 단계의 구별된 동작을 수행할 수 있다. 학습 단계에서, 인공신경망은 트레이닝 데이터를 입력 받고, 미리 결정된 가중치값에 따른 특징값을 생성하고, 생성된 특징값을 이용하여 작물의 종류를 구분하는 동작이 이루어진다.
인공신경망은 프로세서에서 수행되는 소프트웨어의 형태로 구현될 수 있다. 트레이닝 데이터는 다양한 작물들을 커버할 수 있도록, 또한 계절별 다양한 영상들로 구비되는 것이 바람직하다. 트레이닝 데이터는 이미 작물에 대한 정보(작물의 종류, 계절 정보, 작물 단계 정보 등)을 포함할 수 있고, 이러한 정보를 이용한 지도 학습이 가능하다.
트레이닝 데이터를 통한 학습을 통해, 인공신경망에 포함되는 가중치 값은, 작물 인식의 오류를 최소화하는 범위에서 결정될 수 있다. 인공 신경망은, 예를 들어 컨볼루션 신경망일 수 있는데, 컨볼루션 신경망의 경우 영상 처리, 객체 인식에 유리하다.
작물 재배 정보 서비스 플랫폼(10)은 비행을 통해 유묘 시기부터 작물 구분이 가능하고, 재배 작물 확인 과정이 더 빠르고 정확할 수 있다. 또한, 모아진 성장 데이터는 작물판독과 생육, 병해충 피해 데이터 등 AI 학습 데이터로 축적이 가능할 수 있다.
구체적으로, 작물 재배 정보 서비스 플랫폼(10)은 합성곱 신경망(CNN, Convolutional Neural Network)의 분류 모델을 통해 작물을 분류할 수 있다.
합성곱 신경망(CNN, Convolutional Neural Network)은 작물 영상의 특징을 추출하여 특징들의 패턴을 파악하는 구조이다. 구체적으로, 작물 재배 정보 서비스 플랫폼(10)은 작물 영상이 입력되면 특징 추출을 수행한다. 특징 추출은 컨볼루션 연산과 같은 연산을 통하여 특징을 추출하고, 활성화 함수를 통해 비선형 공간으로 확장하고, 풀링을 통해 압축하는 과정을 의미할 수 있다. 이를 통해 고차원의 비선형 공간에서 물체의 특징에 따른 분류가 가능하다.
분류 모델은 컨볼루션(Convolution) 연산을 통해 특징을 추출한다. 활성화 함수(Activation Function)를 통해 비선형 공간으로 확장하고, 풀링(Pooling) 연산을 통해 특징을 압축한다. 분류 모델은 기 설정된 작물에 속하는 제1 작물 영역을 학습하는 제1 분류 모델 및 기 설정된 작물에 속하지 않는 제2 작물 영역을 학습하는 제2 분류 모델을 포함할 수 있다. 여기서, 작물 재배 정보 서비스 플랫폼(10)은 제1 작물 영역을 학습하는 제1 분류 모델과 제2 작물 영역을 학습하는 제2 분류 모델을 상호 독립적으로 학습할 수 있다.
작물 재배 정보 서비스 플랫폼(10)은 학습된 분류 모델을 통해 무인 비행체(20)를 통해 입력된 작물 영상을 분석하여 작물을 종류에 따라 1차적으로 분류할 수 있다. 구체적으로, 분류 모델은 배추, 무, 오이, 당근 등과 같은 재배 작물의 이미지를 학습할 수 있으며, 전체 이미지뿐만 아니라 재배 작물을 상단에서 촬영했을 때의 이미지를 더 학습할 수 있다. 이를 통해, 작물 재배 정보 서비스 플랫폼(10)은 무인 비행체(20)를 통해 촬영한 작물 영상이 입력되면, 작물 영상에 분류 모델을 적용하여 작물 영상의 시간값을 입력으로 하여 작물의 특징을 추출하여 작물의 종류를 판단할 수 있다.
작물 재배 정보 서비스 플랫폼(10)은 2차적으로 판단된 작물의 종류에 따라 학습된 복수의 상태 모델을 적용하여 정상, 결핍, 고온 피해, 병을 포함하는 상기 작물의 상태를 판단할 수 있다. 구체적으로, 상태 모델은 재배 작물 별 정상, 결핍, 고온 피해, 병 등과 같은 상태 이미지를 학습할 수 있으며, 전체 이미지뿐만 아니라 재배 작물을 상단에서 촬영했을 때의 이미지를 더 학습할 수 있다. 이를 통해 작물 재배 정보 서비스 플랫폼(10)은 1차적으로 작물의 종류가 판단되면, 판단된 작물의 종류에 따라 시간값을 입력으로 하여 상태 모델을 적용하여 작물의 상태를 판단할 수 있다.
또한, 작물 재배 정보 서비스 플랫폼(10)은 작물 영상에 계절 필터를 적용하여, 영상에서 계절에 따른 색상의 변화가 제거된 영상을 획득할 수 있다. 여기서, 계절 필터는 계절별 색상, 예를 들어 배추의 경우, 계절 별 메인 색상인 봄(노랑), 여름(연두), 가을(초록)의 필터를 계절 필터로 정의할 수 있다. 작물 재배 정보 서비스 플랫폼(10)은 작물 영상이 획득된 시간(계절)을 고려하여 계절에 따른 색상이 제거된 잔여 영상을 획득할 수 있다. 예를 들어, 여름에 획득된 영상이라면 연두색이 메인 색상이므로, 무인 비행체(20)를 통해 획득한 작물 영상에 연두색 필터를 적용하여 연두색이 제거된 잔여 영상을 획득할 수 있다. 이렇게 필터링된 잔여 영상에 미리 학습된 CNN 신경망을 적용함으로써, 현재의 작물에 이상 징후가 있는지 여부를 색상을 통해서 확인할 수 있다. 구체적으로, 연두색 필터가 제거된 잔여 영상은 배추의 하얀색, 노란색, 고동색, 검은 반점 등을 확인할 수 있으며, 높은 온도에 의해 배추가 시든 정도, 배추가 자란 정도, 배추병의 유무 등을 확인할 수 있다. 이를 통해 배추의 상황을 판단하고 대비할 수 있다.
상술한 바와 같이 분류 모델 및 상태 모델을 통해 작물의 종류와 상태를 판단하면 작물 재배 정보 서비스 플랫폼(10)은 작물 지도를 생성할 수 있다. 작물 지도는 무인 비행체(20)의 비행 경로를 기반으로 생성되며, 재배 면적 별로 작물의 종류에 따른 작물의 상태를 표시하여 작물 지도를 생성할 수 있다.
도 6은 발명의 일 실시예에 따른 드론 비행을 통해 획득한 영상을 이용하여, 작물의 상태를 나타내는 도면이다.
도 6의 (a)는 수확 진행 정도를 나타내는 도면이고, 도 5의 (b)는 배추 무름병을 나타내는 도면이고, 도 5의 (c)는 정상 생육을 나타내는 도면이고, 도 5의 (d)는 석회 결핍을 나타내는 도면이고, 도 5의 (e)는 고온 피해를 나타내는 도면이다.
작물 재배 정보 서비스 플랫폼(10)은 무인 비행체(20)의 비행을 통해 획득한 작물 영상을 통해 수확 진행 정도, 각종 병충해의 상황을 진단할 수 있다.
작물 재배 정보는 작물의 종류, 작물의 상태 등을 포함할 수 있다. 작물의 상태는 작물의 성상, 크기, 색깔 등을 포함하며, 이에 대한 영상 분석을 통해 작물의 재배단계, 병충해 가능성 여부를 판단할 수 있다. 또한, 영상 분석을 통해 작물들의 수확 진행 정보도 추가적으로 확인할 수 있다.
본 발명의 일 실시예에 따르면 배추에 따른 작물의 상태는 배추 무름병, 석회 결핍, 고온 피해 등을 통해 상태가 좋지 않음을 판단할 수 있으며, 이에 따른 원인을 분석하여 예방할 수 있다. 구체적으로, 작물 재배 정보 서비스 플랫폼(10)은 무인 비행체(20)를 통해 획득한 작물 영상을 통해 작물의 종류와 작물의 상태를 판단할 수 있다.
축적한 성장 데이터는 작물판독과 생육, 병해충 피해 등을 판독할 AI 학습 데이터로 축적할 수 있다.
본 발명의 다른 실시예에 따르면, 작물 재배 정보 서비스 플랫폼(10)은 식생지수를 구하기 위한 분광 촬영을 실시하고, 생육시기의 ½ 시기에 생체 중량을 ¼을 수확하여 측정 수확 후 측정 항목은 초장, 생체중으로 하고, 생육을 마치고 최종 수확물의 초장과 생체중을 측정하고, 촬영으로 취득한 NDVI와 실제 작물 생육 데이터와 비교하여 생육 데이터와의 식생지수와 상관 분석을 수행할 수 있다.
식생지수는 식물체의 질소량과 직접적인 비례관계에 있는 엽록소의 분광반사 특성이 주로 적색(Red), 청색(Blue) 파장은 흡수하는 반면 근적외선(NIR, Near InfraRed) 파장은 반사하는 현상을 바탕으로 이들 파장을 조합하여 녹색 식물의 상대적 분포량과 활동성을 평가하는 지표이다. 적색 파장과 근적외선 파장의 반사율을 이용하여 계산하는 정규화식생지수(NDVI, Normalized Difference Vegetation Index)를 산정할 수 있다. RED-edge 및 Sequoir 촬영 시 진동 및 속도로 인한 Blur현상이 발생할 수 있으므로 조도가 확보된 시간에 촬영이 진행될 수 있도록 작업 계획을 잡으며 카메라 감도는 iso 400이상으로 설정하며 셔터스피드 1/250이상을 확보할 수 있다. 직광으로 인한 반사율 왜곡을 피할 수 있도록 밝고 흐린날 촬영이 바람직할 수 있다.
도 7은 발명의 일 실시예에 따른 관제 센터에서의 주제도 제작을 위한 수행 과정을 나타내는 흐름도이다. 주제도 제작을 위한 수행 과정은 작물 재배 정보 서비스 플랫폼에 의해 수행되며, 작물 재배 정보 서비스 플랫폼이 수행하는 것에 관한 상세한 설명과 중복되는 설명은 생략하기로 한다.
작물 재배 정보 서비스 플랫폼(10)에서의 주제도 제작은 저고도 무인 비행체에서 획득한 저고도 작물 영상을 전송 받아 수행될 수 있다(S710).
저고도 작물 영상은 NAS 서버를 거쳐(S720) 데이터 서버에 전달될 수 있다(S722). 여기서, NAS 서버는 컴퓨터 네트워크에 연결된 파일 수준의 컴퓨터 기억장치를 나타낸다.
저고도 작물 영상은 AI 서버로 전달되어 작물 판독을 수행할 수 있다(S730). 또한, 저고도 작물 영상은 영상 판독원에 추가로 전달되어 작물 판독을 수행할 수 있다(S732).
단계 S730은 농촌경제연구원이나 농촌진흥청 등의 공공 홈페이지 관측 작물 사진 취합, 농경지 드론 이미지 취득, 해제면 경작 시 실사 등의 이미지 소스를 크롤링(Crawling)할 수 있다. 크롤링(Crawling)은 무수히 많은 컴퓨터에 분산 저장되어 있는 문서를 수집하여 검색 대상의 색인으로 포함시키는 기술로서, 어느 부류의 기술을 얼마나 빨리 검색 대상에 포함시키냐 하는 것이 우위를 결정하는 요소이다.
단계 S730은 이미지 소스를 크롤링하여 판독 알고리즘을 통해 작물을 판독할 수 있다. 판독 알고리즘은 Vggnet, Alexnet, Squeeznet, Resnet, Densenet 등을 사용할 수 있다.
이때, 단계 S730 및 단계 S732에서 수행한 작물 판독에 따라 판독된 작물의 교차 검증을 통해 정확도를 향상시킬 수 있다.
단계 S730 및 단계 S732에서 판독된 작물들은 이미지 분류를 통해 동일한 이미지들을 분류할 수 있다(S740).
또한, 단계 S750에서 저고도 작물 영상은 정사 보정과정을 생략할 수 있다.
이미지 분류(S740)와 정사 보정(S750)이 완료되면 주제도를 제작할 수 있다(S760). 제작된 주제도는 데이터 서버에 저장된다(S770).
도 7에서는 각각의 과정을 순차적으로 실행하는 것으로 개재하고 있으나 이는 예시적으로 설명한 것에 불과하고, 이 분야의 기술자라면 본 발명의 실시예의 본질적인 특성에서 벗어나지 않는 범위에서 도 7에 기재된 순서를 변경하여 실행하거나 또는 하나 이상의 과정을 병렬적으로 실행하거나 다른 과정을 추가하는 것으로 다양하게 수정 및 변형하여 적용 가능할 것이다.
도 8은 발명의 일 실시예에 따른 도 7의 단계 S730에서 AI 서버가 수행하는 과정을 나타내는 흐름도이다. AI 서버가 수행하는 과정은 작물 재배 정보 서비스 플랫폼에 의해 수행되며, 작물 재배 정보 서비스 플랫폼이 수행하는 것에 관한 상세한 설명과 중복되는 설명은 생략하기로 한다.
AI 서버는 이미지를 획득할 수 있다(S810). 여기서, 이미지는 저고도 무인 비행체에서 획득한 저고도 작물 영상이다.
AI 서버는 이미지를 획득하면 이미지를 추출할 수 있다(S820). 단계 S820의 이미지 추출은 도 8의 도면과 같이 각각의 필지에서 획득한 저고도 작물 영상에서 작물 이미지를 기 설정된 영역만큼 추출한다. 예를 들어, 이미지 추출은 획득한 이미지의 중간 영역에 위치하는 이미지로, 직사각형 형태의 영역으로 추출할 수 있다.
단계 S830에서, AI 서버는 각각의 필지에서 획득한 저고도 작물 영상에서 작물 이미지를 추출하면 인공지능을 통해 작물을 구분할 수 있다. 인공지능을 통한 작물 구분은 도 5를 통해 확인할 수 있으며, 각각의 작물을 종류에 따라 구분할 수 있다.
단계 S830에서, 작물 구분이 되지 않으며, 이미지를 획득하는 단계(S810)로 다시 돌아가고, 작물 구분이 완료되면 단계 S840에서 이미지의 좌표를 추출할 수 있다.
단계 S840에서, 이미지 좌표 추출은 획득한 저고도 작물 영상을 통해 각각의 필지에 따른 좌표를 GIS를 통해 좌표를 추출할 수 있으며, 또는 저고도 무인 비행체에 부착된 GPS를 통해 각각의 필지에서 저고도 작물 영상 촬영된 경우의 무인 비행체의 위치를 통해 좌표를 추출할 수 있다.
좌표 추출이 완료되면 단계 S850에서, 각각의 영역을 계산할 수 있다. 영역은 작물 지도를 생성하기 위해 계산되며, 각각의 필지를 기준으로 GIS를 통해 확인할 수 있다.
본 발명의 일 실시예에 따르면, AI 학습을 위한 생육단계별 데이터는 유묘기, 초기신장기, 성숙기, 수확기 등을 확인할 수 있으며, 데이터 누적 시 생육, 병충해 등을 추가로 판독이 가능하다.
도 8에서는 각각의 과정을 순차적으로 실행하는 것으로 개재하고 있으나 이는 예시적으로 설명한 것에 불과하고, 이 분야의 기술자라면 본 발명의 실시예의 본질적인 특성에서 벗어나지 않는 범위에서 도 8에 기재된 순서를 변경하여 실행하거나 또는 하나 이상의 과정을 병렬적으로 실행하거나 다른 과정을 추가하는 것으로 다양하게 수정 및 변형하여 적용 가능할 것이다.
따라서, 작물 재배 정보 서비스 플랫폼(10)은 드론 촬영 농작물 이미지 전송, 드론 촬영한 영상의 서버의 특정 폴더에 전송, 인공지능 딥러닝 판독모델을 생성, 판독모델은 가동시키고 각각의 결과값을 비교해서 작물을 판독하는 파이썬 코드, 판독된 값은 데이터베이스에 저장하고 관리하는 모듈, 데이터베이스에 저장된 판독결과를 지도에 표시하는 모듈, 지도상의 위치를 선택했을 때 해당 작물의 사진과 판독된 결과를 보여주는 모듈 등으로 구성되어 상술한 과정들을 수행할 수 있으며, 반드시 이에 한정되는 것은 아니다.
도 9는 본 발명의 일 실시예의 AI 서버에서 수행되는 작물 분석을 위한 학습 개념을 설명하기 위한 블록도이다.
적대적 생성 신경망(Generative model, GAN)은 생성모델과 판별모델이 경쟁하면서 실제와 가까운 이미지를 자동으로 만들어 내는 기계학습이다.
도 9는 적대적 신경망의 일종으로서 AI서버의 프로세서에서 수행되는 학습 개념을 나타낸 것이다. 도 9에 도시된 적대적 신경망에 의하여 수행되는 프로세스들은 적대적 신경망을 수행하기 위한 일련의 프로그램들로서 AI 서버의 메모리에 저장되며, AI 서버의 프로세서에서 수행되는 하기의 동작들을 포함한다.
우선, 적대적 신경망의 학습을 위한 입력 정보(910)는 해당 필지에서 획득된 다수의 트레이닝 영상을 포함한다. 추가적인 입력 정보(910)로서, 해당 영상이 획득되었을 때의 시간 정보(기후 정보, 촬영시각), 위치 정보(GPS 상의 위치 정보, 해당 필지의 식별 정보 등), 색상 정보(해당 필지에서 획득된 영상에서의 주 색상 정보)를 레이블 정보(역시 트레이닝 데이터임)로서 더 포함한다.
도 9에 도시된 바와 같이, 생성자(930)는 레이블 정보(910)와 랜덤 노이즈(920)를 입력으로 하여 페이크 영상을 생성한다. 분별자(940)는 다수의 컨볼루션 필터와 활성화층 및 풀링층으로 구성되며, 최종적인 특징값을 이용하여 Real/Fake에 대한 판단을 한다.
분별자(940)와 생성자(930)의 필터계수에 대한 업데이트는 생성자(930)를 통해 생성된 페이크 영상과, 리얼 샘플인 트레이닝 영상(950)에 대한 분별 결과(Real/Fake 응답)에 대한 피드백을 통해, 보다 정확한 분별 결과를 얻을 수 있는 방향으로 필터 계수가 업데이트된다. 이러한 학습 과정을 통해 생성자(930)의 필터 계수는 결정될 수 있다. 물리적인 관점에서, 분별자(940), 생성자(930)는 실질적으로 프로세서에 해당하며, 프로세서가 수행하는 세부적인 동작을 나타내는 용어로 이해될 수 있다.
도 10은 도 9를 통해 결정된 생성자(930)를 통해 이미지 분류(S740)를 위한 입력 영상을 생성하는 방법을 설명하는 개념도이다.
현재 드론을 통해 획득된 영상이 충분한 신뢰 수준으로 이미지 분류가 가능하다면, 본 과정을 수행할 필요성은 적다. 하지만, 현재 획득된 영상만으로 작물의 종류를 특정하기 어려울 때에는, 적대적 신경망을 통해 생성되는 합성 영상을 이용하여 작물의 종류를 결정하는 것이 바람직하다.
도 10에서 생성자(930)는 도 9를 통해 학습이 완료된 생성자(930)를 의미한다. 여기서 입력은 현재의 획득 영상(1010)과, 해당 획득 영상(1010)에 대한 레이블(910)이다. 레이블에 포함되는 정보(910)는 영상을 촬영한 시점의 시간 정보, 위치 정보, 색상 정보를 포함할 수 있다. 이미지 분류(S740)를 위한 입력은, 레이블 정보(910)를 입력으로 하여 생성자(930)를 통해 합성된 합성 영상(960)과, 현재의 획득 영상(1010)이다. 합성 영상(960)을 통해 추출된 특징값과, 획득 영상(1010)을 통해 추출된 특징값을 미리 결정된 가중치에 따라 합산한 후, 합산 특징값을 이용하여 이미지 분류를 수행한다면, 획득 영상만으로 이미지 분류를 수행한 경우와 대비할 때, 분류의 신뢰도를 더욱 높일 수 있다.
이상에서 설명한 본 발명의 실시예를 구성하는 모든 구성요소들이 하나로 결합하거나 결합하여 동작하는 것으로 기재되어 있다고 해서, 본 발명이 반드시 이러한 실시예에 한정되는 것은 아니다. 즉, 본 발명의 목적 범위 안에서라면, 그 모든 구성요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다.
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위 내에서 다양한 수정, 변경 및 치환이 가능할 것이다. 따라서, 본 발명에 개시된 실시 예 및 첨부된 도면들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시 예 및 첨부된 도면에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구 범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리 범위에 포함되는 것으로 해석되어야 할 것이다.
10: 작물 재배 정보 서비스 플랫폼
12: 작물 상태 판단 장치
14: 모니터링부
20: 무인 비행체
30: 제1 단말기
32: 제2 단말기

Claims (15)

  1. 프로세서 및 상기 프로세서에 의해 실행되는 프로그램을 저장하는 메모리를 포함하는 작물 재배 정보 서비스 플랫폼에 있어서,
    상기 프로세서는,
    기 설정된 지형 정보와 이륙 지점 및 착륙 지점을 고려하여 형성된 필지에 따른 무인 비행체의 비행 경로를 생성하고,
    상기 무인 비행체가 획득한 작물 영상을 전달받아 분석하여 상기 비행 경로에 따른 작물 정보를 획득하며,
    작물의 종류 및 작물의 상태를 포함하는 상기 작물 정보를 고려하여 상기 비행 경로에 따른 재배 면적 별 수확 현황 및 재해 현황이 표시되는 작물 지도를 생성하고,
    상기 프로세서는, 상기 작물의 종류에 따른 복수의 분류 모델 및 상기 작물의 상태에 따른 복수의 상태 모델을 학습하여 상기 작물 영상을 합성곱 신경망(CNN, Convolutional Neural Network)을 통해 분석하여 작물 별로 분류하여 작물의 종류 및 작물의 상태를 포함하는 상기 작물 정보를 획득하며,
    상기 프로세서는, 1차적으로 기 설정된 작물에 속하는 제1 작물 영역을 학습하는 제1 분류 모델 및 기 설정된 작물에 속하지 않는 제2 작물 영역을 학습하는 제2 분류 모델을 포함하는 상기 학습된 복수의 분류 모델을 적용하여 상기 작물 영상의 시간값을 입력으로 하여 추출된 특징을 분석하여 작물의 종류를 판단하고, 2차적으로 상기 판단된 작물의 종류에 따라 상기 시간값을 입력으로 하여 상기 학습된 복수의 상태 모델을 적용하여 정상, 결핍 및 고온 피해를 포함하는 상기 작물의 상태를 판단하고, 상기 비행 경로를 기반으로 재배 면적 별로 상기 작물의 종류에 따른 상기 작물의 상태를 표시하여 상기 작물 지도를 생성하는 것을 특징으로 하는 작물 재배 정보 서비스 플랫폼.
  2. 제1항에 있어서,
    상기 프로세서는,
    필지에 대한 필지 정보를 포함하는 상기 기 설정된 지형 정보를 기반으로 상기 필지의 중심점을 나타내는 상기 필지의 대표점을 추출하고, 상기 추출된 대표점에 따라 비행 궤적을 고려하여 상기 비행 경로를 생성하고,
    상기 필지 정보는 필지간 구분 경계 정보 및 필지에 포함되는 영역들의 고도 정보를 포함하는 것을 특징으로 하는 작물 재배 정보 서비스 플랫폼.
  3. 제2항에 있어서,
    상기 프로세서는,
    상기 비행 경로를 제외하고 재설정한 무인 비행체의 재설정 경로를 생성하고,
    상기 재설정 경로는 상기 비행 경로에 따라 획득한 상기 작물 영상을 통해 상기 작물 정보를 인식하지 못한 경우, 상기 작물 영상을 재촬영하기 위한 경로를 추가로 더 포함하는 것을 특징으로 하는 작물 재배 정보 서비스 플랫폼.
  4. 제1항에 있어서,
    상기 프로세서는,
    상기 무인 비행체의 상기 비행 경로에 따른 이동을 실시간으로 관찰하고, 상기 무인 비행체가 상기 비행 경로를 이탈하는 경우, 상기 무인 비행체의 점검 신호를 생성하고,
    상기 점검 신호에 의해 상기 무인 비행체의 위치 및 이동 방향을 확인하는 GPS, 라이다 센서의 상태를 점검하여 생성된 이상 신호 또는 정상 신호를 전달받는 것을 특징으로 하는 작물 재배 정보 서비스 플랫폼.
  5. 제4항에 있어서,
    상기 프로세서는,
    상기 무인 비행체의 상태 점검 시 이상이 있는 경우 상기 이상 신호를 수신하여 상기 무인 비행체가 복귀하기 위한 복귀 신호를 생성하고, 이상이 없는 경우 상기 정상 신호를 수신하여 상기 비행 경로를 상기 무인 비행체로 재전송하여 상기 비행 경로에 따른 이동을 재관찰하는 것을 특징으로 하는 작물 재배 정보 서비스 플랫폼.
  6. 삭제
  7. 삭제
  8. 제1항에 있어서,
    상기 프로세서는,
    상기 합성곱 신경망을 통해 제1 작물 영상을 분석하여 1차 작물 인식을 수행하고,
    상기 1차 작물 인식을 통해 작물 정보를 획득하지 못한 경우, 상기 무인 비행체의 위치 또는 촬영 각도를 조절하여 획득된 제2 작물 영상을 상기 합성곱 신경망을 통해 분석하여 2차 작물 인식을 수행하고,
    상기 2차 작물 인식을 통해 작물 정보를 획득하지 못한 경우, 상기 제1 작물 영상 및 상기 제2 작물 영상을 적대적 생성 신경망(GAN)을 통해 합성하여 합성 영상을 생성하고, 상기 생성된 합성 영상을 상기 합성곱 신경망을 통해 분석하여 3차 작물 인식을 수행하는 것을 특징으로 하는 작물 재배 정보 서비스 플랫폼.
  9. 제8항에 있어서,
    상기 3차 작물 인식은,
    상기 제1 작물 영상 또는 상기 제2 작물 영상과 상기 제1 작물 영상 또는 상기 제2 작물 영상의 레이블 정보를 입력으로 하여 생성자를 통해 합성하는 적대적 생성 신경망(GAN)을 통해 생성된 상기 합성 영상을 분석하여 수행되며,
    상기 레이블 정보는 상기 제1 작물 영상 또는 상기 제2 작물 영상이 획득된 시간 정보, 위치 정보 및 색상 정보를 포함하는 것을 특징으로 하는 작물 재배 정보 서비스 플랫폼.
  10. 제1항에 있어서,
    상기 프로세서는,
    상기 비행 경로에 따른 총 면적 중 상기 작물 정보에 따른 재배 면적을 산출하여 상기 작물 정보의 좌표를 추출하여 상기 비행 경로, 상기 작물 정보, 상기 재배 면적 및 상기 좌표를 이용하여 상기 무인 비행체가 작물 영상을 획득함과 동시에 상기 작물 정보를 획득하여 생성되는 상기 작물 지도를 생성하고,
    상기 프로세서는,
    작물의 종류 및 작물의 상태가 표시된 상기 작물 지도를 이용하여 시장에 유통되는 작물의 종류 별 수확량 및 상기 작물의 상태에 따라 폐기되는 양을 예측하고,
    상기 작물의 종류 별 수확량 및 상기 작물의 상태에 따라 폐기되는 양을 이용하여 유통 가능한 작물 비율을 예측하고, 상기 유통 가능한 작물 비율을 이용하여 시장가를 예측하는 것을 특징으로 하는 작물 재배 정보 서비스 플랫폼.
  11. 프로세서 및 상기 프로세서에 의해 실행되는 프로그램을 저장하는 메모리를 포함하는 작물 상태 판단 장치에 있어서,
    상기 프로세서는,
    작물의 종류에 따른 복수의 분류 모델 및 상기 작물의 상태에 따른 복수의 상태 모델을 학습하고,
    비행 경로를 따라 이동하는 무인 비행체가 획득한 작물 영상을 전달받아 합성곱 신경망(CNN, Convolutional Neural Network)을 통해 분석하여 작물 별로 분류하여 작물의 종류 및 작물의 상태를 포함하는 작물 정보를 획득하며,
    상기 프로세서는, 1차적으로 기 설정된 작물에 속하는 제1 작물 영역을 학습하는 제1 분류 모델 및 기 설정된 작물에 속하지 않는 제2 작물 영역을 학습하는 제2 분류 모델을 포함하는 상기 학습된 복수의 분류 모델을 적용하여 상기 작물 영상의 시간값을 입력으로 하여 추출된 특징을 분석하여 작물의 종류를 판단하고, 2차적으로 상기 판단된 작물의 종류에 따라 상기 시간값을 입력으로 하여 상기 학습된 복수의 상태 모델을 적용하여 정상, 결핍, 고온 피해, 병을 포함하는 상기 작물의 상태를 판단하는 것을 특징으로 하는 작물 상태 판단 장치.
  12. 삭제
  13. 제11항에 있어서,
    상기 프로세서는,
    상기 복수의 상태 모델을 적용하여 상기 작물의 상태에 따른 상태 특징값을 추출하고, 상기 상태 특징값과 기 설정된 기준 특징값을 비교하여 정상, 결핍 및 고온 피해를 포함하는 상기 작물의 상태를 판단하고,
    상기 시간값을 적용하여 상기 시간값 별 상기 기 설정된 기준 특징값이 변화하는 것을 특징으로 하는 작물 상태 판단 장치.
  14. 제11항에 있어서,
    상기 프로세서는,
    상기 합성곱 신경망을 통해 제1 작물 영상을 분석하여 1차 작물 인식을 수행하고,
    상기 1차 작물 인식을 통해 작물 정보를 획득하지 못한 경우, 상기 무인 비행체의 위치 또는 촬영 각도를 조절하여 획득된 제2 작물 영상을 상기 합성곱 신경망을 통해 분석하여 2차 작물 인식을 수행하고,
    상기 2차 작물 인식을 통해 작물 정보를 획득하지 못한 경우, 상기 제1 작물 영상 및 상기 제2 작물 영상을 적대적 생성 신경망(GAN)을 통해 합성하여 합성 영상을 생성하고, 상기 생성된 합성 영상을 상기 합성곱 신경망을 통해 분석하여 3차 작물 인식을 수행하는 것을 특징으로 하는 작물 상태 판단 장치.
  15. 제14항에 있어서,
    상기 3차 작물 인식은,
    상기 제1 작물 영상 또는 상기 제2 작물 영상과 상기 제1 작물 영상 또는 상기 제2 작물 영상의 레이블 정보를 입력으로 하여 생성자를 통해 합성하는 적대적 생성 신경망(GAN)을 통해 생성된 상기 합성 영상을 분석하여 수행되며,
    상기 레이블 정보는 상기 제1 작물 영상 또는 상기 제2 작물 영상이 획득된 시간 정보, 위치 정보 및 색상 정보를 포함하는 것을 특징으로 하는 작물 상태 판단 장치.
KR1020200124869A 2020-07-09 2020-09-25 작물 상태 판단 장치 및 이를 포함하는 작물 재배 정보 서비스 플랫폼 Active KR102300799B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020200084502 2020-07-09
KR20200084502 2020-07-09

Publications (1)

Publication Number Publication Date
KR102300799B1 true KR102300799B1 (ko) 2021-09-10

Family

ID=73791132

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020200105327A Active KR102187654B1 (ko) 2020-07-09 2020-08-21 저고도 무인 비행체 및 이를 포함하는 작물 재배 정보 획득 시스템
KR1020200124869A Active KR102300799B1 (ko) 2020-07-09 2020-09-25 작물 상태 판단 장치 및 이를 포함하는 작물 재배 정보 서비스 플랫폼

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1020200105327A Active KR102187654B1 (ko) 2020-07-09 2020-08-21 저고도 무인 비행체 및 이를 포함하는 작물 재배 정보 획득 시스템

Country Status (1)

Country Link
KR (2) KR102187654B1 (ko)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102467855B1 (ko) * 2021-09-17 2022-11-16 경남도립거창대학산학협력단 자율항법지도를 설정하는 방법 및 무인비행체가 자율항법지도에 기초하여 자율 비행하는 방법 및 이를 구현하는 시스템
KR20230040765A (ko) * 2021-09-16 2023-03-23 한국항공우주연구원 작물 생산량 예측 방법 및 장치
KR20230081690A (ko) 2021-11-30 2023-06-07 (주)레이원 복합재배관리 의사결정시스템
WO2023101146A1 (ko) * 2021-12-03 2023-06-08 한국전자기술연구원 영상정보 기반의 벼 키다리병 자동 판독 장치 및 방법
WO2023106558A1 (ko) * 2021-12-07 2023-06-15 한국전자기술연구원 영상정보 기반의 벼 도복 자동 판독 장치 및 방법
KR20230102860A (ko) * 2021-12-30 2023-07-07 충남대학교산학협력단 영상을 이용한 인공지능 작물 판독시스템 및 작물 주문 중계시스템
KR102579689B1 (ko) * 2022-11-10 2023-09-18 주식회사 이지에프앤씨 커스터마이징 기반의 스마트팜 서비스 제공 시스템
NO20220416A1 (en) * 2022-04-05 2023-10-06 Digifarm As Methods and systems for estimating crop yield from vegetation index data
KR102597426B1 (ko) * 2022-11-09 2023-11-02 시스템 엔지니어링 코리아 ㈜ 농산물 충격량 무선 측정 시스템
KR20240006746A (ko) * 2022-07-06 2024-01-16 전라남도 양파 지상부 위경 생육패턴을 이용한 구 예측 방법 및 시스템
KR20240129653A (ko) * 2023-02-20 2024-08-28 (주)신한항업 항공촬영을 통한 노지작물의 경작 현황 확인방법과 판독시스템
KR20240150006A (ko) 2023-04-07 2024-10-15 (주)제로엔 농장 데이터를 처리하는 제어 장치와 그 방법, 및 상기 제어 장치를 포함하는 스마트팜 관리 시스템
KR102804327B1 (ko) * 2024-01-23 2025-05-08 주식회사 긴트 스마트 작업영역 및 경로를 지정하기 위해, 통신 시스템에서 다중 측정 지형 데이터에 기반하여 스마트 작업영역 및 경로를 지정하는 방법 및 이를 수행하는 통신 시스템
US12411725B2 (en) 2022-09-30 2025-09-09 Korea Electronics Technology Institute System based on IOMT and operating method of the same

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US12078992B2 (en) * 2020-04-21 2024-09-03 Pyka, Inc. Unmanned aerial vehicle aerial spraying control
KR102273655B1 (ko) * 2020-12-24 2021-07-06 국방기술품질원 적대적 생성 신경망 알고리즘을 활용한 초분광 고속 카메라 영상 생성 방법
KR102384334B1 (ko) * 2021-02-26 2022-04-08 주식회사 이노드 재배지의 작물 정보 제공 장치 및 방법
KR102514706B1 (ko) * 2021-09-07 2023-03-29 경상국립대학교산학협력단 무인 비행체의 비행 경로 미션파일 자동 생성장치 및 방법
KR102788947B1 (ko) * 2021-12-10 2025-04-01 (주)엘컴텍 인공지능 기반의 재선충 검지 시스템 및 방법.
KR102447678B1 (ko) * 2022-05-16 2022-09-26 이대권 드론 및 인공지능을 이용하는 식물 관리 방법
KR20240005607A (ko) 2022-07-05 2024-01-12 주식회사 이노드 무인 비행체 촬영 영상의 이미지 정합 방법 및 이를위한 장치
CN115371571A (zh) * 2022-08-16 2022-11-22 中国农业科学院农业资源与农业区划研究所 一种燕麦相对高度估算方法及系统
CN116755461A (zh) * 2023-05-15 2023-09-15 深圳市喜悦智慧数据有限公司 一种低空飞行器的飞行环境识别监测方法及系统
CN116733472B (zh) * 2023-06-05 2024-06-04 江西华丽丰科技有限公司 一种基于智能算法的金属矿石采选控制系统
CN116543309B (zh) * 2023-06-28 2023-10-27 华南农业大学 一种作物异常信息获取方法、系统、电子设备及介质
CN117612047B (zh) * 2024-01-23 2024-04-12 国网湖北省电力有限公司信息通信公司 基于ai大模型的电网用无人机巡检图像识别方法
CN119206483A (zh) * 2024-09-03 2024-12-27 中国科学院地理科学与资源研究所 一种基于遥感卫星及无人机的作物全期估产方法及系统

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014160589A1 (en) * 2013-03-24 2014-10-02 Bee Robotics Corporation Aerial farm robot system for crop dusting, planting, fertilizing and other field jobs
WO2016183000A1 (en) * 2015-05-12 2016-11-17 BioSensing Systems, LLC Apparatuses and methods for bio-sensing using unmanned aerial vehicles
KR20170047036A (ko) * 2015-10-22 2017-05-04 농업회사법인 주식회사 호그린 무인 농약 공급 시스템
WO2017077543A1 (en) * 2015-11-08 2017-05-11 Agrowing Ltd A method for aerial imagery acquisition and analysis
KR20170058526A (ko) * 2015-11-19 2017-05-29 하태훈 원반형 무인항공기
KR101801746B1 (ko) * 2017-01-03 2017-11-27 (주)세이프어스드론 방제용 스마트 드론, 이를 이용한 스마트 방제 시스템 및 방법
JP2018537335A (ja) * 2015-12-09 2018-12-20 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 無人航空機の飛行を制御する方法及びシステム
KR101948635B1 (ko) * 2017-12-20 2019-02-18 계양전기 주식회사 농업용 드론 및 이의 운용방법

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9070101B2 (en) * 2007-01-12 2015-06-30 Fatdoor, Inc. Peer-to-peer neighborhood delivery multi-copter and method
KR101642828B1 (ko) * 2014-05-26 2016-07-28 서울대학교산학협력단 다중 영상 기반 장애물 회피 시스템 및 방법

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014160589A1 (en) * 2013-03-24 2014-10-02 Bee Robotics Corporation Aerial farm robot system for crop dusting, planting, fertilizing and other field jobs
US20140303814A1 (en) * 2013-03-24 2014-10-09 Bee Robotics Corporation Aerial farm robot system for crop dusting, planting, fertilizing and other field jobs
WO2016183000A1 (en) * 2015-05-12 2016-11-17 BioSensing Systems, LLC Apparatuses and methods for bio-sensing using unmanned aerial vehicles
KR20170047036A (ko) * 2015-10-22 2017-05-04 농업회사법인 주식회사 호그린 무인 농약 공급 시스템
WO2017077543A1 (en) * 2015-11-08 2017-05-11 Agrowing Ltd A method for aerial imagery acquisition and analysis
KR20170058526A (ko) * 2015-11-19 2017-05-29 하태훈 원반형 무인항공기
JP2018537335A (ja) * 2015-12-09 2018-12-20 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 無人航空機の飛行を制御する方法及びシステム
KR101801746B1 (ko) * 2017-01-03 2017-11-27 (주)세이프어스드론 방제용 스마트 드론, 이를 이용한 스마트 방제 시스템 및 방법
KR101948635B1 (ko) * 2017-12-20 2019-02-18 계양전기 주식회사 농업용 드론 및 이의 운용방법

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230040765A (ko) * 2021-09-16 2023-03-23 한국항공우주연구원 작물 생산량 예측 방법 및 장치
KR102653356B1 (ko) * 2021-09-16 2024-04-02 한국항공우주연구원 작물 생산량 예측 방법 및 장치
KR102467855B1 (ko) * 2021-09-17 2022-11-16 경남도립거창대학산학협력단 자율항법지도를 설정하는 방법 및 무인비행체가 자율항법지도에 기초하여 자율 비행하는 방법 및 이를 구현하는 시스템
KR20230081690A (ko) 2021-11-30 2023-06-07 (주)레이원 복합재배관리 의사결정시스템
WO2023101146A1 (ko) * 2021-12-03 2023-06-08 한국전자기술연구원 영상정보 기반의 벼 키다리병 자동 판독 장치 및 방법
WO2023106558A1 (ko) * 2021-12-07 2023-06-15 한국전자기술연구원 영상정보 기반의 벼 도복 자동 판독 장치 및 방법
KR20230102860A (ko) * 2021-12-30 2023-07-07 충남대학교산학협력단 영상을 이용한 인공지능 작물 판독시스템 및 작물 주문 중계시스템
KR102842365B1 (ko) * 2021-12-30 2025-08-06 충남대학교 산학협력단 영상을 이용한 인공지능 작물 판독시스템 및 작물 주문 중계시스템
NO20220416A1 (en) * 2022-04-05 2023-10-06 Digifarm As Methods and systems for estimating crop yield from vegetation index data
KR102809383B1 (ko) 2022-07-06 2025-05-23 전라남도 양파 지상부 위경 생육패턴을 이용한 구 예측 방법 및 시스템
KR20240006746A (ko) * 2022-07-06 2024-01-16 전라남도 양파 지상부 위경 생육패턴을 이용한 구 예측 방법 및 시스템
US12411725B2 (en) 2022-09-30 2025-09-09 Korea Electronics Technology Institute System based on IOMT and operating method of the same
KR102597426B1 (ko) * 2022-11-09 2023-11-02 시스템 엔지니어링 코리아 ㈜ 농산물 충격량 무선 측정 시스템
KR102579689B1 (ko) * 2022-11-10 2023-09-18 주식회사 이지에프앤씨 커스터마이징 기반의 스마트팜 서비스 제공 시스템
KR102747681B1 (ko) * 2023-02-20 2025-01-02 (주)신한항업 항공촬영을 통한 노지작물의 경작 현황 확인방법과 판독시스템
KR20240129653A (ko) * 2023-02-20 2024-08-28 (주)신한항업 항공촬영을 통한 노지작물의 경작 현황 확인방법과 판독시스템
KR20240150006A (ko) 2023-04-07 2024-10-15 (주)제로엔 농장 데이터를 처리하는 제어 장치와 그 방법, 및 상기 제어 장치를 포함하는 스마트팜 관리 시스템
KR102804327B1 (ko) * 2024-01-23 2025-05-08 주식회사 긴트 스마트 작업영역 및 경로를 지정하기 위해, 통신 시스템에서 다중 측정 지형 데이터에 기반하여 스마트 작업영역 및 경로를 지정하는 방법 및 이를 수행하는 통신 시스템

Also Published As

Publication number Publication date
KR102187654B1 (ko) 2020-12-07

Similar Documents

Publication Publication Date Title
KR102300799B1 (ko) 작물 상태 판단 장치 및 이를 포함하는 작물 재배 정보 서비스 플랫폼
Hamylton et al. Evaluating techniques for mapping island vegetation from unmanned aerial vehicle (UAV) images: Pixel classification, visual interpretation and machine learning approaches
Kulbacki et al. Survey of drones for agriculture automation from planting to harvest
Meivel et al. Remote sensing analysis of agricultural drone
Honrado et al. UAV imaging with low-cost multispectral imaging system for precision agriculture applications
Marín et al. Urban lawn monitoring in smart city environments
Kakamoukas et al. A multi-collective, IoT-enabled, adaptive smart farming architecture
Xue et al. Assessment of canopy vigor information from kiwifruit plants based on a digital surface model from unmanned aerial vehicle imagery
Elango et al. Precision agriculture: a novel approach on AI-driven farming
Almalki et al. Coupling an autonomous UAV with a ML framework for sustainable environmental monitoring and remote sensing
Mathivanan et al. Utilizing satellite and UAV data for crop yield prediction and monitoring through deep learning
Livanos et al. Extraction of reflectance maps for smart farming applications using unmanned aerial vehicles
Bisht Yield prediction using spatial and temporal deep learning algorithms and data fusion
Laura et al. Aerial remote sensing system to control pathogens and diseases in broccoli crops with the use of artificial vision
Gadepally et al. A Deep Transfer Learning based approach for forecasting spatio-temporal features to maximize yield in cotton crops
Duman et al. Design of a smart vertical farming system using image processing
KR102408373B1 (ko) 농지 정보의 자동화 관리 방법 및 그를 위한 장치
Senthilraj et al. Farming the future: an approach to precision agriculture through UAS-based thermal scanners
Kavitha et al. GIS systems for precision agriculture and site-specific farming
Poudel et al. Assessing Red Pine Seedlings Using Uav Point Clouds and Field-Verified Data
Izere Plant Height Estimation Using RTK-GNSS Enabled Unmanned Aerial Vehicle (UAV) Photogrammetry
Poudel Unmanned Aerial Vehicles (UAVs) in Vegetation Monitoring
KR102904728B1 (ko) 드론의 다중분광 센서를 이용한 농경지 토지이용 자동 분류 방법
Kiktev et al. Apple Fruits Monitoring Diseases on the Tree Crown Using a Convolutional Neural Network.
Lapans et al. An in-house solution for the integration of multispectral photogrammetry data and IoT for potato field monitoring

Legal Events

Date Code Title Description
PA0109 Patent application

St.27 status event code: A-0-1-A10-A12-nap-PA0109

PA0201 Request for examination

St.27 status event code: A-1-2-D10-D11-exm-PA0201

PA0302 Request for accelerated examination

St.27 status event code: A-1-2-D10-D17-exm-PA0302

St.27 status event code: A-1-2-D10-D16-exm-PA0302

PE0902 Notice of grounds for rejection

St.27 status event code: A-1-2-D10-D21-exm-PE0902

E13-X000 Pre-grant limitation requested

St.27 status event code: A-2-3-E10-E13-lim-X000

P11-X000 Amendment of application requested

St.27 status event code: A-2-2-P10-P11-nap-X000

P13-X000 Application amended

St.27 status event code: A-2-2-P10-P13-nap-X000

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

St.27 status event code: A-1-2-D10-D22-exm-PE0701

GRNT Written decision to grant
PR0701 Registration of establishment

St.27 status event code: A-2-4-F10-F11-exm-PR0701

PR1002 Payment of registration fee

St.27 status event code: A-2-2-U10-U11-oth-PR1002

Fee payment year number: 1

PG1601 Publication of registration

St.27 status event code: A-4-4-Q10-Q13-nap-PG1601

P22-X000 Classification modified

St.27 status event code: A-4-4-P10-P22-nap-X000

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 4

P22-X000 Classification modified

St.27 status event code: A-4-4-P10-P22-nap-X000

R18-X000 Changes to party contact information recorded

St.27 status event code: A-5-5-R10-R18-oth-X000