[go: up one dir, main page]

JP2018169993A - Result prediction apparatus, result prediction method, and program - Google Patents

Result prediction apparatus, result prediction method, and program Download PDF

Info

Publication number
JP2018169993A
JP2018169993A JP2017120637A JP2017120637A JP2018169993A JP 2018169993 A JP2018169993 A JP 2018169993A JP 2017120637 A JP2017120637 A JP 2017120637A JP 2017120637 A JP2017120637 A JP 2017120637A JP 2018169993 A JP2018169993 A JP 2018169993A
Authority
JP
Japan
Prior art keywords
data
wavelength
result
prediction
date
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017120637A
Other languages
Japanese (ja)
Other versions
JP6932563B2 (en
Inventor
貴大 増田
Takahiro Masuda
貴大 増田
晋一 洞井
Shinichi Doi
晋一 洞井
涼 坂川
Ryo Sakagawa
涼 坂川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone West Corp
Original Assignee
Nippon Telegraph and Telephone West Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone West Corp filed Critical Nippon Telegraph and Telephone West Corp
Publication of JP2018169993A publication Critical patent/JP2018169993A/en
Application granted granted Critical
Publication of JP6932563B2 publication Critical patent/JP6932563B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】農作物の最適収穫日のような対象物が最終結果に至る日の予測を行う。【解決手段】収穫量のような最終結果の予測対象である農作物について、スペクトルカメラ1による多波長画像である多波長写真データを、収穫前に間隔を空けて複数枚撮影して撮影日データとともに蓄積し、予め多波長写真データを撮影した上記農作物を実際に収穫した収穫日までのデータを含む結果状態ラベルを、当該農作物の多波長写真データと関連付け、上記多波長写真データと上記結果状態ラベルとを関連付けた教師用データ群により、上記多波長写真データの入力に対して上記結果状態ラベルを出力する分析パラメータをトレーニングし、同種の農作物の収穫前の個体について、スペクトルカメラ1により撮影した多波長画像である多波長写真データを、上記分析パラメータにより解析して、対応した上記結果状態ラベルを得る。【選択図】図1An object of the present invention is to predict a day when an object such as an optimal crop harvest date reaches a final result. A plurality of multi-wavelength photographic data, which is a multi-wavelength image obtained by a spectrum camera 1, is photographed at intervals before harvesting, together with photographing date data, for a crop that is a prediction target of a final result such as a harvest amount. The result state label that includes data up to the harvest date when the crop that has been collected and previously taken the multi-wavelength photo data is actually harvested is associated with the multi-wavelength photo data of the crop, and the multi-wavelength photo data and the result state label Is used to train the analysis parameters for outputting the result status label in response to the input of the multi-wavelength photographic data, and the individual before the harvest of the same type of crop is captured by the spectrum camera 1. Analyzing multi-wavelength photographic data, which is a wavelength image, using the above analysis parameters, and obtaining the corresponding result state label[Selection] Figure 1

Description

この発明は、多波長を記録した画像を用いて、撮影対象物の時間的な変化を予測しようとしたときに、多数の学習用教師データとAI技術を用いて予測器を作成し、精度の高い時間変化予測を行える、画像解析技術に関する。   The present invention creates a predictor using a large number of learning teacher data and AI technology when trying to predict temporal changes in an object to be photographed using an image in which multiple wavelengths are recorded. The present invention relates to an image analysis technique that can perform high time change prediction.

屋外に設置された建造物や屋外で栽培される農作物は、工場内での生産活動と違って、単純に結果を予定通りに進めることができない。工業製品と違い、農作物の品質を均一に高めようとしても、気温や湿度、日照時間、水や肥料の量など、様々な要素が関与するため、野菜工場のような完全閉鎖系でなければそれらの環境を完全にコントロールできるわけではない。このため、どのように生育させ、どのようなタイミングで収穫すればよいか、収率と確実性の高い方法を模索することが続けられている。   Buildings installed outdoors and crops cultivated outdoors, unlike production activities in the factory, cannot simply achieve results as planned. Unlike industrial products, even when trying to improve the quality of crops uniformly, various factors such as temperature, humidity, sunshine hours, amount of water and fertilizer are involved. The environment is not completely controlled. For this reason, it continues to search for a method with high yield and certainty of how to grow and when to harvest.

例えば、トマトは成長過程が複雑であるため、最適な収穫日を正確に把握することが難しい。最適収穫日を予測する手法としては、積算温度や積算日照量などの数値を元にすることが従来行われていた。しかし、それだけでは情報が不足しており、十分な精度での解析はできなかった。   For example, since the growth process of tomatoes is complicated, it is difficult to accurately grasp the optimal harvest date. As a method for predicting the optimum harvest date, it has been conventionally performed based on numerical values such as an integrated temperature and an integrated amount of sunlight. However, the information alone was insufficient, and analysis with sufficient accuracy was not possible.

特許文献1では、センサデータとヘリコプターからの空撮による生育度測定装置と、マルチスペクトルカメラをそなえた個々の作物の観測を行うモニタリング装置のデータを元に、灌漑制御を行う手法が提案されている。スペクトルカメラは、主に育成中の作物の色を、多数の周波数域に亘って測定することで、従来のRBGデータだけのカメラよりも多くの情報を得ることができるカメラである。具体的には、水ストレスのある状態と無い状態でマルチスペクトルカメラを用いた観測を行い、光合成速度と相関のある指数PRI(Photochemical / Physiological reflectance Index)を測定し、この観測したPRIの値に基づいて水の供給をコントロールする灌漑制御を行うことが記載されている。   Patent Document 1 proposes a method for performing irrigation control based on sensor data, a growth measuring device by aerial photography from a helicopter, and data of a monitoring device for observing individual crops equipped with a multispectral camera. Yes. A spectrum camera is a camera that can obtain more information than a conventional RBG data-only camera by measuring the color of a growing crop mainly over many frequency ranges. Specifically, the observation using a multispectral camera is performed with and without water stress, and an index PRI (Photochemical / Physiological reflectance Index) correlated with the photosynthetic rate is measured. It is described that irrigation control is performed to control water supply based on this.

なお、スペクトルカメラで撮影された多波長画像の解析にあたっては、画像の特定部位を抽出し、その部位から波長強度のグラフを作成し、グラフの時間変化を解析することで予測することが一般に行われている。トマトやリンゴ、イチゴのように、収穫に適したタイミングで色彩が変わる野菜や果物において、得られる情報は特に多くなる。   When analyzing multi-wavelength images taken with a spectral camera, it is generally performed by extracting a specific part of the image, creating a graph of wavelength intensity from the part, and analyzing the graph over time. It has been broken. The amount of information that can be obtained is particularly large for vegetables and fruits that change color at a timing suitable for harvest, such as tomatoes, apples, and strawberries.

また、特許文献2には、過去に蓄積された調査地域の画像や圃場の属性情報と、圃場の空撮画像と、気象データとを組み合わせて、作物の収率予想を行う手法が提案されている。   Further, Patent Document 2 proposes a method for predicting crop yield by combining images of survey areas and field attribute information accumulated in the past, aerial images of farm fields, and weather data. Yes.

特許文献3には、納入された農産物の量から、出荷基準を満たす農産物の量を予測する予測プログラムが提案されている。   Patent Document 3 proposes a prediction program that predicts the amount of agricultural products that satisfy the shipping standards from the amount of delivered agricultural products.

特開2016-49102号公報JP2016-49102A 特開2015-49号公報JP-A-2015-49 特開2016-118895号公報Japanese Unexamined Patent Publication No. 2016-118895

しかしながら、従来のカメラより得られる情報が増えたスペクトルカメラで撮影された多波長画像を解析することで、灌漑制御の効果を観測することはできても、最終的な結果が得られる時間軸上の未来予想となる収穫日の予測には情報が不足していた。生育過程の農産物の多波長画像を撮影しても、そのデータから収穫日を導き出す画一的な手法は存在しておらず、撮影した多波長画像から農産物の特定部位を抽出してグラフの解析を行うには研究者の高い技能と経験が必要であった。このため、実際には多波長画像を一枚ずつ解析するしかなく、枚数を増やして精度を確保することが難しかった。   However, it is possible to observe the effect of irrigation control by analyzing multi-wavelength images taken with a spectrum camera that has more information than the conventional camera, but on the time axis where the final result can be obtained. There was not enough information to predict the future harvest date. Even if a multi-wavelength image of a growing agricultural product is taken, there is no uniform method for deriving the harvest date from that data. To do this, researchers had to have high skills and experience. For this reason, in practice, it is necessary to analyze the multi-wavelength images one by one, and it is difficult to increase the number of images to ensure accuracy.

また、多波長画像の成分値は波長の組み合わせとして記録されることが多いが、収穫日がどの成分(波長の組み合わせ)に関係しているかは未知であるため、すべての波長の組み合わせを精査する必要があり、多波長画像として情報を増やすために波長の数が多くなるほどに組み合わせ数が爆発的に増大し、解析することが困難となってしまった。   In addition, component values of multi-wavelength images are often recorded as wavelength combinations, but it is unknown which component (wavelength combination) the harvest date relates to, so examine all wavelength combinations. In order to increase information as a multi-wavelength image, the number of combinations increases explosively as the number of wavelengths increases, making analysis difficult.

そこでこの発明は、スペクトルカメラによる多波長画像を用いて、農産物の収穫日やインフラの破損日のような未来時点の予測を行えるようにすることを目的とする。   Accordingly, an object of the present invention is to enable prediction of future time points such as the date of harvest of agricultural products and the date of damage to infrastructure using a multi-wavelength image obtained by a spectrum camera.

この発明は、
結果予測対象である対象物について、スペクトルカメラによる多波長画像である多波長写真データを、最終結果前に間隔を空けて複数枚撮影して撮影日データとともに蓄積し、
予め多波長写真データを撮影した上記対象物の最終結果日までのデータを含む結果状態ラベルを、当該対象物の多波長写真データと関連付け、
上記多波長写真データと上記結果状態ラベルとを関連付けた教師用データ群により、上記多波長写真データの入力に対して上記結果状態ラベルを出力する分析パラメータをトレーニングし、
同種の対象物の最終結果前のサンプルについて、スペクトルカメラにより撮影した多波長画像である多波長写真データを、上記分析パラメータにより解析して、対応した上記結果状態ラベルを得ることで、上記の課題を解決したのである。
This invention
Multi-wavelength photographic data, which is a multi-wavelength image obtained by a spectrum camera, is collected for the target object that is the result prediction target, and is collected together with the shooting date data by shooting multiple images at intervals before the final result.
Associating a result state label including data up to the final result date of the target object obtained by photographing the multi-wavelength photograph data in advance with the multi-wavelength photograph data of the target object,
Training analysis parameters for outputting the result state label with respect to the input of the multi-wavelength photograph data by the teacher data group that associates the multi-wavelength photograph data and the result state label,
Analyzing multi-wavelength photographic data, which is a multi-wavelength image photographed by a spectrum camera, for the sample before the final result of the same type of object using the analysis parameters to obtain the corresponding result state label, It was solved.

例えば、結果予測対象である対象物が農作物である場合には、最終結果とは収穫であり、最終結果日とは収穫日となる。結果予測対象が橋梁や高架、道路、トンネルなどの土木建築系インフラである場合には、最終結果とはひび割れや剥落などの破損であり、最終結果日とは破損発生日となる。この発明で取り扱う結果予測対象とは、時間経過とともに姿や状態が徐々に変化していくものの、その変化スケールが数日以上、場合によっては年単位に及ぶため、人間の目で見てもその最終結果に至る時点が明確に予測しにくいものであるとよい。   For example, when the target object of the result prediction is a crop, the final result is a harvest, and the final result date is a harvest date. If the result prediction target is civil engineering and infrastructure such as bridges, overpasses, roads, and tunnels, the final result is damage such as cracking or peeling, and the final result date is the date of occurrence of the damage. The result prediction object handled in this invention is that the figure and state gradually change over time, but the change scale is several days or more, sometimes in units of years, so even with the human eye It is good that the time to reach the final result is hard to predict clearly.

農作物を対象とする場合、準備段階としては、収穫しようとする農作物について、日々の状態を多波長画像で記録しておき、熟練経験者による判断で最適な収穫日を決定して収穫する。これにより、撮影しておいたそれぞれの多波長画像が最適な収穫日の何日前における記録であるかを示すデータ群を得ることができる。上記の収穫日までのデータとは、すなわち、実際に収穫した日の何日前であるかというデータを含む。これらを関連付けたデータセットによりトレーニングした上記分析パラメータを用い、未収穫の農作物の上記多波長写真データを入力すると、出力として最適な収穫日までの日数を上記結果状態ラベルとして得ることができる。これにより、それぞれの農作物の最適な収穫日を、以後は熟練経験者が介在しなくても決定できるだけでなく、人間の目には判断しきれない要素をも判断基準として収穫予想が可能になる。   In the case of targeting crops, as a preparation stage, the daily state of the crops to be harvested is recorded as a multi-wavelength image, and an optimum harvest date is determined and harvested based on judgment by a skilled person. Thereby, it is possible to obtain a data group indicating how many days before the optimum harvest date each multi-wavelength image that has been photographed is recorded. The data up to the harvest date includes data indicating how many days before the actual harvest date. When the multi-wavelength photographic data of an unharvested crop is input using the analysis parameters trained by the data set associated with these, the number of days until the optimal harvest date can be obtained as the result state label as an output. This makes it possible not only to determine the optimal harvest date for each crop afterwards without the need of skilled experience, but also makes it possible to predict harvest based on criteria that cannot be judged by the human eye. .

また、上記結果状態ラベルには最終結果日までの日数だけでなく、農作物であれば糖度や等級といった収穫された農作物の品質や質量に関するデータを含めてもよい。インフラの破断であれば補修に必要な工事の見積など破損自体に関するデータを含めてもよい。   Further, the result status label may include not only the number of days until the final result date but also data regarding the quality and mass of the harvested crop such as sugar content and grade in the case of a crop. If the infrastructure is broken, data on the damage itself, such as an estimate of the work required for repair, may be included.

分析パラメータのトレーニングには一般的な機械学習における教師付きデータによるトレーニングの手法を用いることができる。   For training of analysis parameters, a training method using supervised data in general machine learning can be used.

スペクトルカメラによる映像は、赤外線領域まで含めることができ、人間の目で見るよりも遙かに多くの情報を得ることができる。そのような多くの情報によりトレーニングされた分析パラメータを用いることで、より精度の高い収穫日の予測を行うことができる。   The image by the spectrum camera can include the infrared region, and can obtain much more information than that seen by human eyes. By using analysis parameters trained with such a large amount of information, it is possible to predict the harvest date with higher accuracy.

成熟までの間に色合いの変化に乏しい野菜や果実でも、撮影される茎や枝との大きさ比率や赤外線領域の変化などを判断基準として取り込むことができるため、多くの農作物において収穫の予測を行うことができる。また、年単位のスケールで取り扱うため人間の目には変化がわかりにくい屋外インフラであっても、表面のわずかな色彩変化などを取り込むことができるため、ある程度正確に予測を立てることができる。   Even for vegetables and fruits that do not change in color before maturity, it is possible to capture changes in the size ratio of captured stems and branches and changes in the infrared region, etc. as criteria for judgment. It can be carried out. Moreover, even if the outdoor infrastructure is difficult for human eyes to understand because it is handled on a yearly scale, it can capture slight color changes on the surface, so that it can make predictions to a certain degree of accuracy.

この発明の一実施形態である収穫予測装置とその周辺装置の機能ブロック図Functional block diagram of a harvest prediction device and its peripheral devices according to an embodiment of the present invention この発明の一実施形態である収穫予測方法の撮影ステップのフロー例図FIG. 4 is a flowchart showing an example of a photographing step of the harvest prediction method according to the embodiment of the present invention. この発明の一実施形態である収穫予測方法のトレーニングステップのフロー例図Flow diagram of training step of harvest prediction method according to one embodiment of this invention この発明の一実施形態である収穫予測方法の予測ステップのフロー例図Flow diagram of prediction step of harvest prediction method according to one embodiment of this invention

以下、この発明について具体的な実施形態とともに詳細に説明する。この発明は、時間と共に状態が変化していく対象物が何らかの最終結果に到達する際の状況を予測する対象物の結果予測方法及び結果予測装置である。まず、結果予測方法及び結果予測装置の実施形態として、農作物の収穫予測方法、及びそれを実行できる収穫予測装置を説明する。   Hereinafter, the present invention will be described in detail together with specific embodiments. The present invention is an object result prediction method and result prediction apparatus for predicting a situation when an object whose state changes with time reaches some final result. First, as embodiments of a result prediction method and a result prediction apparatus, a crop yield prediction method and a harvest prediction apparatus capable of executing the same will be described.

この発明の実施形態に係る収穫予測装置となる結果予測装置11とその周辺装置の機能ブロック図を図1に示す。予測を行う結果予測装置11は、トレーニングに用い、又は予測の対象とする画像データを保存するデータ保管装置31と接続される。データ保管装置31は結果予測装置11と同一筐体でもよいし、別筐体でもよい。図1では別筐体である場合を示す。また、多波長画像を撮影するスペクトルカメラ1を有する。スペクトルカメラ1は撮影を制御する撮影用コンピュータ2と接続される。撮影用コンピュータ2は、直接接続又はネットワーク接続でデータ保管装置31と繋がる。図1ではLAN経由で接続する場合を示す。   FIG. 1 shows a functional block diagram of a result prediction device 11 that is a harvest prediction device according to an embodiment of the present invention and its peripheral devices. The result prediction device 11 that performs prediction is connected to a data storage device 31 that stores image data to be used for training or to be predicted. The data storage device 31 may be the same housing as the result prediction device 11 or may be a separate housing. FIG. 1 shows a case of a separate housing. Moreover, it has the spectrum camera 1 which image | photographs a multiwavelength image. The spectrum camera 1 is connected to a photographing computer 2 that controls photographing. The photographing computer 2 is connected to the data storage device 31 by direct connection or network connection. FIG. 1 shows a case of connection via a LAN.

スペクトルカメラ1は、マルチスペクトルカメラやハイパースペクトルカメラと呼ばれる、一般的なRGB三原色のカメラよりも記録する波長が多いカメラである。何十もの波長でのデータの集合でもよいし、可視光域の広い範囲に亘るスペクトルデータでもよいし、赤外域や紫外域にまで亘るスペクトルデータでもよい。農作物の特徴は赤外線領域に出やすい傾向にあるため、赤外域から可視光域までをカバーするスペクトルで撮影できると好ましい。   The spectrum camera 1 is a camera having a larger recording wavelength than a general RGB three-primary color camera called a multispectral camera or a hyperspectral camera. It may be a collection of data at several tens of wavelengths, spectral data over a wide range in the visible light range, or spectral data over the infrared or ultraviolet range. Since the characteristics of crops tend to appear in the infrared region, it is preferable that images can be taken with a spectrum covering from the infrared region to the visible light region.

このスペクトルカメラ1は、収穫前の農作物を撮影日データとともに撮影する。後述する教師用データに用いる教師用データ群としては、後日の実際の最終結果日までの日数が異なる多数のデータが必要となる。この最終結果日とは、農作物の場合、収穫日である。最適な収穫日のn日前と、n+1日前とでは異なる特徴があると考えられ、それをスペクトルカメラ1で観測し、それを特徴量として見出せるように後述する分析パラメータ21をトレーニングする必要があるからである。   The spectrum camera 1 captures the crop before harvesting together with the date data. As a teacher data group used for teacher data, which will be described later, a large number of data having different days until the actual final result date is required. This final result date is the harvest date in the case of crops. It is considered that there is a different feature between n days before the optimal harvest date and n + 1 days before, and it is necessary to train the analysis parameter 21 described later so that it can be observed with the spectrum camera 1 and found as a feature quantity. It is.

上記の教師用データ群はできるだけ多数であることが好ましい。このため、同一品種の農作物の別個体について撮影したデータを多数揃えるだけでなく、同一個体に対しても間隔を空けて複数回の撮影を行うことが望ましい。撮影間隔としては、1日ごとに撮影するか、それ以上に間隔を空けることが望ましい。収穫する日時の予測を定めるものであるため、基本的には日ごとのデータで事足りるためである。ただし、時刻単位で最終的な品質が大きく異なる農作物の場合は、3〜12時間ごとに撮影してもよい。一方、撮影間隔が一週間を超えて空いてしまうと収穫日までのデータとしては精度が低下し、データ数も増やしにくい。このため、同一個体についての撮影間隔は7日以下であると好ましく、4日以下であるとより好ましい。このような撮影を、できるだけ多数の個体について行う。ただし、撮影間隔は個体ごとに異なっていてもよい。   The teacher data group is preferably as many as possible. For this reason, it is desirable not only to prepare a large number of data taken for separate crops of the same variety of crops, but also to take multiple shots at intervals for the same individual. As the shooting interval, it is desirable to take a photo every day or leave a longer interval. This is because the data for each day is sufficient because the date and time for harvesting are determined. However, in the case of crops whose final quality differs greatly in time units, images may be taken every 3 to 12 hours. On the other hand, if the shooting interval exceeds one week, the accuracy of the data up to the harvest date decreases, and it is difficult to increase the number of data. For this reason, the imaging interval for the same individual is preferably 7 days or less, and more preferably 4 days or less. Such imaging is performed for as many individuals as possible. However, the imaging interval may be different for each individual.

一方、この発明にかかる結果予測装置11によってこれから収穫日等の予測を行おうとする農作物の個体に対しては、一回の撮影によるデータでもこの発明による予測が可能である。   On the other hand, with respect to an individual of a crop to be predicted for a harvest date or the like by the result predicting apparatus 11 according to the present invention, it is possible to perform the prediction according to the present invention even with data taken once.

スペクトルカメラ1で撮影する映像は、基本的には農作物の果実など食べる部分を含むことが望ましい。ただし、品種によっては葉や茎の状態から作物の出来を判断することになる。食べる部分が土中にある根菜類や芋類では葉を撮影すると好ましい。一方、花の場合はつぼみ部分を含むことが必要である。   It is desirable that an image captured by the spectrum camera 1 basically includes an eating part such as a fruit of a crop. However, depending on the variety, the production of the crop is judged from the state of the leaves and stems. It is preferable to photograph the leaves of root vegetables and potatoes that eat in the soil. On the other hand, in the case of flowers, it is necessary to include a bud portion.

撮影用コンピュータ2はスペクトルカメラ1と接続され、スペクトルカメラ1の撮影を定期的に行うように制御する。農作物の正面に固定的に設置されるものでもよいし、農場に設置したレールに沿って動くものでもよいし、ドローンによって空中移動するものでもよい。接続は図1ではUSBのような有線接続としているが、スペクトルカメラ1側に十分な無線接続機能があれば無線接続でもよい。   The photographing computer 2 is connected to the spectrum camera 1 and controls to periodically photograph the spectrum camera 1. It may be fixedly installed in front of the crop, may be moved along a rail installed on the farm, or may be moved in the air by a drone. In FIG. 1, the connection is a wired connection such as USB, but a wireless connection may be used if the spectrum camera 1 has a sufficient wireless connection function.

撮影用コンピュータ2は、スペクトルカメラ1を制御するカメラ操作ソフト3を有する。撮影用コンピュータ2がパソコンである場合には、カメラ操作ソフト3は画面上にスペクトルカメラ1を制御するための項目を表示し、ポインティングデバイスやキーボード等により操作を受け付ける。撮影用コンピュータ2がサーバである場合には、カメラ操作ソフト3はさらにネットワーク経由で接続されたパソコン、スマートフォン、タブレットなどから操作を受け付けるネットワークサーバ機能を有する。いずれの形態であっても、カメラ操作ソフト3によって、撮影しようとする農作物の写真を上記の撮影間隔を空けて定期的に撮影するように制御する。   The photographing computer 2 has camera operation software 3 for controlling the spectrum camera 1. When the photographing computer 2 is a personal computer, the camera operation software 3 displays an item for controlling the spectrum camera 1 on the screen, and accepts an operation with a pointing device, a keyboard, or the like. When the photographing computer 2 is a server, the camera operation software 3 further has a network server function for receiving operations from a personal computer, a smartphone, a tablet, or the like connected via a network. Regardless of the form, the camera operation software 3 is used to perform control so that a photograph of a crop to be photographed is regularly photographed at the photographing interval.

撮影用コンピュータ2は、スペクトルカメラ1によって撮影された多波長画像である多波長写真データを撮影した日時データとともに記録する記憶部4を有する。記憶部4のハードウェアは磁気ディスクでもよいし、不揮発性半導体メモリでもよい。   The photographing computer 2 has a storage unit 4 that records multi-wavelength photo data, which is a multi-wavelength image photographed by the spectrum camera 1, together with date / time data of photographing. The hardware of the storage unit 4 may be a magnetic disk or a non-volatile semiconductor memory.

撮影用コンピュータ2は、直接又は間接にデータ保管装置31と接続されるネットワークインターフェースである撮影画像通信部5を有する。また、撮影用コンピュータ2を制御する撮影画像制御部6は、記憶部4へ上記多波長写真データが記録されたら、順次、又はバッチ式にデータ保管装置31へ転送する。   The imaging computer 2 includes a captured image communication unit 5 that is a network interface that is directly or indirectly connected to the data storage device 31. Further, when the multi-wavelength photographic data is recorded in the storage unit 4, the captured image control unit 6 that controls the imaging computer 2 transfers the data to the data storage device 31 sequentially or batchwise.

データ保管装置31は、大規模記憶装置を有するサーバであるとよい。順次画像を保管し、読み出すことができればよい。具体的には、市販のNAS(Network Attached Storage)を用いてもよいし、パソコンを流用してもよいし、専用のデータサーバでもよい。また、クラウド上に存在していてもよい。データ保管装置31の通信インターフェースを制御する保管領域通信部32が、撮影用コンピュータ2から上記多波長写真データを受信したら、データ保管装置31を制御する保管領域制御部33は、その多波長写真データを保管装置記憶部34に記憶する。保管装置記憶部34では、撮影された写真を撮影対象毎に分類したり、撮影した日時毎に分類したりして識別しやすいようにして保存する。例えば図1に示すように、教師用データ群に用いるデータを集めた学習用画像保管部35と、これから収穫日等を予測しようとするデータを集めた予測用画像保管部36とに分ける形態が挙げられる。学習用画像保管部35ではさらに、撮影日毎にフォルダを分けたりしてよい。   The data storage device 31 may be a server having a large-scale storage device. It is only necessary that images can be stored and read sequentially. Specifically, a commercially available NAS (Network Attached Storage) may be used, a personal computer may be used, or a dedicated data server may be used. It may also exist on the cloud. When the storage area communication unit 32 that controls the communication interface of the data storage device 31 receives the multi-wavelength photo data from the imaging computer 2, the storage region control unit 33 that controls the data storage device 31 receives the multi-wavelength photo data. Is stored in the storage device storage unit 34. In the storage device storage unit 34, the photographed photos are classified for each photographing object or classified for each photographing date and time so as to be easily identified. For example, as shown in FIG. 1, there is a mode in which a learning image storage unit 35 that collects data used for a teacher data group and a prediction image storage unit 36 that collects data for which a harvest date or the like is to be predicted are collected. Can be mentioned. The learning image storage unit 35 may further divide folders for each shooting date.

結果予測装置11は、データ保管装置31に保管された上記多波長写真データについての収穫日との間で関連付けた登録と、それを用いた予測プログラム用の分析パラメータのトレーニングを行う。また、トレーニング後は、データ保管装置31に保管された上記多波長写真データについて、収穫日の予測その他の収穫予想となる出力を得る。   The result prediction device 11 performs registration of the multi-wavelength photograph data stored in the data storage device 31 in association with the harvest date and training of the analysis parameters for the prediction program using the registration. Further, after the training, for the multi-wavelength photo data stored in the data storage device 31, an output that is a harvest date prediction or other harvest prediction is obtained.

まず、トレーニングまでに関与する構成要素について説明する。結果予測装置11の学習画像制御部12は、ネットワークインターフェースを制御する分析画像通信部13を介して、データ保管装置31から上記多波長写真データを読み出す。   First, the components involved in the training will be described. The learning image control unit 12 of the result prediction apparatus 11 reads the multi-wavelength photographic data from the data storage device 31 via the analysis image communication unit 13 that controls the network interface.

結果予測装置11の状態ラベル入力部16は、読み出した個々の上記多波長写真データについて、撮影されたそれぞれの農作物の、その後実際の収穫日の入力を受け付ける。その入力を促すため、カラー化処理部15が、読み出した上記多波長写真データを、人間の目に判別しやすいカラー画像に変換する。広いレンジに亘る映像は人間の目には認識しづらいことがあるためである。基本的には赤緑青(RGB)の三色からなる映像であると好ましいが、白黒画像でも認識できるのならば利用可能である。また、単純な赤緑青だけに限定されず、赤外域や紫外域を含めた波長を適宜修正して擬似的なカラーとしてもよい。いずれの形態であっても、表示された農作物の写真を見て、作業者が実際の収穫日を認識できるようにする。   The state label input unit 16 of the result prediction apparatus 11 accepts the input of the actual harvest date of each of the captured crops for each of the read multi-wavelength photo data. In order to prompt the input, the colorization processing unit 15 converts the read multi-wavelength photo data into a color image that can be easily discerned by human eyes. This is because images over a wide range may be difficult to recognize by human eyes. Basically, it is preferable that the image is composed of three colors of red, green, and blue (RGB), but any image that can be recognized by a monochrome image can be used. Further, the color is not limited to simple red, green and blue, and a pseudo color may be obtained by appropriately correcting wavelengths including the infrared region and the ultraviolet region. In any form, the photograph of the displayed crop is seen so that the worker can recognize the actual harvest date.

結果予測装置11の状態ラベル入力部16は上記の変換された画像をモニタに出力し、収穫日の入力を受け付ける。入力された収穫日と、それぞれの多波長写真データの撮影日付から、それぞれの多波長写真データが、収穫日から逆算して何日前のデータであるかを算出する。その収穫日までの日数データ(残日数データ)を、結果状態ラベルとしてそれぞれの多波長写真データと関連付けることになる。   The state label input unit 16 of the result prediction apparatus 11 outputs the converted image to the monitor, and accepts the input of the harvest date. Based on the input harvest date and the shooting date of each multi-wavelength photo data, the multi-wavelength photo data is calculated backward from the harvest date to calculate how many days ago the data is. The days data until the harvest date (remaining days data) is associated with each multi-wavelength photo data as a result state label.

なお、状態ラベル入力部16の内容は人力による入力を要求する上記の内容に限られない。例えば、多波長写真データを予めハウスごとや畝ごとに分類しておけば、それらのハウスごと、畝ごとに一括して収穫した場合には、同一の収穫日となるため、バッチ処理で入力することができる。また、個々に収穫日が異なる場合でも、例えば、RFIDなどで個々の農作物を管理するとともに、上記多波長写真データの撮影時にもRFIDにより個々の農作物を識別して撮影しておき、収穫出荷の処理を行ったデータを一括して読み込んで、結果状態ラベルとして入力できるようにしてもよい。   Note that the content of the state label input unit 16 is not limited to the above-described content requesting input by human power. For example, if multi-wavelength photographic data is classified in advance for each house or per basket, if they are harvested together for each house or per basket, the same harvest date will be used, so input is performed in batch processing. be able to. In addition, even when the harvest date is different, for example, each crop is managed by RFID, and each crop is identified and photographed by RFID even when the multi-wavelength photo data is taken. The processed data may be collectively read and input as a result state label.

また、状態ラベル入力部16で入力される結果状態ラベルは、残日数データだけに限定されない。収穫後に測定される糖度や水分量、塩分量、質量、評価された等級や出荷額などの、農業製品として必要なその他の情報を合わせて登録してもよい。   Further, the result state label input by the state label input unit 16 is not limited to the remaining number of days data. Other information necessary as an agricultural product such as sugar content, moisture content, salt content, mass, evaluated grade, and shipping value measured after harvesting may be registered together.

結果予測装置11の状態ラベル付加部17は、入力された上記結果状態ラベルを上記多波長写真データと関連付ける。関連付けられたこれらのデータ群を教師用データ群として利用する。このデータセットをそのまますぐに次のデータ前処理部18へ送ってもよいし、一旦関連付けたデータをセットでデータ保管装置31に送信して記録させてもよい。その場合、後述するトレーニングを後日行う際には、上記結果状態ラベルとともに上記多波長写真データを読み込むことができ、上記結果状態ラベルの入力を省略してトレーニングを行うことができる。   The state label adding unit 17 of the result prediction apparatus 11 associates the input result state label with the multi-wavelength photograph data. These associated data groups are used as a teacher data group. This data set may be sent to the next data preprocessing unit 18 as it is, or the data once associated may be sent to the data storage device 31 and recorded as a set. In that case, when training to be described later is performed at a later date, the multi-wavelength photograph data can be read together with the result status label, and training can be performed without inputting the result status label.

結果予測装置11のデータ前処理部18は、事前にユーザが設定した前処理フローに従って、読み込んだ上記多波長写真データの前処理を行い、この前処理を行った上で利用すると好ましい。後述するAI学習部19に読み込ませる前に、写真のホワイトバランスや彩度、明度、白度などを調整し、読み込ませるデータの撮影時の条件における主として農作物自体に寄らない違いが上記分析パラメータに影響を与えるのを最小限に留めるようにする。   The data pre-processing unit 18 of the result prediction apparatus 11 preferably performs pre-processing of the read multi-wavelength photograph data according to a pre-processing flow set in advance by the user, and uses the pre-process after performing this pre-processing. Before being read by the AI learning unit 19 to be described later, the white balance, saturation, brightness, whiteness, etc. of the photo are adjusted, and the above-mentioned analysis parameters are mainly different in the conditions at the time of photographing the data to be read. Try to minimize the impact.

結果予測装置11のAI学習部19は、上記結果状態ラベルと関連付けられた上記多波長写真データである上記教師用データ群を読み込む。このとき上記多波長写真データは上記前処理をしてあると好ましい。上記多波長写真データを細分化して、ニューラルネットワークを有する人工知能ソフト20に対する入力、上記結果状態ラベルを出力とする、教師用データとして、人工知能ソフトを動作させるニューラルネットワークの入出力間の分析パラメータ21をトレーニングする。上記のニューラルネットワークは多層型のいわゆるディープラーニングに対応していることが望ましい。このトレーニングを出来るだけ多数の教師用データを用いて行い、分析パラメータ21を調整する。結果予測装置11はこのようにして調整した分析パラメータ21を保存し、後述する収穫予測に用いる。   The AI learning unit 19 of the result prediction apparatus 11 reads the teacher data group that is the multi-wavelength photograph data associated with the result state label. At this time, the multi-wavelength photographic data is preferably pre-processed. Analyzing parameters between inputs and outputs of a neural network that operates artificial intelligence software as teacher data, which is obtained by subdividing the multi-wavelength photographic data and inputting to the artificial intelligence software 20 having a neural network and outputting the result state label. Train 21. The neural network preferably supports multi-layered so-called deep learning. This training is performed using as many teacher data as possible, and the analysis parameter 21 is adjusted. The result prediction apparatus 11 stores the analysis parameter 21 adjusted in this way, and uses it for harvest prediction described later.

次に、結果予測である収穫予測に関与する構成要素について説明する。結果予測装置11の予測画像制御部22は、ネットワークインターフェースを制御する分析画像通信部13を介して、データ保管装置31から上記多波長写真データを読み出す。この読み出すデータは、テストでは上記結果状態ラベルの内容が反映している上記多波長写真データである。実際の予測で用いるのは、これから収穫しようとする農作物の個体について撮影された上記多波長写真データである。一度に多数のデータを読み込んでもよいし、収穫予測を得たい全ての上記多波長写真データを一度に読み込んでも良い。   Next, components related to the harvest prediction which is the result prediction will be described. The prediction image control unit 22 of the result prediction apparatus 11 reads the multi-wavelength photo data from the data storage device 31 via the analysis image communication unit 13 that controls the network interface. The data to be read is the multi-wavelength photograph data that reflects the contents of the result state label in the test. What is used in the actual prediction is the multi-wavelength photographic data taken for the individual crops to be harvested. A large number of data may be read at once, or all the multi-wavelength photo data for which the harvest prediction is to be obtained may be read at a time.

結果予測装置11のデータ前処理部18は、収穫予測に用いる上記多波長写真データについても、上記と同様の前処理フローに従って前処理しておくと好ましい。読み込ませるデータ群のホワイトバランスや明度等を、トレーニングに用いたデータ群と同様の条件に調整されていることで、予測精度が向上する。   It is preferable that the data preprocessing unit 18 of the result prediction apparatus 11 preprocesses the multi-wavelength photographic data used for harvest prediction according to the same preprocessing flow as described above. Prediction accuracy is improved by adjusting the white balance, brightness, and the like of the data group to be read to the same conditions as the data group used for training.

結果予測装置11のAI予測部23は、収穫予測に用いる上記多波長写真データを読み込み、上記の調整した分析パラメータ21を用いた人工知能ソフト20への入力を行う。人工知能ソフト20はその他、ニューラルネットワークの条件である関数や条件値を調整できるように別途入力用のコマンドを提供し、その値を反映させてもよい。入力に対して、人工知能ソフト20は、上記結果状態ラベルの内容を導出する。この導出された上記結果状態ラベルは、トレーニングに用いた上記結果状態ラベルと同じ属性のパラメータを持つ。すなわち、収穫日までの日数の他に、上記の糖度や水分量、質量などを用いていれば、それらの性質も予測データとして導き出すことができる。導出した上記結果状態ラベルは結果予測装置11の記憶部25に保存する。   The AI prediction unit 23 of the result prediction apparatus 11 reads the multi-wavelength photographic data used for the harvest prediction, and inputs it to the artificial intelligence software 20 using the adjusted analysis parameter 21. In addition, the artificial intelligence software 20 may separately provide a command for input so that a function or condition value, which is a condition of the neural network, can be adjusted, and reflect the value. In response to the input, the artificial intelligence software 20 derives the contents of the result state label. The derived result state label has parameters having the same attributes as the result state label used for training. That is, in addition to the number of days until the harvest date, if the sugar content, water content, mass, etc. are used, those properties can also be derived as prediction data. The derived result state label is stored in the storage unit 25 of the result prediction apparatus 11.

結果予測装置11の予測ラベル出力部24は、記憶部25に導出された上記結果状態ラベルが保存されたら、その結果を読み込み、成形して出力する。具体的には、付属のモニタやプリンタなどに最適な収穫日とその他の収穫状態の予測を表示、印刷する。   When the result state label derived in the storage unit 25 is stored, the prediction label output unit 24 of the result prediction apparatus 11 reads the result, shapes it, and outputs it. Specifically, the optimal harvest date and other harvest status predictions are displayed and printed on an attached monitor or printer.

この結果予測装置11を用いた収穫予測方法の実施形態例を説明する。これらのフローは、撮影ステップと、トレーニングステップと、予測ステップとの三段階に分けられる。   An embodiment example of a harvest prediction method using the result prediction apparatus 11 will be described. These flows are divided into three stages: a shooting step, a training step, and a prediction step.

まず、上記の撮影ステップについて図2のフロー例を用いて説明する(S101)。カメラ操作ソフト3を使って農作物個体の撮影を行い、上記多波長写真データを上記撮影日データとともにHDD等である記憶部4に格納する(S102)。撮影画像制御部6は上記多波長写真データの記憶部4への格納を監視し(S103)、多波長写真データのファイル生成を確認した場合は、撮影画像通信部5を介してデータ保管装置31に上記多波長写真データを転送する(S104)。   First, the above photographing step will be described with reference to the flow example of FIG. 2 (S101). The individual crops are photographed using the camera operation software 3, and the multi-wavelength photograph data is stored in the storage unit 4 such as an HDD together with the photographing date data (S102). The captured image control unit 6 monitors the storage of the multi-wavelength photo data in the storage unit 4 (S103), and when the file generation of the multi-wavelength photo data is confirmed, the data storage device 31 via the captured image communication unit 5. The multi-wavelength photo data is transferred to (S104).

データ保管装置31の保管領域制御部33は、保管領域通信部32を介して上記多波長写真データを受信すると(S111)、学習用画像保管部35および予測用画像保管部36への多波長写真データのファイルの振り分けを行う(S112)。振り分け条件は、品種、農作地、撮影日など、特に限定されず、ユーザが任意に設定しておく。例えば、単一種の農作物について、撮影日ごとにフォルダを作成し、その中に上記多波長写真データを格納していく。ユーザは保管領域制御部33に対し、上記多波長写真データを学習用画像保管部35と予測用画像保管部36のいずれに割り振るかを指定しておいてもよい。ここでは、上記教師用データ群に用いる上記多波長写真データであれば学習用画像保管部35へ格納し(S113)、実際の予測を行うための上記多波長写真データであれば予測用画像保管部36へ格納する(S114)。   When the storage area control unit 33 of the data storage device 31 receives the multi-wavelength photo data via the storage area communication unit 32 (S111), the multi-wavelength photo to the learning image storage unit 35 and the prediction image storage unit 36 is stored. Data files are sorted (S112). The sorting conditions are not particularly limited, such as varieties, farmland, and shooting dates, and are set arbitrarily by the user. For example, for a single type of crop, a folder is created for each shooting date, and the multi-wavelength photo data is stored therein. The user may specify to the storage area control unit 33 whether the multi-wavelength photo data is allocated to the learning image storage unit 35 or the prediction image storage unit 36. Here, if the multi-wavelength photo data used for the teacher data group is stored in the learning image storage unit 35 (S113), if it is the multi-wavelength photo data for actual prediction, the prediction image storage is performed. Store in the unit 36 (S114).

次に上記のトレーニングステップについて図3のフロー例を用いて説明する。まず(S201)、結果予測装置11は、初期化した分析パラメータ21を有する人工知能ソフト20を用意する(S202)。学習画像制御部12は、分析画像通信部13を介して保管領域制御部33に上記教師用データ群の転送要求を送信し、学習用画像保管部35から上記教師用データ群を受信する(S203)。このとき、結果予測装置11の計算リソース等の事情に沿って、学習用画像保管部35に格納されたすべての上記多波長写真データを要求してもよいし、一部の上記多波長写真データのみを要求してもよい。   Next, the training step will be described using the flow example of FIG. First (S201), the result prediction apparatus 11 prepares the artificial intelligence software 20 having the initialized analysis parameter 21 (S202). The learning image control unit 12 transmits a transfer request for the teacher data group to the storage area control unit 33 via the analysis image communication unit 13, and receives the teacher data group from the learning image storage unit 35 (S203). ). At this time, all the multi-wavelength photo data stored in the learning image storage unit 35 may be requested in accordance with circumstances such as calculation resources of the result prediction apparatus 11 or a part of the multi-wavelength photo data. You may request only.

カラー化処理部15は、学習画像制御部12が受信した学習用の多波長画像を赤・緑・青の3色からなるカラー画像に変換し、状態ラベル入力部16へ転送する(S211)。
なお、この変換では上記3色以外の波長を用いて疑似的なカラー画像を生成しても良いし、すべての波長に適切な重みをつけてより詳細なカラー画像を生成しても良い。状態ラベル入力部16は、カラー画像をモニタ(図示せず)に表示するとともに(S212)、カラー画像に写っている農作物の個体の収穫日データを含む結果状態ラベルの入力をキーボードなどの入力インターフェース(図示せず)から受け付け(S213)、入力を状態ラベル付加部17に送信する(S214)。なお、S213の代わりに事前に用意した結果状態ラベルの一覧を入力として読み込んでも良い。
The colorization processing unit 15 converts the learning multi-wavelength image received by the learning image control unit 12 into a color image including three colors of red, green, and blue, and transfers the color image to the state label input unit 16 (S211).
In this conversion, a pseudo color image may be generated using wavelengths other than the above three colors, or a more detailed color image may be generated by assigning appropriate weights to all wavelengths. The state label input unit 16 displays a color image on a monitor (not shown) (S212), and inputs a result state label including harvest date data of individual crops shown in the color image by an input interface such as a keyboard. (S213), and the input is transmitted to the state label adding unit 17 (S214). Instead of S213, a list of result status labels prepared in advance may be read as input.

状態ラベル付加部17は、状態ラベル入力部16からの上記結果状態ラベルの送信を受けた場合は速やかに学習画像制御部12に関連付けるべき学習用の上記教師用データ群を要求する(S221)。学習画像制御部12は、状態ラベル付加部17からの要求を受けた場合は速やかに上記多波長写真データをデータ前処理部18に転送する。データ前処理部18は入力された上記多波長写真データに、予め定めた前処理フローに従って明度等を揃える加工を施し(S222)、状態ラベル付加部へ前処理済み教師用データ群を転送する。状態ラベル付加部17は、転送された前処理済み教師用データ群に対し上記の結果状態ラベルを付加し(S223)、AI学習部19に転送する。   When receiving the transmission of the result state label from the state label input unit 16, the state label adding unit 17 promptly requests the learning data group for learning to be associated with the learning image control unit 12 (S221). When receiving the request from the state label adding unit 17, the learning image control unit 12 immediately transfers the multi-wavelength photo data to the data preprocessing unit 18. The data preprocessing unit 18 performs processing for aligning the brightness and the like on the inputted multi-wavelength photo data according to a predetermined preprocessing flow (S222), and transfers the preprocessed teacher data group to the state label adding unit. The state label adding unit 17 adds the above result state label to the transferred preprocessed teacher data group (S223), and transfers the result state label to the AI learning unit 19.

AI学習部19は受信した前処理済み教師用データ群と関連付けた結果状態ラベルとをセットで人工知能ソフト20に導入し、分析パラメータ21の調整を行う(S224)。教師用データ群として、上記多波長写真データを入力し、出力される結果状態ラベルが収束するまでこれを繰り返し(S225)、最終的に得られた分析パラメータ21を記憶部25に保存する(S226)。   The AI learning unit 19 introduces the result state label associated with the received preprocessed teacher data group into the artificial intelligence software 20 as a set, and adjusts the analysis parameter 21 (S224). The multi-wavelength photo data is input as the teacher data group, and this is repeated until the output result state label converges (S225), and the finally obtained analysis parameter 21 is stored in the storage unit 25 (S226). ).

そして、上記の予測ステップについて、図4のフロー例を用いて説明する(S301)。予測画像制御部22は、分析画像通信部13を介して保管領域制御部33に予測用画像の転送要求を送信し、予測用画像保管部36から上記多波長写真データを受信し(S302)、AI予測部23に通知する。このとき要求するのは、収穫日を含む上記結果状態ラベルを予測しようとする対象である個体の上記多波長写真データである。平均値をとって予測精度を上げるため、複数のデータを一度に読み込んでもよく、予測用画像保管部36に格納されたすべての上記多波長写真データを要求してもよいし、一部の上記多波長写真データのみを要求してもよい。   And said prediction step is demonstrated using the example of a flow of FIG. 4 (S301). The prediction image control unit 22 transmits a transfer request for the prediction image to the storage area control unit 33 via the analysis image communication unit 13, receives the multi-wavelength photograph data from the prediction image storage unit 36 (S302), The AI prediction unit 23 is notified. What is required at this time is the multi-wavelength photographic data of the individual that is the target for which the result state label including the harvest date is to be predicted. In order to increase the prediction accuracy by taking the average value, a plurality of data may be read at a time, all the multi-wavelength photo data stored in the prediction image storage unit 36 may be requested, or some of the above Only multi-wavelength photo data may be requested.

AI予測部23は、予測画像制御部22からの通知に基づき、予測画像制御部22に予測用の上記多波長写真データを用いるための前処理を要求する。予測画像制御部22は、AI予測部23からの要求を受けた場合は速やかに上記多波長写真データをデータ前処理部18に転送する。データ前処理部18は入力された上記多波長写真データに上記前処理フロー(S222)と同じ条件での加工を施し(S303)、AI予測部23へ前処理済み予測用画像を転送する。AI予測部23は受信した前処理済み予測用画像を人工知能ソフト20に出力する。入力された前処理済み予測用画像と分析パラメータ21を使って、人工知能ソフトは収穫予測ラベルの導出を行い(S304)、収穫予測ラベルの出力結果を結果予測装置11の記憶部25に保存する(S305)。予測ラベル出力部24は記憶部25を監視し、導出された収穫予測ラベルの生成を確認した場合は速やかに出力結果を読み込み、整形してモニタ(図示せず)に出力する(S306)。   Based on the notification from the predicted image control unit 22, the AI prediction unit 23 requests the predicted image control unit 22 to perform preprocessing for using the multi-wavelength photograph data for prediction. When receiving the request from the AI prediction unit 23, the predicted image control unit 22 immediately transfers the multi-wavelength photo data to the data preprocessing unit 18. The data preprocessing unit 18 processes the input multi-wavelength photograph data under the same conditions as the preprocessing flow (S222) (S303), and transfers the preprocessed prediction image to the AI prediction unit 23. The AI prediction unit 23 outputs the received preprocessed prediction image to the artificial intelligence software 20. Using the input preprocessed prediction image and the analysis parameter 21, the artificial intelligence software derives the harvest prediction label (S304), and stores the output result of the harvest prediction label in the storage unit 25 of the result prediction apparatus 11. (S305). The prediction label output unit 24 monitors the storage unit 25. When the generation of the derived harvest prediction label is confirmed, the prediction label output unit 24 immediately reads the output result, shapes it, and outputs it to a monitor (not shown) (S306).

この発明にかかる結果予測方法及び結果予測装置の他の実施形態として、インフラの老朽化予測方法、及びそれを実行できる老朽化予測装置が挙げられる。基本的な構成は図1に代表される結果予測装置11と同様であり、スペクトルカメラ1で撮影する対象物が、老朽化を予測しようとするインフラとなる。ただし、インフラの老朽化にかかる時間は農作物の収穫までの時間よりも長く、月単位、又は年単位での撮影を、間隔を空けて周期的に行う。   Other embodiments of the result prediction method and result prediction apparatus according to the present invention include an infrastructure aging prediction method and an aging prediction apparatus capable of executing the same. The basic configuration is the same as that of the result prediction apparatus 11 represented in FIG. 1, and the object photographed by the spectrum camera 1 serves as an infrastructure for predicting aging. However, the aging time of the infrastructure is longer than the time until the crop is harvested, and the monthly or yearly photographing is periodically performed at intervals.

撮影するインフラの対象としては、主にコンクリート製の土木インフラの表面を対象とする。トンネルや高架橋、ビルなどの、基本的に屋外にて風雨に曝されて劣化していくものが利用できる。コンクリートに含まれる水分の変化や、内部の鉄筋コンクリートの劣化に伴う金属イオンの溶出などを、コンクリート表面を撮影するスペクトルカメラ1によって情報として認識する。その他、鉄鋼製の鉄塔や橋梁、ワイヤーの表面における錆の進行をスペクトルカメラ1によって情報として認識してもよい。いずれの場合でも、老朽化の終点はそれらのインフラの破損日となる。   The target of the infrastructure to be photographed is mainly the surface of the civil engineering infrastructure made of concrete. You can use tunnels, viaducts, buildings, etc. that are deteriorated by exposure to wind and rain outdoors. Changes in moisture contained in the concrete and elution of metal ions accompanying deterioration of the internal reinforced concrete are recognized as information by the spectrum camera 1 that images the concrete surface. In addition, the progress of rust on the surface of steel towers, bridges, and wires may be recognized as information by the spectrum camera 1. In any case, the end point of aging is the date of the failure of those infrastructures.

農作物の実施形態と同様に、教師用データ群に用いるデータと最終結果日にあたる破損日を予測しようとするデータの保管部を分けてもよいが、インフラの破損の発覚までは長い期間がかかるため、特にどちらに用いるかを限定せずに撮影を続けてデータを蓄積し、実際に破損を起こした対象物のデータを教師用データ群として用いるとよい。教師用データ群として使用できるデータ数が十分に揃ったら、トレーニングステップにより分析パラメータを調整した後に、未だ破損していない対象のデータについて、破損日の予測その他の結果予想となる出力を得る。   As in the case of the crops embodiment, the data storage unit for the data used for the teacher data and the data storage unit for predicting the damage date corresponding to the final result date may be separated, but it takes a long time to detect the infrastructure damage. In particular, it is good to continue to shoot and accumulate data without limiting which one is used, and to use the data of an object that has actually been damaged as a teacher data group. When the number of data that can be used as the teacher data group is sufficient, the analysis parameters are adjusted by the training step, and then the target data that has not yet been damaged is output as the prediction of the damage date and other results.

1 スペクトルカメラ
2 撮影用コンピュータ
3 カメラ操作ソフト
4 記憶部
5 撮影画像通信部
6 撮影画像制御部
11 結果予測装置
12 学習画像制御部
13 分析画像通信部
15 カラー化処理部
16 状態ラベル入力部
17 状態ラベル付加部
18 データ前処理部
19 AI学習部
20 人工知能ソフト
21 分析パラメータ
22 予測画像制御部
23 AI予測部
24 予測ラベル出力部
25 記憶部
31 データ保管装置
32 保管領域通信部
33 保管領域制御部
34 保管装置記憶部
35 学習用画像保管部
36 予測用画像保管部
DESCRIPTION OF SYMBOLS 1 Spectrum camera 2 Shooting computer 3 Camera operation software 4 Memory | storage part 5 Captured image communication part 6 Captured image control part 11 Result prediction apparatus 12 Learning image control part 13 Analytical image communication part 15 Colorization process part 16 State label input part 17 State Label adding unit 18 Data preprocessing unit 19 AI learning unit 20 Artificial intelligence software 21 Analysis parameter 22 Predictive image control unit 23 AI prediction unit 24 Predictive label output unit 25 Storage unit 31 Data storage device 32 Storage region communication unit 33 Storage region control unit 34 Storage Device Storage Unit 35 Learning Image Storage Unit 36 Prediction Image Storage Unit

Claims (4)

結果予測対象である対象物のサンプル群についてスペクトルカメラによって撮影された、撮影日データを含む、多波長画像である多波長写真データの集合体であって、後日の最終結果日までの残日数が異なるデータが存在するデータ群について、後日の最終結果日までの残日数データを含む最終結果後に確定する結果状態ラベルを関連付けて教師用データ群を得る状態ラベル付加部と、
上記教師用データ群を読み込み、上記多波長写真データを入力に、上記結果状態ラベルを出力に設定したニューラルネットワークを有し、入出力間の分析パラメータを調整するAI学習部と、
上記対象物と同種の、最終結果前のサンプルについて撮影された上記多波長写真データを上記ニューラルネットワークに読み込み、調整された上記分析パラメータに従った、上記結果状態ラベルを予測される値として導出するAI予測部と
を有する結果予測装置。
This is a collection of multi-wavelength photographic data that is a multi-wavelength image, including the shooting date data, taken by a spectrum camera for a sample group of the target object that is the result prediction target, and the remaining number of days until the final result date of the later date For a data group in which different data exists, a state label adding unit that obtains a teacher data group by associating a result state label determined after the final result including the remaining number of days until the final result date of the later date,
An AI learning section that reads the teacher data group, has a neural network that sets the multi-wavelength photograph data as input, and sets the result state label as output, and adjusts analysis parameters between input and output;
The multi-wavelength photograph data taken for the sample of the same kind as the object and before the final result is read into the neural network, and the result state label is derived as a predicted value according to the adjusted analysis parameter. A result prediction apparatus comprising: an AI prediction unit.
結果予測対象である対象物について、スペクトルカメラによる多波長画像である多波長写真データを、最終結果前に間隔を空けて複数枚撮影して撮影日データとともに蓄積し、
予め多波長写真データを撮影した上記対象物の最終結果日までのデータを含む結果状態ラベルを、当該対象物の多波長写真データと関連付け、
上記多波長写真データと上記結果状態ラベルとを関連付けた教師用データ群により、上記多波長写真データの入力に対して上記結果状態ラベルを出力する分析パラメータをトレーニングし、
同種の対象物の最終結果前のサンプルについて、スペクトルカメラにより撮影した多波長画像である多波長写真データを、上記分析パラメータにより解析して、対応した上記結果状態ラベルを得る結果予測方法。
Multi-wavelength photographic data, which is a multi-wavelength image obtained by a spectrum camera, is collected for the target object that is the result prediction target, and is collected together with the shooting date data by shooting multiple images at intervals before the final result.
Associating a result state label including data up to the final result date of the target object obtained by photographing the multi-wavelength photograph data in advance with the multi-wavelength photograph data of the target object,
Training analysis parameters for outputting the result state label with respect to the input of the multi-wavelength photograph data by the teacher data group that associates the multi-wavelength photograph data and the result state label,
A result prediction method for analyzing the multi-wavelength photographic data, which is a multi-wavelength image photographed by a spectrum camera, of the sample before the final result of the same type of object using the analysis parameter to obtain the corresponding result state label.
結果予測対象である対象物をスペクトルカメラによって撮影した多波長画像である多波長写真データを入力側データとし、
上記多波長写真データを撮影した上記対象物が最終結果に至る最終結果日までのデータを含む結果状態ラベルを出力側データとする
ニューラルネットワーク用分析パラメータ。
Multi-wavelength photographic data that is a multi-wavelength image obtained by capturing the target object that is the result prediction target with a spectrum camera is used as input side data,
An analysis parameter for a neural network, in which a result state label including data up to a final result date at which the object obtained by photographing the multi-wavelength photo data reaches a final result is output side data.
請求項3に記載の分析パラメータを有するニューラルネットワークに、上記多波長写真データを入力し、
上記結果状態ラベルを出力する結果予想プログラム。
The multi-wavelength photographic data is input to a neural network having the analysis parameter according to claim 3,
A result prediction program that outputs the result status label.
JP2017120637A 2017-03-29 2017-06-20 Result prediction device, result prediction method, and program Active JP6932563B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017065278 2017-03-29
JP2017065278 2017-03-29

Publications (2)

Publication Number Publication Date
JP2018169993A true JP2018169993A (en) 2018-11-01
JP6932563B2 JP6932563B2 (en) 2021-09-08

Family

ID=64017991

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017120637A Active JP6932563B2 (en) 2017-03-29 2017-06-20 Result prediction device, result prediction method, and program

Country Status (1)

Country Link
JP (1) JP6932563B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112018004290T5 (en) 2017-09-29 2020-05-14 Denso Corporation FUEL INJECTION VALVE
JP2021073925A (en) * 2019-11-11 2021-05-20 直政 鈴木 Management and checking method on growth of field crop
US12083568B2 (en) 2019-01-17 2024-09-10 Jfe Steel Corporation Production specification determination method, production method, and production specification determination apparatus for metal material

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08190623A (en) * 1995-01-10 1996-07-23 Mitsubishi Agricult Mach Co Ltd Image processing and measuring method for farm product
JP2003006612A (en) * 2001-06-20 2003-01-10 Ntt Data Corp Harvest prediction device and method
JP2005151851A (en) * 2003-11-21 2005-06-16 Mayekawa Mfg Co Ltd Farm-crop demand-and-supply management system, processed food acceptance-and-sending order system, and farming support system
JP2012191903A (en) * 2011-03-17 2012-10-11 Nikon Corp Plant sorting device, robot, plant cultivation system, plant sorting method, and program
WO2016009752A1 (en) * 2014-07-16 2016-01-21 株式会社リコー Information processing device, method for generating control signal, information processing system, and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08190623A (en) * 1995-01-10 1996-07-23 Mitsubishi Agricult Mach Co Ltd Image processing and measuring method for farm product
JP2003006612A (en) * 2001-06-20 2003-01-10 Ntt Data Corp Harvest prediction device and method
JP2005151851A (en) * 2003-11-21 2005-06-16 Mayekawa Mfg Co Ltd Farm-crop demand-and-supply management system, processed food acceptance-and-sending order system, and farming support system
JP2012191903A (en) * 2011-03-17 2012-10-11 Nikon Corp Plant sorting device, robot, plant cultivation system, plant sorting method, and program
WO2016009752A1 (en) * 2014-07-16 2016-01-21 株式会社リコー Information processing device, method for generating control signal, information processing system, and program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112018004290T5 (en) 2017-09-29 2020-05-14 Denso Corporation FUEL INJECTION VALVE
US12083568B2 (en) 2019-01-17 2024-09-10 Jfe Steel Corporation Production specification determination method, production method, and production specification determination apparatus for metal material
JP2021073925A (en) * 2019-11-11 2021-05-20 直政 鈴木 Management and checking method on growth of field crop

Also Published As

Publication number Publication date
JP6932563B2 (en) 2021-09-08

Similar Documents

Publication Publication Date Title
JP6638121B1 (en) Server device of crop growth stage determination system, growth stage determination method and program
Sanches et al. The potential for RGB images obtained using unmanned aerial vehicle to assess and predict yield in sugarcane fields
JP7229864B2 (en) REMOTE SENSING IMAGE ACQUISITION TIME DETERMINATION SYSTEM AND CROPT GROWTH ANALYSIS METHOD
JP2019187259A (en) Culture support method, culture support program, culture support device and culture support system
JP2018161058A (en) Plant growth state evaluation method, plant growth state evaluation program, plant growth state evaluation device and plant monitoring system
Li et al. Deciphering the contributions of spectral and structural data to wheat yield estimation from proximal sensing
JP2019037225A (en) Plant growth status monitoring apparatus and plant growth status monitoring method
JP2020156431A (en) Agricultural crop growth evaluation/work proposal method, agricultural product growth evaluation/work proposal system, and regional agricultural activation system
KR102309568B1 (en) Prediction system for collecting growth information of crop
Hatfield et al. Remote sensing: advancing the science and the applications to transform agriculture
JP6932563B2 (en) Result prediction device, result prediction method, and program
US20220172056A1 (en) Prediction system, prediction method, and prediction program
CN118966836A (en) A method and system for predicting quinoa yield during grain filling period
JP2023007457A (en) Chlorophyll amount learning estimation system, chlorophyll amount estimation model generation system, chlorophyll amount estimation system, chlorophyll amount estimation method, and computer program
Killeen et al. Corn grain yield prediction using UAV-based high spatiotemporal resolution multispectral imagery
JP7044285B2 (en) Crop-related value derivation device and crop-related value derivation method
Hosseini et al. Nitrogen estimation in sugarcane fields from aerial digital images using artificial neural network.
KR20230061863A (en) Apparatus for predicting fruit development stage using ensemble model of convolutional neural network and multi layer perceptron and method thereof
JP2024103318A (en) Learning data creation device, machine learning device, prediction device, method, and program for predicting yields of fruit and vegetables
IL296946B2 (en) Phenotype characterization for plants
Dili et al. Demystifying the Data: Leveraging Explainable AI for Real–Time Monitoring and Decision-Making in Vertical Hydroponics Farms
JP2022147292A (en) Information processing device, information processing system, information processing method, and computer program
Reddy et al. Smart Agriculture & System Advancements in Crop Field Intigrating Machine Learning and Agriculture Data
Vélez et al. Overhead Agrivoltaic Systems Delay Apple Ripening and Influence Maturation Patterns
JP2012117962A (en) Crop assessment system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170620

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180605

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20180803

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190312

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190510

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20191029

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20200121

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20201006

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20210330

C13 Notice of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: C13

Effective date: 20210406

C302 Record of communication

Free format text: JAPANESE INTERMEDIATE CODE: C302

Effective date: 20210526

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20210601

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210602

C23 Notice of termination of proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C23

Effective date: 20210706

C03 Trial/appeal decision taken

Free format text: JAPANESE INTERMEDIATE CODE: C03

Effective date: 20210817

C30A Notification sent

Free format text: JAPANESE INTERMEDIATE CODE: C3012

Effective date: 20210817

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210818

R150 Certificate of patent or registration of utility model

Ref document number: 6932563

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350