WO2018198319A1 - ウェアラブル端末表示システム、ウェアラブル端末表示方法およびプログラム - Google Patents
ウェアラブル端末表示システム、ウェアラブル端末表示方法およびプログラム Download PDFInfo
- Publication number
- WO2018198319A1 WO2018198319A1 PCT/JP2017/016941 JP2017016941W WO2018198319A1 WO 2018198319 A1 WO2018198319 A1 WO 2018198319A1 JP 2017016941 W JP2017016941 W JP 2017016941W WO 2018198319 A1 WO2018198319 A1 WO 2018198319A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- crop
- wearable terminal
- harvest time
- display
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- A—HUMAN NECESSITIES
- A01—AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
- A01D—HARVESTING; MOWING
- A01D91/00—Methods for harvesting agricultural products
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/17—Image acquisition using hand-held instruments
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30181—Earth observation
- G06T2207/30188—Vegetation; Agriculture
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/68—Food, e.g. fruit or vegetables
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/64—Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
Definitions
- the present invention relates to a wearable terminal display system, a wearable terminal display method, and a program for displaying a predicted harvest time as augmented reality on a display plate of a wearable terminal on a crop that can be seen through the display board.
- Patent Literature an apparatus that automatically collects information on farm work performed on crops and provides reliable production history information on agricultural products.
- Patent Document 1 has a problem that it is impossible to grasp the harvest time of crops while performing farm work.
- the present invention identifies a type of crop that has entered the field of view of a wearable terminal, and displays a predicted harvest time as an augmented reality on a display board of the wearable terminal, a wearable terminal display method, and
- the purpose is to provide a program.
- the present invention provides the following solutions.
- the invention according to the first feature is a wearable terminal display system for displaying a crop harvest time on a display board of a wearable terminal, an image acquisition means for acquiring an image of the crop that has entered the field of view of the wearable terminal, and an image Identifying means for identifying the type of crop by analyzing the image, selecting means for selecting the criterion according to the type, determining means for analyzing the image based on the criterion and determining the color and size, and the result of the determination
- a wearable terminal display system is provided.
- the invention according to the first aspect is a wearable terminal display method for displaying a crop harvest time on a display board of a wearable terminal, an image acquisition step for acquiring an image of the crop that has entered the field of view of the wearable terminal, A step of analyzing the image to identify the type of the crop, a selection step of selecting a determination criterion according to the type, a determination step of analyzing the image based on the determination criterion and determining the color and size, and a result of the determination A predicting step for predicting the harvest time of the crop based on the display, and a harvest time displaying step for displaying the predicted harvest time for the crop that can be seen through the display board as an augmented reality on the display board of the wearable terminal.
- a wearable terminal display method is provided.
- the invention according to the first feature includes an image acquisition step for acquiring an image of a crop that has entered the field of view of the wearable terminal in a computer, a specific step for analyzing the image to identify the type of the crop, and determination according to the type A selection step for selecting a reference, a determination step for analyzing the image based on the determination criterion to determine the color and size, a prediction step for predicting the harvest time of the crop based on the determination result, and a display board of the wearable terminal And a harvesting time display step for displaying the predicted harvesting time as an augmented reality with respect to the crop that can be seen through the display board.
- the crop harvest time can be displayed on the display panel of the wearable terminal, it is possible to grasp the crop harvest time while farming.
- FIG. 1 is a schematic diagram of a wearable terminal display system.
- FIG. 2 is an example in which the predicted harvest time is displayed as an augmented reality on the display board of the wearable terminal with respect to the crop that can be seen through the display board.
- the wearable terminal display system of the present invention is a system that displays the predicted harvest time as augmented reality on the display board of the wearable terminal with respect to the crop that can be seen through the display board.
- a wearable terminal is a terminal with a field of view such as a smart glass or a head-mounted display.
- FIG. 1 is a schematic diagram of a wearable terminal display system which is a preferred embodiment of the present invention.
- the wearable terminal display system includes image acquisition means, identification means, selection means, determination means, prediction means, and harvest time display means, which are realized by the control unit reading a predetermined program.
- a weather acquisition unit a terminal position acquisition unit, a sound acquisition unit, a mode reception unit, a detection unit, an action result display unit, an imaging direction acquisition unit, an estimation unit, a guideline display unit, and a selection reception unit are provided. May be. These may be application type, cloud type or others.
- Each means described above may be realized by a single computer or may be realized by two or more computers (for example, a server and a terminal).
- the image acquisition means acquires an image of the crop that has entered the field of view of the wearable terminal. You may acquire the image imaged with the camera of the wearable terminal. Or even if it is other than a wearable terminal, as long as such an image can be acquired, it does not matter.
- the image may be a moving image or a still image. Real-time images are preferred.
- you may acquire the image imaged along the guideline. Agricultural crops can be identified efficiently by acquiring and analyzing only the images taken along the guidelines.
- Identifying means identifies the type of crop by analyzing the image. For example, it identifies whether the crop is cabbage, spinach, tangerine, or watermelon. Further, if it takes a long time to specify all the types of crops shown, the crop in the center of the field of view of the wearable terminal may be specified as the target to be specified. By specifying only the crop in the center of the field of view as a specific target, the time required for the specification can be greatly shortened. Further, the accuracy of image analysis may be improved by machine learning. For example, machine learning is performed using past images of agricultural products as teacher data. Further, when estimating the crop position of the crop, the type of the crop may be specified from the crop position and image analysis.
- the selection means selects a determination criterion according to the type of crop. Since the criteria for predicting the harvest time differ depending on whether the crop is cabbage, spinach, tangerine, or watermelon, it must be selected. Furthermore, in the case of a watermelon, it becomes a criterion for predicting the harvest time with the sound of hitting the watermelon.
- the determination means analyzes the image based on the determination criterion and determines the color and size. Since the color and size to be seen differ depending on the type of the crop, the determination is made based on the determination criteria corresponding to the type of the crop. For example, in the case of tangerine, in the case of tangerine, the criterion is how much the color of the pericarp has turned orange and how large it has grown. For example, in the case of cabbage, it is better that the outer leaves are worm-eaten, but worm-eaten can also be determined by color. Moreover, when acquiring the sound of agricultural products, based on the determination criteria, you may determine the color and size by analyzing an image and determine the acquired sound. For example, in the case of a watermelon, the sound of hitting a watermelon is used to determine the harvest time. Depending on the crop, there are cases where the sound of the crop is also an element of judgment.
- the predicting means predicts the crop harvest time based on the determination result. For example, based on the determination result, the harvest time is predicted to be 3 days later. In addition, depending on the result of the determination, the harvesting time may not be accurately predicted. In this case, for example, the harvesting time may be predicted with a range of 3 days to 5 days later. In addition, since the harvest time varies depending on the weather, when the weather forecast is acquired, the crop harvest time may be predicted based on the determination result and the weather forecast. Moreover, when accepting the mode of the harvest time, the harvest time in the mode may be predicted for the crop based on the determination result. Further, prediction accuracy may be improved by machine learning. For example, machine learning is performed using the predicted past harvest time as teacher data.
- the harvest time display means displays the predicted harvest time as an augmented reality on the display board of the wearable terminal for the crop that can be seen through the display board.
- the harvest time drawn with a broken line is displayed as augmented reality on the display board of the wearable terminal with respect to the crop drawn with a solid line that can be seen through the display board.
- the solid line is the real thing
- the broken line is the augmented reality.
- the harvest time display ON / OFF may be switched. Further, when accepting selection of a crop to be displayed, the harvest time may be displayed as augmented reality on the display board of the wearable terminal only in accordance with the selection target that can be seen through the display board.
- the weather acquisition means acquires a weather forecast of a place where the crop is growing.
- the weather forecast may be acquired from an external database such as the Japan Meteorological Agency, or a database may be prepared and stored inside. You can see where the crops are growing from the address. Further, when the terminal position is acquired, the weather forecast may be acquired by regarding the terminal position as a place where the crop is growing.
- the terminal position acquisition unit acquires the terminal position of the wearable terminal.
- the terminal position can be acquired from the GPS (Global Positioning System) of the wearable terminal. You may acquire from other than this.
- GPS Global Positioning System
- the sound acquisition means acquires a crop sound from a microphone of the wearable terminal. For example, in the case of a watermelon, the sound of hitting a watermelon is used to determine the harvest time. Depending on the crop, there are cases where the sound of the crop is also an element of judgment.
- the mode accepting unit accepts selection of a harvest time mode. For example, a mode of a delicious harvest time, a mode of a harvest time with a high price, a mode of a harvest time in consideration of a transportation period, a mode of a harvest time when making a dry crop, and the like. There are various other modes.
- the detection means detects an action for the displayed harvest time.
- Actions for harvest time can be detected by acquiring images of farm work and analyzing the images. For example, it is detected whether it is harvested or not harvested according to the harvest time. Moreover, you may detect the action with respect to a harvest time from the sensor information of a wearable terminal, the sensor information with which the farm worker was equipped, etc.
- the action result display means displays the result according to the action as an augmented reality on the display board of the wearable terminal for the crop that can be seen through the display board. For example, when an action for deleting the harvest time is detected, the display of the harvest time may be deleted. For example, a link may be opened when an action for opening a link attached at harvest time is detected. Of course, other actions are possible.
- the imaging direction acquisition means acquires the imaging direction of the wearable terminal.
- the imaging direction can be acquired from a geomagnetic sensor or an acceleration sensor of the wearable terminal when imaging is performed with the wearable terminal. You may acquire from other than this.
- the estimation means estimates the crop position of the crop based on the terminal position and the imaging direction. If the terminal position and the imaging direction are known, the position of the captured crop can be estimated.
- the guideline display means displays a guideline for imaging crops as augmented reality on the display board of the wearable terminal.
- guidelines such as a frame or a cross may be displayed. Image analysis is facilitated by having images taken along the guidelines.
- the selection accepting unit accepts selection of a selection target for a crop that can be seen through the display board of the wearable terminal.
- the selection of the selection target may be accepted by looking at the farm products that can be seen through the display board of the wearable terminal for a certain period of time.
- the selection of a selection target may be received by touching a crop that can be seen through a display board of a wearable terminal.
- selection of a selection target may be accepted by placing the cursor on a crop that can be seen through a display panel of a wearable terminal.
- the wearable terminal display method of the present invention is a method of displaying the predicted harvest time as augmented reality on a display board of the wearable terminal for a crop that can be seen through the display board.
- the wearable terminal display method includes an image acquisition step, a specific step, a selection step, a determination step, a prediction step, and a harvest time display step.
- a weather acquisition step a terminal position acquisition step, a sound acquisition step, a mode reception step, a detection step, an action result display step, an imaging direction acquisition step, an estimation step, a guideline display step, and a selection reception step are provided. May be.
- the image acquisition step acquires an image of a crop that has entered the field of view of the wearable terminal. You may acquire the image imaged with the camera of the wearable terminal. Or even if it is other than a wearable terminal, as long as such an image can be acquired, it does not matter.
- the image may be a moving image or a still image. Real-time images are preferred.
- you may acquire the image imaged along the guideline. Agricultural crops can be identified efficiently by acquiring and analyzing only the images taken along the guidelines.
- the type of crop is specified by analyzing the image. For example, it identifies whether the crop is cabbage, spinach, tangerine, or watermelon. Further, if it takes a long time to specify all the types of crops shown, the crop in the center of the field of view of the wearable terminal may be specified as the target to be specified. By specifying only the crop in the center of the field of view as a specific target, the time required for the specification can be greatly shortened. Further, the accuracy of image analysis may be improved by machine learning. For example, machine learning is performed using past images of agricultural products as teacher data. Further, when estimating the crop position of the crop, the type of the crop may be specified from the crop position and image analysis.
- a determination criterion is selected according to the type of crop. Since the criteria for predicting the harvest time differ depending on whether the crop is cabbage, spinach, tangerine, or watermelon, it must be selected. Furthermore, in the case of a watermelon, it becomes a criterion for predicting the harvest time with the sound of hitting the watermelon.
- the color and size are determined by analyzing the image based on the determination criteria. Since the color and size to be seen differ depending on the type of the crop, the determination is made based on the determination criteria corresponding to the type of the crop. For example, in the case of tangerine, in the case of tangerine, the criterion is how much the color of the pericarp has turned orange and how large it has grown. For example, in the case of cabbage, it is better that the outer leaves are worm-eaten, but worm-eaten can also be determined by color. Moreover, when acquiring the sound of agricultural products, based on the determination criteria, you may determine the color and size by analyzing an image and determine the acquired sound. For example, in the case of a watermelon, the sound of hitting a watermelon is used to determine the harvest time. Depending on the crop, there are cases where the sound of the crop is also an element of judgment.
- the prediction step predicts the crop harvest time based on the determination result. For example, based on the determination result, the harvest time is predicted to be 3 days later. In addition, depending on the result of the determination, the harvesting time may not be accurately predicted. In this case, for example, the harvesting time may be predicted with a range of 3 days to 5 days later. In addition, since the harvest time varies depending on the weather, when the weather forecast is acquired, the crop harvest time may be predicted based on the determination result and the weather forecast. Moreover, when accepting the mode of the harvest time, the harvest time in the mode may be predicted for the crop based on the determination result. Further, prediction accuracy may be improved by machine learning. For example, machine learning is performed using the predicted past harvest time as teacher data.
- the predicted harvest time is displayed as an augmented reality on the display board of the wearable terminal with respect to the crop that can be seen through the display board.
- the harvest time drawn with a broken line is displayed as augmented reality on the display board of the wearable terminal with respect to the crop drawn with a solid line that can be seen through the display board.
- the solid line is the real thing
- the broken line is the augmented reality.
- the harvest time display ON / OFF may be switched. Further, when accepting selection of a crop to be displayed, the harvest time may be displayed as augmented reality on the display board of the wearable terminal only in accordance with the selection target that can be seen through the display board.
- the weather acquisition step acquires a weather forecast of a place where the crop is growing.
- the weather forecast may be acquired from an external database such as the Japan Meteorological Agency, or a database may be prepared and stored inside. You can see where the crops are growing from the address. Further, when the terminal position is acquired, the weather forecast may be acquired by regarding the terminal position as a place where the crop is growing.
- the terminal position acquisition step acquires the terminal position of the wearable terminal.
- the terminal position can be acquired from the GPS (Global Positioning System) of the wearable terminal. You may acquire from other than this.
- GPS Global Positioning System
- the sound of the crop is acquired from the microphone of the wearable terminal.
- the sound of hitting a watermelon is used to determine the harvest time.
- the sound of the crop is also an element of judgment.
- the mode reception step receives selection of a harvest time mode. For example, a mode of a delicious harvest time, a mode of a harvest time with a high price, a mode of a harvest time in consideration of a transportation period, a mode of a harvest time when making a dry crop, and the like. There are various other modes.
- the detection step detects an action for the displayed harvest time.
- Actions for harvest time can be detected by acquiring images of farm work and analyzing the images. For example, it is detected whether it is harvested or not harvested according to the harvest time. Moreover, you may detect the action with respect to a harvest time from the sensor information of a wearable terminal, the sensor information with which the farm worker was equipped, etc.
- the result corresponding to the action is displayed as an augmented reality on the display board of the wearable terminal with respect to the crop that can be seen through the display board.
- the display of the harvest time may be deleted.
- a link may be opened when an action for opening a link attached at harvest time is detected.
- other actions are possible.
- the imaging direction acquisition step acquires the imaging direction of the wearable terminal.
- the imaging direction can be acquired from a geomagnetic sensor or an acceleration sensor of the wearable terminal when imaging is performed with the wearable terminal. You may acquire from other than this.
- the estimation step estimates the crop position of the crop based on the terminal position and the imaging direction. If the terminal position and the imaging direction are known, the position of the captured crop can be estimated.
- a guideline for imaging crops is displayed as augmented reality on the display board of the wearable terminal.
- guidelines such as a frame or a cross may be displayed.
- Image analysis is facilitated by having images taken along the guidelines.
- the selection accepting step accepts selection of a selection target for a crop that is seen through the display board of the wearable terminal.
- the selection of the selection target may be accepted by looking at the farm products that are seen through the display board of the wearable terminal for a certain period of time.
- the selection of a selection target may be received by touching a crop that can be seen through a display board of a wearable terminal.
- selection of a selection target may be accepted by placing the cursor on a crop that can be seen through a display panel of a wearable terminal.
- the means and functions described above are realized by a computer (including a CPU, an information processing apparatus, and various terminals) reading and executing a predetermined program.
- the program may be, for example, an application installed on a computer, or may be in the form of SaaS (software as a service) provided from a computer via a network, for example, a flexible disk, a CD It may be provided in a form recorded on a computer-readable recording medium such as a CD-ROM (DVD-ROM, DVD-RAM, etc.).
- the computer reads the program from the recording medium, transfers it to the internal storage device or the external storage device, stores it, and executes it.
- the program may be recorded in advance in a storage device (recording medium) such as a magnetic disk, an optical disk, or a magneto-optical disk, and provided from the storage device to a computer via a communication line.
- a nearest neighbor method a naive Bayes method, a decision tree, a support vector machine, reinforcement learning, or the like may be used.
- deep learning may be used in which a characteristic amount for learning is generated by using a neural network.
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Environmental Sciences (AREA)
- Signal Processing (AREA)
- Acoustics & Sound (AREA)
- Computational Linguistics (AREA)
- Geometry (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
Abstract
【課題】ウェアラブル端末の視界に入った農作物の種類を特定して、予測した収穫時期をウェアラブル端末の表示板に拡張現実として表示する。 【解決手段】ウェアラブル端末の表示板に、農作物の収穫時期を表示するウェアラブル端末表示システムであって、ウェアラブル端末の視界に入った農作物の画像を取得する画像取得手段と、画像を解析して農作物の種類を特定する特定手段と、種類に応じて判定基準を選択する選択手段と、判定基準に基づいて画像を解析して色およびサイズを判定する判定手段と、判定の結果に基づいて農作物の収穫時期を予測する予測手段と、ウェアラブル端末の表示板に、表示板を透過して見える農作物に対して予測された収穫時期を拡張現実として表示する収穫時期表示手段と、を備えるウェアラブル端末表示システムを提供する。
Description
本発明は、ウェアラブル端末の表示板に、表示板を透過して見える農作物に対して、予測された収穫時期を拡張現実として表示するウェアラブル端末表示システム、ウェアラブル端末表示方法およびプログラムに関する。
近年、農業のIT化が進んでいる。例えば、面倒な入力作業をなくすために、農作物に対して行われた農作業の情報を自動的に収集するとともに、農産物に対する信頼性の高い生産履歴情報を提供する装置が提供されている(特許文献1)。
しかしながら、特許文献1の装置は、農作業をしながら農作物の収穫時期を把握できない問題がある。
本発明は、上記課題に鑑み、ウェアラブル端末の視界に入った農作物の種類を特定して、予測した収穫時期をウェアラブル端末の表示板に拡張現実として表示するウェアラブル端末表示システム、ウェアラブル端末表示方法およびプログラムを提供することを目的とする。
本発明では、以下のような解決手段を提供する。
第1の特徴に係る発明は、ウェアラブル端末の表示板に、農作物の収穫時期を表示するウェアラブル端末表示システムであって、ウェアラブル端末の視界に入った農作物の画像を取得する画像取得手段と、画像を解析して農作物の種類を特定する特定手段と、種類に応じて判定基準を選択する選択手段と、判定基準に基づいて画像を解析して色およびサイズを判定する判定手段と、判定の結果に基づいて農作物の収穫時期を予測する予測手段と、ウェアラブル端末の表示板に、表示板を透過して見える農作物に対して予測された収穫時期を拡張現実として表示する収穫時期表示手段と、を備えるウェアラブル端末表示システムを提供する。
第1の特徴に係る発明は、ウェアラブル端末の表示板に、農作物の収穫時期を表示するウェアラブル端末表示方法であって、ウェアラブル端末の視界に入った農作物の画像を取得する画像取得ステップと、画像を解析して農作物の種類を特定する特定ステップと、種類に応じて判定基準を選択する選択ステップと、判定基準に基づいて画像を解析して色およびサイズを判定する判定ステップと、判定の結果に基づいて農作物の収穫時期を予測する予測ステップと、ウェアラブル端末の表示板に、表示板を透過して見える農作物に対して予測された収穫時期を拡張現実として表示する収穫時期表示ステップと、を備えるウェアラブル端末表示方法を提供する。
第1の特徴に係る発明は、コンピュータに、ウェアラブル端末の視界に入った農作物の画像を取得する画像取得ステップと、画像を解析して農作物の種類を特定する特定ステップと、種類に応じて判定基準を選択する選択ステップと、判定基準に基づいて画像を解析して色およびサイズを判定する判定ステップと、判定の結果に基づいて農作物の収穫時期を予測する予測ステップと、ウェアラブル端末の表示板に、表示板を透過して見える農作物に対して予測された収穫時期を拡張現実として表示する収穫時期表示ステップと、をさせるためのプログラムを提供する。
ウェアラブル端末の表示板に農作物の収穫時期を表示できるので、農作業をしながら農作物の収穫時期を把握できる。
以下、本発明を実施するための最良の形態について説明する。なお、これはあくまでも一例であって、本発明の技術的範囲はこれに限られるものではない。
本発明のウェアラブル端末表示システムは、ウェアラブル端末の表示板に、表示板を透過して見える農作物に対して、予測された収穫時期を拡張現実として表示するシステムである。ウェアラブル端末とはスマートグラスやヘッドマウントディスプレイなどの視界がある端末のことである。
本発明の好適な実施形態の概要について、図1に基づいて説明する。図1は、本発明の好適な実施形態であるウェアラブル端末表示システムの概要図である。
図1にあるように、ウェアラブル端末表示システムは、制御部が所定のプログラムを読み込むことで実現される、画像取得手段、特定手段、選択手段、判定手段、予測手段、収穫時期表示手段、を備える。図示しないが、同様に、気象取得手段、端末位置取得手段、音取得手段、モード受付手段、検出手段、アクション結果表示手段、撮像方向取得手段、推測手段、ガイドライン表示手段、選択受付手段、を備えてもよい。これらは、アプリケーション型、クラウド型またはその他であってもよい。上述の各手段が、単独のコンピュータで実現されてもよいし、2台以上のコンピュータ(例えば、サーバと端末のような場合)で実現されてもよい。
画像取得手段は、ウェアラブル端末の視界に入った農作物の画像を取得する。ウェアラブル端末のカメラで撮像された画像を取得してもよい。または、ウェアラブル端末以外であっても、このような画像を取得できるのであれば、それでも構わない。画像とは動画でも静止画でもよい。リアルタイムな画像の方が好ましい。また、ガイドラインを表示して撮像させる場合には、ガイドラインに沿って撮像された画像を取得してもよい。ガイドラインに沿って撮像された画像だけを取得して画像解析することで、効率良く農作物を特定できる。
特定手段は、画像を解析して農作物の種類を特定する。例えば、農作物が、キャベツなのか、ほうれん草なのか、蜜柑なのか、スイカなのか、を特定する。また、映った全ての農作物の種類を特定してしまうと時間が掛かる場合には、ウェアラブル端末の視界の中央にある農作物を特定対象として特定してもよい。視界の中央にある農作物だけを特定対象として特定することで特定に要する時間を大幅に短縮できる。また、機械学習によって画像解析の精度を向上させてもよい。例えば、農作物の過去画像を教師データとして機械学習を行う。また、農作物の農作物位置を推測する場合には、農作物位置と画像解析とから、農作物の種類を特定してもよい。
選択手段は、農作物の種類に応じて判定基準を選択する。農作物が、キャベツなのか、ほうれん草なのか、蜜柑なのか、スイカなのか、によって、収穫時期を予測する基準となる判定基準が異なるので選択する必要がある。更には、スイカの場合は、スイカを叩いた音で収穫時期を予測する判定基準にもなる。
判定手段は、判定基準に基づいて画像を解析して色およびサイズを判定する。農作物の種類によって見るべき色やサイズが異なるので、農作物の種類に応じた判定基準に基づいて判定する。例えば、蜜柑の場合は、蜜柑の場合は、果皮の色がどのぐらい橙色に色づいたか、どのぐらいのサイズに成長したか、を判定基準にする。例えば、キャベツの場合は、外側の葉が虫食いしていた方が良いが、虫食いも色で判定できる。また、農作物の音を取得する場合には、判定基準に基づいて、画像を解析して色およびサイズを判定し、取得された音を判定してもよい。例えば、スイカの場合、スイカを叩いた音が収穫時期の判定に使用される。農作物によっては、農作物の音も判定の要素になるケースがある。
予測手段は、判定の結果に基づいて農作物の収穫時期を予測する。例えば、判定の結果に基づいて、収穫時期は3日後と予測する。また、判定の結果によっては、収穫時期を正確に予測できない場合もあるので、その場合は例えば、収穫時期は3日後~5日後などと幅を持たせて予測してもよい。また、気象によっても収穫時期にずれが生じるので、気象予報を取得する場合は、判定の結果と気象予報とに基づいて農作物の収穫時期を予測してもよい。また、収穫時期のモードを受け付ける場合には、判定の結果に基づいて、農作物に対してモードにおける収穫時期を予測してもよい。また、機械学習によって予測の精度を向上させてもよい。例えば、予測した過去の収穫時期を教師データとして機械学習を行う。
収穫時期表示手段は、ウェアラブル端末の表示板に、前記表示板を透過して見える前記農作物に対して、前記予測された収穫時期を拡張現実として表示する。例えば図2にあるように、ウェアラブル端末の表示板に、表示板を透過して見える実線で描かれた農作物に対して、破線で描かれた収穫時期を拡張現実として表示している。ここでは理解のために、実線は実物、破線は拡張現実、としている。表示板を透過して見える実線で描かれた農作物に対して収穫時期を拡張現実で表示することで、農作業をしながら農作物の収穫時期がいつ頃になるのかを把握できる。拡張現実として表示する収穫時期は、表示板を透過して見える農作物に重なるように表示しても良いが、農作物が見づらくなるので、収穫時期の表示ON/OFFを切り替えられるようにしてもよい。また、表示する農作物の選択を受け付ける場合には、ウェアラブル端末の表示板に、表示板を透過して見える選択対象にだけ合わせて、収穫時期を拡張現実として表示してもよい。
気象取得手段は、農作物が育っている場所の気象予報を取得する。気象予報は、気象庁などの外部のデータベースから取得してもよいし、内部にデータベースを用意して記憶してもよい。住所などから農作物が育っている場所が分かる。また、端末位置を取得する場合には、端末位置を農作物が育っている場所とみなして気象予報を取得してもよい。
端末位置取得手段は、ウェアラブル端末の端末位置を取得する。例えば、端末位置は、ウェアラブル端末のGPS(Global Positioning System)から取得できる。これ以外から取得してもよい。
音取得手段は、ウェアラブル端末のマイクから農作物の音を取得する。例えば、スイカの場合、スイカを叩いた音が収穫時期の判定に使用される。農作物によっては、農作物の音も判定の要素になるケースがある。
モード受付手段は、収穫時期のモードの選択を受け付ける。例えば、美味しい収穫時期のモード、高値がつく収穫時期のモード、輸送期間を考慮した収穫時期のモード、乾燥農作物にするときの収穫時期のモード、などである。他にも様々なモードがある。
検出手段は、表示された収穫時期に対するアクションを検出する。農作業の画像を取得して画像解析をすることで、収穫時期に対するアクションを検出できる。例えば、収穫時期に従って収穫したのか収穫していないのかを検出する。また、ウェアラブル端末のセンサ情報や、農作業者に装着されたセンサ情報などから、収穫時期に対するアクションを検出してもよい。
アクション結果表示手段は、ウェアラブル端末の表示板に、表示板を透過して見える農作物に対して、アクションに応じた結果を拡張現実として表示する。例えば、収穫時期を消すアクションを検出したら収穫時期の表示を消してよい。例えば、収穫時期に付けられたリンクを開くアクションを検出したらリンクを開いてもよい。もちろん他のアクションでもよい。
撮像方向取得手段は、ウェアラブル端末の撮像方向を取得する。例えば、撮像方向は、ウェアラブル端末で撮像する場合は、ウェアラブル端末の地磁気センサや加速度センサから取得できる。これ以外から取得してもよい。
推測手段は、端末位置と撮像方向とに基づいて、農作物の農作物位置を推測する。端末位置と撮像方向が分かっていれば、撮像された農作物の位置を推測することができる。
ガイドライン表示手段は、ウェアラブル端末の表示板に、農作物を撮像するためのガイドラインを拡張現実として表示する。例えば、枠や十字などのガイドラインを表示してもよい。ガイドラインに沿って撮像してもらうことで画像解析がしやすくなる。
選択受付手段は、ウェアラブル端末の表示板を透過して見える農作物に対して、選択対象の選択を受け付ける。例えば、ウェアラブル端末の表示板を透過して見える農作物を一定時間見ることで選択対象の選択を受け付けてもよい。例えば、ウェアラブル端末の表示板を透過して見える農作物にタッチして選択対象の選択を受け付けてもよい。例えば、ウェアラブル端末の表示板を透過して見える農作物にカーソルを合わせることで選択対象の選択を受け付けてもよい。
[動作の説明]
[動作の説明]
次に、ウェアラブル端末表示方法について説明する。本発明のウェアラブル端末表示方法は、ウェアラブル端末の表示板に、表示板を透過して見える農作物に対して、予測された収穫時期を拡張現実として表示する方法である。
ウェアラブル端末表示方法は、画像取得ステップ、特定ステップ、選択ステップ、判定ステップ、予測ステップ、収穫時期表示ステップ、を備える。図示しないが、同様に、気象取得ステップ、端末位置取得ステップ、音取得ステップ、モード受付ステップ、検出ステップ、アクション結果表示ステップ、撮像方向取得ステップ、推測ステップ、ガイドライン表示ステップ、選択受付ステップ、を備えてもよい。
画像取得ステップは、ウェアラブル端末の視界に入った農作物の画像を取得する。ウェアラブル端末のカメラで撮像された画像を取得してもよい。または、ウェアラブル端末以外であっても、このような画像を取得できるのであれば、それでも構わない。画像とは動画でも静止画でもよい。リアルタイムな画像の方が好ましい。また、ガイドラインを表示して撮像させる場合には、ガイドラインに沿って撮像された画像を取得してもよい。ガイドラインに沿って撮像された画像だけを取得して画像解析することで、効率良く農作物を特定できる。
特定ステップは、画像を解析して農作物の種類を特定する。例えば、農作物が、キャベツなのか、ほうれん草なのか、蜜柑なのか、スイカなのか、を特定する。また、映った全ての農作物の種類を特定してしまうと時間が掛かる場合には、ウェアラブル端末の視界の中央にある農作物を特定対象として特定してもよい。視界の中央にある農作物だけを特定対象として特定することで特定に要する時間を大幅に短縮できる。また、機械学習によって画像解析の精度を向上させてもよい。例えば、農作物の過去画像を教師データとして機械学習を行う。また、農作物の農作物位置を推測する場合には、農作物位置と画像解析とから、農作物の種類を特定してもよい。
選択ステップは、農作物の種類に応じて判定基準を選択する。農作物が、キャベツなのか、ほうれん草なのか、蜜柑なのか、スイカなのか、によって、収穫時期を予測する基準となる判定基準が異なるので選択する必要がある。更には、スイカの場合は、スイカを叩いた音で収穫時期を予測する判定基準にもなる。
判定ステップは、判定基準に基づいて画像を解析して色およびサイズを判定する。農作物の種類によって見るべき色やサイズが異なるので、農作物の種類に応じた判定基準に基づいて判定する。例えば、蜜柑の場合は、蜜柑の場合は、果皮の色がどのぐらい橙色に色づいたか、どのぐらいのサイズに成長したか、を判定基準にする。例えば、キャベツの場合は、外側の葉が虫食いしていた方が良いが、虫食いも色で判定できる。また、農作物の音を取得する場合には、判定基準に基づいて、画像を解析して色およびサイズを判定し、取得された音を判定してもよい。例えば、スイカの場合、スイカを叩いた音が収穫時期の判定に使用される。農作物によっては、農作物の音も判定の要素になるケースがある。
予測ステップは、判定の結果に基づいて農作物の収穫時期を予測する。例えば、判定の結果に基づいて、収穫時期は3日後と予測する。また、判定の結果によっては、収穫時期を正確に予測できない場合もあるので、その場合は例えば、収穫時期は3日後~5日後などと幅を持たせて予測してもよい。また、気象によっても収穫時期にずれが生じるので、気象予報を取得する場合は、判定の結果と気象予報とに基づいて農作物の収穫時期を予測してもよい。また、収穫時期のモードを受け付ける場合には、判定の結果に基づいて、農作物に対してモードにおける収穫時期を予測してもよい。また、機械学習によって予測の精度を向上させてもよい。例えば、予測した過去の収穫時期を教師データとして機械学習を行う。
収穫時期表示ステップは、ウェアラブル端末の表示板に、前記表示板を透過して見える前記農作物に対して、前記予測された収穫時期を拡張現実として表示する。例えば図2にあるように、ウェアラブル端末の表示板に、表示板を透過して見える実線で描かれた農作物に対して、破線で描かれた収穫時期を拡張現実として表示している。ここでは理解のために、実線は実物、破線は拡張現実、としている。表示板を透過して見える実線で描かれた農作物に対して収穫時期を拡張現実で表示することで、農作業をしながら農作物の収穫時期がいつ頃になるのかを把握できる。拡張現実として表示する収穫時期は、表示板を透過して見える農作物に重なるように表示しても良いが、農作物が見づらくなるので、収穫時期の表示ON/OFFを切り替えられるようにしてもよい。また、表示する農作物の選択を受け付ける場合には、ウェアラブル端末の表示板に、表示板を透過して見える選択対象にだけ合わせて、収穫時期を拡張現実として表示してもよい。
気象取得ステップは、農作物が育っている場所の気象予報を取得する。気象予報は、気象庁などの外部のデータベースから取得してもよいし、内部にデータベースを用意して記憶してもよい。住所などから農作物が育っている場所が分かる。また、端末位置を取得する場合には、端末位置を農作物が育っている場所とみなして気象予報を取得してもよい。
端末位置取得ステップは、ウェアラブル端末の端末位置を取得する。例えば、端末位置は、ウェアラブル端末のGPS(Global Positioning System)から取得できる。これ以外から取得してもよい。
音取得ステップは、ウェアラブル端末のマイクから農作物の音を取得する。例えば、スイカの場合、スイカを叩いた音が収穫時期の判定に使用される。農作物によっては、農作物の音も判定の要素になるケースがある。
モード受付ステップは、収穫時期のモードの選択を受け付ける。例えば、美味しい収穫時期のモード、高値がつく収穫時期のモード、輸送期間を考慮した収穫時期のモード、乾燥農作物にするときの収穫時期のモード、などである。他にも様々なモードがある。
検出ステップは、表示された収穫時期に対するアクションを検出する。農作業の画像を取得して画像解析をすることで、収穫時期に対するアクションを検出できる。例えば、収穫時期に従って収穫したのか収穫していないのかを検出する。また、ウェアラブル端末のセンサ情報や、農作業者に装着されたセンサ情報などから、収穫時期に対するアクションを検出してもよい。
アクション結果表示ステップは、ウェアラブル端末の表示板に、表示板を透過して見える農作物に対して、アクションに応じた結果を拡張現実として表示する。例えば、収穫時期を消すアクションを検出したら収穫時期の表示を消してよい。例えば、収穫時期に付けられたリンクを開くアクションを検出したらリンクを開いてもよい。もちろん他のアクションでもよい。
撮像方向取得ステップは、ウェアラブル端末の撮像方向を取得する。例えば、撮像方向は、ウェアラブル端末で撮像する場合は、ウェアラブル端末の地磁気センサや加速度センサから取得できる。これ以外から取得してもよい。
推測ステップは、端末位置と撮像方向とに基づいて、農作物の農作物位置を推測する。端末位置と撮像方向が分かっていれば、撮像された農作物の位置を推測することができる。
ガイドライン表示ステップは、ウェアラブル端末の表示板に、農作物を撮像するためのガイドラインを拡張現実として表示する。例えば、枠や十字などのガイドラインを表示してもよい。ガイドラインに沿って撮像してもらうことで画像解析がしやすくなる。
選択受付ステップは、ウェアラブル端末の表示板を透過して見える農作物に対して、選択対象の選択を受け付ける。例えば、ウェアラブル端末の表示板を透過して見える農作物を一定時間見ることで選択対象の選択を受け付けてもよい。例えば、ウェアラブル端末の表示板を透過して見える農作物にタッチして選択対象の選択を受け付けてもよい。例えば、ウェアラブル端末の表示板を透過して見える農作物にカーソルを合わせることで選択対象の選択を受け付けてもよい。
上述した手段、機能は、コンピュータ(CPU、情報処理装置、各種端末を含む)が、所定のプログラムを読み込んで、実行することによって実現される。プログラムは、例えば、コンピュータにインストールされるアプリケーションであってもよいし、コンピュータからネットワーク経由で提供されるSaaS(ソフトウェア・アズ・ア・サービス)形態であってもよいし、例えば、フレキシブルディスク、CD(CD-ROMなど)、DVD(DVD-ROM、DVD-RAMなど)等のコンピュータ読取可能な記録媒体に記録された形態で提供されてもよい。この場合、コンピュータはその記録媒体からプログラムを読み取って内部記憶装置または外部記憶装置に転送し記憶して実行する。また、そのプログラムを、例えば、磁気ディスク、光ディスク、光磁気ディスク等の記憶装置(記録媒体)に予め記録しておき、その記憶装置から通信回線を介してコンピュータに提供するようにしてもよい。
上述した機械学習の具体的なアルゴリズムとしては、最近傍法、ナイーブベイズ法、決定木、サポートベクターマシン、強化学習などを利用してよい。また、ニューラルネットワークを利用して、学習するための特徴量を自ら生成する深層学習(ディープラーニング)であってもよい。
以上、本発明の実施形態について説明したが、本発明は上述したこれらの実施形態に限るものではない。また、本発明の実施形態に記載された効果は、本発明から生じる最も好適な効果を列挙したに過ぎず、本発明による効果は、本発明の実施形態に記載されたものに限定されるものではない。
Claims (12)
- ウェアラブル端末の表示板に、農作物の収穫時期を表示するウェアラブル端末表示システムであって、
前記ウェアラブル端末の視界に入った農作物の画像を取得する画像取得手段と、
前記画像を解析して、前記農作物の種類を特定する特定手段と、
前記種類に応じて、判定基準を選択する選択手段と、
前記判定基準に基づいて、前記画像を解析して色およびサイズを判定する判定手段と、
前記判定の結果に基づいて、前記農作物の収穫時期を予測する予測手段と、
前記ウェアラブル端末の表示板に、前記表示板を透過して見える前記農作物に対して、前記予測された収穫時期を拡張現実として表示する収穫時期表示手段と、
を備えるウェアラブル端末表示システム。 - 前記特定手段は、前記ウェアラブル端末の視界の中央にある農作物を特定対象として特定する
請求項1に記載のウェアラブル端末表示システム。 - 前記農作物が育っている場所の気象予報を取得する気象取得手段を備え、
前記予測手段は、前記判定の結果と、前記取得された気象予報と、に基づいて、前記農作物の収穫時期を予測する
請求項1に記載のウェアラブル端末表示システム。 - 前記ウェアラブル端末の端末位置を取得する端末位置取得手段を備え、
前記気象取得手段は、前記ウェアラブル端末の端末位置を前記農作物が育っている場所とみなして、前記農作物が育っている場所の気象予報を取得する
請求項3に記載のウェアラブル端末表示システム。 - 前記ウェアラブル端末のマイクから、前記農作物の音を取得する音取得手段を備え
前記判定手段は、前記判定基準に基づいて、前記画像を解析して色およびサイズを判定し、前記取得された音を判定する
請求項1に記載のウェアラブル端末表示システム。 - 前記収穫時期のモードの選択を受け付けるモード受付手段を備え、
前記予測手段は、前記判定の結果に基づいて、前記農作物に対して、前記モードにおける収穫時期を予測する
請求項1に記載のウェアラブル端末表示システム。 - 前記表示された収穫時期に対するアクションを検出する検出手段と、
前記ウェアラブル端末の表示板に、前記表示板を透過して見える前記農作物に対して、前記アクションに応じた結果を拡張現実として表示するアクション結果表示手段と、
を備える請求項1に記載のウェアラブル端末表示システム。 - 前記ウェアラブル端末の端末位置を取得する端末位置取得手段と、
前記ウェアラブル端末の撮像方向を取得する撮像方向取得手段と、
前記端末位置と前記撮像方向とに基づいて、前記農作物の農作物位置を推測する推測手段と、
を備え、
前記特定手段は、前記農作物位置と前記画像解析とから、前記農作物の種類を特定する
請求項1に記載のウェアラブル端末表示システム。 - 前記ウェアラブル端末の表示板に、前記農作物を撮像するためのガイドラインを拡張現実として表示するガイドライン表示手段を備え、
前記画像取得手段は、前記ガイドラインに沿って撮像された前記画像を取得する
請求項1に記載のウェアラブル端末表示システム。 - 前記ウェアラブル端末の表示板を透過して見える前記農作物に対して、選択対象の選択を受け付ける選択受付手段を備え、
前記収穫時期表示手段は、前記ウェアラブル端末の表示板に、前記表示板を透過して見える前記選択対象にだけ合わせて、前記収穫時期を拡張現実として表示する
請求項1に記載のウェアラブル端末表示システム。 - ウェアラブル端末の表示板に、農作物の収穫時期を表示するウェアラブル端末表示方法であって、
前記ウェアラブル端末の視界に入った農作物の画像を取得する画像取得ステップと、
前記画像を解析して、前記農作物の種類を特定する特定ステップと、
前記種類に応じて、判定基準を選択する選択ステップと、
前記判定基準に基づいて、前記画像を解析して色およびサイズを判定する判定ステップと、
前記判定の結果に基づいて、前記農作物の収穫時期を予測する予測ステップと、
前記ウェアラブル端末の表示板に、前記表示板を透過して見える前記農作物に対して、前記予測された収穫時期を拡張現実として表示する収穫時期表示ステップと、
を備えるウェアラブル端末表示方法。 - コンピュータに、
前記ウェアラブル端末の視界に入った農作物の画像を取得する画像取得ステップと、
前記画像を解析して、前記農作物の種類を特定する特定ステップと、
前記種類に応じて、判定基準を選択する選択ステップと、
前記判定基準に基づいて、前記画像を解析して色およびサイズを判定する判定ステップと、
前記判定の結果に基づいて、前記農作物の収穫時期を予測する予測ステップと、
前記ウェアラブル端末の表示板に、前記表示板を透過して見える前記農作物に対して、前記予測された収穫時期を拡張現実として表示する収穫時期表示ステップと、
をさせるためのプログラム。
Priority Applications (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| US15/749,897 US10643073B2 (en) | 2017-04-28 | 2017-04-28 | System, method, program for display on wearable terminal |
| PCT/JP2017/016941 WO2018198319A1 (ja) | 2017-04-28 | 2017-04-28 | ウェアラブル端末表示システム、ウェアラブル端末表示方法およびプログラム |
| JP2017554091A JP6267841B1 (ja) | 2017-04-28 | 2017-04-28 | ウェアラブル端末表示システム、ウェアラブル端末表示方法およびプログラム |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| PCT/JP2017/016941 WO2018198319A1 (ja) | 2017-04-28 | 2017-04-28 | ウェアラブル端末表示システム、ウェアラブル端末表示方法およびプログラム |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2018198319A1 true WO2018198319A1 (ja) | 2018-11-01 |
Family
ID=61020799
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/JP2017/016941 Ceased WO2018198319A1 (ja) | 2017-04-28 | 2017-04-28 | ウェアラブル端末表示システム、ウェアラブル端末表示方法およびプログラム |
Country Status (3)
| Country | Link |
|---|---|
| US (1) | US10643073B2 (ja) |
| JP (1) | JP6267841B1 (ja) |
| WO (1) | WO2018198319A1 (ja) |
Cited By (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2020152157A1 (en) * | 2019-01-21 | 2020-07-30 | Sony Corporation | Information processing apparatus, electronic device and method |
| WO2020203764A1 (ja) * | 2019-03-29 | 2020-10-08 | 株式会社日立システムズ | 現場作業支援システム |
| JP2021125215A (ja) * | 2020-02-03 | 2021-08-30 | アップル インコーポレイテッドApple Inc. | 環境を注釈し、測定し、かつモデリングするためのシステム、方法、及びグラフィカルユーザインタフェース |
| TWI818334B (zh) * | 2021-10-19 | 2023-10-11 | 國立中興大學 | 以手機影像推估穀粒含水量及收穫時期的方法 |
| EP4528606A3 (en) * | 2023-09-21 | 2025-06-04 | AgTechLogic Inc. | Systems and methods for visualizing and interacting with agricultural systems |
Families Citing this family (10)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP6999223B2 (ja) * | 2018-07-31 | 2022-01-18 | 株式会社オプティム | コンピュータシステム、収穫時期予測方法及びプログラム |
| JP6542445B1 (ja) | 2018-07-31 | 2019-07-10 | 株式会社 情報システムエンジニアリング | 情報提供システム及び情報提供方法 |
| KR20210040088A (ko) | 2018-08-30 | 2021-04-12 | 가부시키가이샤 엔티티 데이터 씨씨에스 | 작물 생육 스테이지 판정 시스템의 서버 장치, 생육 스테이지 판정 방법 및 프로그램 |
| JP6607589B1 (ja) | 2019-03-29 | 2019-11-20 | 株式会社 情報システムエンジニアリング | 情報提供システム及び情報提供方法 |
| JP6651189B1 (ja) | 2019-03-29 | 2020-02-19 | 株式会社 情報システムエンジニアリング | 機械学習用のデータ構造、学習方法及び情報提供システム |
| JP6607590B1 (ja) | 2019-03-29 | 2019-11-20 | 株式会社 情報システムエンジニアリング | 情報提供システム及び情報提供方法 |
| US20210375487A1 (en) | 2019-10-31 | 2021-12-02 | Information System Engineering Inc. | Information providing system |
| JP6846765B1 (ja) | 2020-03-26 | 2021-03-24 | 株式会社 情報システムエンジニアリング | 情報処理プログラム |
| CN114757681A (zh) * | 2022-03-24 | 2022-07-15 | 兰州飞天网景信息产业有限公司 | 一种农产品贴标溯源系统及方法 |
| KR102588643B1 (ko) * | 2022-12-05 | 2023-10-16 | 주식회사 어밸브 | 스마트팜 내의 작물 수율을 예측하는 방법, 및 이를 이용하는 스마트팜 관리 서버 |
Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2011192022A (ja) * | 2010-03-15 | 2011-09-29 | Japan Research Institute Ltd | 農作物モニタリング方法、農作物モニタリングシステム及び農作物モニタリング装置 |
| JP2015177397A (ja) * | 2014-03-17 | 2015-10-05 | セイコーエプソン株式会社 | ヘッドマウントディスプレイおよび農作業補助システム |
Family Cites Families (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP3951025B2 (ja) | 2003-09-18 | 2007-08-01 | 独立行政法人農業・食品産業技術総合研究機構 | 農作業履歴管理装置、農作業履歴管理方法および農作業履歴管理プログラム |
| US9870726B2 (en) * | 2013-02-22 | 2018-01-16 | Sony Corporation | Image display apparatus, image display method, storage medium, and monitoring system |
| WO2016127094A1 (en) * | 2015-02-06 | 2016-08-11 | The Climate Corporation | Methods and systems for recommending agricultural activities |
| US10713697B2 (en) * | 2016-03-24 | 2020-07-14 | Avante International Technology, Inc. | Farm product exchange system and method suitable for multiple small producers |
| KR101810877B1 (ko) * | 2016-09-02 | 2018-01-25 | 순천대학교 산학협력단 | 과일 수확 시기 예측 시스템 및 그 방법 |
-
2017
- 2017-04-28 US US15/749,897 patent/US10643073B2/en active Active
- 2017-04-28 JP JP2017554091A patent/JP6267841B1/ja active Active
- 2017-04-28 WO PCT/JP2017/016941 patent/WO2018198319A1/ja not_active Ceased
Patent Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2011192022A (ja) * | 2010-03-15 | 2011-09-29 | Japan Research Institute Ltd | 農作物モニタリング方法、農作物モニタリングシステム及び農作物モニタリング装置 |
| JP2015177397A (ja) * | 2014-03-17 | 2015-10-05 | セイコーエプソン株式会社 | ヘッドマウントディスプレイおよび農作業補助システム |
Cited By (10)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2020152157A1 (en) * | 2019-01-21 | 2020-07-30 | Sony Corporation | Information processing apparatus, electronic device and method |
| WO2020203764A1 (ja) * | 2019-03-29 | 2020-10-08 | 株式会社日立システムズ | 現場作業支援システム |
| JPWO2020203764A1 (ja) * | 2019-03-29 | 2021-10-14 | 株式会社日立システムズ | 現場作業支援システム |
| CN113519012A (zh) * | 2019-03-29 | 2021-10-19 | 株式会社日立系统 | 现场作业辅助系统 |
| JP7039766B2 (ja) | 2019-03-29 | 2022-03-22 | 株式会社日立システムズ | 現場作業支援システム |
| JP2021125215A (ja) * | 2020-02-03 | 2021-08-30 | アップル インコーポレイテッドApple Inc. | 環境を注釈し、測定し、かつモデリングするためのシステム、方法、及びグラフィカルユーザインタフェース |
| JP7041327B1 (ja) | 2020-02-03 | 2022-03-23 | アップル インコーポレイテッド | 環境を注釈し、測定し、かつモデリングするためのシステム、方法、及びグラフィカルユーザインタフェース |
| JP2022059612A (ja) * | 2020-02-03 | 2022-04-13 | アップル インコーポレイテッド | 環境を注釈し、測定し、かつモデリングするためのシステム、方法、及びグラフィカルユーザインタフェース |
| TWI818334B (zh) * | 2021-10-19 | 2023-10-11 | 國立中興大學 | 以手機影像推估穀粒含水量及收穫時期的方法 |
| EP4528606A3 (en) * | 2023-09-21 | 2025-06-04 | AgTechLogic Inc. | Systems and methods for visualizing and interacting with agricultural systems |
Also Published As
| Publication number | Publication date |
|---|---|
| US20200019780A1 (en) | 2020-01-16 |
| JPWO2018198319A1 (ja) | 2019-06-27 |
| US10643073B2 (en) | 2020-05-05 |
| JP6267841B1 (ja) | 2018-01-24 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP6267841B1 (ja) | ウェアラブル端末表示システム、ウェアラブル端末表示方法およびプログラム | |
| Corcoran et al. | Automated detection of koalas using low-level aerial surveillance and machine learning | |
| US11961192B2 (en) | Mapping sensor data using a mixed-reality cloud | |
| US12307343B2 (en) | Information processing apparatus, information processing method, and storage medium | |
| JP6495561B1 (ja) | 土地用途判定システム、土地用途判定方法およびプログラム | |
| EP3642792A1 (en) | Data processing of images of a crop | |
| US20210241482A1 (en) | Yield prediction for a cornfield | |
| US20200074175A1 (en) | Object cognitive identification solution | |
| KR20180086776A (ko) | 태깅 어플리케이션을 이용하여 식물 식별 정보를 태깅 및 분석하는 방법, 이를 실행하는 휴대용 스마트 기기 및 이를 포함하는 식물 생육정보 분석 시스템 | |
| JP6158967B1 (ja) | 環境汚染予測システム及び方法 | |
| US20200116506A1 (en) | Crowd control using individual guidance | |
| Taylor et al. | Early season detection and mapping of Pseudomonas syringae pv. actinidae infected kiwifruit (Actinidia sp.) orchards | |
| AU2017279562A1 (en) | System and method of grouping images | |
| KR101824203B1 (ko) | 대상 개체 계수 장치 및 대상 개체 계수 장치의 대상 개체 계수 방법 | |
| Choi et al. | A novel 3D insect detection and monitoring system in plants based on deep learning | |
| KR20230083801A (ko) | 영상정보 기반의 벼 키다리병 자동 판독 장치 및 방법 | |
| US20210278242A1 (en) | Wearable terminal display system, wearable terminal display method and program | |
| WO2018198320A1 (ja) | ウェアラブル端末表示システム、ウェアラブル端末表示方法およびプログラム | |
| US20210110283A1 (en) | Farm data annotation and bias detection | |
| JP6343412B1 (ja) | 地図連動センサ情報表示システム、地図連動センサ情報表示方法およびプログラム | |
| WO2019003359A1 (ja) | ウェアラブル端末表示システム、ウェアラブル端末表示方法およびプログラム | |
| JP2022106103A (ja) | 情報処理装置、情報処理方法、及びプログラム | |
| WO2018179230A1 (ja) | ウェアラブル端末表示システム、ウェアラブル端末表示方法およびプログラム | |
| JP2025150008A (ja) | 地図情報生成装置および地図情報生成方法、並びにプログラム | |
| WO2025057873A1 (ja) | 推定装置、表示装置、画像生成装置、推定方法、表示方法、画像生成方法および記録媒体 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| ENP | Entry into the national phase |
Ref document number: 2017554091 Country of ref document: JP Kind code of ref document: A |
|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 17907135 Country of ref document: EP Kind code of ref document: A1 |
|
| NENP | Non-entry into the national phase |
Ref country code: DE |
|
| 122 | Ep: pct application non-entry in european phase |
Ref document number: 17907135 Country of ref document: EP Kind code of ref document: A1 |