JP7032623B2 - 推論装置、推論方法及びプログラム - Google Patents
推論装置、推論方法及びプログラム Download PDFInfo
- Publication number
- JP7032623B2 JP7032623B2 JP2017210178A JP2017210178A JP7032623B2 JP 7032623 B2 JP7032623 B2 JP 7032623B2 JP 2017210178 A JP2017210178 A JP 2017210178A JP 2017210178 A JP2017210178 A JP 2017210178A JP 7032623 B2 JP7032623 B2 JP 7032623B2
- Authority
- JP
- Japan
- Prior art keywords
- feature amount
- inference
- class
- basis
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/211—Selection of the most significant subset of features
- G06F18/2113—Selection of the most significant subset of features by ranking or filtering the set of features, e.g. using a measure of variance or of feature cross-correlation
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/243—Classification techniques relating to the number of classes
- G06F18/2431—Multiple classes
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/042—Knowledge-based neural networks; Logical representations of neural networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/09—Supervised learning
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/02—Knowledge representation; Symbolic representation
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/771—Feature selection, e.g. selecting representative features from a multi-dimensional feature space
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Data Mining & Analysis (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Multimedia (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Biodiversity & Conservation Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
Description
図1は、第1の実施の形態の画像認識装置1の構成を示す図である。画像認識装置1は、入力された画像が、複数のクラスのうちのいずれのクラスに分類されるかを推論する装置である。画像認識装置1は、処理対象の画像を入力する入力部10と、画像のクラスを推論する推論部11と、推論結果を表示して出力する出力部12とを有している。推論部11は、複数の畳み込みニューラルネットワークの層を有する、いわゆるディープラーニングのニューラルネットワークモデルを用いる。一例としては、Alex Krizhevsky他「AlexNet」と称される公知のニューラルネットワークシステムを用いてもよい。ここまでに説明した画像認識装置1の構成は、従来のニューラルネットワークによる推論装置の構成と同じである。
図8は、第2の実施の形態の画像認識装置2の構成を示す図である。第2の実施の形態の画像認識装置2において推論結果に至った説明情報を生成する構成は、第1の実施の形態の画像認識装置1と同じである。第2の実施の形態の画像認識装置2は、根拠特徴量抽出部14にて求めた根拠特徴量のデータを根拠特徴量記憶部18に記憶しておき、根拠特徴量の分析を行う点が構成を備えている。
12・・・出力部、13・・・代表特徴量抽出部、14・・・根拠特徴量抽出部、
15・・・説明情報生成部、16・・・頻出特徴量DB、
17・・・アノテーションDB、18・・・根拠特徴量記憶部、
19・・・クラスタリング部
Claims (12)
- 機械学習で生成した推論モデルを用いた推論によって、入力された情報が所定のクラスのいずれに属するかを推論する推論装置(1)であって、
情報を入力する入力部(10)と、
前記推論モデルを用いた推論過程において、頻出する特徴量を頻出特徴量として、クラスごとに記憶した頻出特徴量データベース(16)と、
入力された情報がどのクラスに属するかを、前記推論モデルを用いて推論する推論部(11)と、
前記推論部(11)における推論過程で現れた特徴量を抽出し、前記特徴量の中で所定の条件を満たす特徴量を代表特徴量として抽出する代表特徴量抽出部(13)と、
前記頻出特徴量データベース(16)から、推論されたクラスに対応する頻出特徴量を読み出し、前記頻出特徴量と前記代表特徴量とに基づいて1または複数の根拠特徴量を抽出する根拠特徴量抽出部(14)と、
推論されたクラスと共に前記根拠特徴量を出力する出力部(12)と、
を備える推論装置。 - 前記特徴量を表す概念のデータを記憶したアノテーションデータベース(17)と、
前記アノテーションデータベースから、前記根拠特徴量に対応する概念のデータを読み出して説明情報を生成する説明情報生成部(15)と、
を備え、
前記出力部(12)は、推論されたクラスと共に前記説明情報を出力する請求項1に記載の推論装置。 - 前記入力部(11)は、情報として画像の入力を受け付け、
前記根拠特徴量抽出部(14)は、前記根拠特徴量と共に前記根拠特徴量に対応する前記画像中の受容野のデータを抽出し、
前記出力部(12)は、前記画像において前記根拠特徴量に対応する受容野を前記画像中で特定する表示を行う請求項1または2に記載の推論装置。 - 前記根拠特徴量抽出部(14)は、前記受容野のデータを用いて、異なる領域の受容野に関する根拠特徴量を求める請求項3に記載の推論装置。
- 前記出力部(12)は、前記根拠特徴量に対応する前記代表特徴量が強い順に、前記根拠特徴量を並べて表示する請求項1または2に記載の推論装置。
- 前記出力部(12)は、前記根拠特徴量に対応する前記頻出特徴量と前記代表特徴量とに基づいて、前記根拠特徴量を並べて表示する請求項1または2に記載の推論装置。
- 前記アノテーションデータベース(17)には、前記概念のデータに関連付けて属性のデータが記憶されており、
前記根拠特徴量抽出部(14)は、前記属性のデータを用いて、異なる属性に関する根拠特徴量を求める請求項2に記載の推論装置。 - 前記出力部(12)は、根拠特徴量の個数が所定の閾値以下の場合に、その旨を出力する請求項1乃至7のいずれかに記載の推論装置。
- 前記根拠特徴量抽出部(14)にて算出した前記根拠特徴量のデータをクラスごとに記憶する根拠特徴量記憶部(18)と、
前記根拠特徴量記憶部(18)に記憶された根拠特徴量をクラスタリングするクラスタリング部(19)と、
を備え、
前記出力部(12)は、前記クラスタリング部(19)にて根拠特徴量を分類できた場合に、その旨を出力する請求項1乃至8のいずれかに記載の推論装置。 - 機械学習で生成したニューラルネットワークモデルを用いた推論によって、入力された画像が所定のクラスのいずれに属するかを推論する推論装置(1)であって、
画像を入力する入力部(10)と、
入力された画像がどのクラスに属するかを、前記ニューラルネットワークモデルを用いて推論する推論部(11)と、
推論されたクラスと共に、前記画像が前記クラスに属すると判定した根拠となった特徴量に対応する概念を表す文言と、前記特徴量に対応する受容野を前記画像中で特定する表示とを出力する出力部(12)と、
を備え、
前記出力部(12)は、異なる領域の受容野についての根拠特徴量を出力する推論装置。 - 推論装置(1)が、機械学習で生成した推論モデルを用いた推論によって、入力された情報が所定のクラスのいずれに属するかを推論する推論方法であって、
前記推論装置(1)が、入力された情報がどのクラスに属するかを、前記推論モデルを用いて推論するステップ(S11)と、
前記推論装置(1)が、推論過程で現れた特徴量を抽出し、前記特徴量の中で所定の条件を満たす特徴量を代表特徴量として抽出するステップ(S12)と、
前記推論装置(1)が、前記推論モデルを用いた推論過程において、頻出する特徴量を頻出特徴量として、クラスごとに記憶した頻出特徴量データベースから、推論されたクラスに対応する頻出特徴量を読み出すステップ(S13)と、
前記推論装置(1)が、前記頻出特徴量と前記代表特徴量とに基づいて、1または複数の根拠特徴量を抽出するステップ(S14)と、
前記推論装置(1)が、推論されたクラスと共に前記根拠特徴量を出力するステップ(S16)と、
を備える推論方法。 - 機械学習で生成した推論モデルを用いた推論によって、入力された情報が所定のクラスのいずれに属するかを推論するためのプログラムであって、コンピュータに、
入力された情報がどのクラスに属するかを、前記推論モデルを用いて推論するステップと、
推論過程で現れた特徴量を抽出し、前記特徴量の中で所定の条件を満たす特徴量を代表特徴量として抽出するステップと、
前記推論モデルを用いた推論過程において、頻出する頻出特徴量をクラスごとに記憶した頻出特徴量データベースから、推論されたクラスに対応する頻出特徴量を読み出すステップと、
前記頻出特徴量と前記代表特徴量とに基づいて、1または複数の根拠特徴量を抽出するステップと、
推論されたクラスと共に前記根拠特徴量を出力するステップと、
を実行させるプログラム。
Priority Applications (4)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2017210178A JP7032623B2 (ja) | 2017-10-31 | 2017-10-31 | 推論装置、推論方法及びプログラム |
| DE112018005089.0T DE112018005089T5 (de) | 2017-10-31 | 2018-09-04 | Inferenzvorrichtung, Inferenzverfahren, Programm und nicht transitorisches greifbares computerlesbares Medium |
| PCT/JP2018/032689 WO2019087561A1 (ja) | 2017-10-31 | 2018-09-04 | 推論装置、推論方法、プログラムおよび持続的有形コンピュータ読み取り媒体 |
| US16/860,843 US11625561B2 (en) | 2017-10-31 | 2020-04-28 | Inference device, inference method, and non-transitory tangible computer-readable medium |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2017210178A JP7032623B2 (ja) | 2017-10-31 | 2017-10-31 | 推論装置、推論方法及びプログラム |
Publications (3)
| Publication Number | Publication Date |
|---|---|
| JP2019082883A JP2019082883A (ja) | 2019-05-30 |
| JP2019082883A5 JP2019082883A5 (ja) | 2020-05-07 |
| JP7032623B2 true JP7032623B2 (ja) | 2022-03-09 |
Family
ID=66331662
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2017210178A Active JP7032623B2 (ja) | 2017-10-31 | 2017-10-31 | 推論装置、推論方法及びプログラム |
Country Status (4)
| Country | Link |
|---|---|
| US (1) | US11625561B2 (ja) |
| JP (1) | JP7032623B2 (ja) |
| DE (1) | DE112018005089T5 (ja) |
| WO (1) | WO2019087561A1 (ja) |
Families Citing this family (23)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP7119774B2 (ja) * | 2018-08-28 | 2022-08-17 | 富士通株式会社 | 学習プログラム、画像分類プログラム、学習方法、画像分類方法、学習装置および画像分類装置 |
| US12229643B2 (en) * | 2018-10-05 | 2025-02-18 | Nec Corporation | Teaching data extending device, teaching data extending method, and program |
| JP7493813B2 (ja) * | 2019-07-26 | 2024-06-03 | 国立大学法人横浜国立大学 | 説明生成装置、説明生成方法およびプログラム |
| JP7161979B2 (ja) * | 2019-07-26 | 2022-10-27 | 株式会社 日立産業制御ソリューションズ | 説明支援装置、および、説明支援方法 |
| JP7418171B2 (ja) * | 2019-08-30 | 2024-01-19 | キヤノン株式会社 | 画像処理装置、放射線撮影システム、画像処理方法及びプログラム |
| US20230045416A1 (en) * | 2019-11-08 | 2023-02-09 | Sony Group Corporation | Information processing device, information processing method, and information processing program |
| JP2021105807A (ja) * | 2019-12-26 | 2021-07-26 | 株式会社日立製作所 | 計算機システム及び業務システムの運用環境の解析方法 |
| JP7666494B2 (ja) * | 2020-02-14 | 2025-04-22 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、プログラム |
| JP7256766B2 (ja) | 2020-03-04 | 2023-04-12 | 株式会社日立製作所 | 推測根拠分析装置及び推測根拠分析方法 |
| JP7374829B2 (ja) * | 2020-03-24 | 2023-11-07 | 株式会社東芝 | ニューラルネット解析装置、ニューラルネット解析方法及びプログラム |
| FR3113155B1 (fr) * | 2020-07-28 | 2022-11-25 | Adventive | Procédé d’identification d’un implant dentaire visible sur une image d’entrée au moyen d’au moins un réseau de neurones à convolution. |
| JP6872214B1 (ja) | 2020-08-20 | 2021-05-19 | 株式会社医療情報技術研究所 | 分類システム |
| JP7481956B2 (ja) * | 2020-08-26 | 2024-05-13 | 株式会社東芝 | 推論装置、方法、プログラムおよび学習装置 |
| WO2022065276A1 (ja) | 2020-09-25 | 2022-03-31 | 富士フイルム株式会社 | 構造物の補修支援装置、方法及びプログラム |
| WO2022107330A1 (ja) * | 2020-11-20 | 2022-05-27 | 日本電気株式会社 | 状態判定装置、状態判定システム、状態判定方法、及び、記録媒体 |
| JP7537242B2 (ja) * | 2020-11-25 | 2024-08-21 | セイコーエプソン株式会社 | 方法、装置、および、コンピュータープログラム |
| KR20220073464A (ko) * | 2020-11-26 | 2022-06-03 | 삼성에스디에스 주식회사 | 설명 가능한 인공지능 제공 방법 |
| US20220198304A1 (en) * | 2020-12-18 | 2022-06-23 | International Business Machines Corporation | Providing explainable machine learning model results using distributed ledgers |
| US12223432B2 (en) * | 2020-12-23 | 2025-02-11 | International Business Machines Corporation | Using disentangled learning to train an interpretable deep learning model |
| JP7636060B2 (ja) * | 2021-02-26 | 2025-02-26 | 日本電気通信システム株式会社 | モデル学習装置、モデル学習方法、およびプログラム |
| JP7101349B1 (ja) | 2021-05-28 | 2022-07-15 | 株式会社医療情報技術研究所 | 分類システム |
| WO2024135423A1 (ja) * | 2022-12-23 | 2024-06-27 | コニカミノルタ株式会社 | 情報処理装置、情報処理方法、プログラムおよび情報処理システム |
| WO2025210785A1 (ja) * | 2024-04-03 | 2025-10-09 | オリンパスメディカルシステムズ株式会社 | 説明支援装置、説明支援方法、説明支援用プログラム及び説明支援用プログラムを記録する非一時的記録媒体 |
Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2006043007A (ja) | 2004-08-02 | 2006-02-16 | Fujitsu Ltd | 診断支援プログラムおよび診断支援装置 |
| JP2016114592A (ja) | 2014-12-12 | 2016-06-23 | キヤノン株式会社 | 情報処理装置、情報処理方法、プログラム |
Family Cites Families (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP4624594B2 (ja) * | 2000-06-28 | 2011-02-02 | パナソニック株式会社 | 物体認識方法および物体認識装置 |
| JP4247362B2 (ja) * | 2002-04-15 | 2009-04-02 | グローリー株式会社 | 特徴抽出装置 |
| JP2005037992A (ja) * | 2003-07-15 | 2005-02-10 | Seiko Epson Corp | 画像ファイルの分類 |
| JP5934653B2 (ja) * | 2010-11-29 | 2016-06-15 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | 画像分類装置、画像分類方法、プログラム、記録媒体、集積回路、モデル作成装置 |
| CN105740842B (zh) * | 2016-03-01 | 2018-10-19 | 浙江工业大学 | 基于快速密度聚类算法的无监督人脸识别方法 |
| JP6750307B2 (ja) | 2016-05-27 | 2020-09-02 | 三菱自動車工業株式会社 | 車外給電装置 |
| CN110546644B (zh) * | 2017-04-10 | 2022-10-21 | 富士通株式会社 | 识别装置、识别方法以及记录介质 |
-
2017
- 2017-10-31 JP JP2017210178A patent/JP7032623B2/ja active Active
-
2018
- 2018-09-04 WO PCT/JP2018/032689 patent/WO2019087561A1/ja not_active Ceased
- 2018-09-04 DE DE112018005089.0T patent/DE112018005089T5/de active Pending
-
2020
- 2020-04-28 US US16/860,843 patent/US11625561B2/en active Active
Patent Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2006043007A (ja) | 2004-08-02 | 2006-02-16 | Fujitsu Ltd | 診断支援プログラムおよび診断支援装置 |
| JP2016114592A (ja) | 2014-12-12 | 2016-06-23 | キヤノン株式会社 | 情報処理装置、情報処理方法、プログラム |
Non-Patent Citations (3)
| Title |
|---|
| RIBEIRO, Marco Tulio et al.,「"Why Should I Trust You?" Explaining the Predictions of Any Classifier」,arXiv.org [オンライン],arXiv:1602.04938v3,米国,Cornell University,2016年08月,[2018年11月27日 検索], インターネット:<https://arxiv.org/pdf/1602.04938v3.pdf> |
| 小林 雅幸 ほか,「進化的条件判断ネットワークの画像分類過程の可視化」,情報処理学会研究報告 数理モデル化と問題解決(MPS) [オンライン],情報処理学会,2016年06月27日,第2016-MPS-108巻, 第1号,pp.1-7,[2018年11月27日 検索], インターネット:<https://ipsj.ixsq.nii.ac.jp/ej/?action=repository_uri&item_id=164474&file_id=1&file_no=1>,ISSN 2188-8833 |
| 崎津 実穂 ほか,「決定木および決定ネットワークによる画像分類過程の説明文の自動生成」,情報処理学会論文誌 数理モデル化と応用(TOM) [オンライン],情報処理学会,2016年02月08日,第9巻, 第1号,pp.43-52,[2018年11月27日 検索], インターネット:<https://ipsj.ixsq.nii.ac.jp/ej/?action=repository_uri&item_id=147623&file_id=1&file_no=1>,ISSN 1882-7780 |
Also Published As
| Publication number | Publication date |
|---|---|
| US11625561B2 (en) | 2023-04-11 |
| JP2019082883A (ja) | 2019-05-30 |
| WO2019087561A1 (ja) | 2019-05-09 |
| US20200257925A1 (en) | 2020-08-13 |
| DE112018005089T5 (de) | 2020-06-25 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP7032623B2 (ja) | 推論装置、推論方法及びプログラム | |
| Liu et al. | PestNet: An end-to-end deep learning approach for large-scale multi-class pest detection and classification | |
| US20220019870A1 (en) | Verification of classification decisions in convolutional neural networks | |
| Raj et al. | An improved human activity recognition technique based on convolutional neural network | |
| EP3674924A1 (en) | Agile video query using ensembles of deep neural networks | |
| US9977968B2 (en) | System and method for relevance estimation in summarization of videos of multi-step activities | |
| Cynthia et al. | Automated detection of plant diseases using image processing and faster R-CNN algorithm | |
| EP3657386B1 (de) | Verfahren und system zum unterstützen eines automatisiert fahrenden fahrzeugs | |
| US10949653B2 (en) | Intelligent persona generation | |
| Hudelot et al. | Symbol grounding for semantic image interpretation: from image data to semantics | |
| Gollapudi | Artificial intelligence and computer vision | |
| JP2023012406A (ja) | 情報処理装置、情報処理方法及びプログラム | |
| Ou et al. | Transfer learning based strategy for improving driver distraction recognition | |
| La Grassa et al. | OCmst: One-class novelty detection using convolutional neural network and minimum spanning trees | |
| Nhidi et al. | Ensemble machine learning-based egg parasitism identification for endangered bird conservation | |
| Angel et al. | Faster Region Convolutional Neural Network (FRCNN) Based Facial Emotion Recognition. | |
| Xiao et al. | Complementary relevance feedback-based content-based image retrieval | |
| CN112241470A (zh) | 一种视频分类方法及系统 | |
| Melo et al. | Experimental insights towards explainable and interpretable pedestrian crossing prediction | |
| CN111563522A (zh) | 用于识别图像中的干扰的方法和设备 | |
| Finzel et al. | Domain-specific evaluation of visual explanations for application-grounded facial expression recognition | |
| CN117273844A (zh) | 一种基于知识图谱的产品推荐方法、装置、设备及介质 | |
| John et al. | Advancing transport safety with faster pre-convoluted neural networks and lightweight multi-scale fusion for driver distraction detection | |
| WO2016006021A1 (ja) | データ分析装置、データ分析装置の制御方法、およびデータ分析装置の制御プログラム | |
| Ligade et al. | Content Based Image Retrieval Using Interactive Genetic Algorithm with Relevance Feedback Technique—Survey |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200326 |
|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200403 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210615 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210811 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220111 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220204 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 7032623 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |