JP6828121B2 - 優先順位付けされた経験メモリを使用したニューラルネットワークの訓練 - Google Patents
優先順位付けされた経験メモリを使用したニューラルネットワークの訓練 Download PDFInfo
- Publication number
- JP6828121B2 JP6828121B2 JP2019208761A JP2019208761A JP6828121B2 JP 6828121 B2 JP6828121 B2 JP 6828121B2 JP 2019208761 A JP2019208761 A JP 2019208761A JP 2019208761 A JP2019208761 A JP 2019208761A JP 6828121 B2 JP6828121 B2 JP 6828121B2
- Authority
- JP
- Japan
- Prior art keywords
- empirical data
- empirical
- learning
- neural network
- elements
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/092—Reinforcement learning
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/004—Artificial life, i.e. computing arrangements simulating life
- G06N3/006—Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y04—INFORMATION OR COMMUNICATION TECHNOLOGIES HAVING AN IMPACT ON OTHER TECHNOLOGY AREAS
- Y04S—SYSTEMS INTEGRATING TECHNOLOGIES RELATED TO POWER NETWORK OPERATION, COMMUNICATION OR INFORMATION TECHNOLOGIES FOR IMPROVING THE ELECTRICAL POWER GENERATION, TRANSMISSION, DISTRIBUTION, MANAGEMENT OR USAGE, i.e. SMART GRIDS
- Y04S10/00—Systems supporting electrical power generation, transmission or distribution
- Y04S10/50—Systems or methods supporting the power network operation or management, involving a certain degree of interaction with the load-side end user applications
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computing Systems (AREA)
- General Physics & Mathematics (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Probability & Statistics with Applications (AREA)
- Machine Translation (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Feedback Control In General (AREA)
- Electrically Operated Instructional Devices (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Description
102 エージェント
104 環境
110 行動選択ニューラルネットワーク
120 訓練エンジン
130 リプレイメモリ
Claims (19)
- 環境に状態を遷移させる行動を行うことによって前記環境とのインタラクションを行う強化学習エージェントによって行われる行動を選択するために使用されるニューラルネットワークを訓練するための方法であって、前記方法は、
リプレイメモリを保持するステップであって、前記リプレイメモリは、前記強化学習エージェントが前記環境とのインタラクションを行った結果として生成される複数の経験データの要素を記憶し、各々の経験データの要素は、それぞれの期待学習進展度を有する、ステップと、
比較的より高い期待学習進展度を有する経験データの要素を選択のために優先順位付けをすることによって前記リプレイメモリから経験データの要素を選択するステップであって、
前記経験データの要素についての前記それぞれの期待学習進展度に基づいて前記リプレイメモリ内の複数の前記経験データの要素の各々についてのそれぞれの確率を決定するステップと、
前記決定した確率に従って前記リプレイメモリから経験データの要素をサンプリングするステップと
を含む、ステップと、
強化学習技法を使用して、選択された前記経験データの要素について前記ニューラルネットワークを訓練するステップであって、選択された前記経験データの要素について前記ニューラルネットワークを訓練するステップは、選択された前記経験データの要素についての時間差分学習誤差を決定するステップを含む、ステップと、
選択された前記経験データの要素についての更新後の期待学習進展度を前記時間差分学習誤差の絶対値に基づいて決定するステップと、
前記リプレイメモリにおいて、前記更新後の期待学習進展度と選択された前記経験データの要素を関連付けるステップと
を含む、方法。 - 前記経験データの要素についての前記それぞれの期待学習進展度に基づいて前記リプレイメモリ内の複数の前記経験データの要素の各々についてのそれぞれの確率を決定するステップは、
より高い期待学習進展度を有する経験データの要素が比較的より低い期待学習進展度を有する経験データの要素より高い確率を有するように各々の経験データの要素についてのそれぞれの確率を決定するステップを含む、請求項1に記載の方法。 - 前記優先度は、前記期待学習進展度に一定値を加えたものである、請求項3に記載の方法。
- 前記優先度は、分子として所定の正の値と、分母としてそれらの期待学習進展度に従った前記リプレイメモリ内の前記経験データの要素のランキングにおける前記経験データの要素iのランクとを有する、分数である、請求項3に記載の方法。
- 前記優先度は、訓練の際にまだ使用されたことのない経験データの要素については最大値に設定される、請求項3に記載の方法。
- 各々の経験データの要素は、前記環境のそれぞれの現在の状態を特徴付けるそれぞれの現在の観測、前記現在の観測に応じて前記エージェントによって行われるそれぞれの現在の行動、前記環境のそれぞれの次の状態を特徴づけるそれぞれの次の状態、および前記エージェントが前記現在の行動を行ったことに応じて受ける報酬を含む、経験タプルである、請求項1に記載の方法。
- 選択された前記経験データの要素について前記ニューラルネットワークを訓練するステップは、
前記ニューラルネットワークのパラメータの値を調整する際に前記時間差分学習誤差を使用するステップをさらに含む、請求項7に記載の方法。 - 前記パラメータの前記値を調整する際に前記時間差分学習誤差を使用するステップは、
選択された前記経験タプルについての前記期待学習進展度を使用して前記時間差分学習誤差についての重みを決定するステップと、
前記重みを使用して前記時間差分学習誤差を調整するステップと、
前記ニューラルネットワークの前記パラメータの前記値を調整するために目標誤差として前記調整された時間差分学習誤差を使用するステップとを含む、請求項8に記載の方法。 - 前記ニューラルネットワークの前記訓練の間に重みを算出する際に使用される指数をアニーリングするステップをさらに含む、請求項8に記載の方法。
- 前記リプレイメモリ内の各々の経験タプルについての前記期待学習進展度は、前記経験タプルが前記ニューラルネットワークを訓練する際に使用された以前の時点の前記経験タプルについて決定された時間差分学習誤差の絶対値についての導出値である、請求項7に記載の方法。
- 前記リプレイメモリ内の各々の経験タプルについての前記期待学習進展度は、前記経験タプルを使用して前記ニューラルネットワークを訓練することによって生じた重み変化のノルムである、請求項7に記載の方法。
- 前記期待学習進展度を使用して前記リプレイメモリから経験データの要素をいつ削除するかを決定するステップをさらに含む、請求項1に記載の方法。
- 1つまたは複数のコンピュータと1つまたは複数のストレージデバイスとを含むシステムであって、前記1つまたは複数のストレージデバイスは、前記1つまたは複数のコンピュータによって実行されると、前記1つまたは複数のコンピュータに、環境に状態を遷移させる行動を行うことによって前記環境とのインタラクションを行う強化学習エージェントによって行われる行動を選択するために使用されるニューラルネットワークを訓練するための方法についての動作を行わせるように動作可能な命令を記憶し、前記方法は、
リプレイメモリを保持するステップであって、前記リプレイメモリは、前記強化学習エージェントが前記環境とのインタラクションを行った結果として生成される複数の経験データの要素を記憶し、各々の経験データの要素は、それぞれの期待学習進展度を有する、ステップと、
比較的より高い期待学習進展度を有する経験データの要素を選択のために優先順位付けをすることによって前記リプレイメモリから経験データの要素を選択するステップであって、
前記経験データの要素についての前記それぞれの期待学習進展度に基づいて前記リプレイメモリ内の複数の前記経験データの要素の各々についてのそれぞれの確率を決定するステップと、
前記決定した確率に従って前記リプレイメモリから経験データの要素をサンプリングするステップと
を含む、ステップと、
強化学習技法を使用して、選択された前記経験データの要素について前記ニューラルネットワークを訓練するステップであって、選択された前記経験データの要素について前記ニューラルネットワークを訓練するステップは、選択された前記経験データの要素についての時間差分学習誤差を決定するステップを含む、ステップと、
選択された前記経験データの要素についての更新後の期待学習進展度を前記時間差分学習誤差の絶対値に基づいて決定するステップと、
前記リプレイメモリにおいて、前記更新後の期待学習進展度と選択された前記経験データの要素を関連付けるステップと
を含む、システム。 - 前記経験データの要素についての前記それぞれの期待学習進展度に基づいて前記リプレイメモリ内の複数の前記経験データの要素の各々についてのそれぞれの確率を決定するステップは、
より高い期待学習進展度を有する経験データの要素が比較的より低い期待学習進展度を有する経験データの要素より高い確率を有するように各々の経験データの要素についてのそれぞれの確率を決定するステップを含む、請求項14に記載のシステム。 - 各々の経験データの要素は、前記環境のそれぞれの現在の状態を特徴付けるそれぞれの現在の観測、前記現在の観測に応じて前記エージェントによって行われるそれぞれの現在の行動、前記環境のそれぞれの次の状態を特徴づけるそれぞれの次の状態、および前記エージェントが前記現在の行動を行ったことに応じて受ける報酬を含む、経験タプルである、請求項14に記載のシステム。
- 選択された前記経験データの要素について前記ニューラルネットワークを訓練するステップは、
前記ニューラルネットワークのパラメータの値を調整する際に前記時間差分学習誤差を使用するステップをさらに含む、請求項17に記載のシステム。 - 1つまたは複数のコンピュータによって実行されると、前記1つまたは複数のコンピュータに、環境に状態を遷移させる行動を行うことによって前記環境とのインタラクションを行う強化学習エージェントによって行われる行動を選択するために使用されるニューラルネットワークを訓練するための方法についての動作を行わせる命令で符号化されたコンピュータ可読記憶媒体であって、前記方法は、
リプレイメモリを保持するステップであって、前記リプレイメモリは、前記強化学習エージェントが前記環境とのインタラクションを行った結果として生成される複数の経験データの要素を記憶し、各々の経験データの要素は、それぞれの期待学習進展度を有する、ステップと、
比較的より高い期待学習進展度を有する経験データの要素を選択のために優先順位付けをすることによって前記リプレイメモリから経験データの要素を選択するステップであって、
前記経験データの要素についての前記それぞれの期待学習進展度に基づいて前記リプレイメモリ内の複数の前記経験データの要素の各々についてのそれぞれの確率を決定するステップと、
前記決定した確率に従って前記リプレイメモリから経験データの要素をサンプリングするステップと
を含む、ステップと、
強化学習技法を使用して、選択された前記経験データの要素について前記ニューラルネットワークを訓練するステップであって、選択された前記経験データの要素について前記ニューラルネットワークを訓練するステップは、選択された前記経験データの要素についての時間差分学習誤差を決定するステップを含む、ステップと、
選択された前記経験データの要素についての更新後の期待学習進展度を前記時間差分学習誤差の絶対値に基づいて決定するステップと、
前記リプレイメモリにおいて、前記更新後の期待学習進展度と選択された前記経験データの要素を関連付けるステップと
を含む、コンピュータ可読記憶媒体。
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| US201562254610P | 2015-11-12 | 2015-11-12 | |
| US62/254,610 | 2015-11-12 |
Related Parent Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2018524787A Division JP6621923B2 (ja) | 2015-11-12 | 2016-11-11 | 優先順位付けされた経験メモリを使用したニューラルネットワークの訓練 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2020047285A JP2020047285A (ja) | 2020-03-26 |
| JP6828121B2 true JP6828121B2 (ja) | 2021-02-10 |
Family
ID=57485888
Family Applications (2)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2018524787A Active JP6621923B2 (ja) | 2015-11-12 | 2016-11-11 | 優先順位付けされた経験メモリを使用したニューラルネットワークの訓練 |
| JP2019208761A Active JP6828121B2 (ja) | 2015-11-12 | 2019-11-19 | 優先順位付けされた経験メモリを使用したニューラルネットワークの訓練 |
Family Applications Before (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2018524787A Active JP6621923B2 (ja) | 2015-11-12 | 2016-11-11 | 優先順位付けされた経験メモリを使用したニューラルネットワークの訓練 |
Country Status (6)
| Country | Link |
|---|---|
| US (5) | US10650310B2 (ja) |
| EP (2) | EP3360086B1 (ja) |
| JP (2) | JP6621923B2 (ja) |
| KR (1) | KR102191444B1 (ja) |
| CN (4) | CN117910543A (ja) |
| WO (1) | WO2017083767A1 (ja) |
Families Citing this family (41)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| EP3360086B1 (en) * | 2015-11-12 | 2024-10-23 | DeepMind Technologies Limited | Training neural networks using a prioritized experience memory |
| JP2019518273A (ja) * | 2016-04-27 | 2019-06-27 | ニューララ インコーポレイテッド | 深層ニューラルネットワークベースのq学習の経験メモリをプルーニングする方法及び装置 |
| CN117521725A (zh) * | 2016-11-04 | 2024-02-06 | 渊慧科技有限公司 | 加强学习系统 |
| KR102399535B1 (ko) * | 2017-03-23 | 2022-05-19 | 삼성전자주식회사 | 음성 인식을 위한 학습 방법 및 장치 |
| US20180314925A1 (en) * | 2017-04-27 | 2018-11-01 | Facebook, Inc. | Systems and methods for sending notifications based on predicted effectiveness |
| CN107292392B (zh) * | 2017-05-11 | 2019-11-22 | 苏州大学 | 基于深度带权双q学习的大范围监控方法及监控机器人 |
| KR102391452B1 (ko) * | 2017-06-02 | 2022-04-27 | 에스케이텔레콤 주식회사 | 신경망에 복수의 태스크를 순차 학습시키는 방법 |
| US11625604B2 (en) * | 2017-10-27 | 2023-04-11 | Deepmind Technologies Limited | Reinforcement learning using distributed prioritized replay |
| US11604941B1 (en) * | 2017-10-27 | 2023-03-14 | Deepmind Technologies Limited | Training action-selection neural networks from demonstrations using multiple losses |
| US11037056B2 (en) * | 2017-11-21 | 2021-06-15 | Distech Controls Inc. | Computing device and method for inferring a predicted number of data chunks writable on a flash memory before wear out |
| US20190311042A1 (en) * | 2018-04-04 | 2019-10-10 | Didi Research America, Llc | Intelligent incentive distribution |
| CN112262399B (zh) * | 2018-06-11 | 2024-08-06 | 日本电气方案创新株式会社 | 行动学习设备、行动学习方法、行动学习系统、程序以及记录介质 |
| CA3103470A1 (en) | 2018-06-12 | 2019-12-19 | Intergraph Corporation | Artificial intelligence applications for computer-aided dispatch systems |
| US11397888B2 (en) | 2018-06-14 | 2022-07-26 | Accenture Global Solutions Limited | Virtual agent with a dialogue management system and method of training a dialogue management system |
| US10679613B2 (en) | 2018-06-14 | 2020-06-09 | Accenture Global Solutions Limited | Spoken language understanding system and method using recurrent neural networks |
| JP7016295B2 (ja) * | 2018-06-28 | 2022-02-04 | 三菱重工業株式会社 | 意思決定装置、無人システム、意思決定方法、及びプログラム |
| US11132211B1 (en) * | 2018-09-24 | 2021-09-28 | Apple Inc. | Neural finite state machines |
| US12026610B2 (en) * | 2018-09-25 | 2024-07-02 | International Business Machines Corporation | Reinforcement learning by sharing individual data within dynamic groups |
| US10748039B2 (en) * | 2018-09-27 | 2020-08-18 | Deepmind Technologies Limited | Reinforcement learning neural networks grounded in learned visual entities |
| FR3087922A1 (fr) * | 2018-10-31 | 2020-05-01 | Amadeus S.A.S. | Procédés et systèmes d'apprentissage de renforcement pour le contrôle d'inventaire et l'optimisation |
| US11199846B2 (en) * | 2018-11-29 | 2021-12-14 | Baidu Usa Llc | Learning-based dynamic modeling methods for autonomous driving vehicles |
| US20200241542A1 (en) * | 2019-01-25 | 2020-07-30 | Bayerische Motoren Werke Aktiengesellschaft | Vehicle Equipped with Accelerated Actor-Critic Reinforcement Learning and Method for Accelerating Actor-Critic Reinforcement Learning |
| KR102576157B1 (ko) | 2019-02-22 | 2023-09-07 | 한국전자통신연구원 | 인공 신경망을 이용한 고속 객체 검출 방법 및 장치 |
| CN110308873B (zh) * | 2019-06-24 | 2023-04-07 | 浙江大华技术股份有限公司 | 一种数据存储方法、装置、设备及介质 |
| CN114051444B (zh) * | 2019-07-01 | 2024-04-26 | 库卡德国有限公司 | 借助于至少一个机器人执行应用 |
| CN110414618B (zh) * | 2019-08-05 | 2023-07-14 | 上海图趣信息科技有限公司 | 一种动态平衡分类数据的神经网络训练系统、方法及存储介质 |
| US11574244B2 (en) | 2019-09-12 | 2023-02-07 | International Business Machines Corporation | States simulator for reinforcement learning models |
| CN110738860B (zh) * | 2019-09-18 | 2021-11-23 | 平安科技(深圳)有限公司 | 基于强化学习模型的信息控制方法、装置和计算机设备 |
| EP4085385B1 (en) * | 2020-02-07 | 2024-09-11 | DeepMind Technologies Limited | Generating implicit plans for accomplishing goals in an environment using attention operations over planning embeddings |
| KR102272501B1 (ko) * | 2020-04-24 | 2021-07-01 | 연세대학교 산학협력단 | 분산 강화 학습 장치 및 방법 |
| US12481890B2 (en) * | 2020-07-10 | 2025-11-25 | Nice Ltd. | Systems and methods for applying semi-discrete calculus to meta machine learning |
| WO2022023384A1 (en) * | 2020-07-28 | 2022-02-03 | Deepmind Technologies Limited | Training an action selection system using relative entropy q-learning |
| EP3961507A1 (en) * | 2020-08-28 | 2022-03-02 | Tata Consultancy Services Limited | Optimal policy learning and recommendation for distribution task using deep reinforcement learning model |
| US12277194B2 (en) | 2020-09-29 | 2025-04-15 | Sony Group Corporation | Task prioritized experience replay algorithm for reinforcement learning |
| US20240104388A1 (en) * | 2021-02-04 | 2024-03-28 | Deepmind Technologies Limited | Temporal difference scaling when controlling agents using reinforcement learning |
| CN113190542B (zh) * | 2021-05-19 | 2023-02-24 | 西安图迹信息科技有限公司 | 一种电网用大数据清洗去噪方法、系统和计算机存储介质 |
| US11385925B1 (en) * | 2021-07-06 | 2022-07-12 | Bank Of America Corporation | System and method for provisioning hosted virtual desktop resources to remote users |
| CN116205273B (zh) * | 2021-11-30 | 2025-09-16 | 南京理工大学 | 优化经验存储与经验再利用的多智能体强化学习方法 |
| WO2023212260A1 (en) * | 2022-04-28 | 2023-11-02 | Theai, Inc. | Agent-based training of artificial intelligence character models |
| CA3252180A1 (en) * | 2022-05-06 | 2023-11-09 | Ai Redefined Inc. | SYSTEMS AND PROCESSES FOR MANAGING RECORDS OF INTERACTIONS BETWEEN AI AGENTS AND HUMAN EVALUATORS |
| JP2023181699A (ja) * | 2022-06-13 | 2023-12-25 | 株式会社Kddi総合研究所 | 最適化装置、最適化方法及びコンピュータプログラム |
Family Cites Families (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US6473851B1 (en) * | 1999-03-11 | 2002-10-29 | Mark E Plutowski | System for combining plurality of input control policies to provide a compositional output control policy |
| US7003158B1 (en) * | 2002-02-14 | 2006-02-21 | Microsoft Corporation | Handwriting recognition with mixtures of Bayesian networks |
| US9679258B2 (en) * | 2013-10-08 | 2017-06-13 | Google Inc. | Methods and apparatus for reinforcement learning |
| US10055434B2 (en) * | 2013-10-16 | 2018-08-21 | University Of Tennessee Research Foundation | Method and apparatus for providing random selection and long-term potentiation and depression in an artificial network |
| EP3360086B1 (en) * | 2015-11-12 | 2024-10-23 | DeepMind Technologies Limited | Training neural networks using a prioritized experience memory |
| EP3535705B1 (en) * | 2016-11-04 | 2022-03-30 | Deepmind Technologies Limited | Reinforcement learning with auxiliary tasks |
-
2016
- 2016-11-11 EP EP16806345.1A patent/EP3360086B1/en active Active
- 2016-11-11 CN CN202410032334.0A patent/CN117910543A/zh active Pending
- 2016-11-11 CN CN201680066410.3A patent/CN108701252B/zh active Active
- 2016-11-11 US US15/349,894 patent/US10650310B2/en active Active
- 2016-11-11 EP EP24208213.9A patent/EP4492282A3/en active Pending
- 2016-11-11 WO PCT/US2016/061693 patent/WO2017083767A1/en not_active Ceased
- 2016-11-11 JP JP2018524787A patent/JP6621923B2/ja active Active
- 2016-11-11 CN CN202410037883.7A patent/CN117910545A/zh active Pending
- 2016-11-11 KR KR1020187016565A patent/KR102191444B1/ko active Active
- 2016-11-11 CN CN202410035947.XA patent/CN117910544A/zh active Pending
-
2018
- 2018-05-11 US US15/977,891 patent/US10282662B2/en active Active
-
2019
- 2019-11-19 JP JP2019208761A patent/JP6828121B2/ja active Active
-
2020
- 2020-05-04 US US16/866,365 patent/US11568250B2/en active Active
-
2023
- 2023-01-30 US US18/103,416 patent/US12086714B2/en active Active
-
2024
- 2024-08-14 US US18/805,367 patent/US20250045583A1/en active Pending
Also Published As
| Publication number | Publication date |
|---|---|
| EP3360086B1 (en) | 2024-10-23 |
| CN117910543A (zh) | 2024-04-19 |
| EP4492282A3 (en) | 2025-04-23 |
| KR102191444B1 (ko) | 2020-12-15 |
| US20200265312A1 (en) | 2020-08-20 |
| JP2020047285A (ja) | 2020-03-26 |
| JP6621923B2 (ja) | 2019-12-18 |
| US20230244933A1 (en) | 2023-08-03 |
| US20180260707A1 (en) | 2018-09-13 |
| US10650310B2 (en) | 2020-05-12 |
| WO2017083767A1 (en) | 2017-05-18 |
| CN117910545A (zh) | 2024-04-19 |
| US12086714B2 (en) | 2024-09-10 |
| US10282662B2 (en) | 2019-05-07 |
| JP2018537775A (ja) | 2018-12-20 |
| CN108701252A (zh) | 2018-10-23 |
| KR20180091842A (ko) | 2018-08-16 |
| US11568250B2 (en) | 2023-01-31 |
| US20170140269A1 (en) | 2017-05-18 |
| EP4492282A2 (en) | 2025-01-15 |
| EP3360086A1 (en) | 2018-08-15 |
| CN108701252B (zh) | 2024-02-02 |
| US20250045583A1 (en) | 2025-02-06 |
| CN117910544A (zh) | 2024-04-19 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP6828121B2 (ja) | 優先順位付けされた経験メモリを使用したニューラルネットワークの訓練 | |
| JP7783351B2 (ja) | 非同期深層強化学習 | |
| US11803750B2 (en) | Continuous control with deep reinforcement learning | |
| JP6963627B2 (ja) | 畳み込みニューラルネットワークのためのニューラルアーキテクチャ検索 | |
| JP6926203B2 (ja) | 補助タスクを伴う強化学習 | |
| EP3384435B1 (en) | Selecting action slates using reinforcement learning | |
| CN110114784B (zh) | 递归环境预测器及其方法 | |
| JP6667674B2 (ja) | 疑似カウントを使用する強化学習 | |
| JP2019537132A (ja) | アクション選択ニューラルネットワークをトレーニングすること | |
| US11893480B1 (en) | Reinforcement learning with scheduled auxiliary control |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191128 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20201221 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210120 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 6828121 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |