JP6852365B2 - 情報処理装置、情報処理システム、情報処理プログラムおよび情報処理方法 - Google Patents
情報処理装置、情報処理システム、情報処理プログラムおよび情報処理方法 Download PDFInfo
- Publication number
- JP6852365B2 JP6852365B2 JP2016229386A JP2016229386A JP6852365B2 JP 6852365 B2 JP6852365 B2 JP 6852365B2 JP 2016229386 A JP2016229386 A JP 2016229386A JP 2016229386 A JP2016229386 A JP 2016229386A JP 6852365 B2 JP6852365 B2 JP 6852365B2
- Authority
- JP
- Japan
- Prior art keywords
- layer
- error
- memory
- data
- neural network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/09—Supervised learning
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Description
に関する。
最初、従来のディープラーニングについて説明する。図1は、ディープラーニングの処理の流れの一例を模式的に示した図である。ディープラーニングでは、識別対象に関する教師あり学習を行うことにより、ニューラルネットワークに自動的に識別対象の特徴を学習する。ディープラーニングでは、特徴を学習したニューラルネットワークを用いて識別対象を識別する。例えば、ディープラーニングでは、識別対象が写った大量の画像を学習用の画像として教師あり学習を行うことにより、画像に写った識別対象の特徴をニューラルネットワークに自動的に学習する。ディープラーニングでは、このように特徴を学習したニューラルネットワークを用いることで画像に写った識別対象を識別できる。脳には、多数のニューロン(神経細胞)が存在する。各ニューロンは、他のニューロンから信号を受け取り、他のニューロンへ信号を受け渡す。脳は、この信号の流れによって、様々な情報処理を行う。ニューラルネットワークは、このような脳の機能の特性を計算機上で実現したモデルである。ニューラルネットワークは、脳のニューロンを模したユニットを階層的に結合している。ユニットは、ノードとも呼ばれる。各ユニットは、他のユニットからデータを受け取り、他のユニットへデータを受け渡す。ニューラルネットワークは、ユニットのパラメータを学習によって変化させて受け渡すデータを変化させることで様々な識別対象を識別(認識)できる。以下では、ニューラルネットワークを伝送されるデータをニューロンデータと呼ぶ。図1には、ニューラルネットワークの一例として、画像の認識に用いられる畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)の一例が示されている。以下では、ニューラルネットワークとして、畳み込みニューラルネットワークにより画像の認識を行う場合を例に説明する。ニューラルネットワークは、階層構造とされており、畳み込み(convolution)層とプーリング(sub-sampling)層と全結合(fully-connected)層とを有する。図1の例では、畳み込み層とプーリング層を交互に2回設けているが、さらに多く設けてもよい。また、全結合層は、複数設けられていてもよい。ニューラルネットワークの階層構造や各層の構成は、識別する対象などに応じて、設計者が予め定めている。
実施例1に係る情報処理装置10の構成について説明する。図6は、情報処理装置の機能的な構成を概略的に示した図である。情報処理装置10は、ディープラーニングを用いて各種の対象の認識を行う認識装置である。例えば、情報処理装置10は、サーバコンピュータなどのコンピュータである。情報処理装置10は、1台のコンピュータとして実装してもよく、また、複数台のコンピュータによるコンピュータシステムとして実装してもよい。すなわち、以下に説明するディープラーニングは、複数台のコンピュータによる情報処理システムで処理を分散して実行してもよい。なお、本実施例では、情報処理装置10を1台のコンピュータとした場合を例として説明する。本実施例では、情報処理装置10が、画像の認識を行う場合を例に説明する。
次に、実施例1に係る情報処理装置10が実行する認識処理の流れについて説明する。図8は、実施例1に係る認識処理の手順の一例を示すフローチャートである。この認識処理は、所定のタイミング、例えば、管理者から処理開始が指示されたタイミングで実行される。
上述してきたように、本実施例に係る情報処理装置10は、入力したニューロンデータに対して、認識処理を制御する。例えば、情報処理装置10は、パラメータによる重み付け演算を含む階層型のニューラルネットワークの演算を行い、当該ニューラルネットワークの各層のニューロンデータおよびパラメータをそれぞれメモリ領域に保持する制御を行う。また、情報処理装置10は、認識結果の誤差からニューラルネットワークの各層のパラメータを学習する学習処理を制御する。例えば、情報処理装置10は、学習処理において、ニューロンデータおよびパラメータがメモリ領域に保持される層については、パラメータの誤差を算出したのち、ニューロンデータの誤差を算出する制御を行う。これにより、情報処理装置10は、認識時のニューロンデータ記憶領域を上書しつつ処理できるため、メモリ使用を効率化できる。
次に、実施例2に係る情報処理装置10が実行する認識処理の流れについて説明する。図10は、実施例2に係る認識処理の手順の一例を示すフローチャートである。実施例2に係る認識処理は、図7に示した認識処理と一部の処理が同一であるため、同一の処理については同一の符号を付し、異なる処理について新たな符号を付している。
上述してきたように、本実施例に係る情報処理装置10は、ニューラルネットワークの各層のパラメータの誤差の使用メモリ量を計算する。情報処理装置10は、算出された各層の使用メモリ量のうち、使用メモリ量の最も大きい層の使用メモリ量に対応したメモリ領域を確保する。情報処理装置10は、学習処理において、ニューロンデータおよびパラメータがメモリ領域に保持される層については、層ごとに、以下の処理を順に行うように制御を行う。最初に、情報処理装置10は、パラメータの誤差を算出して確保したメモリ領域に当該パラメータの誤差を上書して保持する。次に、情報処理装置10は、ニューロンデータの誤差を算出して認識処理のニューロンデータを保持するメモリ領域に当該ニューロンデータの誤差を上書して保持する。次に、情報処理装置10は、確保したメモリ領域に保持されたパラメータの誤差を用いて認識処理にて保持したパラメータを更新する。これにより、情報処理装置10は、学習時における使用メモリ量をより削減できる。
gw = bottom_x × top_gx ・・・(15−1)
v = momentum × v − lr × gw ・・・(15−2)
gw = v ・・・(15−3)
w =w − gw ・・・(15−4)
xは、ニューロンデータである。
gwは、パラメータの誤差データである。
gxは、ニューロンデータの誤差データである。
bottom_xは、下位層(出力側の隣りの層)のx(ニューロンデータ)である。
top_gxは、上位層(入力側の隣りの層)のgx(ニューロンデータの誤差データ)である。
momentumは、モーメンタムを表し、μに相当する。
lrは、学習率を表し、αに相当する。
l2_norm =Σ(gw × gw) ・・・(16−1)
if(l2_norm > clip_gradients){
scale_factor = clip_gradients / l2_norm
gw = gw × scale_factor
} ・・・(16−2)
ld = lambda × w ・・・(17−1)
gw = gw + ld ・・・(17−2)
w = w − lr × Σ(bottom_x × top_gx) ・・・(18)
v = momentum × v − lr × Σ(bottom_x × top_gx) ・(19−1)
w = w −v ・・・(19−2)
また、上記の実施例で説明した各種の処理は、あらかじめ用意されたプログラムをパーソナルコンピュータやワークステーションなどのコンピュータシステムで実行することによって実現することもできる。そこで、以下では、情報処理プログラムを実行するコンピュータシステムの一例を説明する。図17は、情報処理プログラムを実行するコンピュータの構成の一例を示す図である。
20 記憶部
21 マザーボード
22 アクセラレータボード
30 メモリ
31 演算部
40 入力データ
41 定義情報
42 パラメータ情報
43 スナップショット情報
50 全体制御部
51 メモリ量計算部
60 メモリ
61 演算部
70 認識制御部
71 学習制御部
Claims (5)
- 入力したニューロンデータに対して、パラメータによる重み付け演算を含む階層型のニューラルネットワークの演算を行い、当該ニューラルネットワークの各層のニューロンデータおよびパラメータをそれぞれメモリ領域に保持する認識処理を制御する認識制御部と、
前記ニューラルネットワークの各層のパラメータの誤差の使用メモリ量を計算するメモリ量計算部と、
前記メモリ量計算部により算出された各層の使用メモリ量のうち、使用メモリ量の最も大きい層の使用メモリ量に対応したメモリ領域を確保し、前記認識制御部による認識結果の誤差から前記ニューラルネットワークの各層のパラメータを学習する学習処理において、ニューロンデータおよびパラメータがメモリ領域に保持される層については、層ごとに、パラメータの誤差を算出して前記確保したメモリ領域に当該パラメータの誤差を上書して保持し、ニューロンデータの誤差を算出して前記認識処理のニューロンデータを保持するメモリ領域に当該ニューロンデータの誤差を上書して保持し、前記確保したメモリ領域に保持されたパラメータの誤差を用いて前記認識処理にて保持した前記パラメータを更新する制御を行う学習制御部と、
を有することを特徴とする情報処理装置。 - 前記学習制御部は、前記ニューラルネットワークの入力層を第1層とし、出力層を第n層(1<n)とし、ニューロンデータおよびパラメータがメモリ領域に保持される層を第i層(1≦i<n)とした場合、前記第i層については、前記認識処理にて保持した前記第i層のニューロンデータおよび第i+1層の前層のニューロンデータの誤差から前記第i層の前記パラメータの誤差を算出し、前記第i層のパラメータおよび前記第i+1層のニューロンデータの誤差から前記第i層の前記ニューロンデータの誤差を算出する、
ことを特徴とする請求項1に記載の情報処理装置。 - 入力したニューロンデータに対して、パラメータによる重み付け演算を含む階層型のニューラルネットワークの演算を行い、当該ニューラルネットワークの各層のニューロンデータおよびパラメータをそれぞれメモリ領域に保持する認識処理を制御する認識制御部と、
前記ニューラルネットワークの各層のパラメータの誤差の使用メモリ量を計算するメモリ量計算部と、
前記メモリ量計算部により算出された各層の使用メモリ量のうち、使用メモリ量の最も大きい層の使用メモリ量に対応したメモリ領域を確保し、前記認識制御部による認識結果の誤差から前記ニューラルネットワークの各層のパラメータを学習する学習処理において、ニューロンデータおよびパラメータがメモリ領域に保持される層については、層ごとに、パラメータの誤差を算出して前記確保したメモリ領域に当該パラメータの誤差を上書して保持し、ニューロンデータの誤差を算出して前記認識処理のニューロンデータを保持するメモリ領域に当該ニューロンデータの誤差を上書して保持し、前記確保したメモリ領域に保持されたパラメータの誤差を用いて前記認識処理にて保持した前記パラメータを更新する制御を行う学習制御部と、
を有することを特徴とする情報処理システム。 - 入力したニューロンデータに対して、パラメータによる重み付け演算を含む階層型のニューラルネットワークの演算を行い、当該ニューラルネットワークの各層のニューロンデータおよびパラメータをそれぞれメモリ領域に保持する認識処理を行い、
前記ニューラルネットワークの各層のパラメータの誤差の使用メモリ量を計算し、
算出された各層の使用メモリ量のうち、使用メモリ量の最も大きい層の使用メモリ量に対応したメモリ領域を確保し、認識結果の誤差から前記ニューラルネットワークの各層のパラメータを学習する学習処理において、ニューロンデータおよびパラメータがメモリ領域に保持される層については、層ごとに、パラメータの誤差を算出して前記確保したメモリ領域に当該パラメータの誤差を上書して保持し、ニューロンデータの誤差を算出して前記認識処理のニューロンデータを保持するメモリ領域に当該ニューロンデータの誤差を上書して保持し、前記確保したメモリ領域に保持されたパラメータの誤差を用いて前記認識処理にて保持した前記パラメータを更新する制御を行う、
処理をコンピュータに実行させることを特徴とする情報処理プログラム。 - 入力したニューロンデータに対して、パラメータによる重み付け演算を含む階層型のニューラルネットワークの演算を行い、当該ニューラルネットワークの各層のニューロンデータおよびパラメータをそれぞれメモリ領域に保持する認識処理を行い、
前記ニューラルネットワークの各層のパラメータの誤差の使用メモリ量を計算し、
算出された各層の使用メモリ量のうち、使用メモリ量の最も大きい層の使用メモリ量に対応したメモリ領域を確保し、認識結果の誤差から前記ニューラルネットワークの各層のパラメータを学習する学習処理において、層ごとに、パラメータの誤差を算出して前記確保したメモリ領域に当該パラメータの誤差を上書して保持し、ニューロンデータの誤差を算出して前記認識処理のニューロンデータを保持するメモリ領域に当該ニューロンデータの誤差を上書して保持し、前記確保したメモリ領域に保持されたパラメータの誤差を用いて前記認識処理にて保持した前記パラメータを更新する制御を行う、
処理をコンピュータが実行することを特徴とする情報処理方法。
Priority Applications (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2016229386A JP6852365B2 (ja) | 2016-11-25 | 2016-11-25 | 情報処理装置、情報処理システム、情報処理プログラムおよび情報処理方法 |
| US15/722,270 US11003990B2 (en) | 2016-11-25 | 2017-10-02 | Controlling memory area for training a neural network |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2016229386A JP6852365B2 (ja) | 2016-11-25 | 2016-11-25 | 情報処理装置、情報処理システム、情報処理プログラムおよび情報処理方法 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2018085063A JP2018085063A (ja) | 2018-05-31 |
| JP6852365B2 true JP6852365B2 (ja) | 2021-03-31 |
Family
ID=62190184
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2016229386A Expired - Fee Related JP6852365B2 (ja) | 2016-11-25 | 2016-11-25 | 情報処理装置、情報処理システム、情報処理プログラムおよび情報処理方法 |
Country Status (2)
| Country | Link |
|---|---|
| US (1) | US11003990B2 (ja) |
| JP (1) | JP6852365B2 (ja) |
Families Citing this family (12)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US10366302B2 (en) * | 2016-10-10 | 2019-07-30 | Gyrfalcon Technology Inc. | Hierarchical category classification scheme using multiple sets of fully-connected networks with a CNN based integrated circuit as feature extractor |
| US11037330B2 (en) * | 2017-04-08 | 2021-06-15 | Intel Corporation | Low rank matrix compression |
| US20200410365A1 (en) * | 2018-02-26 | 2020-12-31 | Google Llc | Unsupervised neural network training using learned optimizers |
| WO2020118555A1 (zh) * | 2018-12-12 | 2020-06-18 | 深圳鲲云信息科技有限公司 | 一种网络模型数据存取方法、装置及电子设备 |
| US11748599B2 (en) * | 2019-02-21 | 2023-09-05 | Texas Instruments Incorporated | Super-tiling in neural network processing to enable analytics at lower memory speed |
| JP7141977B2 (ja) * | 2019-03-29 | 2022-09-26 | 株式会社デンソーテン | 制御装置および制御方法 |
| EP3994621A1 (en) * | 2019-07-03 | 2022-05-11 | Huaxia General Processor Technologies Inc. | Instructions for operating accelerator circuit |
| KR102263622B1 (ko) * | 2019-11-29 | 2021-06-10 | 울산과학기술원 | 메모리 사용 프로필에 기초하여 기계 학습 모델의 트레이닝을 위한 메모리 할당 방법 및 장치 |
| JP7143546B2 (ja) * | 2020-02-17 | 2022-09-28 | 三菱電機株式会社 | モデル生成装置、車載装置、および、モデル生成方法 |
| EP3965021B1 (en) * | 2020-09-07 | 2023-12-20 | Fujitsu Limited | A method of using clustering-based regularization in training a deep neural network to classify images |
| US20220180192A1 (en) * | 2020-12-08 | 2022-06-09 | Electronics And Telecommunications Research Institute | Method and apparatus for optimizing batch size for artificial neural network accelerator |
| JP7639410B2 (ja) * | 2021-03-04 | 2025-03-05 | 富士通株式会社 | プログラム,計算機及び学習方法 |
Family Cites Families (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP5171118B2 (ja) * | 2007-06-13 | 2013-03-27 | キヤノン株式会社 | 演算処理装置及びその制御方法 |
| JP5184824B2 (ja) | 2007-06-15 | 2013-04-17 | キヤノン株式会社 | 演算処理装置及び方法 |
| CN107533459B (zh) * | 2016-03-31 | 2020-11-20 | 慧与发展有限责任合伙企业 | 使用电阻存储器阵列的数据处理方法和单元 |
| CN109313722B (zh) * | 2016-05-20 | 2021-11-26 | 渊慧科技有限公司 | 存储器高效的基于时间的反向传播 |
| US11907760B2 (en) * | 2016-09-23 | 2024-02-20 | Apple Inc. | Systems and methods of memory allocation for neural networks |
-
2016
- 2016-11-25 JP JP2016229386A patent/JP6852365B2/ja not_active Expired - Fee Related
-
2017
- 2017-10-02 US US15/722,270 patent/US11003990B2/en not_active Expired - Fee Related
Also Published As
| Publication number | Publication date |
|---|---|
| US20180150745A1 (en) | 2018-05-31 |
| US11003990B2 (en) | 2021-05-11 |
| JP2018085063A (ja) | 2018-05-31 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP6852365B2 (ja) | 情報処理装置、情報処理システム、情報処理プログラムおよび情報処理方法 | |
| JP6708044B2 (ja) | 画像認識装置、画像認識プログラム、画像認識方法および認識装置 | |
| JP6891626B2 (ja) | 情報処理装置、情報処理システム、情報処理プログラムおよび情報処理方法 | |
| KR102796191B1 (ko) | 신경망의 최적화 방법 | |
| TWI853083B (zh) | 用於經由調整記憶體內計算陣列的列閾值來執行 xnor 等效運算的裝置、方法與電腦可讀取媒體 | |
| US11443514B2 (en) | Recognizing minutes-long activities in videos | |
| Rere et al. | Simulated annealing algorithm for deep learning | |
| CN113705769A (zh) | 一种神经网络训练方法以及装置 | |
| US20160224903A1 (en) | Hyper-parameter selection for deep convolutional networks | |
| CN113837350B (zh) | 神经形态设备和训练用于图像识别的神经网络的方法 | |
| US12206869B2 (en) | Skip convolutions for efficient video processing | |
| CN113868187B (zh) | 处理神经网络的方法和电子装置 | |
| US12373691B1 (en) | Executing sublayers of a fully-connected layer | |
| JP7211069B2 (ja) | 情報処理装置、情報処理プログラムおよび情報処理方法 | |
| CN118114734A (zh) | 基于稀疏正则化理论的卷积神经网络优化方法及系统 | |
| CN108664986B (zh) | 基于lp范数正则化的多任务学习图像分类方法及系统 | |
| Zeng et al. | Convolutional neural network based multi-feature fusion for non-rigid 3D model retrieval | |
| TW202427274A (zh) | 機器學習編譯器優化中的節點對稱性 | |
| WO2023202484A1 (zh) | 神经网络模型的修复方法和相关设备 | |
| Xia et al. | Efficient synthesis of compact deep neural networks | |
| US20240135708A1 (en) | Permutation invariant convolution (pic) for recognizing long-range activities | |
| Praveenkumar et al. | Deep Convolutional Neural Network Based Extreme Learning Machine Image Classification | |
| CN116630697B (zh) | 一种基于有偏选择池化的图像分类方法 | |
| CN117593594B (zh) | 基于一致性对齐的脑部mri图像分类方法、设备和介质 | |
| US20240303471A1 (en) | Activation function for homomorphically-encrypted neural networks |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190807 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200625 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201006 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201203 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210209 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210222 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 6852365 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| LAPS | Cancellation because of no payment of annual fees |