JP4159794B2 - 画像処理装置及び方法 - Google Patents
画像処理装置及び方法 Download PDFInfo
- Publication number
- JP4159794B2 JP4159794B2 JP2002107013A JP2002107013A JP4159794B2 JP 4159794 B2 JP4159794 B2 JP 4159794B2 JP 2002107013 A JP2002107013 A JP 2002107013A JP 2002107013 A JP2002107013 A JP 2002107013A JP 4159794 B2 JP4159794 B2 JP 4159794B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- unit
- action
- feature information
- image processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
- G05D1/0253—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting relative motion information from a plurality of images taken successively, e.g. visual odometry, optical flow
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Aviation & Aerospace Engineering (AREA)
- Social Psychology (AREA)
- Psychiatry (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Electromagnetism (AREA)
- Human Computer Interaction (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Automation & Control Theory (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Length Measuring Devices By Optical Means (AREA)
Description
【発明の属する技術分野】
本発明は、画像処理装置及び画像処理方法に関し、より詳細には、移動体の移動時に取得した外部環境の画像情報を用いて移動体の行動を高精度に認識するための画像処理装置及び方法に関する。
【0002】
【従来の技術】
従来、移動体が取得する外部環境の画像情報を用いて移動体の行動を認識する方法として、入力される連続画像から画像濃度の勾配変化などを計算してオプティカルフローを検出する方法が良く知られている。
【0003】
例えば、特開2000−171250号公報では、オプティカルフローを用いて移動体の現在位置を検出する方法が開示されている。この方法によれば、予め移動体を所定の走行領域に沿って走行させた時に、その走行領域について所定距離間隔毎に走行領域近傍の情景のオプティカルフローが検出され、オプティカルフローと検出位置との関係が記憶される。そして、後の走行時にも走行領域のオプティカルフローが検出され、これと記憶している全てのオプティカルフローとのマッチングが行われる。このマッチングにおいて最大マッチング結果を示すオプティカルフローが選択され、選択されたオプティカルフローに対応付けられている位置が移動体の現在走行位置であると認識される。
【0004】
また、特開平11−134504号公報には、動画像からオプティカルフローを算出し、これをニューラルネット層で処理することで行動を認識し、必要な処理を判断する技術が開示されている。この技術によれば、簡単な構成のニューラルネットによって動画像から障害物への接近を判断することが可能となる。
【0005】
【発明が解決しようとする課題】
しかし、前者の方法で位置認識するには、予め所定領域を移動してオプティカルフローと位置との関係を記憶しておく必要がある。また、一般に動画像のみに基づいてオプティカルフロー等の特徴抽出を行い、位置や行動を認識するには以下のような問題がある。すなわち、移動体の移動に伴い太陽光や蛍光灯などの光源と移動体に搭載されたカメラとの位置関係が時々刻々と変わるため、明度などの画像強度が変化して特徴抽出を精度良く行うのが困難となる。また、移動体の移動時の振動がカメラに伝わるため、取得する連続画像が振動の影響を受けて特徴抽出の精度を低下させてしまう。さらに、上記画像強度の変化や振動の悪影響を取り除くために、画像情報に対し複数フレームに渡ってスムージング処理を行うように構成すると、計算負荷が増大し、かつ時間変動の大きな高速動作をする対象物を捉えるための特徴抽出が困難になってしまうという問題もある。
【0006】
本発明は、上記の点に鑑みてなされたものであり、実環境においても移動体が取得する外部環境の画像情報を用いて移動体の行動を高速かつ高精度に認識することができる画像処理装置及び画像処理方法を提供することを目的とする。
【0007】
【課題を解決するための手段】
本発明の原理は、移動体に対する行動コマンドと当該行動コマンドに従って移動した際に移動体が取得した外部環境の画像情報との関係を学習によって確率統計モデルとして生成しておき、以後の移動時には移動体が取得する外部環境の画像情報及び確率統計モデルに基づき現在の行動を高速かつ高精度に認識する点にある。
【0008】
本発明は、従来の方法においてノイズの影響を除去するために必要とされた特徴抽出を行う前のスムージング処理等をすることなしに、実環境におけるオンライン的な学習を事前学習段階で行い、そのようなノイズをも特徴抽出のデータして利用することによって、環境の変化に対するロバスト性を向上して不良設定問題を回避しようとするものである。
【0009】
本発明は、移動体を行動させる行動コマンドを出力する行動コマンド出力部と、該行動コマンド出力時に前記移動体において取得された外部環境の画像情報から画像の局所領域の特徴情報を抽出する局所特徴抽出部と、抽出された局所領域の特徴情報を使用して画像の全体領域の特徴情報を抽出する全体特徴抽出部と、抽出された全体領域の特徴情報に基づいて行動コマンドを認識するための確率統計モデルを計算する学習部を含む画像処理装置を提供する。
【0010】
局所特徴抽出部はガボールフィルタを用いて画像の局所領域の特徴情報を抽出する。局所領域の特徴情報の抽出には、正成分及び負成分のガボールフィルタを適用して得られる画像強度を使用する。ガボールフィルタは8方向について適用するのが好ましい。
【0011】
全体特徴抽出部は、ガウス関数を用いて局所領域の特徴情報を融合する。
【0012】
確率統計モデルの計算は期待値最大化アルゴリズムとニューラルネットワークによる教師付き学習により行われるのが好ましいが、他の学習アルゴリズムを使用することも可能である。
【0013】
確率モデルが形成されると、新たに取得された画像にこの確率モデルを適用することで移動体の行動を高精度に認識できるようになる。従って本発明の画像処理装置は、画像情報に対して確率統計モデルを使用したベイズ則を適用し、各行動コマンドについての確信度を算出することにより移動体の行動を認識する行動認識部をさらに含む。
【0014】
上記のようにして移動体の行動を認識することが可能となるが、常に一定レベル以上の確信度を有する行動の認識が行われることが好ましい。従って本発明の画像処理装置は、行動認識部の算出した確信度に基づく値と所定の値を比較することによって行動認識を評価する行動評価部と、行動評価部における評価に応じて、確率統計モデルを更新させる注意要求を生成する注意生成部と、注意要求に応じて全体特徴抽出部の所定のパラメータを変更する注意転調部をさらに含むことができる。この場合、学習部は、パラメータの変更後に確率統計モデルを再度計算する。そして行動認識部は、この確率統計モデルを用いて移動体の行動の認識をやり直す。
【0015】
【発明の実施の形態】
以下、図面を参照して本発明の実施の形態を説明する。
【0016】
図1は、本発明の一実施形態である画像処理装置10のブロック構成図である。画像処理装置10は、行動コマンド出力部12、局所特徴抽出部16、全体特徴抽出部18、学習部20、記憶部22、行動認識部24、行動評価部26、注意生成部28、及び注意転調部30等から構成される。
【0017】
画像処理装置10の動作は、予めカメラ等を搭載した移動体32を実環境下で行動させながら取得した画像とそのときの行動の対応関係について学習を行う事前学習段階と、事前学習段階で学習した知識を利用して新たに取得した画像情報から移動体32の行動を認識する行動認識段階の二段階からなる。
【0018】
事前学習段階では、図1中の行動コマンド出力部12、局所特徴抽出部16、全体特徴抽出部18、学習部20及び記憶部22が使用される。行動認識段階では、これらに加えて行動認識部24、行動評価部26、注意生成部28及び注意転調部30も使用される。
【0019】
まず、事前学習段階において使用される各部を説明する。
【0020】
行動コマンド出力部12は、移動体32に対し行動コマンドを出力する。行動コマンドとは、移動体32に直進、右折、左折などの行動をさせるコマンドである。行動コマンド出力部12は、外部から受信する指示信号に応じて行動コマンドを出力するが、予め時系列で設定されたコマンド列を図示しないメモリから読み出してきて出力するようにしても良い。また、移動体32が取得画像に基づいて自己の行動を認識して随時次にとるべき行動を決定し、行動コマンド出力部12はその決定に応じた行動コマンドを出力する構成としても良い。出力された行動コマンドは、無線または有線により移動体32に送られると共に、全体特徴抽出部18に供給されて、後述する全体特徴情報の生成に使用される。
【0021】
移動体32にはCCDカメラ等の画像取得部14が付設されている。画像取得部14は、時刻tにおける移動体32の外部環境の画像I(t)を所定の時間間隔で取得し、局所特徴抽出部16に供給する。
【0022】
局所特徴抽出部16は、画像I(t)の局所領域の特徴情報を抽出する。本明細書において「局所領域」とは、画像取得部14が取得する画像I(t)の全体領域をそれぞれが同一の大きさを有するように分割したときの各小領域のことを指しており、各局所領域は複数の画素を含む。本実施形態では、時間的に連続する2枚の画像I(t)、I(t+1)からオプティカルフローを算出して、これを各局所領域の特徴情報(以下、「局所特徴情報」という)の生成に使用する。局所特徴抽出部16によって抽出された局所特徴情報は、全体特徴抽出部18に供給される。
【0023】
全体特徴抽出部18は、画像I(t)について得られた全ての局所特徴情報を融合して画像全体についての特徴情報(以下、「全体特徴情報」という)を抽出する。抽出された全体特徴情報は学習部20に供給される。
【0024】
学習部20は、全体特徴抽出部18から供給される全体特徴情報に基づいて学習を行い、後述する確率モデルを作成する。本実施形態では、この学習に公知の期待値最大化アルゴリズムとニューラルネットワークを用いた教師付き学習を使用するが、他の学習アルゴリズムを用いることもできる。学習結果である確率統計モデルは記憶部22に格納され、行動認識段階における移動体32の行動の認識に使用される。
【0025】
事前学習段階が終了すると、その学習結果(確率モデル)を新たに取得した画像に適用して移動体32の行動を高精度に認識可能な状態になる。以下、行動認識段階において使用される各部を説明する。
【0026】
事前学習段階と同様、画像取得部14は時刻tにおける移動体32の外部環境の画像I(t)を所定の時間間隔で取得し、行動認識部24に供給する。
【0027】
行動認識部24は、供給された画像I(t)に対して記憶部22に格納されている確率モデルを適用して、各行動コマンドについて確信度を算出し、最大のものを移動体32の行動と認識する。算出された確信度は行動評価部26に供給される。
【0028】
行動評価部26は、行動コマンドの確信度について対数尤度を計算する。注意生成部28は、確信度の対数尤度が所定値以上であれば何も行わない。確信度の対数尤度が所定値未満の場合、認識した行動は十分な確信度を得ていないとして、注意要求信号を生成して注意転調部30に供給する。
【0029】
注意転調部30は、注意生成部28から注意要求信号を受信すると、学習のアルゴリズムにおける所定のパラメータ値を変更(転調)して、学習部20に確率モデルの更新を行わせる。学習部20は更新した確率モデルを記憶部22に格納する。行動認識部24は、更新後の確率モデルを適用して再度移動体32の行動を認識する。これによって、常に一定レベル以上の確信度を有する行動の認識が行われることになる。
【0030】
なお、画像取得部14は移動体32に付設されている必要があるが、画像処理装置10は、画像取得部14と一体でまたは別個に移動体32に付設されていても、あるいは移動体32とは別の場所に設置されていてもよい。画像取得部14と画像処理装置10の間の通信は、有線でも無線でもよい。
【0031】
続いて、図1及び図2を用いて事前学習段階について詳細に説明する。図2は事前学習段階の処理の流れを示すフローチャートである。
【0032】
行動コマンド出力部12からの行動コマンドに応じて移動体32が行動する際に、移動体32に付設された画像取得部14は、時間的に連続する2枚の画像を取得する(ステップS42)。そして、局所特徴抽出部16は、画像取得部14が取得した画像から局所特徴情報を抽出する(ステップS44〜S48)。具体的には、取得した画像中の各局所領域画像に対して複数方向のガボールフィルタを適用して、各局所領域についてガボールフィルタの各方向における画像強度Ei(xt,yt)を計算する(ステップS44)。画像強度Ei(xt,yt)は、以下の式(1)により計算される。
【0033】
Ei(xt,yt)=Img(t)×Gbri(+)+Img(t+1)×Gbri(-) (1)
ここで、Gbri(+)、Gbri(-)はそれぞれ正成分及び負成分のガボールフィルタであることを示す。また、添え字「i」はガボールフィルタの方向を示し、本実施形態ではi=1,…,8である。Img(t)は時刻tにおいて取得された画像の局所領域画像を示し、Img(t+1)は次の時刻t+1において取得された画像の局所領域画像を示す。さらに、(xt,yt)は、時刻tにおける局所領域内での画素の座標を表している。従って、Ei(xt,yt)は当該局所領域における方向iの画像強度を表す。
【0034】
ガボールフィルタの方向及び適用する数は任意であるが、本実施形態では人間の視覚機能の受容野を模倣して、全体画像の中心から等角に放射状に伸びる8方向のガボールフィルタを使用している。
【0035】
次に、局所特徴抽出部16は、ステップ44で計算した各局所領域における8方向の画像強度Ei(xt,yt)(i=1,…,8)から、次式(2)により各局所領域において最も画像強度の大きい方向jを選択する(ステップS46)。
【0036】
j=argmaxi Ei(xt,yt) (2)
ここで、方向j(j=1,…,8)は、局所領域毎に異なることに注意する。
【0037】
続いて、局所特徴抽出部16は、次式(3)のように最大の画像強度Ej(xt,yt)に対してガウス関数を使用して、各局所領域について局所特徴情報Ψj(xt,yt)を算出する(ステップS48)。
【0038】
【数1】
【0039】
ここで、式(3)中、「μj」は、当該局所領域における画像強度Ej(xt,yt)の平均値である。また、「σj」はこれらの画像強度Ej(xt,yt)の分散を示す。従って、局所特徴情報Ψj(xt,yt)は、各局所領域において画像強度が最大値を有する方向に関する画像強度Ej(xt,yt)を確率密度分布で表現したものになる。局所特徴情報Ψj(xt,yt)は、局所領域の数と等しいだけ求められるが、それぞれの局所領域について局所特徴情報Ψj(xt,yt)を求めた方向jは異なっていることに注意する。
【0040】
全体特徴抽出部18は、行動コマンド出力部12から行動コマンドを、局所特徴抽出部16から局所特徴情報Ψj(xt,yt)を受け取ると、次式(4)に従って、画像強度の最大方向jの各方向について、その方向に関して求められた全ての局所特徴情報Ψj(xt,yt)を融合して全体特徴情報ρj(χt|l)を算出する(ステップS50)。
【0041】
【数2】
ここで、「χt」は(xt,yt)による二次元直交座標を意味する。
【0042】
算出した全体特徴情報ρj(χt|l)は、それぞれ元の画像I(t)を取得したときに行動コマンド出力部12が出力した行動コマンドの別にクラス分けして格納される(ステップS52)。ここで、「l」は行動コマンドを表す。本実施形態では3つの行動コマンド(直進、左折及び右折)が使用されているので、l=1を直進、l=2を左折、l=3を右折の行動コマンドとしている。従って、移動体の直進(l=1)時に取得された複数の全体特徴情報ρj(χt|1)と、左折(l=2)時に取得された複数の全体特徴情報ρj(χt|2)と、右折(l=3)時に取得された複数の全体特徴情報ρj(χt|3)は、それぞれ別々のクラスに格納される。
【0043】
このクラスは「注意のクラス」Ωlである。注意のクラスとは、新たな特徴情報が提示されたときにその全てを学習結果に反映させるのではなく、特定の特徴情報に注目することで効率良く学習を更新するためのものである。
【0044】
なお、注意のクラスは3つに限られず、行動コマンドの数と対応づけて任意の数設定することができる。
【0045】
全体特徴情報ρj(χt|l)は所定間隔毎に取得される画像I(t)について行動コマンドに関連付けて計算されるので、式(4)の計算によって、8方向の全体特徴情報のセットがそれぞれ複数、行動コマンドの別に格納されることになる。
【0046】
図3〜図5は、元の画像I(t)と、局所特徴情報Ψj(xt,yt)と、全体特徴情報ρj(χt|l)の対応を示す図である。図3は移動体32の直進時に、図4は左折時に、図5は右折時に取得された画像にそれぞれ対応する。
【0047】
各図の(a)は、画像取得部14により取得された画像I(t)の一例である。各図の(b)は、ガボールフィルタのある1方向の局所特徴情報を画像全体についてグラフ化したものであり、Z軸は局所特徴情報Ψj(xt,yt)の絶対値を表す。この例では、画像全体が77×57個の局所領域に分割されている。各図の(c)は、(b)の局所特徴情報から式(4)の計算によって算出された全体特徴情報ρj(χt|l)を、ガボールフィルタの適用方向毎に示した極形マップである。図(c)中、の1から8の数字はガボールフィルタの適用方向(上方向、右上方向、…)に対応している。
【0048】
図3〜5の(c)の極形マップに現れた形状を比較すると、各画像について8方向の全体特徴情報を求めることで移動体32の行動(行動コマンドl)についての特徴が捉えられていることがわかる。
【0049】
図2に戻り、ステップS52で全体特徴情報ρj(χt|l)を格納した後、学習部20は全体特徴情報ρj(χt|l)に基づいて学習を行う(ステップS54〜S58)。具体的には、期待値最大化アルゴリズム(EMアルゴリズム)とニューラルネットワークを用いた教師付き学習を行って、移動体32の行動を認識するための確率モデルを生成する。以下、本実施形態におけるEMアルゴリズムとニューラルネットワークを用いた教師付き学習の適用について順に説明する。
【0050】
EMアルゴリズムは、観測データが不完全データであるときに最大尤度になるパラメータθを推測する繰り返しアルゴリズムである。観測データの平均をμl、共分散をΣlとすると、パラメータθはθ(μl,Σl)と表わすことができる。EMアルゴリズムでは、パラメータθ(μl,Σl)の適当な初期値から開始して、Eステップ(Expectation step)とMステップ(Maximization step)の2つのステップを反復することでパラメータθ(μl,Σl)の値を逐次更新していく。
【0051】
まず、Eステップでは、次式(5)により条件付き期待値ψ(θ|θ(k))を算出する。
【0052】
【数3】
【0053】
次に、Mステップでは、次式(6)によりψ(θ|θ(k))を最大にするパラメータμl、Σlを計算し、これを新たな推測値θ(k+1)とする。
【0054】
【数4】
【0055】
このEステップとMステップを反復していき、得られた条件付き期待値ψ(θ|θ(k))をθ(k)に関して偏微分する。そして、偏微分の結果を「0」と置くことによって、最終的なμl、Σlが算出される。EMアルゴリズムは当技術分野において周知なので、これ以上詳細な説明は省略する。
【0056】
EMアルゴリズムにより、各注意のクラスΩlの全体特徴情報を正規分布で表すことができる(ステップS54)。
【0057】
全体特徴抽出部18は、行動コマンドlについて算出したμl、Σlを次式(7)に用いて、全体特徴情報ρj(χt|l)が行動コマンドlのクラスΩlに属する確率である事前確率p-(ρ|Ωl)を算出する(ステップS56)。
【0058】
【数5】
上式において、Nは全体特徴情報ρj(χt|l)の次元数である。
【0059】
次に、ニューラルネットワークを用いた教師付き学習について説明する。この学習では、注意のクラスΩlを教師信号として、画像取得部14により取得された画像I(t)について、条件付き確率密度関数p(I(t)|Ωl)を算出する(ステップS58)。
【0060】
図6は、このニューラルネットワークを用いた教師付き学習に使用される階層型ニューラルネットワークの構成例を示す図である。この階層型ニューラルネットワークは3層のノードを有し、入力層72は元の画像I(t)、中間層74は全体特徴情報ρj(χt|l)、出力層76は行動コマンドlの注意のクラスΩlにそれぞれ対応する。なお、入力層72には簡単のために3つのノードのみ描かれているが、実際にはノードは画像I(t)の数だけ存在する。同様に、中間層74には入力層72と同数の全体特徴情報ρj(χt|l)のノードがあり、両者はそれぞれ1対1に接続されている。また出力層76のノードは注意クラスΩlの数(本実施形態では3つ)だけ生成される。
【0061】
図6において、「λ」は階層型ニューラルネットワークのシナプス荷重である。EMアルゴリズムによって全体特徴情報ρj(χt|l)がそれぞれの注意のクラスΩlに属する確率が求められており、また全体特徴情報ρj(χt|l)は1組の画像I(t)、I(t+1)に1:1に対応して算出されるので、注意のクラスΩlを教師信号とする教師付き学習を繰り返していくことで画像I(t)と注意のクラスΩlの確率的な関係(つまり図6中のλ)が決定されていく。この確率的な関係は条件付き確率密度関数p(I(t)|Ωl)である。階層型ニューラルネットワークは当技術分野において周知なので、これ以上詳細な説明は省略する。
【0062】
このようなニューラルネットワークを用いた教師付き学習によって、画像I(t)と注意のクラスΩlとの確率的な対応関係である条件付き確率密度関数p(I(t)|Ωl)を得ることができる。
【0063】
なお、ステップS54〜S58の処理は、行動コマンドl毎に実行される。従って本実施形態では、行動コマンドl=1、2、3のそれぞれについて事前確率p-(ρ|Ωl)と条件付き確率密度関数p(I(t)|Ωl)(これらをまとめて「確率モデル」という)が算出される。
【0064】
学習部20によって算出された確率モデルは、記憶部22に格納される(ステップS60)。事前学習を継続する場合はステップS62で「yes」となり再度ステップ42からの一連の処理が繰り返され、確率モデルが更新される。事前学習は、移動体32が行動をしている間、所定の間隔で取得される画像I(t)の全てについて実行される。そして、所定数の画像I(t)について処理を完了する等、行動認識に十分精度の高い確率モデルが生成されたと判断される時点で終了する(ステップS64)。
【0065】
続いて、図1及び図7を用いて行動認識段階について詳細に説明する。図7は行動認識段階の処理の流れを示すフローチャートである。
【0066】
画像取得部14は、所定の時間間隔ごとに2枚の画像を取得する(ステップ82)。
【0067】
次に、事前学習時に算出された確率モデル、すなわち事前確率p-(ρl|Ωl)と条件付き確率密度関数p(I(t)|Ωl)が以下のベイズ則において使用され、各注意のクラスΩlの確信度p(Ωl(t))(confidence)が計算される(ステップS84)。この確信度p(Ωl(t))は、画像取得部14の取得した画像I(t)が各注意のクラスΩlに属している確率を表している。
【0068】
【数6】
そして、算出された3つの確信度p(Ω1(t))、p(Ω2(t))、p(Ω3(t))のうち、最大のものが選択される(ステップS86)。
【0069】
行動評価部26は、行動認識部24において選択された確信度p(Ωl(t))について、対数尤度log p(Ωl(t))が所定値Kより大きいか否かを判別する(ステップS88)。log p(Ωl(t))>Kの場合、確信度が最大である注意のクラスΩlに対応する行動コマンドlが、画像I(t)が取得されたときに現実になされている移動体32の行動であると認識される(ステップS92)。
【0070】
一方、log p(Ωl(t))≦Kの場合、注意生成部28は注意要求を行う。注意転調部30は、式(7)におけるガウシアンミクスチャ「m」を所定値だけ増加(すなわち、注意転調)する(ステップS90)。そして、学習部20において図2のステップS56〜S60の一連の処理が再度実行され、確率モデル(事前確率p-(ρ|Ωl)及び条件付き確率密度関数p(I(t)|Ωl))が更新される。
【0071】
そしてプロセスは図7のステップS84に戻り、ステップS84〜S88の処理が繰り返され、対数尤度log p(Ωl(t))が所定の値K以上になるまでガウシアンミクスチャmが増加される。
【0072】
なお、このような更新の過程がなく予め作成された確率モデルが常に使用されるとしてもよい。
【0073】
以上説明したように、本発明では画像情報のみから移動体の行動を認識するのではなく、画像情報から抽出した全体特徴情報と行動コマンドとの関係についての学習を予め行っておき、その学習結果を利用して行動認識を行うので、実環境においても移動体の行動を高速かつ高精度に認識することができる。
【0074】
また、移動体32のタイヤの取り付け不良等によって、移動体32が与えられた行動コマンドに応じた正しい移動をしなくなった場合でも、画像から真の移動状況が把握できる。
【0075】
続いて、本発明の実施例について説明する。図8は、本発明の画像処理装置10を搭載したラジオコントロールカー(以下、「RCカー」という)100のブロック図である。画像処理装置10の各部は図1に関連して説明したものと同様の機能を有する。RCカー100には、画像処理装置10の他、画像を取得する画像入力カメラ114、行動コマンドに従ってRCカー100の行動を制御する操舵制御部132及び駆動制御部134、外部と通信を行うための受信機136及び送信機138が設けられている。受信機136は外部から行動コマンド指令信号を受信し、行動コマンド出力部12に供給する。RCカー100は行動コマンドに応じて直進、左折、右折の3つの行動の何れかをとる。また、行動認識部24の認識したRCカー100の行動は、送信機138を介して外部に送信される。
【0076】
このRCカー100に対して右折、直進、及び左折の各行動コマンドを与えながら画像を取得させて事前学習段階を完了させた後、24フレームの画像について行動認識をさせたときの結果を以下に述べる。
【0077】
図9は、注意のクラスの確信度の対数尤度log p(Ωl(t))の値の変化を示すグラフである。横軸は式(7)のガウシアンミクスチャmの値を表し、縦軸は確信度の対数尤度log p(Ωl(t))を表す。図9より、ガウシアンミクスチャの数が50前後になると、対数尤度が飽和することが分かる。各画像に対する注意のクラスの確信度の対数尤度が大きいということは、各画像を取得したときのRCカー100が当該注意のクラスに対応する行動をしている可能性が十分に高いと画像処理装置10が認識していることに相当する。
【0078】
図10はガウシアンミクスチャ(ガウス関数の個数)mがm=20のときの式(8)で求めた確信度の対数尤度log p(Ωl)の結果を示し、図11はm=50のときの同様の結果を示す。図10及び図11における縦軸は、(a)では行動コマンドl=1(直進)の注意のクラスΩ1についての確信度の対数尤度log p(Ω1)、(b)では行動コマンドl=2(左折)の注意のクラスΩ2についての確信度の対数尤度log p(Ω2)、(c)では行動コマンドl=3(右折)の注意のクラスΩ3についての確信度の対数尤度log p(Ω3)をそれぞれ示している。各図の横軸は行動認識をさせた24個の画像に対応している。24個の画像のうち最初の8つ(画像1〜8)はRCカー100に左折の行動コマンドl=2を与えたときに、中央の8つ(画像9〜16)は直進の行動コマンドl=1を与えたときに、最後の8つ(画像17〜24)は右折の行動コマンドl=3を与えたときに、それぞれ対応している。
【0079】
そこで図10を参照すると、(a)では中央の8つの画像(すなわち直進時)について最大の確信度の対数尤度を示し、(b)では最初の8つの画像(すなわち左折時)について、(c)では最後の8つの画像(すなわち右折時)について、それぞれ同様である。しかし画像間の対数尤度のばらつきが大きく、行動の認識は十分とは言えない。
【0080】
次に図11を参照すると、(a)、(b)、(c)ともに図10と同様、行動コマンドlに対応する画像が最大の確信度の対数尤度を示している。しかし図11においては、図10に比べて画像間の対数尤度のばらつきが少なく、滑らかになっている。これは注意転調によりガウシアンミクスチャを増加することによって達成されたものである。
【0081】
このように、本発明の画像処理装置を用いることによって、事前学習段階においてボトムアップ的に形成された注意のクラスが学習を重ねることにより信頼性が向上し、行動認識段階では、確信度の対数尤度が所定値を超えるまで確率モデルが更新されるので、行動の認識精度が向上する。
【0082】
【発明の効果】
本発明によると、画像情報のみから移動体の行動を認識するのではなく、画像情報と行動コマンドとの関係についての学習を予め行っておき、その学習結果を利用して判断するので、実環境においても移動体の行動を高速かつ高精度に認識することができる。
【図面の簡単な説明】
【図1】本発明の一実施形態である画像処理装置の機能ブロック図である。
【図2】本発明による画像処理方法の事前学習段階を示すフローチャートである。
【図3】移動体の直進時(Ω1)の画像認識結果を示す図である。
【図4】移動体の左折時(Ω2)の画像認識結果を示す図である。
【図5】移動体の右折時(Ω3)の画像認識結果を示す図である。
【図6】ニューラルネットワークを用いた教師付き学習に使用される階層型ニューラルネットワークの構成例を示す図である。
【図7】本発明による画像処理方法の行動認識段階を示すフローチャートである。
【図8】本発明による画像処理装置を使用したRCカーの全体的な構成を示すブロック図である。
【図9】確信度の対数尤度の変化を示す図である。
【図10】ガウシアンミクスチャm=20のときのRCカーの行動の認識結果を示す図である。
【図11】ガウシアンミクスチャm=50のときのRCカーの行動の認識結果を示す図である。
【符号の説明】
10 画像処理装置
12 行動コマンド出力部
14 画像取得部
16 局所特徴抽出部
18 全体特徴抽出部
20 学習部
22 記憶部
24 行動認識部
26 行動評価部
28 注意生成部
30 注意転調部
32 移動体
Claims (10)
- 移動体を行動させる行動コマンドを出力する行動コマンド出力部と、
該行動コマンド出力時に前記移動体において取得された外部環境の画像情報から、ガボールフィルタを用いて画像の局所領域の特徴情報を抽出する局所特徴抽出部と、
抽出された局所領域の特徴情報をガウス関数を用いて融合して、画像の全体領域の特徴情報を抽出する全体特徴抽出部と、
抽出された全体領域の特徴情報に基づいて期待値最大化アルゴリズムとニューラルネットワークによる教師付き学習により行動を認識するための確率統計モデルを作成する学習部と、
を含む画像処理装置。 - 前記画像の局所領域の特徴情報の抽出には、正成分及び負成分のガボールフィルタを適用して得られる画像強度を使用する請求項1に記載の画像処理装置。
- 前記ガボールフィルタは8方向のガボールフィルタである請求項1または2に記載の画像処理装置。
- 前記画像情報に対して前記確率統計モデルを使用したベイズ則を適用し、各行動コマンドについての確信度を算出することにより前記移動体の行動を認識する行動認識部をさらに含む、請求項1乃至3の何れか1項に記載の画像処理装置。
- 前記行動認識部の算出した確信度に基づく値と所定の値を比較することによって前記行動認識を評価する行動評価部と、
前記行動評価部における評価に応じて、前記確率統計モデルを更新させる注意要求を生成する注意生成部と、
前記注意要求に応じて前記全体特徴抽出部の所定のパラメータを変更する注意転調部をさらに備え、
前記学習部は前記パラメータの変更後に再度前記確率統計モデルを計算する、請求項4に記載の画像処理装置。 - 移動体を行動させる行動コマンドを出力し、
該行動コマンド出力時に前記移動体において取得された外部環境の画像情報から、ガボールフィルタを用いて画像の局所領域の特徴情報を抽出し、
抽出された局所領域の特徴情報をガウス関数を用いて融合して、画像の全体領域の特徴情報を抽出し、
抽出された全体領域の特徴情報に基づいて期待値最大化アルゴリズムとニューラルネットワークによる教師付き学習により行動を認識するための確率統計モデルを作成することを含む画像処理方法。 - 前記局所領域の特徴情報の抽出には、正成分及び負成分のガボールフィルタを適用して得られる画像強度を使用する請求項6に記載の画像処理方法。
- 前記ガボールフィルタは8方向のガボールフィルタである請求項6または7に記載の画像処理方法。
- 前記画像情報に対して前記確率統計モデルを使用したベイズ則を適用し、各行動コマンドについての確信度を算出することにより前記移動体の行動を認識することをさらに含む、請求項6乃至8の何れか1項に記載の画像処理方法。
- 前記算出された確信度に基づく値と所定の値を比較して前記行動認識を評価し、
該評価に応じて、前記確率統計モデルを更新させる注意要求を生成し、
前記注意要求に応じて前記全体特徴抽出部の所定のパラメータを変更することをさらに含み、
前記パラメータの変更後に前記確率統計モデルが再度計算される、請求項9に記載の画像処理方法。
Priority Applications (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2002107013A JP4159794B2 (ja) | 2001-05-02 | 2002-04-09 | 画像処理装置及び方法 |
| US10/133,114 US7221797B2 (en) | 2001-05-02 | 2002-04-26 | Image recognizing apparatus and method |
| EP02009680A EP1255177A2 (en) | 2001-05-02 | 2002-04-29 | Image recognizing apparatus and method |
Applications Claiming Priority (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2001134848 | 2001-05-02 | ||
| JP2001-134848 | 2001-05-02 | ||
| JP2002107013A JP4159794B2 (ja) | 2001-05-02 | 2002-04-09 | 画像処理装置及び方法 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2003042718A JP2003042718A (ja) | 2003-02-13 |
| JP4159794B2 true JP4159794B2 (ja) | 2008-10-01 |
Family
ID=26614620
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2002107013A Expired - Fee Related JP4159794B2 (ja) | 2001-05-02 | 2002-04-09 | 画像処理装置及び方法 |
Country Status (3)
| Country | Link |
|---|---|
| US (1) | US7221797B2 (ja) |
| EP (1) | EP1255177A2 (ja) |
| JP (1) | JP4159794B2 (ja) |
Families Citing this family (43)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US7266220B2 (en) * | 2002-05-09 | 2007-09-04 | Matsushita Electric Industrial Co., Ltd. | Monitoring device, monitoring method and program for monitoring |
| JP3979894B2 (ja) * | 2002-07-22 | 2007-09-19 | 本田技研工業株式会社 | 物体検出装置及び方法 |
| WO2004016400A2 (en) * | 2002-08-16 | 2004-02-26 | Evolution Robotics, Inc. | Systems and methods for the automated sensing of motion in a mobile robot using visual data |
| US7171028B2 (en) * | 2002-11-22 | 2007-01-30 | The Boeing Company | Method and apparatus for covertly determining the rate of relative motion between two objects |
| US7162338B2 (en) | 2002-12-17 | 2007-01-09 | Evolution Robotics, Inc. | Systems and methods for computing a relative pose for global localization in a visual simultaneous localization and mapping system |
| GB0305304D0 (en) * | 2003-03-07 | 2003-04-09 | Qinetiq Ltd | Scanning apparatus and method |
| RU2242047C1 (ru) * | 2003-03-20 | 2004-12-10 | Общество с ограниченной ответственностью "Информационные исследования" ("Изучение, анализ, оценивание, распознавание") | Открытая система для автоматизации обработки, анализа и распознавания изображений |
| US7689321B2 (en) * | 2004-02-13 | 2010-03-30 | Evolution Robotics, Inc. | Robust sensor fusion for mapping and localization in a simultaneous localization and mapping (SLAM) system |
| AU2004202179B2 (en) * | 2004-05-20 | 2011-04-21 | The Boeing Company | Method and apparatus for covertly determining the rate of relative motion between two objects |
| JP4634842B2 (ja) * | 2005-03-31 | 2011-02-16 | 株式会社デンソーアイティーラボラトリ | 風景推定装置 |
| US20090041297A1 (en) * | 2005-05-31 | 2009-02-12 | Objectvideo, Inc. | Human detection and tracking for security applications |
| JP4812343B2 (ja) * | 2005-06-30 | 2011-11-09 | トヨタ自動車株式会社 | 運転傾向推定装置及び運転支援装置 |
| US20070040065A1 (en) * | 2005-08-19 | 2007-02-22 | Von Thal German | Flexible refueling boom extendable tube |
| US20080059015A1 (en) * | 2006-06-09 | 2008-03-06 | Whittaker William L | Software architecture for high-speed traversal of prescribed routes |
| US20080033645A1 (en) * | 2006-08-03 | 2008-02-07 | Jesse Sol Levinson | Pobabilistic methods for mapping and localization in arbitrary outdoor environments |
| US8132759B2 (en) * | 2007-03-21 | 2012-03-13 | The Boeing Company | System and method for facilitating aerial refueling |
| JP4971015B2 (ja) * | 2007-04-10 | 2012-07-11 | 株式会社デンソー | 推定装置 |
| KR100877071B1 (ko) * | 2007-07-18 | 2009-01-07 | 삼성전자주식회사 | 파티클 필터 기반의 이동 로봇의 자세 추정 방법 및 장치 |
| US8509538B2 (en) * | 2007-12-20 | 2013-08-13 | Intel Corporation | Method and apparatus for obtaining and processing Gabor image features |
| US8340818B2 (en) * | 2009-04-24 | 2012-12-25 | Robert Bosch Gmbh | Method of accurate mapping with mobile robots |
| US9286810B2 (en) | 2010-09-24 | 2016-03-15 | Irobot Corporation | Systems and methods for VSLAM optimization |
| US8775341B1 (en) | 2010-10-26 | 2014-07-08 | Michael Lamport Commons | Intelligent control with hierarchical stacked neural networks |
| US9015093B1 (en) | 2010-10-26 | 2015-04-21 | Michael Lamport Commons | Intelligent control with hierarchical stacked neural networks |
| EP2704783A4 (en) | 2011-05-04 | 2014-12-03 | Univ Michigan | intubation |
| US8798840B2 (en) | 2011-09-30 | 2014-08-05 | Irobot Corporation | Adaptive mapping with spatial summaries of sensor data |
| CN102521592B (zh) * | 2011-11-30 | 2013-06-12 | 苏州大学 | 基于非清晰区域抑制的多特征融合显著区域提取方法 |
| US9020637B2 (en) | 2012-11-02 | 2015-04-28 | Irobot Corporation | Simultaneous localization and mapping for a mobile robot |
| US9037396B2 (en) | 2013-05-23 | 2015-05-19 | Irobot Corporation | Simultaneous localization and mapping for a mobile robot |
| EP3028838A1 (en) * | 2013-07-29 | 2016-06-08 | NEC Solution Innovators, Ltd. | 3d printer device, 3d printing method and method for manufacturing stereolithography product |
| DE102013217827A1 (de) * | 2013-09-06 | 2015-03-12 | Robert Bosch Gmbh | Verfahren und Steuergerät zum Erkennen eines Objekts in einer Bildinformation |
| US9058517B1 (en) * | 2014-04-16 | 2015-06-16 | I.R.I.S. | Pattern recognition system and method using Gabor functions |
| US10915114B2 (en) * | 2017-07-27 | 2021-02-09 | AI Incorporated | Method and apparatus for combining data to construct a floor plan |
| US11348269B1 (en) * | 2017-07-27 | 2022-05-31 | AI Incorporated | Method and apparatus for combining data to construct a floor plan |
| DE112019000070T5 (de) | 2018-01-07 | 2020-03-12 | Nvidia Corporation | Führen von fahrzeugen durch fahrzeugmanöver unter verwendung von modellen für maschinelles lernen |
| DE112019000065B4 (de) | 2018-02-02 | 2025-01-09 | Nvidia Corporation | Sicherheitsprozeduranalyse zur hindernisvermeidung in einem autonomen fahrzeug |
| US11966838B2 (en) | 2018-06-19 | 2024-04-23 | Nvidia Corporation | Behavior-guided path planning in autonomous machine applications |
| DE102019113114A1 (de) | 2018-06-19 | 2019-12-19 | Nvidia Corporation | Verhaltensgesteuerte wegplanung in autonomen maschinenanwendungen |
| US10937150B2 (en) | 2018-06-28 | 2021-03-02 | General Electric Company | Systems and methods of feature correspondence analysis |
| WO2020163390A1 (en) | 2019-02-05 | 2020-08-13 | Nvidia Corporation | Driving lane perception diversity and redundancy in autonomous driving applications |
| CN111753590B (zh) * | 2019-03-28 | 2023-10-17 | 杭州海康威视数字技术股份有限公司 | 一种行为识别方法、装置及电子设备 |
| JP7644716B2 (ja) | 2019-04-12 | 2025-03-12 | エヌビディア コーポレーション | 自律マシン・アプリケーションのためのマップ情報で拡張されたグラウンド・トゥルース・データを使用するニューラル・ネットワーク・トレーニング |
| US12077190B2 (en) | 2020-05-18 | 2024-09-03 | Nvidia Corporation | Efficient safety aware path selection and planning for autonomous machine applications |
| CN115457447B (zh) * | 2022-11-07 | 2023-03-28 | 浙江莲荷科技有限公司 | 运动物体识别的方法、装置、系统及电子设备、存储介质 |
Family Cites Families (17)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| EP0092381B1 (en) * | 1982-04-15 | 1989-04-12 | Kabushiki Kaisha Toshiba | Pattern features extracting apparatus and method and pattern recognition system |
| US5109425A (en) * | 1988-09-30 | 1992-04-28 | The United States Of America As Represented By The United States National Aeronautics And Space Administration | Method and apparatus for predicting the direction of movement in machine vision |
| EP0488828B1 (en) * | 1990-11-30 | 1996-08-14 | Honda Giken Kogyo Kabushiki Kaisha | Control device of an autonomously moving body and evaluation method for data thereof |
| US5500904A (en) * | 1992-04-22 | 1996-03-19 | Texas Instruments Incorporated | System and method for indicating a change between images |
| JP3369368B2 (ja) * | 1995-10-11 | 2003-01-20 | 富士通株式会社 | 画像処理装置 |
| US5751838A (en) * | 1996-01-26 | 1998-05-12 | Nec Research Institute, Inc. | Correction of camera motion between two image frames |
| JP3886618B2 (ja) | 1997-10-28 | 2007-02-28 | 本田技研工業株式会社 | 動画像処理方法 |
| US6532305B1 (en) * | 1998-08-04 | 2003-03-11 | Lincom Corporation | Machine learning method |
| US6353679B1 (en) * | 1998-11-03 | 2002-03-05 | Compaq Computer Corporation | Sample refinement method of multiple mode probability density estimation |
| JP2000171250A (ja) | 1998-12-02 | 2000-06-23 | Japan Aviation Electronics Industry Ltd | 移動体現在位置検出方法 |
| JP4226730B2 (ja) * | 1999-01-28 | 2009-02-18 | 株式会社東芝 | 物体領域情報生成方法及び物体領域情報生成装置並びに映像情報処理方法及び情報処理装置 |
| US6307959B1 (en) * | 1999-07-14 | 2001-10-23 | Sarnoff Corporation | Method and apparatus for estimating scene structure and ego-motion from multiple images of a scene using correlation |
| US6323807B1 (en) * | 2000-02-17 | 2001-11-27 | Mitsubishi Electric Research Laboratories, Inc. | Indoor navigation with wearable passive sensors |
| JP4624594B2 (ja) * | 2000-06-28 | 2011-02-02 | パナソニック株式会社 | 物体認識方法および物体認識装置 |
| JP4581210B2 (ja) * | 2000-09-29 | 2010-11-17 | 日本電気株式会社 | テレビ会議システム |
| KR100415313B1 (ko) * | 2001-12-24 | 2004-01-16 | 한국전자통신연구원 | 동영상에서 상관 정합과 시스템 모델을 이용한 광류와카메라 움직임 산출 장치 |
| CN1459761B (zh) * | 2002-05-24 | 2010-04-21 | 清华大学 | 基于Gabor滤波器组的字符识别技术 |
-
2002
- 2002-04-09 JP JP2002107013A patent/JP4159794B2/ja not_active Expired - Fee Related
- 2002-04-26 US US10/133,114 patent/US7221797B2/en not_active Expired - Fee Related
- 2002-04-29 EP EP02009680A patent/EP1255177A2/en not_active Withdrawn
Also Published As
| Publication number | Publication date |
|---|---|
| JP2003042718A (ja) | 2003-02-13 |
| US7221797B2 (en) | 2007-05-22 |
| EP1255177A2 (en) | 2002-11-06 |
| US20030007682A1 (en) | 2003-01-09 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP4159794B2 (ja) | 画像処理装置及び方法 | |
| CN113807420B (zh) | 一种考虑类别语义匹配的域自适应目标检测方法及系统 | |
| JP7311310B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
| CN112088380B (zh) | 图像分割 | |
| CN107169421B (zh) | 一种基于深度卷积神经网络的汽车驾驶场景目标检测方法 | |
| JP7263216B2 (ja) | ワッサースタイン距離を使用する物体形状回帰 | |
| CN109993101B (zh) | 基于多分支循环自注意力网络与循环边框回归的车辆检测方法 | |
| JP4556891B2 (ja) | 情報処理装置および方法、記録媒体、並びにプログラム | |
| US20180157892A1 (en) | Eye detection method and apparatus | |
| US20200311855A1 (en) | Object-to-robot pose estimation from a single rgb image | |
| CN109784290B (zh) | 一种目标检测方法、装置、设备及可读存储介质 | |
| JP6867054B2 (ja) | マルチカメラシステム内のダブルエンベディング構成を利用して、道路利用者イベントを検出するために用いられるセグメンテーション性能向上のための学習方法及び学習装置、そしてこれを利用したテスティング方法及びテスティング装置。{learning method and learning device for improving segmentation performance to be used for detecting road user events using double embedding configuration in multi−camera system and testing method and testing device using the same} | |
| KR20160096460A (ko) | 복수의 분류기를 포함하는 딥 러닝 기반 인식 시스템 및 그 제어 방법 | |
| CN112784954A (zh) | 确定神经网络的方法和装置 | |
| CN116152768B (zh) | 基于路况识别的智能驾驶预警系统及方法 | |
| US20210192345A1 (en) | Method for generating labeled data, in particular for training a neural network, by using unlabeled partitioned samples | |
| Patil et al. | Speed bump segmentation an application of conditional generative adversarial network for self-driving vehicles | |
| US12456333B2 (en) | Traffic hand signal detection system and method thereof | |
| US12430905B2 (en) | Methods, devices, and computer readable media for training a keypoint estimation network using cGAN-based data augmentation | |
| Abtahi et al. | A deep reinforcement learning approach to character segmentation of license plate images | |
| CN113033523A (zh) | 跌倒判断模型的构建方法及系统、跌倒判断方法及系统 | |
| US12462576B2 (en) | Model generation method, model generation apparatus, non-transitory storage medium, mobile object posture estimation method, and mobile object posture estimation apparatus | |
| CN113454692B9 (zh) | 驾驶信息提供方法以及车辆地图提供服务器和方法 | |
| CN117246358A (zh) | 自动驾驶辅助系统用线路板及其方法 | |
| KR20230065125A (ko) | 기계 학습 모델의 트레이닝 방법 및 전자 장치 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20041129 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080205 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080327 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080422 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080619 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20080715 |
|
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20080716 |
|
| R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110725 Year of fee payment: 3 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110725 Year of fee payment: 3 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120725 Year of fee payment: 4 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120725 Year of fee payment: 4 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130725 Year of fee payment: 5 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140725 Year of fee payment: 6 |
|
| LAPS | Cancellation because of no payment of annual fees |