JP2667954B2 - 静的及び動的パラメータを使用する自動手書き文字認識装置及び方法 - Google Patents
静的及び動的パラメータを使用する自動手書き文字認識装置及び方法Info
- Publication number
- JP2667954B2 JP2667954B2 JP5293291A JP29329193A JP2667954B2 JP 2667954 B2 JP2667954 B2 JP 2667954B2 JP 5293291 A JP5293291 A JP 5293291A JP 29329193 A JP29329193 A JP 29329193A JP 2667954 B2 JP2667954 B2 JP 2667954B2
- Authority
- JP
- Japan
- Prior art keywords
- static
- feature vector
- character
- dynamic
- handwriting
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/32—Digital ink
- G06V30/36—Matching; Classification
- G06V30/373—Matching; Classification using a special pattern or subpattern alphabet
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/254—Fusion techniques of classification results, e.g. of results related to same input data
- G06F18/256—Fusion techniques of classification results, e.g. of results related to same input data of results relating to different input data, e.g. multimodal recognition
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/19—Recognition using electronic means
- G06V30/191—Design or setup of recognition systems or techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
- G06V30/1918—Fusion techniques, i.e. combining data from various sources, e.g. sensor fusion
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/32—Digital ink
- G06V30/333—Preprocessing; Feature extraction
- G06V30/347—Sampling; Contour coding; Stroke extraction
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Character Discrimination (AREA)
Description
【0001】
【産業上の利用分野】本発明は、手書き(手書きされた
文字)を自動的に認識するための装置及び方法に関する
ものである。
文字)を自動的に認識するための装置及び方法に関する
ものである。
【0002】
【従来の技術】手書きにより形成された記号は、それが
電子的タブレットによってトレースされる時、x−y座
標対のシーケンスにより表わされる。手書きの基本単位
は、ストロークである。ストロークは、それぞれx−y
座標により表わされた複数の点のシーケンスである。ア
ルファベットの文字及び数字のような記号は、そのよう
なストロークの集合体である。
電子的タブレットによってトレースされる時、x−y座
標対のシーケンスにより表わされる。手書きの基本単位
は、ストロークである。ストロークは、それぞれx−y
座標により表わされた複数の点のシーケンスである。ア
ルファベットの文字及び数字のような記号は、そのよう
なストロークの集合体である。
【0003】自動手書き認識システムの望ましい特徴
は、冗長度を最小にするように入力データを処理する能
力及び頑丈な統計的技法によってデータをモデル化する
能力を含んでいる。考察されるパラメータは、典型的に
は、ペン移動の方向に依存している。即ち、点の時間的
順序は、特徴ベクトルを抽出する時保存される。ストロ
ーク・データの時間的順序を保存することの理屈は、所
定の書き手が文字を形成する方法には或程度の一貫性が
あるということである。例えば、文字「O」は、時計方
向又は反時計方向のどちらの動きでも書くことができ
る。これら2つの可能性を許容することによって及びペ
ン移動の方向を保持することによって、雑音に関して頑
丈な認識システムを設計することが可能である。それ
は、そのシステムの時間的トレース全体がわずかな変動
により影響されないためである。更に、1ストロークで
形成される「S」及び2ストロークで形成される「5」
のような類似した形状の間を、ストロークの数及び(又
は)ペン移動の方向によって、区別することが可能であ
ることが多い。
は、冗長度を最小にするように入力データを処理する能
力及び頑丈な統計的技法によってデータをモデル化する
能力を含んでいる。考察されるパラメータは、典型的に
は、ペン移動の方向に依存している。即ち、点の時間的
順序は、特徴ベクトルを抽出する時保存される。ストロ
ーク・データの時間的順序を保存することの理屈は、所
定の書き手が文字を形成する方法には或程度の一貫性が
あるということである。例えば、文字「O」は、時計方
向又は反時計方向のどちらの動きでも書くことができ
る。これら2つの可能性を許容することによって及びペ
ン移動の方向を保持することによって、雑音に関して頑
丈な認識システムを設計することが可能である。それ
は、そのシステムの時間的トレース全体がわずかな変動
により影響されないためである。更に、1ストロークで
形成される「S」及び2ストロークで形成される「5」
のような類似した形状の間を、ストロークの数及び(又
は)ペン移動の方向によって、区別することが可能であ
ることが多い。
【0004】しかし、ストローク順序だけに依存する手
書き認識システムは、いくつかの欠陥を示すことがあ
る。そのような欠陥の1つは、「t」の横線及び「i」
又は「j」の点のような遅延したストロークを適切に処
理する困難性である。時間的又は動的な入力データだけ
を処理する手書き認識システムのもう1つの欠陥は、大
文字のような多重ストローク文字をモデル化するときに
導入される曖昧性である。この曖昧性は、そのような多
重ストローク文字の表現の数がストロークの数に従って
幾何学的に増大するために存在する。結局、ペン移動の
方向においては種々の書き手の間には一貫性がほとんど
ないかもしれない。従って、書き手に依存しない合理的
な認識性能を達成するためには、多数の文字プロトタイ
プ又はテンプレートを組み込むことが必要である。しか
し、多数のテンプレートを使用することは、手書き認識
システムのメモリ必要量及び入力文字との最も蓋然的な
一致を見つけるためにそれらテンプレートをサーチする
に必要な処理時間の両方を増大させる。
書き認識システムは、いくつかの欠陥を示すことがあ
る。そのような欠陥の1つは、「t」の横線及び「i」
又は「j」の点のような遅延したストロークを適切に処
理する困難性である。時間的又は動的な入力データだけ
を処理する手書き認識システムのもう1つの欠陥は、大
文字のような多重ストローク文字をモデル化するときに
導入される曖昧性である。この曖昧性は、そのような多
重ストローク文字の表現の数がストロークの数に従って
幾何学的に増大するために存在する。結局、ペン移動の
方向においては種々の書き手の間には一貫性がほとんど
ないかもしれない。従って、書き手に依存しない合理的
な認識性能を達成するためには、多数の文字プロトタイ
プ又はテンプレートを組み込むことが必要である。しか
し、多数のテンプレートを使用することは、手書き認識
システムのメモリ必要量及び入力文字との最も蓋然的な
一致を見つけるためにそれらテンプレートをサーチする
に必要な処理時間の両方を増大させる。
【0005】
【発明が解決しようとする課題】本発明の目的は、手書
きを認識するとき、動的(時間的)特徴ベクトル及び静
的(空間的)特徴ベクトルの両方を使用する手書き認識
システムを提供することにある。
きを認識するとき、動的(時間的)特徴ベクトル及び静
的(空間的)特徴ベクトルの両方を使用する手書き認識
システムを提供することにある。
【0006】本発明のもう1つの目的は、手書き変換器
からの入力信号に応答して、動的特徴ベクトル及び静的
特徴ベクトルの両方を同時に与えるように並列態様で動
作する手書き認識方法及び装置を提供することにある。
からの入力信号に応答して、動的特徴ベクトル及び静的
特徴ベクトルの両方を同時に与えるように並列態様で動
作する手書き認識方法及び装置を提供することにある。
【0007】本発明の更にもう1つの目的は、光学的文
字認識システムのように、オン・ライン実時間手書き認
識技法及びオフ・ライン非実時間技法の両方で使用可能
な静的特徴ベクトル抽出するための方法及び装置を提供
することにある。
字認識システムのように、オン・ライン実時間手書き認
識技法及びオフ・ライン非実時間技法の両方で使用可能
な静的特徴ベクトル抽出するための方法及び装置を提供
することにある。
【0008】
【課題を解決するための手段】上記の問題点及び本発明
の目的は、動的パラメータ及び静的パラメータの両方を
使用する手書きテキストの自動認識のための方法及び装
置によって克服され、実現される。これら2つの方法に
より生じたエラーは広い範囲にわたって直交的であり、
従って、二組のパラメータの組合せは全体の手書き認識
エラー率を大いに低下させる。
の目的は、動的パラメータ及び静的パラメータの両方を
使用する手書きテキストの自動認識のための方法及び装
置によって克服され、実現される。これら2つの方法に
より生じたエラーは広い範囲にわたって直交的であり、
従って、二組のパラメータの組合せは全体の手書き認識
エラー率を大いに低下させる。
【0009】本発明が教示するものは、動的特徴選択と
いう主要な利点を保持すると同時に、動的特徴選択と関
連した問題点のいくつかを解決する。主に静的情報、即
ち、形状情報に依存する特徴抽出及び削減手順が開示さ
れ、一方、タブレットが点を捕捉する時間的順序は無視
可能である。従って、文字の形状だけが考慮される。こ
れは、入力文字情報のうちの形状情報をエンコードする
独立したセットの特徴ベクトルを持ったデータを生成し
そして処理することによって達成される。これら特徴ベ
クトルは、入力文字データにおけるビット・マップされ
たイメージの水平方向(x軸)スライス及び垂直方向
(y軸)スライスを含み、そのビット・マップされたイ
メージのベースラインからの絶対的y軸変位をエンコー
ドするための付加的特徴ベクトルを含む。
いう主要な利点を保持すると同時に、動的特徴選択と関
連した問題点のいくつかを解決する。主に静的情報、即
ち、形状情報に依存する特徴抽出及び削減手順が開示さ
れ、一方、タブレットが点を捕捉する時間的順序は無視
可能である。従って、文字の形状だけが考慮される。こ
れは、入力文字情報のうちの形状情報をエンコードする
独立したセットの特徴ベクトルを持ったデータを生成し
そして処理することによって達成される。これら特徴ベ
クトルは、入力文字データにおけるビット・マップされ
たイメージの水平方向(x軸)スライス及び垂直方向
(y軸)スライスを含み、そのビット・マップされたイ
メージのベースラインからの絶対的y軸変位をエンコー
ドするための付加的特徴ベクトルを含む。
【0010】空間的又は静的処理に起因する認識エラー
が時間的又は動的処理に起因する認識エラーと全く異な
ることが示される。更に、これらの相違が互いに相補的
であることが示される。その結果、特徴ベクトル情報の
これら2つのソースの組合せは全体的な認識エラー率の
実質的減少を与える。本発明の方法が書き手依存認識モ
ード及び書き手非依存認識モードの両方に対して十分に
働くことも示される。後者の場合、その結果得られる精
度は精巧な動的モデル化技法で得られるもの以上に大い
に改良される。
が時間的又は動的処理に起因する認識エラーと全く異な
ることが示される。更に、これらの相違が互いに相補的
であることが示される。その結果、特徴ベクトル情報の
これら2つのソースの組合せは全体的な認識エラー率の
実質的減少を与える。本発明の方法が書き手依存認識モ
ード及び書き手非依存認識モードの両方に対して十分に
働くことも示される。後者の場合、その結果得られる精
度は精巧な動的モデル化技法で得られるもの以上に大い
に改良される。
【0011】本発明の方法は、論理的に2つの動作に分
けられる。第1の動作は、文字モデルのパラメータの算
定が得られるトレーニング・フェーズである。第2の動
作は、入ってくる未知の手書き生成された信号を認識す
るデコード・フェーズである。動的文字モデル及び静的
文字モデルから確率スコアを結合するための方法も開示
される。
けられる。第1の動作は、文字モデルのパラメータの算
定が得られるトレーニング・フェーズである。第2の動
作は、入ってくる未知の手書き生成された信号を認識す
るデコード・フェーズである。動的文字モデル及び静的
文字モデルから確率スコアを結合するための方法も開示
される。
【0012】
【実施例】本発明の好ましい実施例は、手書き入力を処
理するための技法、特に、1991年10月31日出願
の米国特許第5、343、537号に開示された手書き
入力の動的(時間的)処理を使用する。本発明は、静的
な形状に基づいた文字特徴ベクトルの使用によって及び
静的特徴ベクトル及び動的特徴ベクトルの組合せによっ
てこの技法を拡張するものである。
理するための技法、特に、1991年10月31日出願
の米国特許第5、343、537号に開示された手書き
入力の動的(時間的)処理を使用する。本発明は、静的
な形状に基づいた文字特徴ベクトルの使用によって及び
静的特徴ベクトル及び動的特徴ベクトルの組合せによっ
てこの技法を拡張するものである。
【0013】手書き認識の場合、手書きされた文字は、
一般的には、図1に示された5つのグループのどれかに
はいる。これらグループは、認識の複雑さが増大する順
序で示される。特に、これらグループは、個々の文字が
所定の領域、ボックス内に形成され、それによって文字
セグメント化のタスクを簡単にする囲み分離(box−
discrete)として知られた第1タイプの筆跡
(W1)を含む。第2タイプの筆跡(W2)は、他の文
字と接触する文字がないようにユーザが各文字を意図的
に形成する間隔分離(spaced−discret
e)として知られている。第3タイプの筆跡(W3)
は、ユーザが互いに接触した、即ち、跨った文字を形成
する跨り分離(run−on−discrete)とし
て知られている。第4タイプの筆跡(W4)は、ユーザ
が通常ワード全体を一連の繋がった文字として書き、し
かる後、tの交差及びi、jの点を書くという続け字
(cursive−writing)である。最後に、
第5タイプの筆跡(W5)は、ユーザが跨り分離及び続
け字の混合を使用する無拘束筆跡である。最後のタイプ
は、図1に示された5つのスタイルのうち最も難しいも
のであり、最も複雑なセグメント化及び認識タスクを与
える。
一般的には、図1に示された5つのグループのどれかに
はいる。これらグループは、認識の複雑さが増大する順
序で示される。特に、これらグループは、個々の文字が
所定の領域、ボックス内に形成され、それによって文字
セグメント化のタスクを簡単にする囲み分離(box−
discrete)として知られた第1タイプの筆跡
(W1)を含む。第2タイプの筆跡(W2)は、他の文
字と接触する文字がないようにユーザが各文字を意図的
に形成する間隔分離(spaced−discret
e)として知られている。第3タイプの筆跡(W3)
は、ユーザが互いに接触した、即ち、跨った文字を形成
する跨り分離(run−on−discrete)とし
て知られている。第4タイプの筆跡(W4)は、ユーザ
が通常ワード全体を一連の繋がった文字として書き、し
かる後、tの交差及びi、jの点を書くという続け字
(cursive−writing)である。最後に、
第5タイプの筆跡(W5)は、ユーザが跨り分離及び続
け字の混合を使用する無拘束筆跡である。最後のタイプ
は、図1に示された5つのスタイルのうち最も難しいも
のであり、最も複雑なセグメント化及び認識タスクを与
える。
【0014】図2を参照すると、本発明に従って構成さ
れた手書き認識システムがブロック図で示される。ま
ず、図2の一般化した説明を行い、続いて、図示された
各ブロックの動作の詳細な説明を行う。ブロック2で
は、スタイラス又はペン・ストローク情報のデータ獲得
が起こる。獲得されたストロークは、手書き情報を認識
するために操作される。図4に示されるようなトレーニ
ング・モードの動作中、獲得された手書き情報が既知の
トレーニング字体を参考にして分析され、この情報を表
わすことを意図した基礎モデルをトレーニングする。使
用中、トレーニング中に得られたモデル・パラメータ
が、認識されるべき未知の手書きに対応する特徴ベクト
ルと共にデコーディング・ブロック6によって使用され
る。
れた手書き認識システムがブロック図で示される。ま
ず、図2の一般化した説明を行い、続いて、図示された
各ブロックの動作の詳細な説明を行う。ブロック2で
は、スタイラス又はペン・ストローク情報のデータ獲得
が起こる。獲得されたストロークは、手書き情報を認識
するために操作される。図4に示されるようなトレーニ
ング・モードの動作中、獲得された手書き情報が既知の
トレーニング字体を参考にして分析され、この情報を表
わすことを意図した基礎モデルをトレーニングする。使
用中、トレーニング中に得られたモデル・パラメータ
が、認識されるべき未知の手書きに対応する特徴ベクト
ルと共にデコーディング・ブロック6によって使用され
る。
【0015】しかる後、認識された手書きは、ブロック
8による使用のために利用される。例えば、認識された
メッセージは、英数字形式に簡単に変換されそして表示
装置上に表示されてもよい。又、認識されたメッセージ
は、例えば、ワード処理システムのようなキーボードか
らメッセージを受ける任意のアプリケーションに与えら
れてもよい。
8による使用のために利用される。例えば、認識された
メッセージは、英数字形式に簡単に変換されそして表示
装置上に表示されてもよい。又、認識されたメッセージ
は、例えば、ワード処理システムのようなキーボードか
らメッセージを受ける任意のアプリケーションに与えら
れてもよい。
【0016】図3は、後述の本発明の方法を実施する手
書き認識システムのブロック図である。例えば、IBM
3090/VF又はRS6000でよいデータ処理シス
テム10は、手書き変換器、代表的には、電子的タブレ
ット14上に書くスタイラス12を使用して、ユーザに
よって作られた文字又はストローク情報を受ける。その
文字又はストローク情報は、電子的タブレット14又は
他の表示装置(図示されてない)上に表示されてもよ
い。コンピュータ10は、トレーニング・モード16又
はデコーディング・モード18で使用可能である。
書き認識システムのブロック図である。例えば、IBM
3090/VF又はRS6000でよいデータ処理シス
テム10は、手書き変換器、代表的には、電子的タブレ
ット14上に書くスタイラス12を使用して、ユーザに
よって作られた文字又はストローク情報を受ける。その
文字又はストローク情報は、電子的タブレット14又は
他の表示装置(図示されてない)上に表示されてもよ
い。コンピュータ10は、トレーニング・モード16又
はデコーディング・モード18で使用可能である。
【0017】トレーニング・モード16又はデコーディ
ング・モード18の何れにおいても、フロント・エンド
・パラメータ抽出ブロック22が使用される。本発明に
よれば、そのフロント・エンド・パラメータ抽出ブロッ
クは、タブレット14の出力から動的(時間に基づい
た)特徴ベクトル及び静的(形状に基づいた又は空間に
基づいた)特徴ベクトルの両方を抽出するために動作可
能である。
ング・モード18の何れにおいても、フロント・エンド
・パラメータ抽出ブロック22が使用される。本発明に
よれば、そのフロント・エンド・パラメータ抽出ブロッ
クは、タブレット14の出力から動的(時間に基づい
た)特徴ベクトル及び静的(形状に基づいた又は空間に
基づいた)特徴ベクトルの両方を抽出するために動作可
能である。
【0018】トレーニング・モード16では、システム
は、動的プロトタイプ構成ブロック24a及び静的プロ
トタイプ構成ブロック24bを含む。デコーディング・
モード18では、システムは、動的見込み算定器28
a、静的見込み算定器28b、全体(組合せ)見込み算
定器28c、及び言語モデル・ブロック26と動作する
デコーダ30を含む。
は、動的プロトタイプ構成ブロック24a及び静的プロ
トタイプ構成ブロック24bを含む。デコーディング・
モード18では、システムは、動的見込み算定器28
a、静的見込み算定器28b、全体(組合せ)見込み算
定器28c、及び言語モデル・ブロック26と動作する
デコーダ30を含む。
【0019】ブロック22乃至30は機能的なプログラ
ム・モジュールとして示されるが、これら機能的ブロッ
クのうちのいくつか又はすべてがソフトウエア形式の代
わりにハードウエア形式で実施可能であることを認識す
べきである。
ム・モジュールとして示されるが、これら機能的ブロッ
クのうちのいくつか又はすべてがソフトウエア形式の代
わりにハードウエア形式で実施可能であることを認識す
べきである。
【0020】フロント・エンド・パラメータ抽出ブロッ
ク22は、動的特徴ベクトル及び静的特徴ベクトルを、
トレーニング・モード16中、それぞれ、プロトタイプ
構成ブロック24a及び24bに、又はデコーディング
・モード18中、それぞれ、見込み算定器ブロック28
a及び28bに与える。
ク22は、動的特徴ベクトル及び静的特徴ベクトルを、
トレーニング・モード16中、それぞれ、プロトタイプ
構成ブロック24a及び24bに、又はデコーディング
・モード18中、それぞれ、見込み算定器ブロック28
a及び28bに与える。
【0021】「動的特徴ベクトル抽出」動的特徴ベクト
ル抽出に関して、パラメータ抽出ブロック22は、次の
ような9つの方法ステップに従って動作する。
ル抽出に関して、パラメータ抽出ブロック22は、次の
ような9つの方法ステップに従って動作する。
【0022】1.書く速度を正規化するためにデータの
プレフィルタリング(prefiltering)を行
う。これは、点の間の間隔が本来弾道的であるタブレッ
ト14により捕捉された時間依存表示を、すべての点が
等間隔である時間独立表示に変換することによって達成
される。等間隔の点にさせるために、必要に応じて線形
補間が行われる。望むならば、更に精巧な補間のため
に、3次スプライン補間を行うこともできる。
プレフィルタリング(prefiltering)を行
う。これは、点の間の間隔が本来弾道的であるタブレッ
ト14により捕捉された時間依存表示を、すべての点が
等間隔である時間独立表示に変換することによって達成
される。等間隔の点にさせるために、必要に応じて線形
補間が行われる。望むならば、更に精巧な補間のため
に、3次スプライン補間を行うこともできる。
【0023】2.トレーニング・データにおける座標
(xn,yn)の各点Pn に対して、Pn の回りのローカ
ル・ペン軌道を表わす特徴エレメントのP次元ベクトル
[Pn]を形成する。(以下、ベクトルは、便宜上、
[ ]で表わす)。例えば、特徴エレメントが次のよう
に与えられるとき、Pに対する良好な選択は6である。
即ち、 (1)水平方向及び垂直方向の増分的変化: Δxn=xn−xn-1,Δyn=yn−yn-1 (2)Pn におけるペン軌道に対する接線の角度の正弦
及び余弦:
(xn,yn)の各点Pn に対して、Pn の回りのローカ
ル・ペン軌道を表わす特徴エレメントのP次元ベクトル
[Pn]を形成する。(以下、ベクトルは、便宜上、
[ ]で表わす)。例えば、特徴エレメントが次のよう
に与えられるとき、Pに対する良好な選択は6である。
即ち、 (1)水平方向及び垂直方向の増分的変化: Δxn=xn−xn-1,Δyn=yn−yn-1 (2)Pn におけるペン軌道に対する接線の角度の正弦
及び余弦:
【0024】
【数5】
【0025】
【数6】
【0026】(3)上記2つのパラメータの増分的変化
は、
は、
【0027】
【数7】
【0028】である。
【0029】3.トレーニング・データにおける座標
(xn,yn)の各点Pn に対して、Pnまでのグローバ
ルなペン軌跡を表わす特徴エレメントのP'次元ベクト
ル[P'n]を形成する。例えば、P’に対する良好な選
択は3であり、特徴エレメントは次のものにより与えら
れる。即ち、 (1)ベースラインからの高さyn 、 (2)ストロークの始めからの幅xn−xi(但し、xi
は現ストロークの第1座標)、 (3)現文字が2ストローク以上から成る場合のストロ
ーク間の距離、である。
(xn,yn)の各点Pn に対して、Pnまでのグローバ
ルなペン軌跡を表わす特徴エレメントのP'次元ベクト
ル[P'n]を形成する。例えば、P’に対する良好な選
択は3であり、特徴エレメントは次のものにより与えら
れる。即ち、 (1)ベースラインからの高さyn 、 (2)ストロークの始めからの幅xn−xi(但し、xi
は現ストロークの第1座標)、 (3)現文字が2ストローク以上から成る場合のストロ
ーク間の距離、である。
【0030】4.トレーニング・データにおける各スト
ロークに対して、そのストロークにおける点Pn のサブ
セット、例えば、Qi を、それらQi がほぼ等間隔であ
るという性質によって決定する。このセットは、各スト
ロークの最初の点及び最後の点を含み、間隔は線の高さ
の適当な関数である。
ロークに対して、そのストロークにおける点Pn のサブ
セット、例えば、Qi を、それらQi がほぼ等間隔であ
るという性質によって決定する。このセットは、各スト
ロークの最初の点及び最後の点を含み、間隔は線の高さ
の適当な関数である。
【0031】5.ステップ2で得られた各ロケーション
P n において、P n に先行するH個のベクトル[pn]、
P n に対応するベクトル[pn]、P n に後続するH個の
ベクトル[pn]を一緒に連結することによってQ次元
の連結ベクトルを構成する。同様に、ステップ4で得ら
れた各ロケーションQnにおいてQiに先行するH' 個の
ベクトル[q' n ]、Qiに対応するベクトル[qi]、Q
iに後続するH' 個のベクトル[q' n ]を一緒に連結す
ることによってQ’次元の連結ベクトルを構成する。こ
れは、次の式が真であれば実現可能である。即ち、 Q=P(2H+1)、Q'=P'(2H'+1) 適切な選択値は、H=H'=20であり、発生値は、Q
=246及びQ'=123である。
P n において、P n に先行するH個のベクトル[pn]、
P n に対応するベクトル[pn]、P n に後続するH個の
ベクトル[pn]を一緒に連結することによってQ次元
の連結ベクトルを構成する。同様に、ステップ4で得ら
れた各ロケーションQnにおいてQiに先行するH' 個の
ベクトル[q' n ]、Qiに対応するベクトル[qi]、Q
iに後続するH' 個のベクトル[q' n ]を一緒に連結す
ることによってQ’次元の連結ベクトルを構成する。こ
れは、次の式が真であれば実現可能である。即ち、 Q=P(2H+1)、Q'=P'(2H'+1) 適切な選択値は、H=H'=20であり、発生値は、Q
=246及びQ'=123である。
【0032】6.ローカル手書き特徴に対応するQ次元
ベクトルすべての平均ベクトル及び共分散マトリクスを
計算する。これらを、それぞれ、Mt (1)及びSt (1)とし
て示す。同様に、グローバル手書き特徴に対応するQ'
次元ベクトルすべての平均ベクトル及び共分散マトリク
スを計算する。これらを、それぞれ、Mt (2)及びSt (2)
として示す。
ベクトルすべての平均ベクトル及び共分散マトリクスを
計算する。これらを、それぞれ、Mt (1)及びSt (1)とし
て示す。同様に、グローバル手書き特徴に対応するQ'
次元ベクトルすべての平均ベクトル及び共分散マトリク
スを計算する。これらを、それぞれ、Mt (2)及びSt (2)
として示す。
【0033】7.n=1、2に対して、St (n)の固有ベ
クトル・マトリクスであるEt (n)と、対応する固有値の
対角マトリクスであるΛ t (n)とを計算する。これらの値
は次のような関係に従うことが注目される。即ち、
クトル・マトリクスであるEt (n)と、対応する固有値の
対角マトリクスであるΛ t (n)とを計算する。これらの値
は次のような関係に従うことが注目される。即ち、
【0034】
【数8】
【0035】但し、Tは、マトリクス転置を示す。従っ
て、Et (n)における先頭の固有ベクトルは、Λt (n)にお
ける先頭の固有値に対応する。
て、Et (n)における先頭の固有ベクトルは、Λt (n)にお
ける先頭の固有値に対応する。
【0036】8.ステップ7からのR1個の先頭固有ベ
クトルを使用して、ステップ5のQ次元特徴ベクトルを
次元R1の空間に投影する。その結果生じたベクトル
[ri (1)]を指定する。R1に対する適切な値は6であ
る。この時点で、Q次元の連結特徴ベクトルに存在する
冗長性は、最も情報的な特徴エレメントに集中すること
によって除去されている。ベクトル[ri (1)]が存在す
る空間は、筆跡空間c(1)と呼ばれる。
クトルを使用して、ステップ5のQ次元特徴ベクトルを
次元R1の空間に投影する。その結果生じたベクトル
[ri (1)]を指定する。R1に対する適切な値は6であ
る。この時点で、Q次元の連結特徴ベクトルに存在する
冗長性は、最も情報的な特徴エレメントに集中すること
によって除去されている。ベクトル[ri (1)]が存在す
る空間は、筆跡空間c(1)と呼ばれる。
【0037】9.同様に、S t (2) について得られるステ
ップ7からのR2個の先頭固有ベクトルを使用して、ス
テップ5のQ'次元の特徴ベクトルを次元R2の空間に投
影し、その結果、ベクトル[ri (2)]を生じる。R2に
対する適切な値は15である。一般的には、(ローカル
特徴)Q次元の連結した特徴ベクトルにおける冗長度よ
りも(グローバル特徴)Q次元の連結特徴ベクトルに存
在する冗長度の方が小さいため、R2>R1であることに
注意すべきである。ベクトル[ri (2)]が存在する空間
は、筆跡空間c(2)と呼ばれる。
ップ7からのR2個の先頭固有ベクトルを使用して、ス
テップ5のQ'次元の特徴ベクトルを次元R2の空間に投
影し、その結果、ベクトル[ri (2)]を生じる。R2に
対する適切な値は15である。一般的には、(ローカル
特徴)Q次元の連結した特徴ベクトルにおける冗長度よ
りも(グローバル特徴)Q次元の連結特徴ベクトルに存
在する冗長度の方が小さいため、R2>R1であることに
注意すべきである。ベクトル[ri (2)]が存在する空間
は、筆跡空間c(2)と呼ばれる。
【0038】プロトタイプ構成ブロック24aは、その
手書き認識方法のうちのステップ10乃至14を実行し
て、(1)文字の適切な部分を表わす筆跡プロトタイ
プ、(2)それら筆跡プロトタイプを結合する方法を示
す混合係数、を生じさせる。この情報は、未知の文字を
決定又は認識するためにデコーディング・モードで使用
される。言語モデル・ブロック26は、所与のテキスト
においてどの文字が最も生じそうかを決定するために使
用可能な言語モデル確率を与える。
手書き認識方法のうちのステップ10乃至14を実行し
て、(1)文字の適切な部分を表わす筆跡プロトタイ
プ、(2)それら筆跡プロトタイプを結合する方法を示
す混合係数、を生じさせる。この情報は、未知の文字を
決定又は認識するためにデコーディング・モードで使用
される。言語モデル・ブロック26は、所与のテキスト
においてどの文字が最も生じそうかを決定するために使
用可能な言語モデル確率を与える。
【0039】動的プロトタイプ構成方法におけるステッ
プ10乃至15を以下で説明する。
プ10乃至15を以下で説明する。
【0040】10.n=1、2に対してこのステップを
繰り返す。ランダム・クラスタ割当で始まり、対応する
Rn次元の筆跡空間における予備的プロトタイプ分布を
得るように、ステップ8及び9において得られた投影ベ
クトル[ri (n)]のユークリッド・クラスタリングを行
う(図21参照)。
繰り返す。ランダム・クラスタ割当で始まり、対応する
Rn次元の筆跡空間における予備的プロトタイプ分布を
得るように、ステップ8及び9において得られた投影ベ
クトル[ri (n)]のユークリッド・クラスタリングを行
う(図21参照)。
【0041】11.n=1、2に対してこのステップを
繰り返す。ステップ10の予備的分布で始まり、最終的
なガウスのプロトタイプ分布を両方の筆跡空間で得るよ
うに、ステップ8及び9において得られた投影ベクトル
[ri (n)]のガウス・クラスタリングを行う。これらプ
ロトタイプ分布をπk (n)と表わし、それぞれのRn次元
の筆跡空間における各プロトタイプ分布の先験的確率P
r(πk (n))を算定するためにクラスタ・サイズを使用
する。
繰り返す。ステップ10の予備的分布で始まり、最終的
なガウスのプロトタイプ分布を両方の筆跡空間で得るよ
うに、ステップ8及び9において得られた投影ベクトル
[ri (n)]のガウス・クラスタリングを行う。これらプ
ロトタイプ分布をπk (n)と表わし、それぞれのRn次元
の筆跡空間における各プロトタイプ分布の先験的確率P
r(πk (n))を算定するためにクラスタ・サイズを使用
する。
【0042】12.n=1、2に対してこのステップを
繰り返す。ステップ11からのガウス分布を使用して、
ステップ8及び9において得られたすべてのベクトル
[ri (n)]に対して値Pr([ri (n)]|πk (n))を計
算する。又、各特徴ベクトルの確率を次式のように算定
する。即ち、
繰り返す。ステップ11からのガウス分布を使用して、
ステップ8及び9において得られたすべてのベクトル
[ri (n)]に対して値Pr([ri (n)]|πk (n))を計
算する。又、各特徴ベクトルの確率を次式のように算定
する。即ち、
【0043】
【数9】
【0044】そして、各ベクトル[r i (n) ]がトレーニ
ング・データ内で考察された語彙におけるどの文字a j
に対して整列するかに注目すべきである。
ング・データ内で考察された語彙におけるどの文字a j
に対して整列するかに注目すべきである。
【0045】13.n=1、2に対してこのステップを
繰り返す。ステップ11及び12の結果を使用して、次
式の値を計算する。即ち、
繰り返す。ステップ11及び12の結果を使用して、次
式の値を計算する。即ち、
【0046】
【数10】
【0047】そして、考察された語彙における文字aj
に対して、各ベクトル[ri (n)]がトレーニング・デー
タと整列することに注目すべきである。
に対して、各ベクトル[ri (n)]がトレーニング・デー
タと整列することに注目すべきである。
【0048】14.n=1、2に対してこのステップを
繰り返す。考察された語彙における各文字ajに対し
て、それと整列した[ri (n)]をすべて集め、その対応
するPr(πk (n)|[ri (n)])を累算する。正規化の
後、これは、即ち、各文字に与えられたそれぞれの筆跡
空間における各プロトタイプ分布の先験的確率Pr(π
k (n)|aj)の算定を行う。これは、トレーニング・フ
ェーズを完成させる。
繰り返す。考察された語彙における各文字ajに対し
て、それと整列した[ri (n)]をすべて集め、その対応
するPr(πk (n)|[ri (n)])を累算する。正規化の
後、これは、即ち、各文字に与えられたそれぞれの筆跡
空間における各プロトタイプ分布の先験的確率Pr(π
k (n)|aj)の算定を行う。これは、トレーニング・フ
ェーズを完成させる。
【0049】15.トレーニング・データと同じそれぞ
れの筆跡空間にテスト特徴ベクトルを作るように、テス
ト・データに関してステップ1乃至5及び8乃至9を繰
り返す。
れの筆跡空間にテスト特徴ベクトルを作るように、テス
ト・データに関してステップ1乃至5及び8乃至9を繰
り返す。
【0050】以下で詳述される静的特徴ベクトル決定が
ない場合、動的特徴ベクトルが表わす最も見込みある文
字を認識するために次のステップ16が使用される。更
に詳しくいえば、認識モード中、手書き認識方法におけ
るステップ16を行う動的見込み算定器28aは、認識
されるべき未知のストローク又は文字から作られた動的
特徴ベクトルをブロック22から受ける。これらの動的
特徴ベクトルは、ブロック24aからの筆跡プロトタイ
プと同じ筆跡空間にあり、従って、特定の各特徴ベクト
ルに対するそれらの各々の寄与度を評価するためにそれ
らの各々に比較される。この情報は、トレーニング中に
作られた混合係数を使用して統合され、各特定の特徴ベ
クトルがアルファベットにおける文字に属するという見
込みを計算する。これは、すべての特徴ベクトルに関し
て、デコーダ30への認識のための候補文字を生じさせ
るために使用可能である。デコーダ30は、最大スコア
に対応するブロック26からの言語モデル確率を全体の
スコアに統合する。そこで、認識された手書きが、デコ
ーダ30の出力32において発生される。その認識され
た手書きは、タブレット14上に表示されてもよく、例
えば、ディスプレイ装置、プリンタ、アプリケーション
・プログラム等でよい利用装置に与えることもできる。
ない場合、動的特徴ベクトルが表わす最も見込みある文
字を認識するために次のステップ16が使用される。更
に詳しくいえば、認識モード中、手書き認識方法におけ
るステップ16を行う動的見込み算定器28aは、認識
されるべき未知のストローク又は文字から作られた動的
特徴ベクトルをブロック22から受ける。これらの動的
特徴ベクトルは、ブロック24aからの筆跡プロトタイ
プと同じ筆跡空間にあり、従って、特定の各特徴ベクト
ルに対するそれらの各々の寄与度を評価するためにそれ
らの各々に比較される。この情報は、トレーニング中に
作られた混合係数を使用して統合され、各特定の特徴ベ
クトルがアルファベットにおける文字に属するという見
込みを計算する。これは、すべての特徴ベクトルに関し
て、デコーダ30への認識のための候補文字を生じさせ
るために使用可能である。デコーダ30は、最大スコア
に対応するブロック26からの言語モデル確率を全体の
スコアに統合する。そこで、認識された手書きが、デコ
ーダ30の出力32において発生される。その認識され
た手書きは、タブレット14上に表示されてもよく、例
えば、ディスプレイ装置、プリンタ、アプリケーション
・プログラム等でよい利用装置に与えることもできる。
【0051】16.筆跡空間c(1)おける[ri (1)]に
よって及び筆跡空間c(2)における[ri (2)]によって
表わされたデータの各フレームf i に対して、ステップ
11において得られたガウス分布及びステップ14にお
いて得られた先験的確率を使用して次のような値を形成
する。即ち、
よって及び筆跡空間c(2)における[ri (2)]によって
表わされたデータの各フレームf i に対して、ステップ
11において得られたガウス分布及びステップ14にお
いて得られた先験的確率を使用して次のような値を形成
する。即ち、
【0052】
【数11】
【0053】即ち、それは、筆跡ラベル・アルファベッ
ト全体をカバーする2つの単一ガウス分布の重み付けさ
れた積である。この式では、アルファは第1コードブッ
クに関する第2コードブックの影響を制御する。アルフ
ァに対する適切な値は,0.7である。それは、フレー
ムの試験的なシーケンスに対する全体のスコアを得るた
めに連続したフレームのスコアを乗算し続け、従って、
動的特徴ベクトルだけしか使用されない場合にデコード
・プロセスを完成させる。
ト全体をカバーする2つの単一ガウス分布の重み付けさ
れた積である。この式では、アルファは第1コードブッ
クに関する第2コードブックの影響を制御する。アルフ
ァに対する適切な値は,0.7である。それは、フレー
ムの試験的なシーケンスに対する全体のスコアを得るた
めに連続したフレームのスコアを乗算し続け、従って、
動的特徴ベクトルだけしか使用されない場合にデコード
・プロセスを完成させる。
【0054】しかし、本発明の重要な観点は、上述の動
的特徴ベクトルを補うために静的特徴ベクトルを使用す
ることである。このように、静的特徴ベクトル及び動的
特徴ベクトルの両方を抽出して使用するためのシステム
10の動作を、本発明の好ましい方法に関して以下で説
明する。
的特徴ベクトルを補うために静的特徴ベクトルを使用す
ることである。このように、静的特徴ベクトル及び動的
特徴ベクトルの両方を抽出して使用するためのシステム
10の動作を、本発明の好ましい方法に関して以下で説
明する。
【0055】「静的特徴ベクトル抽出」ステップ1乃至
11の説明のために、図10のフローチャートを参照す
る。その場合、ステップ1はブロック10−1で表さ
れ、ステップ2はブロック10−2で表され、そして他
のブロックも、それぞれ、同様に表される。
11の説明のために、図10のフローチャートを参照す
る。その場合、ステップ1はブロック10−1で表さ
れ、ステップ2はブロック10−2で表され、そして他
のブロックも、それぞれ、同様に表される。
【0056】1.3次スプラインによる補間によって、
タブレット14により得られたxトレース及びyトレー
スの分解能を増大する。このステップは、前述の動的特
徴ベクトル抽出方法のステップ1に対応するものであ
り、それと同様の方法で遂行可能である。
タブレット14により得られたxトレース及びyトレー
スの分解能を増大する。このステップは、前述の動的特
徴ベクトル抽出方法のステップ1に対応するものであ
り、それと同様の方法で遂行可能である。
【0057】続くステップ2乃至11は、静的特徴ベク
トルを抽出する時のフロント・エンド・パラメータ抽出
ブロック22、特に、図4のブロック36a、36bの
動作を説明する。又、図9に示されたサンプル手書き文
字「a」も参照する。
トルを抽出する時のフロント・エンド・パラメータ抽出
ブロック22、特に、図4のブロック36a、36bの
動作を説明する。又、図9に示されたサンプル手書き文
字「a」も参照する。
【0058】2.昇順のx値によってx、yの対を分類
する。これは、左から右への構成を入力テキストに強い
る。代わりに、降順のx値に従って分類することによっ
て、右から左への構成を入力テキストに強いることもで
きる。
する。これは、左から右への構成を入力テキストに強い
る。代わりに、降順のx値に従って分類することによっ
て、右から左への構成を入力テキストに強いることもで
きる。
【0059】3.x方向に沿って、δxの間隔でイメー
ジをサンプルする。これは、フォーム{xi}のシーケ
ンス(但し、xi=xi-1+δx)を生じる。
ジをサンプルする。これは、フォーム{xi}のシーケ
ンス(但し、xi=xi-1+δx)を生じる。
【0060】4.各サンプル点xiに対して、そのサン
プルの中心に置かれたスライスの幅lwを定義する。こ
の幅内のすべてのy値をそのサンプルと関連付ける。l
wに対する適切な値は、1.5δxである。これは、そ
のフォームのベクトル[y(xi)]を生じる。
プルの中心に置かれたスライスの幅lwを定義する。こ
の幅内のすべてのy値をそのサンプルと関連付ける。l
wに対する適切な値は、1.5δxである。これは、そ
のフォームのベクトル[y(xi)]を生じる。
【0061】5.y値の範囲をny個の等間隔レベルlk
に量子化する。各xiに対して、それに関連したすべて
のyをこれらレベルの1つに割り当てる。即ち、 y∈lk⇔lk-1Δl<y<lkΔl 但し、Δl=(ymax−ymin)/nyである。ny
に対する適切な値は8である。
に量子化する。各xiに対して、それに関連したすべて
のyをこれらレベルの1つに割り当てる。即ち、 y∈lk⇔lk-1Δl<y<lkΔl 但し、Δl=(ymax−ymin)/nyである。ny
に対する適切な値は8である。
【0062】6.各xiに対して、少なくとも1つのy
がlkに割り当てられた場合に、k番目のエレメントが
1になり、そうでない場合には0になるように、長さn
yの特徴ベクトル[fx(xi)]を構成する。これは、
グリッド・サイズnyを持ったスライスのビットマップ
を構成するものとして見ることができる。fx(xi)
の各エレメントに対して3つの可能な状態を定義するこ
とによって、静的枠組み内のいくつかの動的情報をエン
コードすることも可能であるということに注目すべきで
ある。即ち、点の不存在の場合には(0,0)、左から
右へのストローク方向を持った点に対しては(−d,
1)、及び右から左へのストローク方向を持った点に対
しては(d,1)である。これは、dが1/3の平方根
よりも小さい場合には意味がある。dの選択は、時間的
情報が利用される程度に影響を与える。このビットマッ
プの3状態パラメータ化の結果、性能が向上する。この
表示は、空間的情報及び時間的情報の両方を同時に具現
化する。この方法でストローク方向に関する付加的情報
をエンコードすること、例えば、ストロークの角度を数
量化(フリーマン・コーディング)することも可能であ
る。
がlkに割り当てられた場合に、k番目のエレメントが
1になり、そうでない場合には0になるように、長さn
yの特徴ベクトル[fx(xi)]を構成する。これは、
グリッド・サイズnyを持ったスライスのビットマップ
を構成するものとして見ることができる。fx(xi)
の各エレメントに対して3つの可能な状態を定義するこ
とによって、静的枠組み内のいくつかの動的情報をエン
コードすることも可能であるということに注目すべきで
ある。即ち、点の不存在の場合には(0,0)、左から
右へのストローク方向を持った点に対しては(−d,
1)、及び右から左へのストローク方向を持った点に対
しては(d,1)である。これは、dが1/3の平方根
よりも小さい場合には意味がある。dの選択は、時間的
情報が利用される程度に影響を与える。このビットマッ
プの3状態パラメータ化の結果、性能が向上する。この
表示は、空間的情報及び時間的情報の両方を同時に具現
化する。この方法でストローク方向に関する付加的情報
をエンコードすること、例えば、ストロークの角度を数
量化(フリーマン・コーディング)することも可能であ
る。
【0063】7.各xiに対して、長さ1のもう1つの
特徴ベクトル、fcg(xi)を構成する。即ち、
特徴ベクトル、fcg(xi)を構成する。即ち、
【0064】
【数12】
【0065】但し、合計は、xiと関連したスライス内
のすべてのyに関するものである。
のすべてのyに関するものである。
【0066】8.各点がΔxの間隔を開けられるような
{xi}の点のサブセットを決定する。これらの点を
{xi}として定義する。例えば、Δxは、1.5δxで
あるとみなされる。
{xi}の点のサブセットを決定する。これらの点を
{xi}として定義する。例えば、Δxは、1.5δxで
あるとみなされる。
【0067】9.各ロケーションxiにおいて、現在の
点Xiに先行するHx個の特徴ベクトルfx、現在の点に
おける特徴ベクトル[f(Xi)]、及びXiに後続する
Hx個の特徴ベクトルを一緒に連結することによってN
次元の連結ベクトルを構成する。これは、次のような長
さNの連結特徴ベクトル[F(xi)]を生じる。即
ち、 N=ny(2Hx+1) Hxに対する良好な選択は9である。
点Xiに先行するHx個の特徴ベクトルfx、現在の点に
おける特徴ベクトル[f(Xi)]、及びXiに後続する
Hx個の特徴ベクトルを一緒に連結することによってN
次元の連結ベクトルを構成する。これは、次のような長
さNの連結特徴ベクトル[F(xi)]を生じる。即
ち、 N=ny(2Hx+1) Hxに対する良好な選択は9である。
【0068】10.[Fcg(xi)]を得るためにfcg
(xi)に関してステップ9を繰り返す。ステップ9の
完了時には、入力ビットマップはx軸次元で走査された
ことになる。次に、y軸次元で走査するように、ステッ
プ11が実行される。
(xi)に関してステップ9を繰り返す。ステップ9の
完了時には、入力ビットマップはx軸次元で走査された
ことになる。次に、y軸次元で走査するように、ステッ
プ11が実行される。
【0069】11.y軸に対してステップ2乃至6及び
8乃至9を繰り返す。即ち、y軸に沿って等間隔でx方
向のスライスを形成する。δy及びΔyの対応する値
は、それぞれ、δx及びΔxのそれに等しい。そのスラ
イスの幅も等しい。垂直方向スライスよりも少ないレベ
ルに水平方向スライスを量子化することが好ましいこと
がわかった。Hyが11に選択される場合、nに対する
例示的値は6である。これは、類似の特徴ベクトル[F
y(Yi)]を生じる。
8乃至9を繰り返す。即ち、y軸に沿って等間隔でx方
向のスライスを形成する。δy及びΔyの対応する値
は、それぞれ、δx及びΔxのそれに等しい。そのスラ
イスの幅も等しい。垂直方向スライスよりも少ないレベ
ルに水平方向スライスを量子化することが好ましいこと
がわかった。Hyが11に選択される場合、nに対する
例示的値は6である。これは、類似の特徴ベクトル[F
y(Yi)]を生じる。
【0070】動的特徴ベクトル抽出方法のステップ6乃
至14に関して上述した態様と同じ態様で、3つのクラ
スの特徴ベクトル又はコードブックの各々に対してステ
ップ12乃至19が行われる。
至14に関して上述した態様と同じ態様で、3つのクラ
スの特徴ベクトル又はコードブックの各々に対してステ
ップ12乃至19が行われる。
【0071】12.所与のコードブックのすべての連結
ベクトルの平均ベクトル及び共分散マトリクスを計算す
る。これらを、それぞれ、Md及びSdとして表わす。
ベクトルの平均ベクトル及び共分散マトリクスを計算す
る。これらを、それぞれ、Md及びSdとして表わす。
【0072】13.Sdの固有ベクトル・マトリクスで
あるEdと、対応する固有値の対角マトリクスであるΛd
とを計算する。これらの数量は次のような関係に従うこ
とに注意すべきである。即ち、 Sd=EdΛdEd T 但し、Tは転置を表わす。その結果、Edにおける先頭の
固有ベクトルは、Λdにおける先頭の固有値に対応す
る。
あるEdと、対応する固有値の対角マトリクスであるΛd
とを計算する。これらの数量は次のような関係に従うこ
とに注意すべきである。即ち、 Sd=EdΛdEd T 但し、Tは転置を表わす。その結果、Edにおける先頭の
固有ベクトルは、Λdにおける先頭の固有値に対応す
る。
【0073】14.ステップ13からのR個の先頭固有
値を使用して、ステップ9のN次元の特徴ベクトルを次
元Rの空間に投影する。その結果生じたベクトル
[ri]を呼び出す。この時点で、N次元の連結特徴ベ
クトルに存在する冗長度は、最も情報量のある特徴エレ
メント上に集中することによって減少している。
値を使用して、ステップ9のN次元の特徴ベクトルを次
元Rの空間に投影する。その結果生じたベクトル
[ri]を呼び出す。この時点で、N次元の連結特徴ベ
クトルに存在する冗長度は、最も情報量のある特徴エレ
メント上に集中することによって減少している。
【0074】15.ランダム・クラスタ割当で始まっ
て、ステップ14において得られた投影ベクトル
[ri]のユークリッド・クラスタリングを行い、筆跡
空間と呼ばれるR次元の空間において予備的プロトタイ
プ分布を得る。
て、ステップ14において得られた投影ベクトル
[ri]のユークリッド・クラスタリングを行い、筆跡
空間と呼ばれるR次元の空間において予備的プロトタイ
プ分布を得る。
【0075】16.ステップ15の予備的プロトタイプ
分布で始まって、ステップ14において得られた投影ベ
クトルのガウス・クラスタリングを行い、筆跡空間にお
いて最終的なガウス・プロトタイプ分布を得るようにす
る。これらプロトタイプ分布をg k として表わし、各プ
ロトタイプ分布の先験的確率Pr(g k )を算定するた
めにクラスタ・サイズを使用する。
分布で始まって、ステップ14において得られた投影ベ
クトルのガウス・クラスタリングを行い、筆跡空間にお
いて最終的なガウス・プロトタイプ分布を得るようにす
る。これらプロトタイプ分布をg k として表わし、各プ
ロトタイプ分布の先験的確率Pr(g k )を算定するた
めにクラスタ・サイズを使用する。
【0076】17.ステップ16からのガウス分布を使
用して、ステップ14において得られたすべてのベクト
ル[ri]に対して値Pr([ri]|g k )を決定す
る。又、各特徴ベクトルの確率も次のように算定する。
即ち、
用して、ステップ14において得られたすべてのベクト
ル[ri]に対して値Pr([ri]|g k )を決定す
る。又、各特徴ベクトルの確率も次のように算定する。
即ち、
【0077】
【数13】
【0078】但し、クラスタの合計数はKであると仮定
する。
する。
【0079】18.ステップ16及び17の結果を使用
して、次のように値を計算する。即ち、
して、次のように値を計算する。即ち、
【0080】
【数14】
【0081】そして、各フレーム[ri]におけるどの
文字ajがトレーニング・データにおいて対向している
かを示す。
文字ajがトレーニング・データにおいて対向している
かを示す。
【0082】19.考察された語彙における各文字aj
に対して、それと整列しているすべての[ri]を集
め、対応するPr(g k |[ri])を累算する。正規化
の後、これはPr(g k |aj)、即ち、各文字ajを与
えられた各プロトタイプ分布の先験的確率の算定を行
う。
に対して、それと整列しているすべての[ri]を集
め、対応するPr(g k |[ri])を累算する。正規化
の後、これはPr(g k |aj)、即ち、各文字ajを与
えられた各プロトタイプ分布の先験的確率の算定を行
う。
【0083】ステップ19の実行は、トレーニング・フ
ェーズの終了を表わす。
ェーズの終了を表わす。
【0084】「デコード・フェーズ」 1.上述の態様と同じ態様で各クラスの特徴ベクトルF
x 、F y 、及びF cg を生成するために所与の書き手につい
ての到来データを連結する。これらのクラスは、動的特
徴ベクトル抽出方法に関して上述したコードブックに類
似している。以下のステップ2乃至4が各コードブック
に対して行われる。
x 、F y 、及びF cg を生成するために所与の書き手につい
ての到来データを連結する。これらのクラスは、動的特
徴ベクトル抽出方法に関して上述したコードブックに類
似している。以下のステップ2乃至4が各コードブック
に対して行われる。
【0085】2.トレーニング・フェーズのステップ1
3において計算された固有ベクトルを使用して、ステッ
プ14におけるように低次元空間に投影する。これは、
トレーニング・データと同じ筆跡空間にテスト特徴ベク
トルを生じさせる。
3において計算された固有ベクトルを使用して、ステッ
プ14におけるように低次元空間に投影する。これは、
トレーニング・データと同じ筆跡空間にテスト特徴ベク
トルを生じさせる。
【0086】3.ステップ19からの前の確率及びステ
ップ16からのガウス分布を使用して、前のステップに
おいて得られたすべてのベクトルに対し、筆跡ラベル・
アルファベット全体をカバーする単一のガウス混合分布
を決定する。これは、xスライスと関連したコードブッ
ク、即ち、[Fx]に対して次の式で示される。即ち、
ップ16からのガウス分布を使用して、前のステップに
おいて得られたすべてのベクトルに対し、筆跡ラベル・
アルファベット全体をカバーする単一のガウス混合分布
を決定する。これは、xスライスと関連したコードブッ
ク、即ち、[Fx]に対して次の式で示される。即ち、
【0087】
【数15】
【0088】4.分析中のイメージ・データのブロック
における連続フレームのスコアを乗算することによっ
て、そのブロックに対する全体の見込みスコアが得ら
れ、従って、所与のコードブックに対するデコード・プ
ロセスを完了する。即ち、
における連続フレームのスコアを乗算することによっ
て、そのブロックに対する全体の見込みスコアが得ら
れ、従って、所与のコードブックに対するデコード・プ
ロセスを完了する。即ち、
【0089】
【数16】
【0090】但し、sdは、イメージ・データのブロッ
クを表わす。
クを表わす。
【0091】5.文字ajを与えられたブロックsdに対
する最終的な確率が次の式により与えられる。即ち、
する最終的な確率が次の式により与えられる。即ち、
【0092】
【数17】
【0093】「静的スコア及び動的スコアの結合」 A.不連続文字の場合(図1のW1及びW2) この方法においてセグメント化が暗黙のものである場
合、静的認識装置の出力は、文字レベルで未知の文字U
全体の事後確率を算定するために使用できる。前述のよ
うに、sdはその文字全体を取り囲む。これは、2つの
情報ソースが独立しているという仮定により、動的特徴
を使用して未知の文字の事後確率と結合可能である。付
加的情報は、独立のコードブックから生じたものとして
扱われる。従って、それは次のようになる。即ち、
合、静的認識装置の出力は、文字レベルで未知の文字U
全体の事後確率を算定するために使用できる。前述のよ
うに、sdはその文字全体を取り囲む。これは、2つの
情報ソースが独立しているという仮定により、動的特徴
を使用して未知の文字の事後確率と結合可能である。付
加的情報は、独立のコードブックから生じたものとして
扱われる。従って、それは次のようになる。即ち、
【0094】
【数18】
【0095】但し、Pr(Ud|aj)は、前述のデコー
ド・フェーズのステップ5におけるように決定され、そ
して、Pr(Ut|aj)は、動的方法のステップ16に
おいて説明したように決定される。静的寄与及び動的寄
与を等しく重み付けする必要がないことに注意すべきで
ある。
ド・フェーズのステップ5におけるように決定され、そ
して、Pr(Ut|aj)は、動的方法のステップ16に
おいて説明したように決定される。静的寄与及び動的寄
与を等しく重み付けする必要がないことに注意すべきで
ある。
【0096】B.無制約文字の場合 更に一般的な場合、フロント・エンド・パラメータ抽出
ブロック22の静的部分及び動的部分の両方に対して自
然な入力ストリームのセグメント化を得ることは一般に
は可能でない。そこで、以下のような技法が使用可能で
ある。
ブロック22の静的部分及び動的部分の両方に対して自
然な入力ストリームのセグメント化を得ることは一般に
は可能でない。そこで、以下のような技法が使用可能で
ある。
【0097】1.すべての利用可能な入力フレームwt
に関して、動的特徴ベクトル抽出の場合に対し上述した
ように動的デコードを行い、そしてPr(wt|aj)∀
j、∀tを得る。
に関して、動的特徴ベクトル抽出の場合に対し上述した
ように動的デコードを行い、そしてPr(wt|aj)∀
j、∀tを得る。
【0098】2.静的文字モデルを使用して、各ブロッ
クに対しPr(sd|aj)∀jを生成するブロックによ
りイメージ・データを処理する。
クに対しPr(sd|aj)∀jを生成するブロックによ
りイメージ・データを処理する。
【0099】3.各ブロックsに対して、そのイメージ
・ブロックにあるフレームwtのすべてを識別する。
・ブロックにあるフレームwtのすべてを識別する。
【0100】4.次の式を定義する。即ち、
【0101】
【数19】
【0102】但し、Tは、sにおけるwtのフレームの
数である。
数である。
【0103】5.ajを与えられたイメージ・ブロック
sの事後確率は、次のように書くことができる。即ち、
sの事後確率は、次のように書くことができる。即ち、
【0104】
【数20】
【0105】図3に概略的に示されたフロント・エンド
・パラメータ抽出ブロック22の詳細なブロック図を示
す図4を参照する。パラメータ抽出ブロック22は、2
つのプロセッサ22a及び22bを含み、そして、プロ
セッサ22aが動的パラメータ抽出を行い、プロセッサ
22bが静的パラメータ抽出を行うことにより、それら
プロセッサは、互いに並列的に動作する。まず、動的プ
ロセッサ22aの動作を説明する。
・パラメータ抽出ブロック22の詳細なブロック図を示
す図4を参照する。パラメータ抽出ブロック22は、2
つのプロセッサ22a及び22bを含み、そして、プロ
セッサ22aが動的パラメータ抽出を行い、プロセッサ
22bが静的パラメータ抽出を行うことにより、それら
プロセッサは、互いに並列的に動作する。まず、動的プ
ロセッサ22aの動作を説明する。
【0106】手書きの各サンプルされた点は、座標xn
及びynによって定義された点により表わされる。この
座標対は、前述の動的手書き認識方法及び静的手書き認
識方法の両方のステップ1を行うプレフィルタリング・
ブロック34に与えられる。点は、図5に示されるよう
に弾道的に間隔を開けられる。即ち、それら点の間隔
は、書き手が現在の文字を形成するために使用した書き
速度の関数である。種々の理由のため、書き手は、自分
の速度、即ち、書き速度に一貫性がないことが多く、そ
れが手書き認識おける高いエラー率に通じることがあ
る。プレフィルタリング・ブロック34は、図6に示さ
れた文字を構成する等間隔の点xm及びymを与えるよう
に図5の点を正規化する。点xm及びymは、動的パラメ
ータ抽出ブロック36aに与えられ、そしてブロック3
6aは、ベクトル[vm]を与えるための動的手書き認
識方法のステップ2及び3を行う。このパラメータ抽出
の詳細は、図11乃至14に関連して後述される。
及びynによって定義された点により表わされる。この
座標対は、前述の動的手書き認識方法及び静的手書き認
識方法の両方のステップ1を行うプレフィルタリング・
ブロック34に与えられる。点は、図5に示されるよう
に弾道的に間隔を開けられる。即ち、それら点の間隔
は、書き手が現在の文字を形成するために使用した書き
速度の関数である。種々の理由のため、書き手は、自分
の速度、即ち、書き速度に一貫性がないことが多く、そ
れが手書き認識おける高いエラー率に通じることがあ
る。プレフィルタリング・ブロック34は、図6に示さ
れた文字を構成する等間隔の点xm及びymを与えるよう
に図5の点を正規化する。点xm及びymは、動的パラメ
ータ抽出ブロック36aに与えられ、そしてブロック3
6aは、ベクトル[vm]を与えるための動的手書き認
識方法のステップ2及び3を行う。このパラメータ抽出
の詳細は、図11乃至14に関連して後述される。
【0107】ベクトル[vm]は、連結ベクトル[Si]
を与えるための動的手書き認識方法のステップ4及び5
を遂行するウインドウイング・ブロック38aに与えら
れる。連結ベクトル[Si]を与える方法の詳細は、図
14乃至16に関連して後述される。連結ベクトル[S
i]は、特徴ベクトル[ri]を生じさせるための動的手
書き認識方法のステップ6乃至9を遂行する投影ブロッ
ク40aに与えられる。これは、連結パラメータ・ベク
トルにおける冗長性を除去する。ブロック40aの機能
の詳細は、図17に関連して説明される。投影ブロック
40aは、連結ブロック[Si]に応答して特徴ベクト
ル[ri]与える。その特徴ベクトル[ri]は、図3に
関連して前述したように、動的プロトタイプ構成ブロッ
ク24a及び動的見込み算定器28aに与えられる。投
影ブロック40aの詳細は、図17のフローチャートに
関連して説明される。
を与えるための動的手書き認識方法のステップ4及び5
を遂行するウインドウイング・ブロック38aに与えら
れる。連結ベクトル[Si]を与える方法の詳細は、図
14乃至16に関連して後述される。連結ベクトル[S
i]は、特徴ベクトル[ri]を生じさせるための動的手
書き認識方法のステップ6乃至9を遂行する投影ブロッ
ク40aに与えられる。これは、連結パラメータ・ベク
トルにおける冗長性を除去する。ブロック40aの機能
の詳細は、図17に関連して説明される。投影ブロック
40aは、連結ブロック[Si]に応答して特徴ベクト
ル[ri]与える。その特徴ベクトル[ri]は、図3に
関連して前述したように、動的プロトタイプ構成ブロッ
ク24a及び動的見込み算定器28aに与えられる。投
影ブロック40aの詳細は、図17のフローチャートに
関連して説明される。
【0108】図5の弾道的間隔の文字がプレフィルタリ
ング・ブロック34(図4)によって正規化されて図6
の等間隔の文字を生じさせる方法の詳細を、手書き認識
方法のステップ1が行われる方法を説明する図7及び8
に関連して説明する。図7は、図5の上部1/4の曲線
部分を表わす。まず、原始の生の点(ドットにより表わ
される)相互間の補間を行うことによって点の密度が増
加される。この結果、一連の点は原始の生の点(・)及
び補間された点(|)のセットを構成する。そこで、点
相互間の等間隔は電子的タブレット14(図3)上に示
された2つの画素相互間の距離に適切に関連した距離r
であるものと先験的に決定することによって、フィルタ
リングが達成される。図7において、これは、フィルタ
リングの後、X(56における)によって表わされた一
連の点を生じさせる。生の補間された点は、等間隔の整
数の点nにあると考えられ、フィルタされた点は、等間
隔の整数の点mにあると考えられる。
ング・ブロック34(図4)によって正規化されて図6
の等間隔の文字を生じさせる方法の詳細を、手書き認識
方法のステップ1が行われる方法を説明する図7及び8
に関連して説明する。図7は、図5の上部1/4の曲線
部分を表わす。まず、原始の生の点(ドットにより表わ
される)相互間の補間を行うことによって点の密度が増
加される。この結果、一連の点は原始の生の点(・)及
び補間された点(|)のセットを構成する。そこで、点
相互間の等間隔は電子的タブレット14(図3)上に示
された2つの画素相互間の距離に適切に関連した距離r
であるものと先験的に決定することによって、フィルタ
リングが達成される。図7において、これは、フィルタ
リングの後、X(56における)によって表わされた一
連の点を生じさせる。生の補間された点は、等間隔の整
数の点nにあると考えられ、フィルタされた点は、等間
隔の整数の点mにあると考えられる。
【0109】図8に関して、ブロック42では、ストロ
ークの第1(生の)点48におけるn=1の位置は、第
1のフィルタされた点とも考えられ、m=1として指定
される。n=2におけるそのストロークの第2の点50
は、フィルタリングのためにテストされるべき第1の点
である。ブロック44において、点m及びnの間の(ユ
ークリッド)距離が、次のような関係に従って決定され
る。即ち、 距離=|xn−xm|2+|yn−ym|2 ブロック46において、決定された距離がRよりも大き
いかどうかに関して決定が行われる。図7に関して、点
m=1は点48であり、点n=2は点50である。距離
が図7におけるRよりも小さいことは明らかであり、従
って、その点は拒否され、そしてその方法は、nが3に
インクレメントされて点54となるブロック52に進
む。距離が再びブロック44において計算され、そして
ブロック46においてRと比較される。最終的には、距
離はRよりも大きくなり、従って、点56が受け付けら
れる(ブロック58においてmがnに等しくされる)。
ブロック60において、点(xn,yn)はフィルタされ
た点(xm,ym)、即ち、12番目の点である点56と
して記憶される。ブロック62において、nは1だけイ
ンクレメントされ、上述のように生の補間された点が扱
われるブロック44への戻りが行われる。
ークの第1(生の)点48におけるn=1の位置は、第
1のフィルタされた点とも考えられ、m=1として指定
される。n=2におけるそのストロークの第2の点50
は、フィルタリングのためにテストされるべき第1の点
である。ブロック44において、点m及びnの間の(ユ
ークリッド)距離が、次のような関係に従って決定され
る。即ち、 距離=|xn−xm|2+|yn−ym|2 ブロック46において、決定された距離がRよりも大き
いかどうかに関して決定が行われる。図7に関して、点
m=1は点48であり、点n=2は点50である。距離
が図7におけるRよりも小さいことは明らかであり、従
って、その点は拒否され、そしてその方法は、nが3に
インクレメントされて点54となるブロック52に進
む。距離が再びブロック44において計算され、そして
ブロック46においてRと比較される。最終的には、距
離はRよりも大きくなり、従って、点56が受け付けら
れる(ブロック58においてmがnに等しくされる)。
ブロック60において、点(xn,yn)はフィルタされ
た点(xm,ym)、即ち、12番目の点である点56と
して記憶される。ブロック62において、nは1だけイ
ンクレメントされ、上述のように生の補間された点が扱
われるブロック44への戻りが行われる。
【0110】図11乃至図14は、動的手書き認識アル
ゴリズムのステップ2及び3を行う図4のブロック36
aにおいて、パラメータ・ベクトル[vm]を与えるた
めのパラメータ抽出を取り出す方法を示す。図11はロ
ーカル・パラメータ抽出を示し、図12はローカル・パ
ラメータ・ベクトルを示し、図13はグローバル・パラ
メータ抽出を示し、そして、図14はグローバル・パラ
メータ・ベクトルを示す。ローカル・パラメータ・ベク
トルには5つのローカル座標があり、そしてグローバル
・パラメータ・ベクトルには4つのグローバル座標があ
り、従って、合計9つの座標がある。ローカル・パラメ
ータ・ベクトルに対して、前の点66及び67及び次の
点68及び69に関する現在の点64に関して計算が行
われる。ローカル・パラメータ・ベクトルに対する特定
の計算が図12に示される。グローバル・パラメータ・
ベクトルに対して、ベースライン65に関する現在の点
64、その文字の初期点66、第1ストロークの最後の
点67、及び第2のストロークの最初の点68に関する
計算が行われる。グローバル・パラメータ・ベクトルに
対する特定の計算が図14に示される。一般性が失われ
ない場合、次の記述は、1つのコードブックだけ、即
ち、ローカル・パラメータ・ベクトル又はグローバル・
パラメータ・ベクトルのどちらか一方に対する手書き認
識方法を説明する。
ゴリズムのステップ2及び3を行う図4のブロック36
aにおいて、パラメータ・ベクトル[vm]を与えるた
めのパラメータ抽出を取り出す方法を示す。図11はロ
ーカル・パラメータ抽出を示し、図12はローカル・パ
ラメータ・ベクトルを示し、図13はグローバル・パラ
メータ抽出を示し、そして、図14はグローバル・パラ
メータ・ベクトルを示す。ローカル・パラメータ・ベク
トルには5つのローカル座標があり、そしてグローバル
・パラメータ・ベクトルには4つのグローバル座標があ
り、従って、合計9つの座標がある。ローカル・パラメ
ータ・ベクトルに対して、前の点66及び67及び次の
点68及び69に関する現在の点64に関して計算が行
われる。ローカル・パラメータ・ベクトルに対する特定
の計算が図12に示される。グローバル・パラメータ・
ベクトルに対して、ベースライン65に関する現在の点
64、その文字の初期点66、第1ストロークの最後の
点67、及び第2のストロークの最初の点68に関する
計算が行われる。グローバル・パラメータ・ベクトルに
対する特定の計算が図14に示される。一般性が失われ
ない場合、次の記述は、1つのコードブックだけ、即
ち、ローカル・パラメータ・ベクトル又はグローバル・
パラメータ・ベクトルのどちらか一方に対する手書き認
識方法を説明する。
【0111】特徴事象をデータから抽出する方法を示す
ために、図4のウインドウイング・ブロック38aの詳
細を図15及び16に関連して説明する。図8における
アルゴリズムと同じアルゴリズムを使用するがRの値が
異なるものを使用して、少数のほぼ等距離の特徴点が決
定され、そして、パラメータ・ベクトルがそれらの点で
連結される。各点で連結されるべきパラメータ・ベクト
ルの数(2H+1)は、先験的に決定され、これが連結
次元Q=(2H+1)Pを指定する。
ために、図4のウインドウイング・ブロック38aの詳
細を図15及び16に関連して説明する。図8における
アルゴリズムと同じアルゴリズムを使用するがRの値が
異なるものを使用して、少数のほぼ等距離の特徴点が決
定され、そして、パラメータ・ベクトルがそれらの点で
連結される。各点で連結されるべきパラメータ・ベクト
ルの数(2H+1)は、先験的に決定され、これが連結
次元Q=(2H+1)Pを指定する。
【0112】図15を参照すると、特徴点がドットによ
り示され、ウインドウの中心がXによって示される。そ
れらドットは点kで参照され、Xはインデックスiによ
り点kiで参照される。図16に関して、ブロック70
では、i及びカウンタjはそれぞれ1に等しく設定され
る。ブロック72において、kはk i-H に設定され、そ
して、ブロック74において、(次元Pの)対応するパ
ラメータ・ベクトル[vk]が得られる。そこで、ブロ
ック76において、(2H+1)[vk]がわかったか
どうかの決定が行われる。その結果がイエスである場
合、ブロック78において、jは1に再初期設定され、
iは1だけインクレメントされる。そして、前述のよう
に、その手順が繰替えされる。それがノーである場合、
[vk]は位置(j−1)P+1において開始する
[vi]に付加される。k及びjは、共に、ブロック8
2において1だけインクレメントされ、そして次のvk
を得るためにブロック74への戻りが行われる。手順
は、前述のように繰り返される。
り示され、ウインドウの中心がXによって示される。そ
れらドットは点kで参照され、Xはインデックスiによ
り点kiで参照される。図16に関して、ブロック70
では、i及びカウンタjはそれぞれ1に等しく設定され
る。ブロック72において、kはk i-H に設定され、そ
して、ブロック74において、(次元Pの)対応するパ
ラメータ・ベクトル[vk]が得られる。そこで、ブロ
ック76において、(2H+1)[vk]がわかったか
どうかの決定が行われる。その結果がイエスである場
合、ブロック78において、jは1に再初期設定され、
iは1だけインクレメントされる。そして、前述のよう
に、その手順が繰替えされる。それがノーである場合、
[vk]は位置(j−1)P+1において開始する
[vi]に付加される。k及びjは、共に、ブロック8
2において1だけインクレメントされ、そして次のvk
を得るためにブロック74への戻りが行われる。手順
は、前述のように繰り返される。
【0113】図17を参照すると、動的手書き認識方法
のステップ6乃至9を行う図4の投影ブロック40aの
機能が詳細に示される。その投影ブロックは、ウインド
ウイング・ブロック38からの連結パラメータ・ベクト
ルにおける冗長性を取り除くために利用される。ブロッ
ク71において、すべての連結されたベクトルに対する
共分散マトリクスが計算され、ブロック75において、
関連の固有値及び固有ベクトルが主要コンポーネント分
析を通して見つけられる。ブロック75のR先頭固有値
及び固有ベクトルを使用して、ブロック77において、
筆跡空間と呼ばれる更に小さい次元のサブスペース上に
投影され、その結果、投影されたベクトル[ri]を生
じる。共分散マトリクスを計算する方法は、1989年
にボルチモアのジョン・ホプキンス大学出版における
J.H.ゴーラブ及びC.F.バンローンよる「マトリ
クス計算」に開示されている。この参照文献は、ブロッ
ク73において主要コンポーネント分析を行う方法及び
ブロック77において、すべてのSiを投影する方法も
教示している。
のステップ6乃至9を行う図4の投影ブロック40aの
機能が詳細に示される。その投影ブロックは、ウインド
ウイング・ブロック38からの連結パラメータ・ベクト
ルにおける冗長性を取り除くために利用される。ブロッ
ク71において、すべての連結されたベクトルに対する
共分散マトリクスが計算され、ブロック75において、
関連の固有値及び固有ベクトルが主要コンポーネント分
析を通して見つけられる。ブロック75のR先頭固有値
及び固有ベクトルを使用して、ブロック77において、
筆跡空間と呼ばれる更に小さい次元のサブスペース上に
投影され、その結果、投影されたベクトル[ri]を生
じる。共分散マトリクスを計算する方法は、1989年
にボルチモアのジョン・ホプキンス大学出版における
J.H.ゴーラブ及びC.F.バンローンよる「マトリ
クス計算」に開示されている。この参照文献は、ブロッ
ク73において主要コンポーネント分析を行う方法及び
ブロック77において、すべてのSiを投影する方法も
教示している。
【0114】筆跡空間は、筆跡プロトタイプを生じさせ
るために、図3のプロトタイプ構成ブロック24を詳述
した図18及び19に示されるように区分される。ユー
クリッド・クラスタリングを行うために、特徴ベクトル
がブロック79に与えられる。ブロック79の詳細は、
図19及び20に関連して説明される。ユークリッド・
クラスタリングの結果はブロック81に与えられ、プロ
トタイプ分布πkを与えるためにガウス・クラスタリン
グを行う。ブロック81の詳細は、図21に関連して説
明される。図18乃至21は、動的手書き認識方法のス
テップ10及び11を行う方法を詳述する。
るために、図3のプロトタイプ構成ブロック24を詳述
した図18及び19に示されるように区分される。ユー
クリッド・クラスタリングを行うために、特徴ベクトル
がブロック79に与えられる。ブロック79の詳細は、
図19及び20に関連して説明される。ユークリッド・
クラスタリングの結果はブロック81に与えられ、プロ
トタイプ分布πkを与えるためにガウス・クラスタリン
グを行う。ブロック81の詳細は、図21に関連して説
明される。図18乃至21は、動的手書き認識方法のス
テップ10及び11を行う方法を詳述する。
【0115】プロトタイプ分布又は筆跡プロトタイプが
動的見込み算定器28a(図3)に与えられ、動的特徴
ベクトルによってのみ動作する場合は候補文字をデコー
ダ30(図3)へ生じさせ、静的特徴ベクトル及び動的
特徴ベクトルの結合によって動作する場合には全体見込
み算定器28cへの入力を生じさせる。
動的見込み算定器28a(図3)に与えられ、動的特徴
ベクトルによってのみ動作する場合は候補文字をデコー
ダ30(図3)へ生じさせ、静的特徴ベクトル及び動的
特徴ベクトルの結合によって動作する場合には全体見込
み算定器28cへの入力を生じさせる。
【0116】K法のクラスタリングを一般的に達成する
方法は、1975年発行のJ.A.ハーチガン、J.ウ
イリによる「クラスタリング・アルゴリズム」に開示さ
れている。
方法は、1975年発行のJ.A.ハーチガン、J.ウ
イリによる「クラスタリング・アルゴリズム」に開示さ
れている。
【0117】図19は、クラスタ84、86、及び88
に分割される空間83を示す。各クラスタは、点xとし
て示された複数のベクトルを含み、図心(円内に×印で
図示される)がそのようなベクトルのクラスタそれぞれ
に対して計算される。
に分割される空間83を示す。各クラスタは、点xとし
て示された複数のベクトルを含み、図心(円内に×印で
図示される)がそのようなベクトルのクラスタそれぞれ
に対して計算される。
【0118】図20は、図18のブロック79の詳細で
ある。ブロック90では、250として選択された多数
のランダム・シードが、図3におけるブロック22から
得られた筆跡空間におけるすべての点からピックされ
る。各点と各シードとの間のユークリッド距離がブロッ
ク92において計算される。各点をそれの最も近いシー
ドに割り当てることによって、ブロック94において、
その空間がクラスタに区分される。これは、図19のク
ラスタ84、86、及び88に対応する。各クラスタの
図心がブロック96において計算される。これは、図1
9における図心に対応する。これら図心は、ブロック9
8において、原始シードを置換するようにセットされ
る。判断ブロック100において、最大の反復数に到達
したかどうかの決定が行われる。それがノーである場
合、ブロック92への戻りが行われ、ステップは前述の
ように繰り返される。それがイエスである場合、ユーク
リッド・クラスタリングの計算は終了する。
ある。ブロック90では、250として選択された多数
のランダム・シードが、図3におけるブロック22から
得られた筆跡空間におけるすべての点からピックされ
る。各点と各シードとの間のユークリッド距離がブロッ
ク92において計算される。各点をそれの最も近いシー
ドに割り当てることによって、ブロック94において、
その空間がクラスタに区分される。これは、図19のク
ラスタ84、86、及び88に対応する。各クラスタの
図心がブロック96において計算される。これは、図1
9における図心に対応する。これら図心は、ブロック9
8において、原始シードを置換するようにセットされ
る。判断ブロック100において、最大の反復数に到達
したかどうかの決定が行われる。それがノーである場
合、ブロック92への戻りが行われ、ステップは前述の
ように繰り返される。それがイエスである場合、ユーク
リッド・クラスタリングの計算は終了する。
【0119】図21を参照すると、図18のガウス・ク
ラスタリング・ブロック81の詳細が示される。ブロッ
ク79(図18)において得られたユークリッド・クラ
スタは、ブロック102において与えられる。各点と各
図心との間のガウス距離がブロック104において計算
される。各点をそれの最も近い図心に割り当てることに
よって、ブロック106において、その空間はクラスタ
に区分される。各クラスタの新しい図心がブロック10
8において計算される。判断ブロック110において、
最大の反復数が終了したかどうかの決定が行われる。そ
れがノーである場合、ブロック104への戻りが行わ
れ、そしてステップは、前述のように繰り返される。そ
れがイエスである場合、ガウス・クラスタリングの計算
は終了する。この結果、筆跡空間に最終的なプロトタイ
プ分布が生じる。
ラスタリング・ブロック81の詳細が示される。ブロッ
ク79(図18)において得られたユークリッド・クラ
スタは、ブロック102において与えられる。各点と各
図心との間のガウス距離がブロック104において計算
される。各点をそれの最も近い図心に割り当てることに
よって、ブロック106において、その空間はクラスタ
に区分される。各クラスタの新しい図心がブロック10
8において計算される。判断ブロック110において、
最大の反復数が終了したかどうかの決定が行われる。そ
れがノーである場合、ブロック104への戻りが行わ
れ、そしてステップは、前述のように繰り返される。そ
れがイエスである場合、ガウス・クラスタリングの計算
は終了する。この結果、筆跡空間に最終的なプロトタイ
プ分布が生じる。
【0120】1つのコードブックだけに対する手書き認
識技法のステップ16を行う図22を参照すると、それ
は、動的手書き認識方法のステップ12及び13に起因
する情報が図3の動的見込み算定器28aによって操作
されてデコーダ30に対して候補文字を生じさせる。ブ
ロック114において、現在のフレーム(又は、ウイン
ドウ・センター)を表わす変数iが1に初期設定され、
そして、ブロック116において示されるように、動的
テスト特徴ベクトルがフロント・エンド・パラメータ抽
出22(図4)から与えられる。ブロック118におい
て、現在のプロトタイプ分布を表わす変数kが1に初期
設定される。このプロトタイプ分布を与えられたこの特
徴ベクトルの条件付き確率がブロック120において計
算されて、ブロック122に与えられる。
識技法のステップ16を行う図22を参照すると、それ
は、動的手書き認識方法のステップ12及び13に起因
する情報が図3の動的見込み算定器28aによって操作
されてデコーダ30に対して候補文字を生じさせる。ブ
ロック114において、現在のフレーム(又は、ウイン
ドウ・センター)を表わす変数iが1に初期設定され、
そして、ブロック116において示されるように、動的
テスト特徴ベクトルがフロント・エンド・パラメータ抽
出22(図4)から与えられる。ブロック118におい
て、現在のプロトタイプ分布を表わす変数kが1に初期
設定される。このプロトタイプ分布を与えられたこの特
徴ベクトルの条件付き確率がブロック120において計
算されて、ブロック122に与えられる。
【0121】ブロック124における筆跡プロトタイプ
分布Πkによって表わされたトレーニング・フェーズの
プロトタイプ構成ブロック24a(図3)及びブロック
126における混合Pr(Πk|aj)も、結合された確
率を計算しそして記憶するブロック122に供給され
る。判断ブロック128において、kがクラスタの最大
数に達したかどうかの決定が行われる。その結果がノー
の場合、ブロック130において示されるように、kは
1だけインクレメントされ、そして上記のプロセスが繰
り返される。それがイエスの場合、ブロック132にお
いて、その記憶されスコアが基本的なアルファベットに
おけるすべての文字ajに対して累算される。判断ブロ
ック134において、考察中の現在の文字に対するすべ
てのフレームiがわかったかどうかの決定が行われる。
その結果がノーである場合、ブロック136において、
iが1だけインクレメントされ、そしてブロック116
への戻りが行われて、上記のプロセスが繰り返される。
それがイエスの場合、ブロック138において、その累
算されたスコアが順序づけられ、そしてブロック140
において、デコーダ30(図3)への供給のために、文
字ajの候補リストが最上のJスコアから形成される。
分布Πkによって表わされたトレーニング・フェーズの
プロトタイプ構成ブロック24a(図3)及びブロック
126における混合Pr(Πk|aj)も、結合された確
率を計算しそして記憶するブロック122に供給され
る。判断ブロック128において、kがクラスタの最大
数に達したかどうかの決定が行われる。その結果がノー
の場合、ブロック130において示されるように、kは
1だけインクレメントされ、そして上記のプロセスが繰
り返される。それがイエスの場合、ブロック132にお
いて、その記憶されスコアが基本的なアルファベットに
おけるすべての文字ajに対して累算される。判断ブロ
ック134において、考察中の現在の文字に対するすべ
てのフレームiがわかったかどうかの決定が行われる。
その結果がノーである場合、ブロック136において、
iが1だけインクレメントされ、そしてブロック116
への戻りが行われて、上記のプロセスが繰り返される。
それがイエスの場合、ブロック138において、その累
算されたスコアが順序づけられ、そしてブロック140
において、デコーダ30(図3)への供給のために、文
字ajの候補リストが最上のJスコアから形成される。
【0122】図23を参照すると、それは、図3の動的
見込み算定器28aの出力だけをデコードする場合のた
めにデコーダ30(図3)の動作を表わすフローチャー
トを示す。考察中の現在の文字を表わす変数tがブロッ
ク142において1に初期設定される。文字Ctに対す
る見込み算定器28a(図3)からの文字の候補リスト
がブロック144において与えられる。現在の候補文字
を表わす変数jがブロック146において1に初期設定
され、そしてCtがブロック148においてajに等し
く一時的に設定される。ブロック150において、トレ
ーニング・ブロックから、言語モデル確率26(図3)
が与えられる。これらの文字及びブロック154におけ
る前に認識された文字に基づいて、文字ajの最終スコ
アがブロック152において計算される。このスコア
は、言語モデルを通して文脈情報を考慮してCtがajと
して認識される見込みであることを表わす。判断ブロッ
ク156において、j=J、即ち、jが見込み算定器2
8によって与えられた候補リストにおける最後の候補文
字のインデックスであるかどうかの決定が行われる。そ
の結果がノーである場合、ブロック148への戻りが行
われ、上記のプロセスが行われる。
見込み算定器28aの出力だけをデコードする場合のた
めにデコーダ30(図3)の動作を表わすフローチャー
トを示す。考察中の現在の文字を表わす変数tがブロッ
ク142において1に初期設定される。文字Ctに対す
る見込み算定器28a(図3)からの文字の候補リスト
がブロック144において与えられる。現在の候補文字
を表わす変数jがブロック146において1に初期設定
され、そしてCtがブロック148においてajに等し
く一時的に設定される。ブロック150において、トレ
ーニング・ブロックから、言語モデル確率26(図3)
が与えられる。これらの文字及びブロック154におけ
る前に認識された文字に基づいて、文字ajの最終スコ
アがブロック152において計算される。このスコア
は、言語モデルを通して文脈情報を考慮してCtがajと
して認識される見込みであることを表わす。判断ブロッ
ク156において、j=J、即ち、jが見込み算定器2
8によって与えられた候補リストにおける最後の候補文
字のインデックスであるかどうかの決定が行われる。そ
の結果がノーである場合、ブロック148への戻りが行
われ、上記のプロセスが行われる。
【0123】その判断結果がイエスである場合、言語モ
デル確率を組み込んだ最終的なスコアがブロック158
において順序づけられる。ブロック160において、最
高の候補が文字C1に対する認識された答えとして選択
される。判断ブロック162において、t=Tmax、
即ち、tがその認識されるべきストリングにおける最後
の文字のインデックスであるかどうかの決定が行われ
る。その結果がノーである場合、認識されるべき次の文
字を得るために、ブロック164において、tは1だけ
インクレメントされる。ブロック166において更新が
行われて、ブロック154においてその認識された文字
C1を挿入する。そして、ブロック144への戻りが行
われ、上記のプロセスが繰り返される。その結果がイエ
スである場合、プロセスは、ブロック168に示される
ように完了し、文字のストリング全体が認識されたこと
になる。
デル確率を組み込んだ最終的なスコアがブロック158
において順序づけられる。ブロック160において、最
高の候補が文字C1に対する認識された答えとして選択
される。判断ブロック162において、t=Tmax、
即ち、tがその認識されるべきストリングにおける最後
の文字のインデックスであるかどうかの決定が行われ
る。その結果がノーである場合、認識されるべき次の文
字を得るために、ブロック164において、tは1だけ
インクレメントされる。ブロック166において更新が
行われて、ブロック154においてその認識された文字
C1を挿入する。そして、ブロック144への戻りが行
われ、上記のプロセスが繰り返される。その結果がイエ
スである場合、プロセスは、ブロック168に示される
ように完了し、文字のストリング全体が認識されたこと
になる。
【0124】図3の手書き認識装置の動的パラメータ抽
出及び評価機能の動作を詳細に説明したが、静的決定の
ステップ1及び12乃至19が図4の静的プロセッサ2
2bの対応するブロックと同様に動作することが注目さ
れる。
出及び評価機能の動作を詳細に説明したが、静的決定の
ステップ1及び12乃至19が図4の静的プロセッサ2
2bの対応するブロックと同様に動作することが注目さ
れる。
【0125】静的決定方法のステップ2乃至11はオン
ラインの手書きシステムによる使用に限定されず、入力
信号が実時間で発生されないオフライン・システムにお
いても有利に使用可能であることも注目される。例え
ば、空間的基底の特徴ベクトル決定は、印刷されたテキ
ストが走査されそしてディジタル形式に変換される光学
的文字認識システムにおいても使用可能である。入力の
個々の文字は、その後の認識のために、それらも次の形
状に基づいて特徴ベクトルを抽出するよう処理可能であ
る。
ラインの手書きシステムによる使用に限定されず、入力
信号が実時間で発生されないオフライン・システムにお
いても有利に使用可能であることも注目される。例え
ば、空間的基底の特徴ベクトル決定は、印刷されたテキ
ストが走査されそしてディジタル形式に変換される光学
的文字認識システムにおいても使用可能である。入力の
個々の文字は、その後の認識のために、それらも次の形
状に基づいて特徴ベクトルを抽出するよう処理可能であ
る。
【0126】静的プロセス及び動的プロセスの両方を使
用する手書き認識方法を評価するために、2つの別個の
タスクが選択された。第1のタスクでは、書き手依存の
実験の一部分として8人の書き手が考察された。認識装
置は特定の書き手からのデータに関して訓練され、しか
る後、同じ書き手から得られた独立のデータ・セットに
関してテストされた。第2の実験は、書き手独立モード
においてシステムの性能を確認するよう設計された。8
人の書き手すべてからのデータは一緒に集められ、その
認識装置を訓練するために使用された。しかる後、シス
テムは、その認識装置を経験してない新たな4人の書き
手の組に関してテストされた。そのテスト文字は、全8
1文字セット(文字、数字、特殊記号)から取り出され
た。各テスト・セットは、約800個の別々の文字より
成る。3つの異なる認識技法、即ち、上記の動的パラメ
ータ化技法、上記の静的パラメータ化技法、及びこれら
2つの技法の組合せに対して認識精度が測定された。こ
れらの結果は、下記の表のように要約される。即ち、
用する手書き認識方法を評価するために、2つの別個の
タスクが選択された。第1のタスクでは、書き手依存の
実験の一部分として8人の書き手が考察された。認識装
置は特定の書き手からのデータに関して訓練され、しか
る後、同じ書き手から得られた独立のデータ・セットに
関してテストされた。第2の実験は、書き手独立モード
においてシステムの性能を確認するよう設計された。8
人の書き手すべてからのデータは一緒に集められ、その
認識装置を訓練するために使用された。しかる後、シス
テムは、その認識装置を経験してない新たな4人の書き
手の組に関してテストされた。そのテスト文字は、全8
1文字セット(文字、数字、特殊記号)から取り出され
た。各テスト・セットは、約800個の別々の文字より
成る。3つの異なる認識技法、即ち、上記の動的パラメ
ータ化技法、上記の静的パラメータ化技法、及びこれら
2つの技法の組合せに対して認識精度が測定された。こ
れらの結果は、下記の表のように要約される。即ち、
【表1】 動的 静的 両方 書き手 エラー% エラー数 エラー% エラー数 エラー% エラー数 MAR 5.6 45 7.0 56 4.4 35 HIL 12.8 103 12.1 97 7.6 61 VIV 11.1 89 11.0 88 3.7 30 JOA 8.7 70 9.2 74 5.9 47 ACY 15.1 121 18.0 145 10.6 85 NAN 8.8 71 12.2 98 7.2 58 LOY 5.4 43 7.2 58 3.6 29 SAB 6.0 48 5.7 46 3.2 26 合計 9.2 590 10.3 662 5.8 371
【表2】 動的 静的 両方 書き手 エラー% エラー数 エラー% エラー数 エラー% エラー数 MAL 23 184 24 196 15 122 BLA 19 153 19 154 11 92 SAM 26 207 24 192 15 123 WAR 10 77 10 80 4 31 合計 19 621 19 622 11 368 表1は書き手に依存する事例に対するものであり、表2
は書き手独立の事例に対するものである。
は書き手独立の事例に対するものである。
【0127】これらの表は、動的及び静的フロント・エ
ンド・パラメータ抽出ブロック22が結果として個々に
エラー率を生じるけれども、動的及び静的情報の結合使
用は、結果としてエラー率の大きな減少を生じさせる。
又、すべての書き手にわたって、エラー率の一貫性ある
減少が観察される。明らかに、静的及び動的情報は、相
互に補い合う。これは、混同マトリクスの分析によって
生じる。静的システムは、アッパー・ケース文字に対し
ては動的システムより優れていることがわかった。一
方、動的システムは、ロア・ケース文字に対してエラー
を少なくする傾向がある。両方の場合とも、両システム
が認識装置に組み込まれるとき、静的フロント・エンド
又は動的フロント・エンドのどちらか一方だけの場合よ
りも少ないエラーしか生じない。
ンド・パラメータ抽出ブロック22が結果として個々に
エラー率を生じるけれども、動的及び静的情報の結合使
用は、結果としてエラー率の大きな減少を生じさせる。
又、すべての書き手にわたって、エラー率の一貫性ある
減少が観察される。明らかに、静的及び動的情報は、相
互に補い合う。これは、混同マトリクスの分析によって
生じる。静的システムは、アッパー・ケース文字に対し
ては動的システムより優れていることがわかった。一
方、動的システムは、ロア・ケース文字に対してエラー
を少なくする傾向がある。両方の場合とも、両システム
が認識装置に組み込まれるとき、静的フロント・エンド
又は動的フロント・エンドのどちらか一方だけの場合よ
りも少ないエラーしか生じない。
【0128】
【発明の効果】手書きを認識するとき、動的特徴ベクト
ル及び静的特徴ベクトルの両方を使用することによって
認識エラー率を低くすることができる。
ル及び静的特徴ベクトルの両方を使用することによって
認識エラー率を低くすることができる。
【図1】5つのタイプの手書きの例を示す図である。
【図2】トレーニング及びデコーディング・パラダイム
を強調する一般化した手書き認識システムのブロック図
である。
を強調する一般化した手書き認識システムのブロック図
である。
【図3】本発明による手書き認識システムのブロック図
である。
である。
【図4】図3において概略的に示されたフロント・エン
ド・パラメータ抽出ブロックの詳細なブロック図であ
る。
ド・パラメータ抽出ブロックの詳細なブロック図であ
る。
【図5】図4のプレフィルタリング・ブロックに入力さ
れる弾道的間隔の文字を示す図である。
れる弾道的間隔の文字を示す図である。
【図6】図4のプレフィルタリング・ブロックから出力
される等間隔文字を示す図である。
される等間隔文字を示す図である。
【図7】図5の弾道的間隔の文字の上部1/4を図6の
等間隔文字に変換する方法を示す図である。
等間隔文字に変換する方法を示す図である。
【図8】図4のプレフィルタリング・ブロックが図5の
弾道的間隔の文字を図6の等間隔文字に変換するように
機能する方法を詳細に示すフローチャートである。
弾道的間隔の文字を図6の等間隔文字に変換するように
機能する方法を詳細に示すフローチャートである。
【図9】空間的特徴ベクトルが得られるサンプルされた
文字を示す図である。
文字を示す図である。
【図10】空間的特徴ベクトル抽出方法を示すフローチ
ャートである。
ャートである。
【図11】点(P)に対する第1パラメータ・ベクトル
を生成するよう処理されつつある手書き文字の一部分を
示す図である。
を生成するよう処理されつつある手書き文字の一部分を
示す図である。
【図12】複数のローカル空間アトリビュートを収集す
ることによって図11の点(P)に対して生成された6
次元ローカル・パラメータ・ベクトルを示す図である。
ることによって図11の点(P)に対して生成された6
次元ローカル・パラメータ・ベクトルを示す図である。
【図13】点(P)に対して第2パラメータ・ベクトル
を生成するように処理されつつある手書き文字を示す図
である。
を生成するように処理されつつある手書き文字を示す図
である。
【図14】複数のグローバル空間アトリビュート収集す
ることによって図13の点(P)に対して生成された3
次元グローバル・パラメータ・ベクトルを示す図であ
る。
ることによって図13の点(P)に対して生成された3
次元グローバル・パラメータ・ベクトルを示す図であ
る。
【図15】図12及び14において抽出された個々のパ
ラメータ・ベクトルの連結によって1つの文字に関する
ウインドウイングが達成される方法を示す図である。
ラメータ・ベクトルの連結によって1つの文字に関する
ウインドウイングが達成される方法を示す図である。
【図16】図4のウインドウイング・ブロックが図15
に示されたパラメータ・ベクトルの連結を行い、それに
よって連結ベクトルを生じさせる方法を詳しく示すフロ
ーチャートである。
に示されたパラメータ・ベクトルの連結を行い、それに
よって連結ベクトルを生じさせる方法を詳しく示すフロ
ーチャートである。
【図17】図4の投影ブロックが図16において得られ
た連結ベクトルから特徴ベクトルを生じさせるように機
能する方法を詳しく示すフローチャートである。
た連結ベクトルから特徴ベクトルを生じさせるように機
能する方法を詳しく示すフローチャートである。
【図18】図3の動的プロトタイプ構成ブロックの詳細
なブロック図である。
なブロック図である。
【図19】K法のクラスタリングを示す図である。
【図20】図18のユークリッドのK法のクラスタリン
グ・ブロックが機能する方法を詳しく示すフローチャー
トである。
グ・ブロックが機能する方法を詳しく示すフローチャー
トである。
【図21】図18のガウスのK法のクラスタリング・ブ
ロックが機能する方法を詳しく示すフローチャートであ
る。
ロックが機能する方法を詳しく示すフローチャートであ
る。
【図22】図3の動的見込み算定器ブロックが機能する
方法を詳しく示すフローチャートである。
方法を詳しく示すフローチャートである。
【図23】図3のデコーダ・ブロックが動的特徴ベクト
ルのケースに対して機能する方法を詳しく示すフローチ
ャートである。
ルのケースに対して機能する方法を詳しく示すフローチ
ャートである。
10・・・データ処理システム 12・・・スタイラス 14・・・電子的タブレット 16・・・トレーニング・モード 18・・・デコーディング・モード
───────────────────────────────────────────────────── フロントページの続き (72)発明者 デービッド・ナハムー アメリカ合衆国ニューヨーク州、ホワイ ト・プレーンズ、エルムウッド・ロード 12番地 (72)発明者 クリシュナ・サンダラム・ナサン アメリカ合衆国ニューヨーク州、ニュー ヨーク、マディソン・アベニュー 220 番地 アパートメント110 (56)参考文献 特開 昭59−53989(JP,A) 特開 昭60−68484(JP,A)
Claims (11)
- 【請求項1】書き手により生成されたストロークのx−
y座標情報を与える出力を持った手書き変換手段と、 前記手書き変換手段の出力に接続された入力を有し、前
記x−y座標情報からストロークが生成される時間的順
序に基づく動的特徴ベクトルを抽出し且つ出力するため
の第1抽出手段と、 前記動的特徴ベクトルに従って構成された文字プロトタ
イプを記憶するための第1文字プロトタイプ手段と、 前記第1抽出手段の出力に接続された第1入力及び前記
第1文字プロトタイプ手段の出力に接続された第2入力
を有し、前記動的特徴ベクトルが前記第1文字プロトタ
イプ手段に記憶された文字プロトタイプを表わす第1の
確率を決定するための第1確率算定手段と、 前記手書き変換手段の出力に接続された入力を有し、前
記x−y座標情報からストロークが生成される時間的順
序に関係のない形状に基づく静的特徴ベクトルを抽出し
且つ出力するための第2抽出手段と、 前記静的特徴ベクトルに従って構成された文字プロトタ
イプを記憶するための第2文字プロトタイプ手段と、 前記第2抽出手段の出力に接続された第1入力及び前記
第2文字プロトタイプ手段の出力に接続された第2入力
を有し、前記静的特徴ベクトルが前記第2文字プロトタ
イプ手段に記憶された文字プロトタイプを表わす第2の
確率を決定するための第2確率算定手段と、 前記第1確率算定手段及び前記第2確率算定手段に応答
して、前記第1の確率及び第2の確率の重みづけられた
組み合わせによって表される確率が最も大である文字を
決定するための第3確率算定手段と、 前記第3確率算定手段及び言語モデル手段に応答して、
書き手により書かれた最も蓋然性ある文字を識別するた
めのデコード手段と、 より成る手書き認識装置。 - 【請求項2】書き手により生成されたx−y座標情報を
与える出力を持った手書き変換手段と、 前記手書き変換手段の出力に接続された入力を有し、前
記x−y座標情報からストロークが生成される時間的順
序に基づく動的特徴ベクトルを抽出し且つ出力するため
の第1抽出手段と、 前記動的特徴ベクトルのユークリッド・クラスタリング
及びガウス・クラスタリングに基づいて前記動的特徴ベ
クトルをクラスタに分類し、分類されたクラスタを前記
動的特徴ベクトルに対応する第1の文字プロトタイプと
して与えてこれを記憶するための第1トレーニング手段
と、 前記手書き変換手段の出力に接続された入力を有し、前
記x−y座標情報からストロークが生成される時間的順
序に関係のない形状に基づく静的特徴ベクトルを抽出し
且つ出力するための第2抽出手段と、 前記静的特徴ベクトルのユークリッド・クラスタリング
及びガウス・クラスタリングに基づいて、前記静的特徴
ベクトルをクラスタに分類し、分類されたクラスタを前
記静的特徴ベクトルに対応する第2の文字プロトタイプ
として与えてこれを記憶するための第2トレーニング手
段と、 より成る手書き認識装置。 - 【請求項3】書き手により生成されたストロークのx−
y座標情報を与える出力を持った手書き変換手段と、 前記手書き変換手段の出力に接続された入力を有し、前
記x−y座標情報からストロークが生成される時間的順
序に基づく動的パラメータ・ベクトル表示を抽出し且つ
出力するための第1抽出手段と、 前記手書き変換手段の出力に接続された入力を有し、前
記x−y座標情報からストロークが生成される時間的順
序に関係のない形状に基づく静的パラメータ・ベクトル
表示を抽出し且つ出力するための第2抽出手段と、 前記動的パラメータ・ベクトル表示及び前記静的パラメ
ータ・ベクトル表示をそれぞれ連結して前記手書き入力
の静的連結ベクトル表示及び動的連結ベクトル表示を与
えるための手段と、 前記静的及び動的連結ベクトル表示の各々の共分散マト
リクスを決定するための手段と、 決定された共分散マトリクスの各々と関連した固有値及
び固有ベクトルを決定するための手段と、 前記決定された固有ベクトルを変換して静的特徴ベクト
ル表示及び前記動的特徴ベクトル表示を与えるための手
段と、 を具備したことを特徴とする手書き認識システム。 - 【請求項4】静的特徴ベクトル空間及び動的特徴ベクト
ル空間における静的及び動的プロトタイプ分布を与える
ために該静的特徴ベクトル空間及び動的特徴ベクトル空
間において前記静的及び動的特徴ベクトルのユークリッ
ド・クラスタリングを行うための手段と、 前記静的及び動的特徴ベクトル空間の各々において前記
ユークリッド・クラスタリングにより分類されたクラス
タに対してガウス・クラスタリングを行うための手段
と、 前記ガウス・クラスタリングにより分類されたクラスタ
を静的及び動的プロトタイプ分布として記憶する手段
と、 手書き入力の現在のサンプルに対する静的及び動的プロ
トタイプ分布の相対的寄与を評価するための静的特徴ベ
クトルが静的プロトタイプ分布を表す確率の第1の重み
づけ係数及び動的特徴ベクトルが動的プロトタイプ分布
を表す確率の第2の重みづけ係数を決定するための手段
と、 を具備したことを特徴とする請求項3に記載のシステ
ム。 - 【請求項5】少なくとも静的プロトタイプ分布及び第1
の重みづけ係数に基づく確率的一致に従って第1候補手
書きを認識するための手段と、 少なくとも動的プロトタイプ分布及び第2の重みづけ係
数に基づく確率的一致に従って第2候補手書きを認識す
るための手段と、 前記第1及び第2候補手書きの結合に従って最も蓋然性
ある手書きを認識するための手段と、 を具備したことを特徴とする請求項4に記載のシステ
ム。 - 【請求項6】書き手により生成されたストロークのx−
y座標情報を与える出力を持った手書き変換手段と、 前記手書き変換手段の出力に接続された入力を有し、前
記x−y座標情報からストロークが生成される時間的順
序に関係のない形状に基づく静的パラメータ・ベクトル
表示を抽出し且つ出力するための抽出手段と、 前記静的パラメータ・ベクトル表示を連結して前記手書
き入力の静的連結ベクトル表示を与えるための手段と、 前記静的連結ベクトル表示の共分散マトリクスを決定す
るための手段と、 決定された共分散マトリクスの各々と関連した固有値及
び固有ベクトルを決定するための手段と、 前記決定された固有ベクトルを変換して静的特徴ベクト
ル表示を与えるための手段と、 を具備したことを特徴とする手書き認識システム。 - 【請求項7】静的特徴ベクトル空間における静的プロト
タイプ分布を与えるために該静的特徴ベクトル空間にお
いて前記静的特徴ベクトルのユークリッド・クラスタリ
ングを行うための手段と、 前記静的特徴ベクトル空間において前記ユークリッド・
クラスタリングにより分類されたクラスタに対してガウ
ス・クラスタリングを行うための手段と、 前記ガウス・クラスタリングにより分類されたクラスタ
を静的プロトタイプ分布として記憶する手段と、 手書き入力の現在のサンプルに対する静的プロトタイプ
分布の寄与を評価するための静的特徴ベクトルが静的プ
ロトタイプ分布を表す確率の第1の重みづけ係数を決定
するための手段と、 を具備したことを特徴とする請求項6に記載のシステ
ム。 - 【請求項8】1つの文字を表わす入力信号であって、各
々が文字ストロークのx座標値及びy座標値を有する複
数の点として順序づけられた入力信号を処理するための
方法において、 (a)x座標値によって複数の点を分類するステップ
と、 (b)一連のフォーム{xi}を与えるためにδxの間
隔でx軸に沿って入力信号のY軸値をサンプルするステ
ップと(但し、xi=xi-1+δx)、 (c)各サンプル点xiに対して、該サンプルを中心と
する幅lwのスライスを定義し、該スライスの幅内のす
べてのy軸値を該サンプルと関連付け、それによって、
該フォームのベクトル[y(xi)]を生じさせるステ
ップと、 (d)y軸値の範囲をny個の等間隔レベルlkに量子化
し、各xiに対して、すべての関連付けられたy軸値を
式: y∈lk⇔lk-1Δl<y<lkΔl (但し、Δl=(ymax−ymin)/ny) に従って1つのレベルに割り当てるステップと、 (e)グリッド・サイズnyを有するスライスのビット
マップを構成するステップであって、各xiに対して、
少なくとも1つのy軸値がlkに割り当てられた場合に
はk番目のエレメントが1になり且つその他の場合には
0になるように長さnyの第1特徴ベクトル[fx
(xi)]を決定するステップを含むものと、 (f)各xiに対して、長さlの第2特徴ベクトルfcg
(xi): 【数1】 (但し、合計はxiと関連付けられたスライス内のすべ
てのy軸値にわたる)を構成するステップと、 (g)点のサブセット{xi}を、該点がΔxだけ離れ
て間隔を開けられるように決定するステップと、 (h)各点xiにおいて、現在の点に先行するHx個の特
徴ベクトルfxと、現在の点における特徴ベクトル[f
(xi)]と、現在の点に後続するHx個の特徴ベクトル
とを連結して長さN: N=ny(2Hx+1) の連結特徴ベクトル[F(xi)]を生じさせることに
よって、N次元の連結ベクトルを構成するステップと、 (i)[Fcg(xi)]を得るためにfcg(xi)に対し
てステップ(h)を反復するステップと、 (j)特徴ベクトル[Fy(Yi)]を得るためにy軸値
に対してステップ(a)乃至(e)及び(g)乃至
(h)を反復するステップと、 より成る方法。 - 【請求項9】前記入力信号は書き手に応答して手書き変
換器によって生成されること、前記ステップ(e)はf
x(xi)の各エレメントに対して3つの可能な状態を定
義することによって動的情報をエンコードするステップ
を含むこと、該3つの可能な状態のうちの第1の状態は
点の不存在の場合の(0,0)であり、第2の状態は第
1所定ストローク方向を持った点に対する(−d,1)
であり、第3の状態は第2所定ストローク方向を持った
点に対する(d,1)であること、 を特徴とする請求項8に記載の方法。 - 【請求項10】書き手により生成された文字ストローク
のx−y座標情報を手書き変換手段から受け取るステッ
プと、 前記x−y座標情報からストロークが生成される時間的
順序に基づく動的特徴ベクトルを抽出するステップと、 前記x−y座標情報からストロークが生成される時間的
順序に関係のない形状に基づく静的特徴ベクトルを抽出
するステップと、 可能な文字(a)のセットから最も蓋然的な文字(U)
を、書き手により書かれた文字として識別するステップ
であって、式: 【数2】 (但し、Pr(Ud|aj)は静的特徴ベクトルから決定
され、Pr(Ut|aj)は動的特徴ベクトルから決定さ
れる)に従って動的特徴ベクトル及び静的特徴ベクトル
を考慮する確率的方法を使用するものと、 より成る手書き認識システムを動作させるための方法。 - 【請求項11】書き手によって書かれた文字がアルファ
ベット文字であるかどうかを決定するために手書き認識
システムを動作させるための方法であって、 書き手により生成された文字ストロークのx−y座標情
報を手書き変換手段から受け取るステップと、 該x−y座標情報を複数のフレームwtに区分するステ
ップと、 第1確率Pr(wt|aj)∀j,∀tを得るために、ス
トロークが生成される時間的順序に基づく動的特徴ベク
トル及び動的特徴ベクトルに基づいた文字モデルを使用
して、フレームwtをすべてデコードするステップと、 第2確率Pr(sd|aj)∀jを得るために、ストロー
クが生成される時間的順序に関係のない形状に基づく静
的特徴ベクトル及び静的特徴ベクトルに基づいた文字モ
デルを使用して、空間的イメージ・ブロックと関連した
x−y座標情報をデコードするステップと、 各イメージ・ブロックsに対して、該イメージ・ブロッ
ク内にあるフレームwtをすべて識別するステップと、 第3確率Pr(st|aj)を、 【数3】 (但し、Tはs内のフレームwtの数である) を定義するステップと、 イメージ・ブロックs、所与の文字ajが書き手により
書かれた最も蓋然性ある文字であるという第4確率Pr
(s|aj)を、 【数4】 に従って決定するステップと、 より成る方法。
Applications Claiming Priority (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| US9515 | 1979-02-05 | ||
| US08/009,515 US5491758A (en) | 1993-01-27 | 1993-01-27 | Automatic handwriting recognition using both static and dynamic parameters |
| US009515 | 1993-01-27 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JPH06243297A JPH06243297A (ja) | 1994-09-02 |
| JP2667954B2 true JP2667954B2 (ja) | 1997-10-27 |
Family
ID=21738125
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP5293291A Expired - Fee Related JP2667954B2 (ja) | 1993-01-27 | 1993-11-24 | 静的及び動的パラメータを使用する自動手書き文字認識装置及び方法 |
Country Status (4)
| Country | Link |
|---|---|
| US (5) | US5491758A (ja) |
| EP (1) | EP0608708B1 (ja) |
| JP (1) | JP2667954B2 (ja) |
| DE (1) | DE69424196T2 (ja) |
Families Citing this family (214)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US7382929B2 (en) | 1989-05-22 | 2008-06-03 | Pixel Instruments Corporation | Spatial scan replication circuit |
| US6529637B1 (en) | 1989-05-22 | 2003-03-04 | Pixel Instruments Corporation | Spatial scan replication circuit |
| JPH0773190A (ja) * | 1993-04-29 | 1995-03-17 | Matsushita Electric Ind Co Ltd | ペンベースコンピューターシステム用絵文字ネーミング |
| US6011865A (en) * | 1993-05-12 | 2000-01-04 | International Business Machines Corporation | Hybrid on-line handwriting recognition and optical character recognition system |
| US5710916A (en) * | 1994-05-24 | 1998-01-20 | Panasonic Technologies, Inc. | Method and apparatus for similarity matching of handwritten data objects |
| US5633957A (en) * | 1994-09-16 | 1997-05-27 | Compaq Computer Corporation | Method and apparatus for determining positional guidelines of handwritten data |
| US5812818A (en) * | 1994-11-17 | 1998-09-22 | Transfax Inc. | Apparatus and method for translating facsimile text transmission |
| US5838302A (en) * | 1995-02-24 | 1998-11-17 | Casio Computer Co., Ltd. | Data inputting devices for inputting typed and handwritten data in a mixed manner |
| US5764797A (en) * | 1995-04-25 | 1998-06-09 | Microsoft Corporation | Method and system for modeling handwriting using polynomials as a function of time |
| US5689620A (en) * | 1995-04-28 | 1997-11-18 | Xerox Corporation | Automatic training of character templates using a transcription and a two-dimensional image source model |
| US5737593A (en) * | 1995-06-02 | 1998-04-07 | International Business Machines Corporation | System and method for defining shapes with which to mine time sequences in computerized databases |
| US5828997A (en) * | 1995-06-07 | 1998-10-27 | Sensimetrics Corporation | Content analyzer mixing inverse-direction-probability-weighted noise to input signal |
| US5970170A (en) * | 1995-06-07 | 1999-10-19 | Kodak Limited | Character recognition system indentification of scanned and real time handwritten characters |
| US5991441A (en) * | 1995-06-07 | 1999-11-23 | Wang Laboratories, Inc. | Real time handwriting recognition system |
| US6137909A (en) * | 1995-06-30 | 2000-10-24 | The United States Of America As Represented By The Secretary Of The Navy | System and method for feature set reduction |
| US5774576A (en) * | 1995-07-17 | 1998-06-30 | Nec Research Institute, Inc. | Pattern recognition by unsupervised metric learning |
| US5835633A (en) * | 1995-11-20 | 1998-11-10 | International Business Machines Corporation | Concurrent two-stage multi-network optical character recognition system |
| US5828772A (en) * | 1995-12-27 | 1998-10-27 | Lucent Technologies Inc. | Method and apparatus for parametric signature verification using global features and stroke-direction codes |
| DE19614285C2 (de) * | 1996-04-11 | 1998-11-12 | Siemens Ag | Verfahren zur Erkennung von Ziffernfolgen |
| US5828999A (en) * | 1996-05-06 | 1998-10-27 | Apple Computer, Inc. | Method and system for deriving a large-span semantic language model for large-vocabulary recognition systems |
| JP3335538B2 (ja) * | 1996-11-08 | 2002-10-21 | 日本サイバーサイン株式会社 | 手書き文字列の照合方法および装置 |
| US6038340A (en) * | 1996-11-08 | 2000-03-14 | Seiko Epson Corporation | System and method for detecting the black and white points of a color image |
| US5889889A (en) * | 1996-12-13 | 1999-03-30 | Lucent Technologies Inc. | Method and apparatus for machine recognition of handwritten symbols from stroke-parameter data |
| JP3969775B2 (ja) | 1996-12-17 | 2007-09-05 | キヤノン株式会社 | 手書き情報入力装置および手書き情報入力方法 |
| US5930466A (en) * | 1997-03-11 | 1999-07-27 | Lexmark International Inc | Method and apparatus for data compression of bitmaps using rows and columns of bit-mapped printer data divided into vertical slices |
| US6687404B1 (en) | 1997-06-20 | 2004-02-03 | Xerox Corporation | Automatic training of layout parameters in a 2D image model |
| US5930393A (en) * | 1997-08-11 | 1999-07-27 | Lucent Technologies Inc. | Method and apparatus for enhancing degraded document images |
| US5920647A (en) * | 1997-08-12 | 1999-07-06 | Motorola, Inc. | Method and apparatus for recognition of hand-printed characters represented as an electronic ink stream using a box filtering technique |
| US6272243B1 (en) * | 1997-09-15 | 2001-08-07 | Motorola, Inc. | Method and apparatus for entering characters into a writing recognizer |
| JPH11203402A (ja) * | 1998-01-16 | 1999-07-30 | Canon Inc | 画像処理装置及び画像処理方法 |
| RU2145115C1 (ru) * | 1998-08-10 | 2000-01-27 | Закрытое акционерное общество "Аби Программное обеспечение" | Групповой способ аби (abbyy) верификации компьютерных кодов с соответствующими им оригиналами |
| US6483736B2 (en) | 1998-11-16 | 2002-11-19 | Matrix Semiconductor, Inc. | Vertically stacked field programmable nonvolatile memory and method of fabrication |
| US6952803B1 (en) * | 1998-12-29 | 2005-10-04 | Xerox Corporation | Method and system for transcribing and editing using a structured freeform editor |
| US6587577B1 (en) | 1999-04-21 | 2003-07-01 | International Business Machines Corporation | On-line signature verification |
| WO2001050411A1 (en) * | 2000-01-06 | 2001-07-12 | Zen Optical Technology Llc | Pen-based handwritten character recognition and storage system |
| DE60005293T2 (de) * | 2000-02-23 | 2004-07-01 | Ser Solutions Inc. | Methode und Vorrichtung zur Verarbeitung elektronischer Dokumente |
| US8645137B2 (en) | 2000-03-16 | 2014-02-04 | Apple Inc. | Fast, language-independent method for user authentication by voice |
| US8575719B2 (en) | 2000-04-28 | 2013-11-05 | Sandisk 3D Llc | Silicon nitride antifuse for use in diode-antifuse memory arrays |
| US9177828B2 (en) | 2011-02-10 | 2015-11-03 | Micron Technology, Inc. | External gettering method and device |
| ES2375403T3 (es) | 2001-08-27 | 2012-02-29 | BDGB Enterprise Software Sàrl | Un método para la indexación automática de documentos. |
| AUPR824501A0 (en) * | 2001-10-15 | 2001-11-08 | Silverbrook Research Pty. Ltd. | Methods and systems (npw003) |
| US7111248B2 (en) * | 2002-01-15 | 2006-09-19 | Openwave Systems Inc. | Alphanumeric information input method |
| US7010167B1 (en) | 2002-04-30 | 2006-03-07 | The United States Of America As Represented By The National Security Agency | Method of geometric linear discriminant analysis pattern recognition |
| US6970877B2 (en) * | 2002-06-28 | 2005-11-29 | Microsoft Corporation | Reducing and controlling sizes of prototype-based recognizers |
| US6988107B2 (en) * | 2002-06-28 | 2006-01-17 | Microsoft Corporation | Reducing and controlling sizes of model-based recognizers |
| US7366352B2 (en) * | 2003-03-20 | 2008-04-29 | International Business Machines Corporation | Method and apparatus for performing fast closest match in pattern recognition |
| JP4297442B2 (ja) * | 2004-11-30 | 2009-07-15 | 富士通株式会社 | 手書き情報入力装置 |
| US7587087B2 (en) * | 2004-12-10 | 2009-09-08 | Nokia Corporation | On-line handwriting recognition |
| JP4708913B2 (ja) * | 2005-08-12 | 2011-06-22 | キヤノン株式会社 | 情報処理方法及び情報処理装置 |
| JP4834351B2 (ja) * | 2005-08-22 | 2011-12-14 | 株式会社東芝 | 文字認識装置及び文字認識方法 |
| US8677377B2 (en) | 2005-09-08 | 2014-03-18 | Apple Inc. | Method and apparatus for building an intelligent automated assistant |
| US7646913B2 (en) * | 2005-12-19 | 2010-01-12 | Microsoft Corporation | Allograph based writer adaptation for handwritten character recognition |
| US7421452B2 (en) * | 2006-06-14 | 2008-09-02 | International Business Machines Corporation | Method and apparatus for predicting future behavior of data streams |
| US9318108B2 (en) | 2010-01-18 | 2016-04-19 | Apple Inc. | Intelligent automated assistant |
| US8010307B2 (en) * | 2006-12-07 | 2011-08-30 | Hermes-Microvision, Inc. | In-line overlay measurement using charged particle beam system |
| US8074172B2 (en) | 2007-01-05 | 2011-12-06 | Apple Inc. | Method, system, and graphical user interface for providing word recommendations |
| TWI336055B (en) * | 2007-01-05 | 2011-01-11 | Compal Electronics Inc | Symbol recognition method |
| US20080175468A1 (en) * | 2007-01-24 | 2008-07-24 | Hermes Microvision, Inc. | Method and system for creating knowledge and selecting features in a semiconductor device |
| US8977255B2 (en) | 2007-04-03 | 2015-03-10 | Apple Inc. | Method and system for operating a multi-function portable electronic device using voice-activation |
| US9330720B2 (en) | 2008-01-03 | 2016-05-03 | Apple Inc. | Methods and apparatus for altering audio output signals |
| US8996376B2 (en) | 2008-04-05 | 2015-03-31 | Apple Inc. | Intelligent text-to-speech conversion |
| US10496753B2 (en) | 2010-01-18 | 2019-12-03 | Apple Inc. | Automatically adapting user interfaces for hands-free interaction |
| US20100030549A1 (en) | 2008-07-31 | 2010-02-04 | Lee Michael M | Mobile device having human language translation capability with positional feedback |
| US8331682B2 (en) * | 2008-08-27 | 2012-12-11 | Northrop Grumman Systems Corporation | System and method for single stroke character recognition |
| US9251407B2 (en) * | 2008-09-04 | 2016-02-02 | Northrop Grumman Systems Corporation | Security system utilizing gesture recognition |
| US9959870B2 (en) | 2008-12-11 | 2018-05-01 | Apple Inc. | Speech recognition involving a mobile device |
| US10241644B2 (en) | 2011-06-03 | 2019-03-26 | Apple Inc. | Actionable reminder entries |
| US9858925B2 (en) | 2009-06-05 | 2018-01-02 | Apple Inc. | Using context information to facilitate processing of commands in a virtual assistant |
| US10241752B2 (en) | 2011-09-30 | 2019-03-26 | Apple Inc. | Interface for a virtual digital assistant |
| US10255566B2 (en) | 2011-06-03 | 2019-04-09 | Apple Inc. | Generating and processing task items that represent tasks to perform |
| US9431006B2 (en) | 2009-07-02 | 2016-08-30 | Apple Inc. | Methods and apparatuses for automatic speech recognition |
| JP5495657B2 (ja) * | 2009-08-04 | 2014-05-21 | 三菱電機株式会社 | 文字認識装置、文字認識プログラム |
| US9213756B2 (en) * | 2009-11-02 | 2015-12-15 | Harry Urbschat | System and method of using dynamic variance networks |
| US9158833B2 (en) | 2009-11-02 | 2015-10-13 | Harry Urbschat | System and method for obtaining document information |
| US9152883B2 (en) * | 2009-11-02 | 2015-10-06 | Harry Urbschat | System and method for increasing the accuracy of optical character recognition (OCR) |
| US8321357B2 (en) * | 2009-09-30 | 2012-11-27 | Lapir Gennady | Method and system for extraction |
| US10679605B2 (en) | 2010-01-18 | 2020-06-09 | Apple Inc. | Hands-free list-reading by intelligent automated assistant |
| US10553209B2 (en) | 2010-01-18 | 2020-02-04 | Apple Inc. | Systems and methods for hands-free notification summaries |
| US10276170B2 (en) | 2010-01-18 | 2019-04-30 | Apple Inc. | Intelligent automated assistant |
| US10705794B2 (en) | 2010-01-18 | 2020-07-07 | Apple Inc. | Automatically adapting user interfaces for hands-free interaction |
| DE202011111062U1 (de) | 2010-01-25 | 2019-02-19 | Newvaluexchange Ltd. | Vorrichtung und System für eine Digitalkonversationsmanagementplattform |
| US8682667B2 (en) | 2010-02-25 | 2014-03-25 | Apple Inc. | User profiling for selecting user specific voice input processing information |
| US8768062B2 (en) | 2010-11-09 | 2014-07-01 | Tata Consulting Services Limited | Online script independent recognition of handwritten sub-word units and words |
| US10762293B2 (en) | 2010-12-22 | 2020-09-01 | Apple Inc. | Using parts-of-speech tagging and named entity recognition for spelling correction |
| US9262612B2 (en) | 2011-03-21 | 2016-02-16 | Apple Inc. | Device access using voice authentication |
| US8977059B2 (en) * | 2011-06-03 | 2015-03-10 | Apple Inc. | Integrating feature extraction via local sequential embedding for automatic handwriting recognition |
| US10057736B2 (en) | 2011-06-03 | 2018-08-21 | Apple Inc. | Active transport based notifications |
| US8994660B2 (en) | 2011-08-29 | 2015-03-31 | Apple Inc. | Text correction processing |
| US10134385B2 (en) | 2012-03-02 | 2018-11-20 | Apple Inc. | Systems and methods for name pronunciation |
| US9483461B2 (en) | 2012-03-06 | 2016-11-01 | Apple Inc. | Handling speech synthesis of content for multiple languages |
| US9280610B2 (en) | 2012-05-14 | 2016-03-08 | Apple Inc. | Crowd sourcing information to fulfill user requests |
| US9354725B2 (en) * | 2012-06-01 | 2016-05-31 | New York University | Tracking movement of a writing instrument on a general surface |
| US9721563B2 (en) | 2012-06-08 | 2017-08-01 | Apple Inc. | Name recognition system |
| US9495129B2 (en) | 2012-06-29 | 2016-11-15 | Apple Inc. | Device, method, and user interface for voice-activated navigation and browsing of a document |
| US9576574B2 (en) | 2012-09-10 | 2017-02-21 | Apple Inc. | Context-sensitive handling of interruptions by intelligent digital assistant |
| US9547647B2 (en) | 2012-09-19 | 2017-01-17 | Apple Inc. | Voice-based media searching |
| US9591339B1 (en) | 2012-11-27 | 2017-03-07 | Apple Inc. | Agnostic media delivery system |
| US9774917B1 (en) | 2012-12-10 | 2017-09-26 | Apple Inc. | Channel bar user interface |
| US9171204B2 (en) | 2012-12-12 | 2015-10-27 | Qualcomm Incorporated | Method of perspective correction for devanagari text |
| US10200761B1 (en) | 2012-12-13 | 2019-02-05 | Apple Inc. | TV side bar user interface |
| US9532111B1 (en) | 2012-12-18 | 2016-12-27 | Apple Inc. | Devices and method for providing remote control hints on a display |
| US10521188B1 (en) | 2012-12-31 | 2019-12-31 | Apple Inc. | Multi-user TV user interface |
| BR112015018905B1 (pt) | 2013-02-07 | 2022-02-22 | Apple Inc | Método de operação de recurso de ativação por voz, mídia de armazenamento legível por computador e dispositivo eletrônico |
| US10652394B2 (en) | 2013-03-14 | 2020-05-12 | Apple Inc. | System and method for processing voicemail |
| US9368114B2 (en) | 2013-03-14 | 2016-06-14 | Apple Inc. | Context-sensitive handling of interruptions |
| US12149779B2 (en) | 2013-03-15 | 2024-11-19 | Apple Inc. | Advertisement user interface |
| US9922642B2 (en) | 2013-03-15 | 2018-03-20 | Apple Inc. | Training an at least partial voice command system |
| US9274607B2 (en) | 2013-03-15 | 2016-03-01 | Bruno Delean | Authenticating a user using hand gesture |
| WO2014144579A1 (en) | 2013-03-15 | 2014-09-18 | Apple Inc. | System and method for updating an adaptive speech recognition model |
| WO2014197336A1 (en) | 2013-06-07 | 2014-12-11 | Apple Inc. | System and method for detecting errors in interactions with a voice-based digital assistant |
| WO2014197334A2 (en) | 2013-06-07 | 2014-12-11 | Apple Inc. | System and method for user-specified pronunciation of words for speech synthesis and recognition |
| US9582608B2 (en) | 2013-06-07 | 2017-02-28 | Apple Inc. | Unified ranking with entropy-weighted information for phrase-based semantic auto-completion |
| WO2014197335A1 (en) | 2013-06-08 | 2014-12-11 | Apple Inc. | Interpreting and acting upon commands that involve sharing information with remote devices |
| US10176167B2 (en) | 2013-06-09 | 2019-01-08 | Apple Inc. | System and method for inferring user intent from speech inputs |
| US9898187B2 (en) | 2013-06-09 | 2018-02-20 | Apple Inc. | Managing real-time handwriting recognition |
| US20140361983A1 (en) * | 2013-06-09 | 2014-12-11 | Apple Inc. | Real-time stroke-order and stroke-direction independent handwriting recognition |
| HK1223708A1 (zh) | 2013-06-09 | 2017-08-04 | Apple Inc. | 用於实现跨数字助理的两个或更多个实例的会话持续性的设备、方法、和图形用户界面 |
| US20140363082A1 (en) * | 2013-06-09 | 2014-12-11 | Apple Inc. | Integrating stroke-distribution information into spatial feature extraction for automatic handwriting recognition |
| US9495620B2 (en) | 2013-06-09 | 2016-11-15 | Apple Inc. | Multi-script handwriting recognition using a universal recognizer |
| KR101809808B1 (ko) | 2013-06-13 | 2017-12-15 | 애플 인크. | 음성 명령에 의해 개시되는 긴급 전화를 걸기 위한 시스템 및 방법 |
| KR101749009B1 (ko) | 2013-08-06 | 2017-06-19 | 애플 인크. | 원격 디바이스로부터의 활동에 기초한 스마트 응답의 자동 활성화 |
| KR20150104808A (ko) * | 2014-03-06 | 2015-09-16 | 삼성전자주식회사 | 피드백을 출력하는 전자 장치 및 방법 |
| US9620105B2 (en) | 2014-05-15 | 2017-04-11 | Apple Inc. | Analyzing audio input for efficient speech and music recognition |
| US10592095B2 (en) | 2014-05-23 | 2020-03-17 | Apple Inc. | Instantaneous speaking of content on touch devices |
| US9502031B2 (en) | 2014-05-27 | 2016-11-22 | Apple Inc. | Method for supporting dynamic grammars in WFST-based ASR |
| US9966065B2 (en) | 2014-05-30 | 2018-05-08 | Apple Inc. | Multi-command single utterance input method |
| US9842101B2 (en) | 2014-05-30 | 2017-12-12 | Apple Inc. | Predictive conversion of language input |
| US9760559B2 (en) | 2014-05-30 | 2017-09-12 | Apple Inc. | Predictive text input |
| US10289433B2 (en) | 2014-05-30 | 2019-05-14 | Apple Inc. | Domain specific language for encoding assistant dialog |
| US10170123B2 (en) | 2014-05-30 | 2019-01-01 | Apple Inc. | Intelligent assistant for home automation |
| US9734193B2 (en) | 2014-05-30 | 2017-08-15 | Apple Inc. | Determining domain salience ranking from ambiguous words in natural speech |
| US9633004B2 (en) | 2014-05-30 | 2017-04-25 | Apple Inc. | Better resolution when referencing to concepts |
| US9715875B2 (en) | 2014-05-30 | 2017-07-25 | Apple Inc. | Reducing the need for manual start/end-pointing and trigger phrases |
| US10078631B2 (en) | 2014-05-30 | 2018-09-18 | Apple Inc. | Entropy-guided text prediction using combined word and character n-gram language models |
| US9785630B2 (en) | 2014-05-30 | 2017-10-10 | Apple Inc. | Text prediction using combined word N-gram and unigram language models |
| US9430463B2 (en) | 2014-05-30 | 2016-08-30 | Apple Inc. | Exemplar-based natural language processing |
| AU2015280257B2 (en) | 2014-06-24 | 2017-08-24 | Apple Inc. | Character recognition on a computing device |
| CN106415475A (zh) | 2014-06-24 | 2017-02-15 | 苹果公司 | 用于在用户界面中导航的列界面 |
| EP3126952B1 (en) | 2014-06-24 | 2023-07-12 | Apple Inc. | Input device and user interface interactions |
| US10659851B2 (en) | 2014-06-30 | 2020-05-19 | Apple Inc. | Real-time digital assistant knowledge updates |
| US9338493B2 (en) | 2014-06-30 | 2016-05-10 | Apple Inc. | Intelligent automated assistant for TV user interactions |
| US10446141B2 (en) | 2014-08-28 | 2019-10-15 | Apple Inc. | Automatic speech recognition based on user feedback |
| US9818400B2 (en) | 2014-09-11 | 2017-11-14 | Apple Inc. | Method and apparatus for discovering trending terms in speech requests |
| US10789041B2 (en) | 2014-09-12 | 2020-09-29 | Apple Inc. | Dynamic thresholds for always listening speech trigger |
| US9646609B2 (en) | 2014-09-30 | 2017-05-09 | Apple Inc. | Caching apparatus for serving phonetic pronunciations |
| US10127911B2 (en) | 2014-09-30 | 2018-11-13 | Apple Inc. | Speaker identification and unsupervised speaker adaptation techniques |
| US9668121B2 (en) | 2014-09-30 | 2017-05-30 | Apple Inc. | Social reminders |
| US10074360B2 (en) | 2014-09-30 | 2018-09-11 | Apple Inc. | Providing an indication of the suitability of speech recognition |
| US9886432B2 (en) | 2014-09-30 | 2018-02-06 | Apple Inc. | Parsimonious handling of word inflection via categorical stem + suffix N-gram language models |
| US10552013B2 (en) | 2014-12-02 | 2020-02-04 | Apple Inc. | Data detection |
| US9711141B2 (en) | 2014-12-09 | 2017-07-18 | Apple Inc. | Disambiguating heteronyms in speech synthesis |
| US9865280B2 (en) | 2015-03-06 | 2018-01-09 | Apple Inc. | Structured dictation using intelligent automated assistants |
| US10567477B2 (en) | 2015-03-08 | 2020-02-18 | Apple Inc. | Virtual assistant continuity |
| US9886953B2 (en) | 2015-03-08 | 2018-02-06 | Apple Inc. | Virtual assistant activation |
| US9721566B2 (en) | 2015-03-08 | 2017-08-01 | Apple Inc. | Competing devices responding to voice triggers |
| US9899019B2 (en) | 2015-03-18 | 2018-02-20 | Apple Inc. | Systems and methods for structured stem and suffix language models |
| US9842105B2 (en) | 2015-04-16 | 2017-12-12 | Apple Inc. | Parsimonious continuous-space phrase representations for natural language processing |
| US10083688B2 (en) | 2015-05-27 | 2018-09-25 | Apple Inc. | Device voice control for selecting a displayed affordance |
| US10127220B2 (en) | 2015-06-04 | 2018-11-13 | Apple Inc. | Language identification from short strings |
| US10101822B2 (en) | 2015-06-05 | 2018-10-16 | Apple Inc. | Language input correction |
| US10255907B2 (en) | 2015-06-07 | 2019-04-09 | Apple Inc. | Automatic accent detection using acoustic models |
| US10186254B2 (en) | 2015-06-07 | 2019-01-22 | Apple Inc. | Context-based endpoint detection |
| US11025565B2 (en) | 2015-06-07 | 2021-06-01 | Apple Inc. | Personalized prediction of responses for instant messaging |
| US10747498B2 (en) | 2015-09-08 | 2020-08-18 | Apple Inc. | Zero latency digital assistant |
| US10671428B2 (en) | 2015-09-08 | 2020-06-02 | Apple Inc. | Distributed personal assistant |
| US9697820B2 (en) | 2015-09-24 | 2017-07-04 | Apple Inc. | Unit-selection text-to-speech synthesis using concatenation-sensitive neural networks |
| US11010550B2 (en) | 2015-09-29 | 2021-05-18 | Apple Inc. | Unified language modeling framework for word prediction, auto-completion and auto-correction |
| US10366158B2 (en) | 2015-09-29 | 2019-07-30 | Apple Inc. | Efficient word encoding for recurrent neural network language models |
| US11587559B2 (en) | 2015-09-30 | 2023-02-21 | Apple Inc. | Intelligent device identification |
| US10691473B2 (en) | 2015-11-06 | 2020-06-23 | Apple Inc. | Intelligent automated assistant in a messaging environment |
| US10049668B2 (en) | 2015-12-02 | 2018-08-14 | Apple Inc. | Applying neural network language models to weighted finite state transducers for automatic speech recognition |
| US10223066B2 (en) | 2015-12-23 | 2019-03-05 | Apple Inc. | Proactive assistance based on dialog communication between devices |
| KR101729434B1 (ko) * | 2016-02-16 | 2017-04-24 | 주식회사 시큐브 | 공간분할 세그먼트에 대한 동적이동 추적 기반 수기서명 인증 시스템 및 방법 |
| US10446143B2 (en) | 2016-03-14 | 2019-10-15 | Apple Inc. | Identification of voice inputs providing credentials |
| US9934775B2 (en) | 2016-05-26 | 2018-04-03 | Apple Inc. | Unit-selection text-to-speech synthesis based on predicted concatenation parameters |
| US9972304B2 (en) | 2016-06-03 | 2018-05-15 | Apple Inc. | Privacy preserving distributed evaluation framework for embedded personalized systems |
| US10249300B2 (en) | 2016-06-06 | 2019-04-02 | Apple Inc. | Intelligent list reading |
| US10049663B2 (en) | 2016-06-08 | 2018-08-14 | Apple, Inc. | Intelligent automated assistant for media exploration |
| DK179309B1 (en) | 2016-06-09 | 2018-04-23 | Apple Inc | Intelligent automated assistant in a home environment |
| US10586535B2 (en) | 2016-06-10 | 2020-03-10 | Apple Inc. | Intelligent digital assistant in a multi-tasking environment |
| US10067938B2 (en) | 2016-06-10 | 2018-09-04 | Apple Inc. | Multilingual word prediction |
| US10192552B2 (en) | 2016-06-10 | 2019-01-29 | Apple Inc. | Digital assistant providing whispered speech |
| US10490187B2 (en) | 2016-06-10 | 2019-11-26 | Apple Inc. | Digital assistant providing automated status report |
| US10509862B2 (en) | 2016-06-10 | 2019-12-17 | Apple Inc. | Dynamic phrase expansion of language input |
| DK179415B1 (en) | 2016-06-11 | 2018-06-14 | Apple Inc | Intelligent device arbitration and control |
| DK179343B1 (en) | 2016-06-11 | 2018-05-14 | Apple Inc | Intelligent task discovery |
| DK179049B1 (en) | 2016-06-11 | 2017-09-18 | Apple Inc | Data driven natural language event detection and classification |
| DK201670540A1 (en) | 2016-06-11 | 2018-01-08 | Apple Inc | Application integration with a digital assistant |
| DK201670581A1 (en) | 2016-06-12 | 2018-01-08 | Apple Inc | Device-level authorization for viewing content |
| DK201670582A1 (en) | 2016-06-12 | 2018-01-02 | Apple Inc | Identifying applications on which content is available |
| DK179374B1 (en) | 2016-06-12 | 2018-05-28 | Apple Inc | Handwriting keyboard for monitors |
| US11966560B2 (en) | 2016-10-26 | 2024-04-23 | Apple Inc. | User interfaces for browsing content from multiple content applications on an electronic device |
| US10593346B2 (en) | 2016-12-22 | 2020-03-17 | Apple Inc. | Rank-reduced token representation for automatic speech recognition |
| DK179745B1 (en) | 2017-05-12 | 2019-05-01 | Apple Inc. | SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT |
| DK201770431A1 (en) | 2017-05-15 | 2018-12-20 | Apple Inc. | Optimizing dialogue policy decisions for digital assistants using implicit feedback |
| US10192127B1 (en) | 2017-07-24 | 2019-01-29 | Bank Of America Corporation | System for dynamic optical character recognition tuning |
| US10346702B2 (en) | 2017-07-24 | 2019-07-09 | Bank Of America Corporation | Image data capture and conversion |
| CN110532571B (zh) * | 2017-09-12 | 2022-11-18 | 腾讯科技(深圳)有限公司 | 文本处理方法及相关装置 |
| CN107820096B (zh) * | 2017-11-09 | 2019-12-03 | 京东方科技集团股份有限公司 | 图像处理装置及方法、图像处理系统及训练方法 |
| US12307082B2 (en) | 2018-02-21 | 2025-05-20 | Apple Inc. | Scrollable set of content items with locking feature |
| AU2019100574B4 (en) | 2018-06-03 | 2020-02-20 | Apple Inc. | Setup procedures for an electronic device |
| US11683565B2 (en) | 2019-03-24 | 2023-06-20 | Apple Inc. | User interfaces for interacting with channels that provide content that plays in a media browsing application |
| EP4443850A3 (en) | 2019-03-24 | 2024-12-04 | Apple Inc. | User interfaces for a media browsing application |
| EP3928194A1 (en) | 2019-03-24 | 2021-12-29 | Apple Inc. | User interfaces including selectable representations of content items |
| US12008232B2 (en) | 2019-03-24 | 2024-06-11 | Apple Inc. | User interfaces for viewing and accessing content on an electronic device |
| US11863837B2 (en) | 2019-05-31 | 2024-01-02 | Apple Inc. | Notification of augmented reality content on an electronic device |
| CN120595989A (zh) | 2019-05-31 | 2025-09-05 | 苹果公司 | 用于播客浏览和回放应用程序的用户界面 |
| US11194467B2 (en) | 2019-06-01 | 2021-12-07 | Apple Inc. | Keyboard management user interfaces |
| CN110826324B (zh) * | 2019-10-30 | 2024-02-09 | 支付宝(杭州)信息技术有限公司 | 语言模型的训练及分词预测方法和装置、语言模型 |
| US11843838B2 (en) | 2020-03-24 | 2023-12-12 | Apple Inc. | User interfaces for accessing episodes of a content series |
| US11899895B2 (en) | 2020-06-21 | 2024-02-13 | Apple Inc. | User interfaces for setting up an electronic device |
| US11720229B2 (en) | 2020-12-07 | 2023-08-08 | Apple Inc. | User interfaces for browsing and presenting content |
| US12118811B2 (en) | 2021-01-28 | 2024-10-15 | Samsung Electronics Co., Ltd. | Electronic device and method for shape recognition based on stroke analysis in electronic device |
| US11934640B2 (en) | 2021-01-29 | 2024-03-19 | Apple Inc. | User interfaces for record labels |
Family Cites Families (12)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPS5953989A (ja) * | 1982-09-21 | 1984-03-28 | Casio Comput Co Ltd | 入力デ−タ認識方式 |
| JPS6068484A (ja) * | 1983-09-22 | 1985-04-19 | Hitachi Ltd | オンライン手書き文字認識処理方式 |
| DE3716787A1 (de) * | 1986-05-19 | 1987-11-26 | Ricoh Kk | Zeichenerkennungsverfahren |
| US5058182A (en) * | 1988-05-02 | 1991-10-15 | The Research Foundation Of State Univ. Of New York | Method and apparatus for handwritten character recognition |
| DE3822671A1 (de) * | 1988-07-05 | 1990-01-11 | Kromer Theodor Gmbh & Co Kg | Verfahren und vorrichtung zum elektronischen vergleichen von linienzuegen |
| US5265174A (en) * | 1989-03-03 | 1993-11-23 | Canon Kabushiki Kaisha | Pattern recognition apparatus |
| JPH03122604A (ja) * | 1989-10-06 | 1991-05-24 | Sumitomo Metal Mining Co Ltd | 光導波路素子及びその製造方法 |
| US5005205A (en) * | 1990-01-12 | 1991-04-02 | International Business Machines Corporation | Handwriting recognition employing pairwise discriminant measures |
| AU8641891A (en) * | 1990-09-26 | 1992-04-15 | Richard G. Roth | Audio-augmented handwriting recognition |
| US5105468A (en) * | 1991-04-03 | 1992-04-14 | At&T Bell Laboratories | Time delay neural network for printed and cursive handwritten character recognition |
| US5111512A (en) * | 1991-05-14 | 1992-05-05 | At&T Bell Laboratories | Method for signature verification |
| US5343537A (en) * | 1991-10-31 | 1994-08-30 | International Business Machines Corporation | Statistical mixture approach to automatic handwriting recognition |
-
1993
- 1993-01-27 US US08/009,515 patent/US5491758A/en not_active Expired - Fee Related
- 1993-11-24 JP JP5293291A patent/JP2667954B2/ja not_active Expired - Fee Related
-
1994
- 1994-01-12 DE DE69424196T patent/DE69424196T2/de not_active Expired - Fee Related
- 1994-01-12 EP EP94100357A patent/EP0608708B1/en not_active Expired - Lifetime
-
1995
- 1995-05-25 US US08/450,558 patent/US5539839A/en not_active Expired - Lifetime
- 1995-05-25 US US08/450,556 patent/US5544261A/en not_active Expired - Fee Related
- 1995-05-25 US US08/450,557 patent/US5550931A/en not_active Expired - Fee Related
- 1995-05-25 US US08/451,001 patent/US5544264A/en not_active Expired - Fee Related
Also Published As
| Publication number | Publication date |
|---|---|
| US5544261A (en) | 1996-08-06 |
| EP0608708A3 (en) | 1995-03-29 |
| US5491758A (en) | 1996-02-13 |
| EP0608708A2 (en) | 1994-08-03 |
| US5544264A (en) | 1996-08-06 |
| DE69424196T2 (de) | 2000-12-21 |
| US5539839A (en) | 1996-07-23 |
| DE69424196D1 (de) | 2000-06-08 |
| US5550931A (en) | 1996-08-27 |
| JPH06243297A (ja) | 1994-09-02 |
| EP0608708B1 (en) | 2000-05-03 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP2667954B2 (ja) | 静的及び動的パラメータを使用する自動手書き文字認識装置及び方法 | |
| JP2750057B2 (ja) | 自動手書き文字認識に対する統計的混合手法 | |
| AU737039B2 (en) | Methods and apparatuses for handwriting recognition | |
| JP2669583B2 (ja) | 手書き認識のためのコンピュータベース方法及びシステム | |
| US6011865A (en) | Hybrid on-line handwriting recognition and optical character recognition system | |
| JP4504702B2 (ja) | 文書処理装置、文書処理方法、および文書処理プログラム | |
| US20040148577A1 (en) | Learning-based system and process for synthesizing cursive handwriting | |
| US11837001B2 (en) | Stroke attribute matrices | |
| WO1997044758A9 (en) | Methods and apparatuses for handwriting recognition | |
| CN108664975A (zh) | 一种维吾尔文手写字母识别方法、系统及电子设备 | |
| Arafat et al. | Two stream deep neural network for sequence-based Urdu ligature recognition | |
| Sundaram et al. | Bigram language models and reevaluation strategy for improved recognition of online handwritten Tamil words | |
| Jayaraman et al. | Modular approach to recognition of strokes in Telugu script | |
| Mohiuddin et al. | Unconstrained Bangla online handwriting recognition based on MLP and SVM | |
| Saon | Cursive word recognition using a random field based hidden Markov model | |
| Ye-eun | A Review of the Current Status of AI Research in Handwritten Chinese Character Recognition | |
| Garain et al. | On machine understanding of online handwritten mathematical expressions | |
| AU764561B2 (en) | Method and apparatuses for handwriting recognition | |
| Inuganti et al. | Online handwritten Indian character recognition and its extension to Telugu character recognition | |
| Abdalla et al. | Generating realistic Arabic handwriting dataset | |
| Huzaimi et al. | An Enhanced Handwriting Recognition Tool for the Visually Impaired | |
| Beigi et al. | On-Line Unconstrained Handwriting Recognition Based on Probabilistic Techniques | |
| Srihari et al. | Written Language Input | |
| Pal | Online handwritten bangla character recognition | |
| Lele et al. | Live Handwriting Recognition Using Language Semantics |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| LAPS | Cancellation because of no payment of annual fees |