JP2006005680A - Image processing apparatus, image reading apparatus, image forming apparatus, and color copying apparatus - Google Patents
Image processing apparatus, image reading apparatus, image forming apparatus, and color copying apparatus Download PDFInfo
- Publication number
- JP2006005680A JP2006005680A JP2004180225A JP2004180225A JP2006005680A JP 2006005680 A JP2006005680 A JP 2006005680A JP 2004180225 A JP2004180225 A JP 2004180225A JP 2004180225 A JP2004180225 A JP 2004180225A JP 2006005680 A JP2006005680 A JP 2006005680A
- Authority
- JP
- Japan
- Prior art keywords
- pixel
- image
- color
- white
- character
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Processing (AREA)
- Facsimile Image Signal Circuits (AREA)
- Image Analysis (AREA)
Abstract
【課題】 画像データの中の文字を検出して適切な画像処理を施す画像処理装置、該画像処理装置を備えた画像読取装置、該画像処理装置を備えた画像形成装置、及び該画像処理装置を備えたカラー複写装置を提供する。
【解決手段】 周辺画素の画像の状態を参照して注目画素の文字なか判定をするにより、大きさ画像領域の文字のなかを判定することができる。さらに、高濃度データの周辺画素周りに、網点分離結果(印刷物)、色判定結果(色)、グレー判定結果(印画紙写真)の時は、文字なか判定しないようにしている。また、高度データの周辺に網点分離結果(印刷物)、色判定結果(色)、グレー判定結果(印画紙写真)がなく、文字エッヂが存在する時は、文字なか判定するようにしている。網点分離結果を参照しているのは、印刷物の網点における黒の濃いところを誤判定しないようにするためにある。グレー判定結果を参照しているのは、印画紙写真の暗いところを誤判定しないためにある。このように、高濃度領域の隣接領域を参照することに文字のなかを精度よく判定することができる。
【選択図】 図1An image processing apparatus that detects characters in image data and performs appropriate image processing, an image reading apparatus including the image processing apparatus, an image forming apparatus including the image processing apparatus, and the image processing apparatus A color copying apparatus including the above is provided.
By determining whether a character is a pixel of interest by referring to the state of an image of surrounding pixels, it is possible to determine whether the character is in a size image area. Further, when a halftone dot separation result (printed matter), a color determination result (color), or a gray determination result (printing paper photograph) is made around the peripheral pixels of the high density data, it is not determined that the character is a character. In addition, when there is no halftone dot separation result (printed material), color determination result (color), gray determination result (printing paper photograph) around the altitude data, and there is a character edge, it is determined whether the character is a character. The halftone dot separation result is referred to in order to prevent erroneous determination of a dark black portion in the halftone dot of the printed matter. The reason for referring to the gray determination result is to prevent erroneous determination of a dark portion of the photographic paper photograph. As described above, it is possible to accurately determine the character by referring to the adjacent area of the high density area.
[Selection] Figure 1
Description
本発明は、画像データの中の文字を検出して適切な画像処理を施す画像処理装置、該画像処理装置を備えた画像読取装置、該画像処理装置を備えた画像形成装置、及び該画像処理装置を備えたカラー複写装置に関する。 The present invention relates to an image processing apparatus that detects characters in image data and performs appropriate image processing, an image reading apparatus including the image processing apparatus, an image forming apparatus including the image processing apparatus, and the image processing The present invention relates to a color copying apparatus provided with the apparatus.
画像データの中の文字を検出し、該文字領域に対して適切な画像処理を施す技術として以下の発明が提案されている。 The following inventions have been proposed as techniques for detecting characters in image data and performing appropriate image processing on the character regions.
特許文献1では、文字の再現画質を高くし、かつ文字を鮮明に再現することができる画像処理装置が提案されている。
特許文献2では、黒文字は黒の色材のみで再現し、黒文字の画質を向上させ、かつ原稿画像の黒文字以外の領域を文字部として識別する誤識別を低減することにより、高画質で原稿画像を再生する画像処理装置及びディジタルカラー複写装置が提案されている。
In
特許文献3では、文字を構成するストロークに対応するエッジペアを検出することにより、精度良く文字部のエッジのみを検出することにより、精度よく文字部のエッジのみを検出すると共に、文字部に適した画像処理を行う文字部検出方法及び画像処理装置が提案されている。
In
特許文献4では、文字の輪郭のみならず内部も識別して文字の高画質化を図ることができる画像処理装置が提案されている。
特許文献5では、文字(線画)の輪郭部のみならず内部も識別し、文字(線画)の高画質化を図る画像処理装置、画像形成装置、画像処理装置、及び画像形成装置が提案されている。
特許文献6では、文字領域と絵柄領域とが混在する画像を出力する際に、高画質を維持し、かつ、白抜けの発生を防止した画像処理装置、画像出力装置、画像処理方法、及び画像処理プログラムを記録した記録媒体が提案されている。
In
特許文献7では、高濃度太文字の中と小文字の中央部とを文字処理し、高濃度背面は階調処理することにより、従来の像域識別の問題点を解消して高画質化を実現すると共に、文字再現性を向上可能な像域識別回路を採用した原稿読取装置が提案されている。
しかしながら、上記の発明は以下の問題を有している。 However, the above invention has the following problems.
上記の発明では、文字なかを検出する際に、注目画素の周辺の数画素では、注目画素が絵柄領域に属するのか、又は文字なか領域に属する高濃度領域なのかが検出することができない。また、細線を検出するためにゴシック体のような文字と誤判定し易い。さらに、網点の絵柄においては、誤判定は生じないが印画紙写真のような網点を有しない絵柄においては誤判定が生じる。 In the above invention, when detecting a character, it is not possible to detect whether the pixel of interest belongs to a picture region or a high-density region belonging to a region of a character in several pixels around the pixel of interest. In addition, it is easy to erroneously determine a character such as a Gothic character in order to detect a thin line. Further, no erroneous determination occurs in a halftone dot pattern, but an erroneous determination occurs in a pattern that does not have a halftone dot such as a photographic paper photograph.
また、上記の発明は、文字エッジをトリガーに高濃度領域及び網点に基づいて文字内部(以下、文字なかとする)と検出しているが、隣の画素しか参照していないため、誤判定し易い。また、文字エッジ情報と黒領域の画質のみで文字なか領域を検出しているため誤判定しやすい。 In the above invention, the character edge is used as a trigger to detect the inside of the character (hereinafter referred to as a character) based on the high density area and the halftone dot. Easy to do. In addition, since an area within a character is detected based only on the character edge information and the image quality of the black area, erroneous determination is easy.
そこで、本発明は、ドットの面積で階調を表現する網点と濃度の大小を表現する中濃度領域を検出することにより、高い精度で文字なかを検出することができる画像処理装置、画像読取装置、画像形成装置、及びカラー複写装置を提案することを目的としている。 Therefore, the present invention provides an image processing apparatus and an image reading device that can detect characters with high accuracy by detecting a halftone dot that expresses a gradation by the area of a dot and an intermediate density region that expresses the magnitude of density. An object of the present invention is to propose an apparatus, an image forming apparatus, and a color copying apparatus.
請求項1記載の発明は、入力された画像データに対して所定の処理を施して出力する画像処理装置において、前記画像データの文字エッジ領域を検出する文字エッジ領域検出手段と、前記画像データの中濃度領域を検出する中濃度領域検出手段と、前記中濃度領域検出手段によって検出した前記中濃度領域を膨張処理する膨張手段と、前記画像データの絵柄領域を検出する絵柄領域検出手段と、前記文字エッジ領域検出手段による文字エッジ領域検出結果、前記中濃度領域検出手段による中濃度領域検出結果、及び前記絵柄領域検出手段による絵柄領域検出結果から前記画像データが文字を有するか否かを判定する文字判定手段と、前記中濃度領域検出手段によって検出した前記中濃度領域を膨張処理する膨張処理手段と、前記画像データの画像が有する色を判定する色判定手段と、前記文字判定手段による判定結果、前記色判定手段による判定結果、前記中濃度領域検出手段によって検出した前記中濃度領域、及び前記絵柄領域検出手段によって検出した前記絵柄領域により前記画像データが文字の中であるか否かを判定する判定手段とを有することを特徴とする。 According to a first aspect of the present invention, there is provided an image processing apparatus that performs a predetermined process on input image data and outputs the image data, a character edge area detection unit that detects a character edge area of the image data, Medium density area detecting means for detecting a medium density area; expansion means for expanding the medium density area detected by the medium density area detecting means; picture area detecting means for detecting a picture area of the image data; It is determined whether or not the image data has characters from a character edge region detection result by the character edge region detection unit, a medium density region detection result by the medium density region detection unit, and a design region detection result by the design region detection unit. A character determination means; an expansion processing means for expanding the medium density area detected by the medium density area detection means; Detected by the color determination means for determining the color of the image, the determination result by the character determination means, the determination result by the color determination means, the intermediate density area detected by the intermediate density area detection means, and the pattern area detection means And determining means for determining whether or not the image data is in a character by the pattern area.
請求項2記載の発明は、請求項1記載の画像処理装置において、前記絵柄領域検出手段は、前記画像処理対象領域から網点を検出し、前記網点が検出されなかったとき、前記画像処理対象領域に前記絵柄領域が含まれないと判定し、前記網点が検出されたとき、前記画像処理対象領域に前記絵柄領域が含まれると判定することを特徴とする。 According to a second aspect of the present invention, in the image processing apparatus according to the first aspect, the picture area detecting unit detects a halftone dot from the image processing target area, and the image processing is performed when the halftone dot is not detected. It is determined that the pattern area is not included in the target area, and when the halftone dot is detected, it is determined that the pattern area is included in the image processing target area.
請求項3記載の発明は、請求項1又は2記載の画像処理装置において、前記文字エッジ領域検出手段は、白地上の文字を検出することを特徴とする。 According to a third aspect of the present invention, in the image processing apparatus according to the first or second aspect, the character edge region detecting means detects a character on a white background.
請求項4記載の発明は、請求項1から3のいずれか1項記載の画像処理装置において、前記中濃度領域検出手段は、前記画像データから高濃度領域を検出する高濃度領域検出手段と、前記画像データからグレー画素を検出するグレー画素検出手段と、前記画像データから白領域を検出する白領域検出手段とを有することを特徴とする。 According to a fourth aspect of the present invention, in the image processing apparatus according to any one of the first to third aspects, the medium density area detecting means includes a high density area detecting means for detecting a high density area from the image data, and It has a gray pixel detecting means for detecting a gray pixel from the image data, and a white area detecting means for detecting a white area from the image data.
請求項5記載の発明は、請求項1から4のいずれか1項記載の画像処理装置において、前記判定手段は、前記高濃度領域検出手段によって所定の画素数以上の前記高濃度領域が検出されたとき、前記画像データが前記文字の中でないと判定することを特徴とする。 According to a fifth aspect of the present invention, in the image processing apparatus according to any one of the first to fourth aspects, the determination unit detects the high density region of a predetermined number of pixels or more by the high density region detection unit. The image data is determined not to be in the character.
請求項6記載の画像読取装置は、請求項1から5のいずれか1項記載の画像処理装置と、原稿画像を色分解して読み取って生成した画像データを前記画像処理装置に入力する読取手段とを有することを特徴とする。
An image reading apparatus according to
請求項7記載の画像形成装置は、請求項1から5のいずれか1項記載の画像処理装置と、前記画像処理装置から出力された画像データに基づいて作像し、作像された画像を用紙上に形成し、画像出力する画像出力手段とを有することを特徴とする。 According to a seventh aspect of the present invention, there is provided an image forming apparatus that forms an image based on the image processing apparatus according to any one of the first to fifth aspects and image data output from the image processing apparatus. And image output means for outputting an image formed on a sheet.
請求項8記載のカラー複写装置は、請求項1から5のいずれか1項記載の画像処理装置と、原稿画像を色分解して読み取って生成した画像データを前記画像処理装置に入力する読取手段と、前記画像処理装置から出力された画像データに基づいて作像し、作像された画像を用紙上に形成し、画像出力する画像出力手段とを有することを特徴とする。
The color copying apparatus according to
請求項9記載の発明は、請求項8記載のカラー複写装置において、外部からのプリント指示コマンドを解析して前記画像出力手段によって外部から入力される画像情報をプリント出力させる制御手段を更に備えていることを特徴とする。 According to a ninth aspect of the present invention, the color copying apparatus according to the eighth aspect further comprises control means for analyzing a print instruction command from the outside and printing out image information input from the outside by the image output means. It is characterized by being.
本発明は、画像データ中の高濃度領域に隣接する中濃度領域、文字エッジ領域、網点領域、及び色領域によって、該高濃度領域が文字なかに属するか否かを判定するため、高精度に文字なかを検出することができる。 The present invention determines whether or not the high density area belongs to the character by the medium density area, the character edge area, the halftone dot area, and the color area adjacent to the high density area in the image data. Can detect characters.
本発明は、周辺画素の画像の状態を参照して注目画素の文字なか判定をするにより、大きさ画像領域の文字のなかを判定することができる。さらに、高濃度データの周辺画素周りに、網点分離結果(印刷物)、色判定結果(色)、グレー判定結果(印画紙写真)の時は、文字なかとして判定しないようにしている。 According to the present invention, it is possible to determine the character in the size image area by referring to the state of the image of the peripheral pixel and determining whether the character is the pixel of interest. Further, when the result of halftone dot separation (printed matter), color determination result (color), and gray determination result (printing paper photograph) is set around the peripheral pixels of the high density data, it is not determined as a character.
以下、本発明の画像処理装置について、図面を参照して詳細に説明する。 Hereinafter, an image processing apparatus of the present invention will be described in detail with reference to the drawings.
<デジタルフルカラー複写機>
図1は本実施形態に係る画像処理装置を備えたデジタルフルカラー複写機の概略構成図である。
<Digital full color copier>
FIG. 1 is a schematic configuration diagram of a digital full-color copying machine including an image processing apparatus according to the present embodiment.
本実施形態に係るデジタルフルカラー複写機は、カラー画像読取装置(以下、スキャナという)200とカラー画像記録装置(以下、カラープリンタという)400とからなる。 The digital full-color copying machine according to the present embodiment includes a color image reading device (hereinafter referred to as a scanner) 200 and a color image recording device (hereinafter referred to as a color printer) 400.
スキャナ200は、コンタクトガラス202上の原稿150の画像を照明ランプ205、ミラー群204A、204B、204C、およびレンズ206を介してカラーセンサ207に結像して、原稿のカラー画像情報を、例えば、ブルー(以下、Bという)、グリーン(以下、Gという)およびレッド(以下、Rという)の色分解光毎に読み取り、電気的な画像信号に変換する。本実施例においてカラーセンサ207は、3ラインCCDセンサで構成されており、B、G、Rの画像を色ごとに読み取る。スキャナ200で得たB、G、Rの色分解画像信号強度レベルをもとにして、図示省略された画像処理ユニットにて色変換処理を行い、ブラック(以下、Bkという)、シアン(以下、Cという)、マゼンダ(以下、Mという)およびイエロー(以下、Yという)の記録色情報を含むカラー画像データを得る。
The
このカラー画像データを用い、カラープリンタ400によって、Bk、C、M、Yの画像を中間転写ベルト上に重ね形成し、そして転写紙に転写する。スキャナ200は、カラープリンタ400の動作とタイミングをとったスキャナスタート信号を受けて、照明ランプやミラー群204A、204B、204Cなどからなる照明・ミラー光学系が左矢印方向へ原稿走査し、1回走査毎に1色の画像データを得る。そして、その都度、カラープリンタ400で順次、顕像化しつつ、これらを中間転写ベルト上に重ね合わせて、4色のフルカラー画像を形成する。
Using this color image data, the
カラープリンタ400の露光手段としての書き込み光学ユニット401は、スキャナ200からのカラー画像データを光信号に変換して、原稿画像に対応した光書き込みを行い、感光体ドラム414上に静電潜像を形成する。光書き込み光学ユニット401は、レーザ発光器441、これを発光駆動する発光駆動制御部(図示省略)、ポリゴンミラー443、これを回転駆動する回転用モータ444、fθレンズ442、反射ミラー446などで構成されている。感光体ドラム414は、矢印で示すように図示反時計方向に回転する。感光体ドラム414の周りには、感光体クリーニングユニット421、除電ランプ414M、帯電器419、感光体ドラム上の潜像電位を検知する電位センサ414D、リボルバ現像装置420のうちの選択された現像器、現像濃度パターン検知器414P、中間転写ベルト415などが配置されている。
A writing
リボルバ現像装置420は、BK現像器420K、C現像器420C、M現像器420M、Y現像器420Yと、各現像器を矢印で示すように図示反時計方向に回転させるリボルバ回転駆動部(図示省略)などからなる。これら各現像器は、静電潜像を顕像化するために、現像剤の穂を感光体ドラム414の表面に接触させる。各現像器は、回転する現像スリーブ420KS、420CS、420MS、420YSと、現像剤を組み上げ・撹拌するために回転する現像パドルなどで構成されている。待機状態では、リボルバ現像装置420はBK現像器420Kで現像を行う位置にセットされており、コピー動作が開始されると、スキャナ200で所定のタイミングからBK画像データの読み取りがスタートし、この画像データに基づき、レーザ光による光書き込み・潜像形成が始まる。以下、Bk画像データによる静電潜像をBk潜像という。C、M、Yの各画像データについても同様である。このBk潜像の先端部から現像可能とすべく、Bk現像器420Kの現像位置に潜像先端部が到達する前に、現像スリーブ420KSの回転を開始させ、Bk潜像をBkトナーで現像する。そして、以後、Bk潜像領域の現像動作を続けるが、潜像後端部がBk潜像位置を通過した時点で、速やかに、Bk現像器420Kによる現像位置から次の色の現像器による現像位置まで、リボルバ現像装置420を駆動して回動させる。この回動動作は、少なくとも次の画像データによる潜像先端部が到達する前に完了させる。
The
像の形成サイクルが開始されると、感光体ドラム414は矢印で示すように反時計方向に回転し、中間転写ベルト415は図示しない駆動モータにより、時計方向に回転する。中間転写ベルト415の回転動作に伴って、BKトナー像形成、Cトナー像形成、Mトナー像形成およびYトナー像形成が順次行われ、最終的に、BK、C、M、Yの順に中間転写ベルト415上に重ねてトナー像が形成される。BK像の形成は、以下のようにして行われる。すなわち、帯電器419がコロナ放電によって、感光体ドラム414を負電荷で約−700Vに一様に帯電する。続いて、レーザダイオード441は、Bk信号に基づいてラスタ露光を行う。このようにラスタ像が露光されたとき、当初、一様に荷電された感光体ドラム414の露光された部分については、露光光量に比例する電荷が消失し、静電潜像が形成される。リボルバ現像装置420内のトナーは、フェライトキャリアとの撹拌によって負極性に帯電され、また、本現像装置のBK現像スリーブ420KSは、感光体ドラム414の金属基体層に対して図示しない電源回路によって、負の直流電位と交流とが重畳された電位にバイアスされている。この結果、感光体ドラム414の電荷が残っている部分には、トナーが付着せず、電荷のない部分、つまり、露光された部分にはBkトナーが吸着され、潜像と相似なBk可視像が形成される。中間転写ベルト415は、駆動ローラ415D、転写対向ローラ415T、クリーニング対向ローラ415Cおよび従動ローラ415F群に張架されており、図示しない駆動モータにより回動駆動される。さて、感光体ドラム414上に形成したBkトナー像は、感光体と接触状態で等速駆動している中間転写ベルト415の表面に、ベルト転写コロナ放電器(以下、ベルト転写部という。)416によって転写される。以下、感光体ドラム414から中間転写ベルト415へのトナー像転写を、ベルト転写と称する。感光体ドラム414上の若干の未転写残留トナーは、感光体ドラム414の再使用に備えて、感光体クリーニングユニット421で清掃される。ここで回収されたトナーは、回収パイプを経由して図示しない排トナータンクに蓄えられる。
When the image forming cycle is started, the
なお、中間転写ベルト415には、感光体ドラム414上に順次形成するBk、C、M、Yのトナー像を、同一面に順次、位置合わせして、4色重ねのベルト転写画像を形成し、その後、転写紙にコロナ放電転写器によって一括転写を行う。ところで、感光体ドラム414側では、BK画像の形成工程の次に、C画像の形成工程に進むが、所定のタイミングから、スキャナ200によるC画像データの読み取りが始まり、その画像データによるレーザ光書き込みで、C潜像の形成を行う。C現像器420Cは、その現像位置に対して、先のBk潜像後端部が通過した後で、かつ、C潜像先端が到達する前に、リボルバ現像装置の回転動作を行い、C潜像をCトナーで現像する。以降、C潜像領域の現像を続けるが、潜像後端部が通過した時点で、先のBk現像器の場合と同様にリボルバ現像装置420を駆動して、C現像器420Cを送り出し、次のM現像器420Mを現像位置に位置させる。この動作もやはり、次のM潜像先端部が現像部に到達する前に行う。なお、MおよびYの各像の形成工程については、それぞれの画像データの読み取り、潜像形成、現像の動作が、前述のBk像や、C像の工程に準ずるので、説明は省略する。
In addition, on the
ベルトクリーニング装置415Uは、入口シール、ゴムブレード、排出コイルおよび、これら入口シールやゴムブレードの接離機構により構成される。1色目のBk画像をベルト転写した後の、2、3、4色目の画像をベルト転写している間は、ブレード接離機構によって、中間転写ベルト面から入口シール、ゴムブレードなどは離間させておく。 The belt cleaning device 415U includes an inlet seal, a rubber blade, a discharge coil, and a contact / separation mechanism for the inlet seal and the rubber blade. During belt transfer of the second, third, and fourth color images after the first color Bk image is transferred to the belt, the blade seal mechanism separates the inlet seal, rubber blade, and the like from the intermediate transfer belt surface. deep.
紙転写コロナ放電器(以下、紙転写器という。)417は、中間転写ベルト415上の重ねトナー像を転写紙に転写するべく、コロナ放電方式にて、AC+DCまたは、DC成分を転写紙および中間転写ベルトに印加する。
A paper transfer corona discharger (hereinafter referred to as a paper transfer unit) 417 is a corona discharge method for transferring the superimposed toner image on the
給紙バンク内の転写紙カセット482には、各種サイズの転写紙が収納されており、指定されたサイズの用紙を収納しているカセットから、給紙コロ483によってレジストローラ対415R方向に給紙・搬送される。なお、符号412B2は、OHP用紙や厚紙などを手差しするための給紙トレイを示している。転写紙は、像形成が開始されるタイミングで前記いずれかの給紙トレイから給送され、レジストローラ対415Rのニップ部にて待機している。そして、紙転写器417に中間転写ベルト415上のトナー像の先端がさしかかるときに、転写紙先端がこの像の先端に一致する如くにレジストローラ対415Rが駆動され、紙と像との合わせが行われる。このようにして、転写紙が中間転写ベルト上の色重ね像と重ねられて、正電位につながれた紙転写器417の上を通過する。このとき、コロナ放電電流で転写紙が正電荷で荷電され、トナー画像の殆どが転写紙上に転写される。つづいて、紙転写器417の左側に配置した図示しない除電ブラシによる分離除電器を通過するときに、転写紙は除電され、中間転写ベルト415から剥離されて紙搬送ベルト422に移る。中間転写ベルト面から4色重ねトナー像を一括転写された転写紙は、紙搬送ベルト422で定着器423に搬送され、所定温度にコントロールされた定着ローラ423Aと加圧ローラ423Bのニップ部でトナー像を溶融定着され、排出ロール対424で本体外に送り出され、図示省略のコピートレイに表向きにスタックされる。
The
なお、ベルト転写後の感光体ドラム414は、ブラシローラ、ゴムブレードなどからなる感光体クリーニングユニット415Uで表面をクリーニングされ、また、除電ランプ414Mで均一除電される。また、転写紙にトナー像を転写した後の中間転写ベルト415は、再び、クリーニングユニット415Uのブレード接離機構でブレードを押圧して表面をクリーニングする。リピートコピーの場合には、スキャナの動作および感光体への画像形成は、1枚目の4色目画像工程にひきつづき、所定のタイミングで2枚目の1色目画像工程に進む。中間転写ベルト415の方は、1枚目の4色重ね画像の転写紙への一括転写工程にひきつづき、表面をベルトクリーニング装置でクリーニングされた領域に、2枚目のBkトナー像がベルト転写されるようにする。その後は、1枚目と同様動作になる。
The surface of the
図1に示すデジタルフルカラー複写機は、パーソナルコンピュ−タ等のホストから、LANまたはパラレルI/Fを通じてプリントデ−タが与えられるとそれをカラープリンタ400でプリントアウト(画像出力)でき、しかもスキャナ200で読み取った画像データを遠隔のファクシミリに送信し、受信する画像データもプリントアウトできる複合機能つきのカラー複写機である。この複写機は、構内交換器PBXを介して公衆電話網に接続され、公衆電話網を介して、ファクシミリ交信やサ−ビスセンタの管理サ−バと交信することができる。
The digital full color copying machine shown in FIG. 1 can print out (image output) with a
<電気システム>
≪システムの概要≫図2に、本実施形態に係るデジタルフルカラー複写機の電気システムの概要を示す。図2はメインコントローラ10を中心に、デジタルフルカラー複写機の制御装置を図示したものである。メインコントローラ10は、複写機全体を制御する。メインコントローラ10には、オペレータに対する表示と、オペレータからの機能設定入力制御を行う操作/表示ボードOPB、エディタ15、スキャナ200およびオプションのADFの制御、原稿画像を画像メモリに書き込む制御、および、画像メモリからの作像を行う制御等を行うスキャナコントローラ12、プリンタコントローラ16、画像処理ユニット(IPU)300、ならびにカラープリンタ400内にあって荷電、露光、現像、給紙、転写、定着、および転写紙搬送を行う作像エンジンの制御を行うエンジンコントローラ13等の分散制御装置が接続されている。各分散制御装置とメインコントローラ10は、必要に応じて機械の状態、動作指令のやりとりを行っている。また、紙搬送等に必要なメインモータ、各種クラッチも、メインコントロ−ラ10内の図示しないドライバに接続されている。なお、11はICカード、14はソータコントローラであり、ICカード11は、例えば部署毎の複写枚数の管理などに使用される。
<Electrical system>
<< Outline of System >> FIG. 2 shows an outline of the electrical system of the digital full-color copying machine according to the present embodiment. FIG. 2 illustrates a control device for a digital full-color copying machine with the
カラープリンタ400には、給紙トレイからの給紙をはじめとして、感光体414の荷電、レーザ書込みユニットによる画像露光、現像、転写、定着および排紙を行なう機構要素を駆動する電気回路および制御回路、および各種センサ等が設けられている。
The
プリンタコントローラ16は、パソコンなど外部からの画像およびプリント指示するコマンドを解析し、画像データとして、印刷できる状態にビットマップ展開し、メインコントローラ10を介して、プリンタ400を駆動して画像データをプリントアウトする。画像およびコマンドをLANおよびパラレルI/Fを通じて受信し動作するために、LANコントロール19とパラレルI/F18を備えている。
The
FAXコントローラ17は、フアクシミリ送信指示があるときには、メインコントローラ10を介してスキャナ200およびIPU300を駆動し、原稿の画像を読んで画像データを通信コントロール20およびPBXを介してファクシミリ通信回線に送出する。通信回線からファクシミリの呼びを受け、画像データを受信すると、メインコントローラ10を介してプリンタ400を駆動し、画像データをプリントアウトする。
When there is a facsimile transmission instruction, the
図3に、画像処理ユニット(IPU)300の構成を示す。同図において、スキャナ200から出力されるR、G、B画像データが、インターフェース(1)351を介してIPU300に与えられる。なお、BまたはR単色の記録をBRユニット356が指示する時には、R、G、B画像データの選択と集成が行われるが、このモードの画像記録処理の説明は省略する。IPU300に与えられたR、G、B画像データは、RGBγ補正部310で、反射率データ(R、G、Bデータ)から濃度データ(R、G、Bデータ)に変換される。
FIG. 3 shows the configuration of the image processing unit (IPU) 300. In the figure, R, G, B image data output from the
原稿認識部320が、この濃度R、G、Bデータに基づいて、それらのデータが宛てられる画像領域が文字領域(文字や線画の領域)か絵柄領域(写真や絵の領域&文字領域でない領域)かを判定し、C/P信号およびB/C信号を、RGBフィルタ部330、ならびに、インターフェース(3)353を介してメインコントローラ10に与える。なお、C/P信号は、C/P信号:2ビット信号であり、2が、文字なか領域、1が文字エッジ領域を示し、0が絵柄領域を示す。
Based on the density R, G, B data, the
B/C信号は、B/C信号:1ビット信号であり、H(「1」)が無彩領域を示し、L(「0」)が有彩領域を示す。 The B / C signal is a B / C signal: a 1-bit signal, where H (“1”) indicates an achromatic region and L (“0”) indicates a chromatic region.
≪原稿認識部320(図4)≫図4に、原稿認識部320の機能をブロック区分で示す。原稿認識部320は、文字エッジ検出、絵柄検出および有彩/無彩検出を行って、文字エッジ領域あるいは絵柄領域を表すC/P信号および有彩領域/無彩領域を表すB/C信号を発生する。
<< Document Recognition Unit 320 (FIG. 4) >> FIG. 4 shows functions of the
原稿認識部320は、大別すると、フィルタ部321、エッジ抽出部322、白領域抽出部323、網点抽出部324、色判定部325および総合判定部326からなる。なお、ここでは、スキャナ200の読み取り密度が600dpi程度の場合を例として説明する。
The
≪フィルタ部321≫フィルタ部321は、主に文字のエッジの抽出ために、スキャナ200が発生するG画像データを補正する。ここで、スキャナ200で読み取ったデータは、レンズなどの性能でボケていることがあるので、エッジ強調フィルタをかける。ここでは、単純に原稿上のエッジを強調し、複写機に広く普及している階調表現のための万線パターンを強調しない必要がある。万線パターンを強調してしまうと、絵柄(万線パターンによる階調表現領域)をエッジとして抽出して、最終的に文字エッジと誤判定する可能性があるので、強調しないようにする必要がある。また、図8に示すように、600dpiの万線パターンAと400dpiの万線パターンBは、繰返し周期が異なるので、同一のフィルタ係数で強調しないようにするのは難しい。そのため、画像パターンの周期を検出して、フィルタの係数を切換える。なお、図8において、主走査方向xの白1ブロック幅とそれに接する黒1ブロック幅との和が、万線ピッチ(定幅:所定数の画素)すなわち万線周期であり、低濃度中間調の時には白ブロック幅が広がり黒ブロック幅が狭くなる。高濃度中間調になるにつれて、白ブロック幅が狭くなり黒ブロック幅が広がる。
<< Filter Unit 321 >> The filter unit 321 corrects the G image data generated by the
この実施形態では、フィルタ部321の画素マトリクスを、主走査方向xの画素数7×副走査方向y(スキャナ200の機械的な原稿走査方向)の画素数5として、図4上のフィルタ部321のブロックに示すように、各画素宛てに各重み付け係数a1〜a7、b1〜b7、c1〜c7、d1〜d7、e1〜e7を宛てた2組の係数グループ(係数マトリクス)A、Bがある。次の係数グループAは、図8に示す600dpiの万線パターンAの強調を抑制し、文字のエッジを強調するフィルタ処理用の係数であり、係数グループBは、図8に示す400dpiの万線パターンBの強調を抑制し、文字のエッジを強調するフィルタ処理用の係数である。 In this embodiment, the filter unit 321 has a pixel matrix of 7 pixels in the main scanning direction x × 5 pixels in the sub-scanning direction y (mechanical document scanning direction of the scanner 200). As shown in the block, there are two sets of coefficient groups (coefficient matrices) A and B addressed to each pixel, each weighted coefficient a1 to a7, b1 to b7, c1 to c7, d1 to d7, and e1 to e7. . The next coefficient group A is a filter processing coefficient that suppresses emphasis of the 600 dpi line pattern A shown in FIG. 8 and emphasizes the edge of the character. The coefficient group B is a 400 dpi line shown in FIG. This is a filter processing coefficient that suppresses emphasis of the pattern B and emphasizes the edge of the character.
係数グループA
0 −1 0 −2 0 −1 0
0 −1 0 −2 0 −1 0
0 −1 −1 20 −1 −1 0
0 −1 0 −2 0 −1 0
0 −1 0 −2 0 −1 0
Coefficient group A
0 -1 0 -2 0 -1 0
0 -1 0 -2 0 -1 0
0 -1 -1 20 -1 -1 0
0 -1 0 -2 0 -1 0
0 -1 0 -2 0 -1 0
係数グループB
−1 0 0 −2 0 0 −1
−1 0 0 −2 0 0 −1
−1 0 −1 20 −1 0 −1
−1 0 0 −2 0 0 −1
−1 0 0 −2 0 0 −1
Coefficient group B
-1 0 0 -2 0 0 -1
-1 0 0 -2 0 0 -1
-1 0 -1 20 -1 0 -1
-1 0 0 -2 0 0 -1
-1 0 0 -2 0 0 -1
なお、横方向が主走査方向xの並び、縦方向が副走査方向yの並びである。係数グループA、Bの、グループ内第1行の係数が、図4上のフィルタ321のブロックの係数マトリクスの、第1行の係数a1〜a7であり、係数グループA、Bの第3行の中央の「20」が、フィルタ部321のブロックの係数マトリクスの第3行c1〜c7の中央の画素の係数即ち注目画素の係数c4である。係数マトリクスの各係数に、それに宛てられる画素の画像データが表す値を乗算した積(総計7×5=35個)の総和(積和値)を16で割り、注目画素を足して注目画素の補正を行う。注目画素(c4が宛てられた画素)のフィルタ部321で処理した画像データ値は、エッジ抽出部322および白領域抽出部323に与えられる。ここで注目画素とは、現在処理対象の画素であり、それが順次にx方向にそしてy方向に位置が異なるものに更新される。
Note that the horizontal direction is the alignment in the main scanning direction x, and the vertical direction is the alignment in the sub-scanning direction y. The coefficients in the first row of the coefficient groups A and B are the coefficients a1 to a7 in the first row of the coefficient matrix of the block of the filter 321 in FIG. The center “20” is the coefficient of the pixel in the center of the third row c1 to c7 of the coefficient matrix of the block of the filter unit 321, that is, the coefficient c4 of the target pixel. The sum (product sum value) of the products (total 7 × 5 = 35) obtained by multiplying each coefficient of the coefficient matrix by the value represented by the image data of the pixel addressed to it is divided by 16, and the target pixel is added by adding the target pixel. Make corrections. The image data value processed by the filter unit 321 of the target pixel (pixel addressed to c4) is given to the
係数グループAは、図8に示す600dpiの万線パターンAの万線ピッチで負の係数(小さい値の係数)が分布しそれらの間に0(やや大きい値の係数)が分布し、そしてエッジ強調のために注目画素には20(極めて大きな係数)が宛てられている。これにより、画像データ(注目画素)が万線パターンAの領域の黒/白間エッジである時には、それにあてて導出される加重平均値(積和値)は、万線パターンAでない文字エッジである時に比べて、かなり低い値になる。 In the coefficient group A, a negative coefficient (small value coefficient) is distributed at the line pitch of the 600 dpi line pattern A shown in FIG. 8, and 0 (slightly large coefficient) is distributed between them, and the edge For emphasis, 20 (very large coefficient) is assigned to the target pixel. As a result, when the image data (target pixel) is the black / white edge of the line pattern A region, the weighted average value (product sum value) derived therefrom is the character edge that is not the line pattern A. Compared to a certain time, the value is considerably lower.
係数グループBは、図8に示す400dpiの万線パターンBの万線ピッチで負の係数(小さい値の係数)が分布し、それらの間に0(やや大きい値の係数)が分布し、そして、エッジ強調のために注目画素には20(極めて大きな係数)が宛てられている。これにより、画像データ(注目画素)が万線パターンBの領域の黒/白間エッジである時には、それにあてて導出される加重平均値(積和値)は、万線パターンBでない文字エッジである時に比べて、かなり低い値になる。 In the coefficient group B, negative coefficients (small value coefficients) are distributed at the line pitch of the 400 dpi line pattern B shown in FIG. 8, and 0 (slightly large coefficient) is distributed between them, and For the edge enhancement, 20 (very large coefficient) is assigned to the target pixel. As a result, when the image data (target pixel) is the black / white edge of the line pattern B region, the weighted average value (product sum value) derived therefrom is the character edge that is not the line pattern B. Compared to a certain time, the value is considerably lower.
なお、フィルタ部321では、下記条件1、2のどちらかが成立したとき、即ち、図8の400dpiの万線パターンBである可能性が高い時に、係数グループBによるフィルタ処理を行い、そうでないときに係数グループAによるフィルタ処理を行なう:
−条件1−〔400dpi系の万線パターンBの薄いところ(図8上の白区間)かを見る条件〕
(D[3][1]<D[3][2])&
(D[3][7]<D[3][6])&
(ABS(D[3][2]−D[3][4])>ABS(D[3][4]−D[3][1]))&
(ABS(D[3][6]−D[3][4])>ABS(D[3][4]−D[3][7]))
−条件2−〔400dpi系の万線パターンBの濃いところ(図8上の黒区間)かを見る条件〕
(D[3][1]>D[3][2])&
(D[3][7]>D[3][6])&
(ABS(D[3][2]− D[3][4])>ABS(D[3][4]−D[3][1]))&
(ABS(D[3][6]−D[3][4])>ABS(D[3][4]−D[3][7]))
なお、D[i][j]は、x、y分布の画素マトリクス上の、x=i、y=jの位置の画素の画像データが表す値を意味し、例えば、D[3][1]は、図4上のフィルタ部321のブロックに示す係数マトリクスの係数a3が宛てられる画素の画像データが表す値である。「&」は「論理積:AND」を意味し、「ABS」は、絶対値演算子を意味する。注目画素は、D[4][3]である。
The filter unit 321 performs the filter processing by the coefficient group B when either of the following
-Condition 1- [Condition to see if the 400 dpi line pattern B is thin (white section in FIG. 8)]
(D [3] [1] <D [3] [2]) &
(D [3] [7] <D [3] [6]) &
(ABS (D [3] [2] -D [3] [4])> ABS (D [3] [4] -D [3] [1])) &
(ABS (D [3] [6] -D [3] [4])> ABS (D [3] [4] -D [3] [7]))
-Condition 2-[Condition to see if the 400 dpi line pattern B is dark (black section in FIG. 8)]
(D [3] [1]> D [3] [2]) &
(D [3] [7]> D [3] [6]) &
(ABS (D [3] [2] −D [3] [4])> ABS (D [3] [4] −D [3] [1])) &
(ABS (D [3] [6] -D [3] [4])> ABS (D [3] [4] -D [3] [7]))
Note that D [i] [j] means a value represented by image data of a pixel at a position of x = i, y = j on a pixel matrix of x, y distribution, for example, D [3] [1 ] Is a value represented by image data of a pixel to which the coefficient a3 of the coefficient matrix shown in the block of the filter unit 321 in FIG. 4 is addressed. “&” Means “logical product: AND”, and “ABS” means an absolute value operator. The target pixel is D [4] [3].
前記条件1または2が成立すると、その時の注目画素が、図8に示す600dpi読み取り時の400dpiの万線パターンBの領域のものとして、係数グループBを用いて文字エッジ強調のフィルタ処理を行う。条件1および2のいずれも成立しないと、図8に示す600dpi読み取り時の600dpiの万線パターンAが強調されるのを避ける係数グループAを用いて文字エッジ強調のフィルタ処理を行う。即ち、画像周期(ピッチ)を検出して、特定周期の画像パターンを強調しないようにしている。万線パターンを強調せずに、文字のエッジを強調することが可能となる。なお、図4には、エッジ処理にG画像データを参照する態様を示すが、G画像データに限らず、輝度データであってもよい。濃薄を表現する信号なら適応可能である。
When the
<エッジ抽出>
≪エッジ抽出部322≫文字領域は、高レベル濃度の画素と低レベル濃度の画素(以下、黒画素、白画素と呼ぶ)が多く、かつ、エッジ部分では、これらの黒画素および白画素が連続している。エッジ抽出部322は、このような黒画素および白画素それぞれの連続性に基づいて文字エッジを検出する。
<Edge extraction>
<<
≪3値化部322a≫まず、3値化部322aで、2種の閾値TH1およびTH2を用いて、フィルタ部321が文字エッジ強調のフィルタ処理をしたG画像データ(エッジ抽出部322の入力データ)を3値化する。閾値TH1およびTH2は、例えば、画像データが0から255までの256階調(0=白)を表す場合、例えばTH1=20、TH2=80に設定する。3値化部322aでは、
入力データ<TH1
であると、該データが宛てられる画素を白画素と表す3値化データに入力データを変換し、
TH1≦入力データ<TH2
であると中間調画素と表す3値化データに入力データを変換し、
TH2≦入力データ
であると黒画素と表す3値化データに入力データを変換する。
<<
Input data <TH1
The input data is converted into ternary data representing pixels to which the data is addressed as white pixels,
TH1 ≦ input data <TH2
Is converted to input ternary data representing halftone pixels,
When TH2 ≦ input data, the input data is converted into ternary data representing black pixels.
≪黒画素連続検出部322b、白画素連続検出部322c≫黒画素連続検出部322bおよび白画素連続検出部322cが、3値化データに基づいて黒画素が連続する箇所および白画素が連続する箇所を、それぞれパターンマッチングにより検出する。このパターンマッチングには、本実施形態では、図9に示す3×3画素マトリクスのパターンBPa〜BPdおよびWPa〜WPdを用いる。図9に示すパターンにおいて、黒丸は前述の黒画素であることを示し、白丸は前述の白画素であることを示し、いずれの丸印もない空白画素は、黒画素、中間調画素、白画素のいずれであるか問わないものである。3×3画素マトリクスの中心の画素が注目画素である。
<< Black Pixel
黒画素連続検出部322bは、3値化データの内容の分布が、図9に示す黒画素分布パターンBPa〜BPdのいずれかにマッチングすると、その時の注目画素を「黒連続画素」としてそれを表すデータを該注目画素に与える。同様に、白画素連続検出部322cは、図9に示す白画素分布パターンWPa〜WPdのいずれかにマッチングすると、その時の注目画素を「白連続画素」としてそれをあらわすデータを該注目画素に与える。
When the distribution of the content of the ternary data matches any of the black pixel distribution patterns BPa to BPd shown in FIG. 9, the black pixel
≪近傍画素検出部322d≫次の近傍画素検出部322dは、黒画素連続検出部322bおよび白画素連続検出部322cの検出結果について、この近傍画素検出部322dでの注目画素の近傍に黒連続画素または白連続画素があるか否かを調べることにより、該注目画素が、エッジ領域と非エッジ領域のいずれにあるかを判定する。より具体的に述べれば、本実施形態にあっては、5×5画素マトリクスのブロックで、その内部に黒連続画素と白連続画素がそれぞれ1つ以上存在するときに、そのブロックをエッジ領域と判定し、そうでないときに、そのブロックを非エッジ領域と判定する。
<< Neighboring
≪孤立点除去部322e≫さらに、文字エッジは連続して存在するので、孤立点除去部322eにて孤立しているエッジを非エッジ領域に補正する。そして、エッジ領域と判定した画素に対して“1”(エッジ領域)なるedge信号を出力し、非エッジ領域と判定した画素に対して“0”(非エッジ領域)なるedge信号を出力する。
<< Isolated
<白領域抽出>
≪白領域抽出部323≫図4における白領域抽出部323は、図21に示すように2値化部323e、RGB白抽出部323b、白判定部323c、白パターンマッチング部323d、白パターン補正部323j、白膨張部323k、白収縮部323l、白補正部323g、グレーパターンマッチング部323h、グレー膨張部323iおよび判定部323mからなる。なお、図4における白領域抽出部323は図21のMの部分を置換したものである。
<White area extraction>
<< White
≪2値化部323e≫2値化部323eは、フィルタ部321の画像濃度データ(G画像データ)のエッジ強調出力を、閾値thwsbで2値化して、白パターンマッチング部323d(の処理を表す図5のステップS7)が参照する白データの生成のための2値化白判定信号を発生する。なお、エッジ強調出力は、この実施形態では0から255の256階調であり、0が濃度の無い白であり、閾値thwsbの一例は50であって、エッジ強調出力の値がthwsb=50より小さければ、2値化部323eが「2値化白」と判定し、2値化白判定信号「1」を発生する。エッジ強調出力の値がthwsb=50以上のときは2値化白判定信号「0」を発生する。
<<
≪RGB白抽出部323b≫RGB白抽出部323bは、
1)RGB白地検出
2)色地検出
3)グレー画素検出
を行って、画像データが白領域かグレー領域(中濃度領域)か否かを判定する。
<< RGB
1) RGB white background detection 2) Color background detection 3) Gray pixel detection is performed to determine whether the image data is a white area or a gray area (medium density area).
1)RGB白地検出
該RGB白地検出では、R,G,B画像データで白地領域を検出することにより、白背景分離の動作をアクティブにする。すなわち白背景分離の処理を起動する。具体的には、図10のパターンWBPに示すように、3×3画素マトリックスのR,G,B画像データのすべてが閾値thwssより小さければ、注目画素(3×3画素マトリックスの中心画素)を白領域と判定して白パターンマッチング部323d(の処理を表す図10のステップS3が参照する白地判定信号)をアクティブ(「1」)にする。これは、ある程度の広がりの白画素領域があるかを検出するものである。なお、R,G,B画像データのそれぞれも、この実施形態では0から255の256階調であり、0が濃度の無い基底レベルであり、閾値thwss<thwsbであって、thwssの一例は40であって、R,G,B画像データのすべてがthwss=40より小さいと、「白地」と判定し白地判定信号「1」を発生する。R,G,B画像データのいずれかがthwss=40以上のときは白地判定信号「0」を発生する。
1) RGB White Background Detection In the RGB white background detection, the white background separation operation is activated by detecting a white background area from R, G, B image data. That is, the white background separation process is started. Specifically, as shown in the pattern WBP of FIG. 10, if all of the R, G, B image data of the 3 × 3 pixel matrix is smaller than the threshold thwss, the target pixel (the central pixel of the 3 × 3 pixel matrix) is determined. The white area is determined and the white pattern matching unit 323d (white background determination signal referred to in step S3 of FIG. 10 representing the processing) is activated (“1”). This is to detect whether there is a white pixel region of a certain extent. Each of the R, G, and B image data has 256 gradations from 0 to 255 in this embodiment, 0 is a base level without density, threshold thwss <thwsb, and an example of thwss is 40. If all of the R, G, B image data are smaller than thwss = 40, it is determined as “white background” and a white background determination signal “1” is generated. When any of the R, G, and B image data is thwss = 40 or more, a white background determination signal “0” is generated.
2)色地検出
薄い色を白背景と判定しないようにするために、色地を検出する。
A)ここでは先ず、注目画素を中心とする5×5画素マトリックスの各画素の符号を、図11のパターンMPpに示すものとすると、注目画素となる中心画素c3(MCa〜MCdの×印画素)のRGB差(1画素宛てのR,G,B画像データの最大値と最小値との差)が閾値thcより大きいときは色画素判定信号aを「1」(色画素)とし、閾値thc以下のときは「0」(白黒画素)とする。
B)注目画素の片側の周辺画素群△(図11のMCa〜MCdの中)のいずれかの画素のR,G,B画像データがすべて閾値thwc以下であると、一方側白判定信号bを「1」(白画素)とし、閾値thwcを超えるときは「0」(非白画素)とする。閾値thwcは例えば20である。
C)注目画素の他方側の周辺画素群□(図11のMCa〜MCdの中)のいずれかの画素のR,G,B画像データがすべて閾値thwc以下であると他方側白判定信号cを「1」(白画素)とし、閾値thwcを超えるときは「0」(非白画素)とする。
D)図11のパターンMCa〜MCdのいずれかにおいて、
a AND (bとcのエクスクルーシブノア)=「1」
が成立すると、すなわち、a=「1」(注目画素が色画素)、かつ、bとcが一致(注目画素の両側ともに白画素、または、両側ともに非白画素)のとき、注目画素宛ての色地判定信号dを「1」(色地)とする。この色地判定信号dは、白パターンマッチング部323d(の処理を表す図10のステップS6)で参照される。
2) Color Background Detection Color background is detected so that a light color is not determined as a white background.
A) Here, first, assuming that the sign of each pixel of the 5 × 5 pixel matrix centered on the target pixel is shown in the pattern MPp of FIG. 11, the center pixel c3 that is the target pixel (X mark pixels of MCa to MCd) ) RGB difference (difference between the maximum and minimum values of R, G, B image data addressed to one pixel) is greater than the threshold thc, the color pixel determination signal a is set to “1” (color pixel), and the threshold thc In the following cases, “0” (monochrome pixel) is set.
B) If the R, G, B image data of any pixel in the peripheral pixel group Δ (in MCa to MCd in FIG. 11) on one side of the target pixel are all equal to or less than the threshold thwc, the one-side white determination signal b is “1” (white pixel), and “0” (non-white pixel) when the threshold value thwc is exceeded. The threshold thwc is 20, for example.
C) If the R, G, B image data of any pixel in the peripheral pixel group □ (in MCa to MCd in FIG. 11) on the other side of the target pixel is less than or equal to the threshold thwc, the other-side white determination signal c is “1” (white pixel), and “0” (non-white pixel) when the threshold value thwc is exceeded.
D) In any of the patterns MCa to MCd in FIG.
a AND (exclusive NOR of b and c) = "1"
That is, when a = “1” (the pixel of interest is a color pixel) and b and c match (a white pixel on both sides of the pixel of interest or a non-white pixel on both sides), The color background determination signal d is set to “1” (color background). This color ground determination signal d is referred to by the white pattern matching unit 323d (step S6 in FIG. 10 representing the processing).
前述のパターンマッチングA〜Dを行うのは、黒文字のまわりがRGB読み取り位置ずれでわずかながらに色付きになるとき、そこを色と拾わないためである。黒文字のまわりの色付きの位置では、(bとcのエクスクルーシブノア)か゛「0」(注目画素の両側の一方が白画素、他方が非白画素)となり、この場合は、色地判定信号d=「0」(非色地)となる。加えて、注目画素が、周辺を白地で囲まれた色画素のときには、色地判定信号d=「1」(色地)となり、線が込み入ったところでも、薄い色画素を色地として検出することができる。すなわち、線が込み入ったところでは、本来白いところが完全に白に読み取られないが、前記処理A.でRGB差が小さい場合には色画素と判定しないので、閾値thwcを、濃度を見るべき白地よりも厳しく設定して(たとえばthwss=40、thwsb=50に対し、thwc=20)、B〜Dの処理で白背景か否を厳密にチェックして薄い色画素を色地として正確に検出することができる。 The above-described pattern matching A to D is performed because when a black character is slightly colored due to the RGB reading position shift, it is not picked up as a color. At a colored position around the black character, (exclusive NOR of b and c) or “0” (one pixel on both sides of the target pixel is a white pixel and the other is a non-white pixel). In this case, the color gamut determination signal d = “0” (non-colored background). In addition, when the pixel of interest is a color pixel whose periphery is surrounded by a white background, the color background determination signal d = “1” (color background), and even when the line is intricate, a light color pixel is detected as the color background. be able to. That is, when the line is intricate, the originally white portion is not completely read as white. When the RGB difference is small, the pixel is not determined as a color pixel. Therefore, the threshold thwc is set to be stricter than the white background for which the density is to be viewed (for example, thws = 20 for thwss = 40 and thwsb = 50). In this process, it is possible to accurately check whether the background is a white background and accurately detect a light color pixel as a color background.
なお、色時検出に際し、谷白画素検出を行う場合もある。谷白画素検出は、前記RGB白地検出で検出できない小さな白領域の谷白画素を図10に示すG画像データの5×5画素マトリクス分布RDPaおよびRDPbに基づいて検出する。具体的には、5×5画素マトリクス分布RDPaに基づいて、
miny=min(G[1][2]、G[1][3]、G[1][4]、G[5][2]、G[5][3]、G[5][4])
を算出する。即ち、図10に示す5×5画素マトリクス分布RDPaの、黒丸を付した画素群の中の最低濃度minyを摘出する。そして、
maxy=max(G[3][2]、G[3][3]、G[3][4])
を算出する。即ち、図10に示す5×5画素マトリクス分布RDPaの、白丸を付した画素群の中の最高濃度maxyを摘出する。次に、
mint=min(G[2][1]、G[3][1]、G[4][1]、G[2][5]、G[3][5]、G[4][5])
を算出する。即ち、図10に示すもう1つの5×5画素マトリクス分布RDPbの、黒丸を付した画素群の中の最低濃度mintを摘出する。そして、
maxt=max(G[2][3]、G[3][3]、G[4][3])
を算出する。即ち、図10に示す5×5画素マトリクス分布RDPbの、白丸を付した画素群の中の最高濃度maxtを摘出する。ここで、min( )は最小値を検出する関数である。max( )は、最大値を検出する関数である。次に、
OUT=((miny−maxy) > 0) # ((mint−maxt) > 0)
を算出する。即ち、(miny−maxy)と(mint−maxt)のうち、正値であって大きいほうの値を谷検出値OUTとし、このOUTの値がある閾値以上であると、注目画素(RDPaまたはRDPbの中心画素)を谷白画素と検出する。このように画像の谷状態を検出して、1)RGB白地検出では、検出しにくいところを補う。
In addition, in the case of color detection, valley white pixel detection may be performed. The valley white pixel detection detects valley white pixels in a small white area that cannot be detected by the RGB white background detection based on the 5 × 5 pixel matrix distributions RDPa and RDPb of the G image data shown in FIG. Specifically, based on the 5 × 5 pixel matrix distribution RDPa,
miny = min (G [1] [2], G [1] [3], G [1] [4], G [5] [2], G [5] [3], G [5] [4 ])
Is calculated. That is, the minimum density miny in the pixel group with black circles in the 5 × 5 pixel matrix distribution RDPa shown in FIG. 10 is extracted. And
maxy = max (G [3] [2], G [3] [3], G [3] [4])
Is calculated. That is, the maximum density maxy in the pixel group with white circles in the 5 × 5 pixel matrix distribution RDPa shown in FIG. 10 is extracted. next,
mint = min (G [2] [1], G [3] [1], G [4] [1], G [2] [5], G [3] [5], G [4] [5 ])
Is calculated. That is, the lowest density mint in the pixel group with black circles in another 5 × 5 pixel matrix distribution RDPb shown in FIG. 10 is extracted. And
maxt = max (G [2] [3], G [3] [3], G [4] [3])
Is calculated. That is, the highest density maxt in the pixel group with white circles in the 5 × 5 pixel matrix distribution RDPb shown in FIG. 10 is extracted. Here, min () is a function for detecting the minimum value. max () is a function for detecting the maximum value. next,
OUT = ((miny−maxy)> 0) # ((mint−maxt)> 0)
Is calculated. That is, of (miny-maxy) and (mint-maxt), the larger positive value is defined as a valley detection value OUT, and if the value of OUT is equal to or greater than a certain threshold, the target pixel (RDPa or RDPb Are detected as valley white pixels. In this way, the valley state of the image is detected, and 1) RGB white background detection compensates for difficult detection.
≪白判定部323c≫ここでは、白判定に用いる状態変数MS、SS[I]の更新を行う。その内容を図5のフローチャートに示す。ここで、状態変数MSは処理対象ライン(注目ライン)の画素宛てのもの、状態変数SS[I]は処理対象ラインの1ライン前(処理済ライン)の画素宛てのものであり、いずれも白地の白の程度を表す4bitの白地情報であり、図5のフローチャートに示す処理によって生成されるものである。状態変数MSおよびSS[I]が表す値の最高値は15に定めており、これが最も白い程度を意味し、最低値は0である。すなわち状態変数MSおよびSS[I]は、白の程度を示すデータであり、それが表す値が大きいほど、強い白を意味する。複写動作開始時に、状態変数MSおよびSS[I]は共に0に初期化される。
<<
図5の処理においてはまず、処理対象である注目画素の1ライン前の状態変数すなわち白地情報SS[I]と注目画素と同一ライン上の1画素前の画素(先行画素:処理済画素)の状態変数すなわち白地情報MSとを比較して(ステップS1)、1ライン前の白地情報SS[I]の方が大きければ、それを注目画素の仮の白地情報MSとするが(ステップS2)、そうでないと先行画素の状態変数MSを注目画素の仮の白地情報MSとする。これは、周辺画素の白地情報の、より白に近い情報を選択することを意味する。 In the process of FIG. 5, first, the state variable of the target pixel to be processed one line before, that is, the white background information SS [I] and the pixel of the previous pixel on the same line as the target pixel (previous pixel: processed pixel). The state variable, that is, the white background information MS is compared (step S1). If the white background information SS [I] one line before is larger, it is used as the temporary white background information MS of the target pixel (step S2). Otherwise, the state variable MS of the preceding pixel is set as the temporary white background information MS of the target pixel. This means that information closer to white of the white background information of the peripheral pixels is selected.
複写動作を開始してから、前記1)RGB白地検出で白領域すなわち白地を検出すると〔前記1〕RGB白地検出の出力である白地判定信号=「1」〕、注目画素の1ライン前の画素の白地情報SS[I]を15に更新し(ステップS3、4)、注目画素の白地情報MSも15とする(ステップS5)。そして、注目画素の白地情報MSは、図12に示すラインメモリLMPの現ライン(注目ライン)用のラインメモリの注目画素の主走査位置(F)に書き込み、1ライン前の画素宛ての白地情報SS[I]は、図12に示すラインメモリLMPの前1ライン用のラインメモリの注目画素の主走査位置(F)に書き込む(ステップS3、4、5)。次に、1ライン前の画素宛ての白地情報SS[I]を、1ライン前の画素に、次のように、伝搬させる(ステップS14〜17)。なお、[I]は注目画素の主走査位置を意味し、[I−1]は主走査方向xでそれより1画素前の画素(注目画素の直前の画素)の位置を意味する。 After the copying operation is started, when 1) a white area, that is, a white background is detected by RGB white background detection [1] White background determination signal = “1”, which is an output of RGB white background detection, a pixel one line before the target pixel The white background information SS [I] is updated to 15 (steps S3 and S4), and the white background information MS of the target pixel is also set to 15 (step S5). The white background information MS of the target pixel is written into the main scanning position (F) of the target pixel in the line memory for the current line (target line) of the line memory LMP shown in FIG. SS [I] is written in the main scanning position (F) of the target pixel of the line memory for the previous one line of the line memory LMP shown in FIG. 12 (steps S3, 4, 5). Next, the white background information SS [I] addressed to the previous pixel is propagated to the previous pixel as follows (steps S14 to S17). [I] means the main scanning position of the target pixel, and [I-1] means the position of the pixel one pixel before (in the main scanning direction x) (the pixel immediately before the target pixel).
SS[I−1]<SS[I]−1
の時、
SS[I−1]=SS[I]−1
をラインメモリにセットする(ステップS14、15)。即ち、注目画素より1ライン前のラインにおいて、主走査方向で注目画素の位置(F)より1画素前(E)の白地情報SS[I−1]よりも注目画素の位置(F)の白地情報SS[I]から1を減算した値「SS[I]−1」のほうが大きい(白程度が強い)と、1ライン前のライン上の注目画素の位置(F)より1画素前の画素(E)宛ての白地情報SS[I−1]を、注目画素の位置(F)の白地情報SS[I]より1だけ白強度を下げた値に更新する。
SS [I-1] <SS [I] -1
time,
SS [I-1] = SS [I] -1
Is set in the line memory (steps S14 and S15). That is, in the line one line before the target pixel, the white background at the position (F) of the target pixel from the white background information SS [I-1] one pixel before (E) from the position (F) of the target pixel in the main scanning direction. If the value “SS [I] −1” obtained by subtracting 1 from the information SS [I] is larger (whiteness is stronger), the pixel one pixel before the position (F) of the target pixel on the line one line before The white background information SS [I-1] addressed to (E) is updated to a value obtained by lowering the white intensity by 1 from the white background information SS [I] at the position (F) of the target pixel.
次に、
SS[I−2]<SS[I]−2
の時、
SS[I−2]=SS[I]−2
をラインメモリにセットする(ステップS16、17−14、15);
次に、
SS[I−3]<SS[I]−3
の時、
SS[I−3]=SS[I]−3
をラインメモリにセットする(ステップS16、17−14、15)。
next,
SS [I-2] <SS [I] -2
time,
SS [I-2] = SS [I] -2
Is set in the line memory (steps S16, 17-14, 15);
next,
SS [I-3] <SS [I] -3
time,
SS [I-3] = SS [I] -3
Is set in the line memory (steps S16, 17-14, 15).
以下同様にして、最後に、
SS[I−15]<SS[I]−15
の時、
SS[I−15]=SS[I]−15
をラインメモリにセットする(ステップS16、17−14、15)。これらの白地情報SS[I]の値の下限値MINは0であり、0未満になるときには、0にとどめる。これは後述のステップS13においても同様である。
In the same manner, finally,
SS [I-15] <SS [I] -15
time,
SS [I-15] = SS [I] -15
Is set in the line memory (steps S16, 17-14, 15). The lower limit value MIN of the value of the white background information SS [I] is 0, and when it is less than 0, it is kept at 0. The same applies to step S13 described later.
これらのステップ14〜17の処理により、1ライン前かつ注目画素の主走査位置より前の白地情報SSが、注目画素の白地情報MSを、それから主走査方向xの1画素の位置ずれにつき1の低減率で下げた値に更新し、注目画素の白地情報が1ライン前の主走査方向xで主走査の後方に、前記低減率で伝搬する(白伝搬処理)。但しこれは、1ライン前の白地情報のほうが小さい値である場合である。例えば1ライン前の画素が、前記1.)RGB白地検出で白地(白領域)と検出したものであるときにはそれの白地情報は15であって最高値であるので書換えは行われない。
By the processing of these
注目画素を更新してそれが白地でないものになると〔前記1〕RGB白地検出の出力である白地判定信号=「0」〕、ステップS3からステップS6以下に進み、注目画素が、色地〔前記2〕色地検出の出力である色地判定信号d=「1」〕でなく(非色地であり)、2値化白〔前記2値化部323eの出力である2値化白判定信号=「1」〕であり、しかも、ステップ1、2で仮に定めた注目画素の状態変数すなわち白地情報MSが閾値thw1(例えば13)以上、である時に、注目画素宛ての白地情報MSを+1する(ステップS6〜10)。すなわち、1だけ白程度が強い値に更新する。白地情報MSの最高値maxは15に定めており、15を超える時には15にとどめる(ステップS9、10)。この経路を進んできたときにも、前述のステップS5および14〜17を実行する。すなわち、白伝搬処理を行う。
When the pixel of interest is updated and becomes a non-white background [1] White background determination signal = “0”, which is the output of RGB white background detection, the process proceeds from step S3 to step S6 and subsequent steps, and 2] Not a color gamut determination signal d = “1” which is an output of color gamut detection (a non-color gamut), binarized white [binary white determination signal which is an output of the
注目画素が非色地かつ2値化白ではあるが、白地情報MSがthw1(たとえば7)未満、thw2(例えば1)以上、かつ、谷白画素である時には、状態変数MSをそのままの値に保持する(ステップS8、11、12)。この経路を進んできたときにも、前述のステップS5および14〜17を実行する。すなわち、白伝搬処理を行う。 When the target pixel is non-colored and binary white, but the white background information MS is less than thw1 (for example, 7), thw2 (for example, 1) or more, and is a valley white pixel, the state variable MS is set to the value as it is. Hold (steps S8, 11, 12). Even when the route is advanced, the above-described steps S5 and 14 to 17 are executed. That is, white propagation processing is performed.
前記条件のいずれにも一致しないとき、すなわち注目画素が色地または非2値化白のときは、注目画素の白地情報MSを−1する(ステップS13)。すなわち、白程度が1だけ弱い白地情報に更新する。白地情報MSの最低値MINは0であり、0未満になる時には0にとどめる。この経路を進んできたときにも、前述のステップS5および14〜17を実行する。すなわち、白伝搬処理を行う。 When none of the above conditions is met, that is, when the target pixel is a color background or non-binary white, the white background information MS of the target pixel is decremented by 1 (step S13). In other words, the white level information is updated to white background information weak by one. The minimum value MIN of the white background information MS is 0, and is kept at 0 when it is less than 0. Even when the route is advanced, the above-described steps S5 and 14 to 17 are executed. That is, white propagation processing is performed.
以上の白地情報MSの生成により、ラインメモリLMP上において、状態変数(白地情報)MSを介して周辺画素に白情報を伝搬させることができる。この白地情報MSの生成は前述のように、色データ(R,G,B画像データのすべて)が閾値thwss=40より小さいとき白地と表すRGB白地判定信号に基づいた図5のステップS3−4−5−14〜17の系統の色対応の白地情報MSの生成を含み、しかも、濃度データ(G画像データ)のエッジ強調出力(フィルタ部321の出力)が、閾値thwsb=50より小さいとき、白地と2値化白判定信号に基づいた図5のステップS7〜13−5−14〜17の系統の濃度対応の白地情報MSの生成を含む。 By generating the white background information MS as described above, the white information can be propagated to the peripheral pixels via the state variable (white background information) MS on the line memory LMP. As described above, the white background information MS is generated in step S3-4 in FIG. 5 based on the RGB white background determination signal that represents a white background when the color data (all of the R, G, and B image data) is smaller than the threshold thwss = 40. Including generation of white background information MS corresponding to colors of -5-14 to 17 and when the edge emphasis output of density data (G image data) (output of the filter unit 321) is smaller than the threshold thwsb = 50, This includes the generation of white background information MS corresponding to the density of the system in steps S7 to 13-5-14 to 17 in FIG. 5 based on the white background and the binarized white determination signal.
この白判定部323cは、まずRGB白抽出部323bの中の1)RGB白地検出で、白領域を検出するまで、すなわち前記1)RGB白地検出が白地判定信号「1」を発生しこれに対応して色対応の白地情報MSの生成(ステップS3−4−5−14〜17)を開始するまでは動作(ステップS4の実行)を行わない。これは、白領域との判定が得られない領域をフィルタ部321のエッジ強調処理後G画像データの後述する白パターンマッチングにて白画素(白ブロック)と誤判定することを防ぐためである。
The
薄い色地上の文字にエッジ強調フィルタ部321をかけると、文字周辺のデータが本来の画像データ(色地)よりレベルの低い値(白)となるので、フィルタ部321のエッジ強調処理後のデータで白パターンマッチングをすると、すなわち、濃度対応の白地情報MSの生成(ステップS7〜13−5−14〜17)のみに基づいて白領域判定をすると、色地上の文字周辺を白地と誤判定しやすいが、前述の色対応の白地情報MSの生成(ステップS3−4−5−14〜17)によって白領域との判定が得られる領域に後述する白画素(白ブロック)を判定するための白パターンマッチングを適用するように白地情報MSを最高値とし、ステップ3で白地でないときには、更にステップS6以下で詳細に白地条件をチェックして白パターンマッチングを適用するか否を決定するための1つのパラメータである白地情報MSを調整するので、フィルタ部321のエッジ強調処理後G画像データの後述する白パターンマッチングにて白画素(白ブロック)と誤判定することを防いでいる。
When the edge emphasis filter unit 321 is applied to a light color ground character, the data around the character becomes a value (white) having a lower level than the original image data (color ground), so the data after the edge emphasis processing of the filter unit 321 is performed. When white pattern matching is performed, that is, when white area determination is performed based only on generation of density-corresponding white background information MS (steps S7-13-5-14-17), the character ground around the color ground is erroneously determined as white. Although it is easy, white for determining a white pixel (white block) to be described later in an area that can be determined as a white area by generating the white background information MS corresponding to the color (steps S3-4-5-14 to 17). If the white background information MS is set to the highest value so that pattern matching is applied and the white background is not white in
例えば、色画素の可能性が高いときには、白地情報MSを下げ(ステップS13)、色画素の疑いもあり得るときには白地情報MSをホールド(変更無し)にして(ステップS11〜13)、後述する白パターンマッチングによって白画素(白ブロック)と誤判定することを防ぎ、文字周辺のデータが本来の画像データ(色地)よりレベルの低い値(白)となるのを防止している。 For example, when the possibility of a color pixel is high, the white background information MS is lowered (step S13), and when there is a suspicion of a color pixel, the white background information MS is held (no change) (steps S11 to 13). Pattern matching prevents erroneous determination as a white pixel (white block), and prevents data around the character from having a lower level (white) than the original image data (color background).
文字が密なところは前述の処理(ステップS3〜5、6〜10および14〜17)によって白地情報MSを更新し伝搬させるので、密な文字領域が絵柄と誤判定される可能性が低減する。また、込み入った文字(例えば、「書」)などの文字の中は、1)RGB白地検出で白検出ができない場合があるが、そのときには、3)谷白画素検出によって白と検出し、白地情報MSをステップS12のYES出力がステップS5に直進する経路でホールドして白地傾向にとどめるので、込み入った文字の中が絵柄と誤判定される可能性が低くなる。 When the character is dense, the white background information MS is updated and propagated by the above-described processing (steps S3 to 5, 6 to 10, and 14 to 17), so that the possibility that the dense character region is erroneously determined as a pattern is reduced. . In addition, among characters such as complicated characters (for example, “call”), there are cases where 1) white detection cannot be performed by RGB white background detection. In that case, 3) white is detected by valley white pixel detection, and white background is detected. Since the information MS is held by the route in which the YES output of step S12 goes straight to step S5 and remains in a white background tendency, the possibility that a complicated character is erroneously determined as a design is reduced.
また、先に触れたように、注目画素が周辺を白地で囲まれた色画素のときには、前記2)色地検出の出力である色地判定信号d=「1」(色地)となり、線が込み入ったところでも、薄い色画素を色地として検出することができ、注目画素周辺が白かを見る閾値thwcを低く設定して(thwc=20)、薄い色画素(注目画素)の周辺が白背景か否を厳密にチェックして薄い色画素を色地として検出することができるので、込み入った文字の中が絵柄と誤判定される可能性を更に低くすることができる。 As described above, when the pixel of interest is a color pixel surrounded by a white background, the color gamut determination signal d = “1” (color gamut), which is the output of 2) color gamut detection, Even in a complicated area, a light color pixel can be detected as a color background, and a threshold thwc for determining whether the periphery of the target pixel is white is set low (thwc = 20), and the periphery of the light color pixel (target pixel) is Since it is possible to detect light color pixels as a color background by strictly checking whether the background is white, it is possible to further reduce the possibility that a complicated character is erroneously determined to be a design.
前述のように、薄い色画素を色地としてより厳密に検出できることにより、色地と検出したときには図5のステップS6からステップS13に進んで、状態変数MSを下げて色地を白と判定する可能性を低くできるのに加えて、ステップS3で参照する白地判定信号を生成する時の閾値thwss(例えば40)に対して、ステップS7で参照する2値化白判定信号を生成する時の閾値thwsb(例えば50)を大きい値として、色地と判定しなかった場合(ステップS6:NO)には、前記2値化部323eで白と見なす確率を高くして、図5のステップS7から10に進んで状態変数MSを上げて白領域と判定する可能性を高くしている。
As described above, since a light color pixel can be detected more precisely as a color background, when a color background is detected, the process proceeds from step S6 to step S13 in FIG. 5, and the state variable MS is lowered to determine the color background as white. In addition to being able to reduce the possibility, in addition to the threshold thwss (eg, 40) when generating the white background determination signal referred to in step S3, the threshold when generating the binary white determination signal referred to in step S7 If thwsb (for example, 50) is set to a large value and the color background is not determined (step S6: NO), the probability that the
すなわち、前記1)RGB白地検出で閾値thwss=40で、白と判定する確率が低い厳しい白判定を行って、そこで白地と判定すると、図5のステップS3から4以下の処理により、状態変数MSを上げて文字背景を白と判定する可能性を高くしている。前記厳しい白判定で白地との判定が出なかったときには、逆に色地であるかの薄い色画素も色地として検出する信頼性が高い厳しい色地判定、すなわち、前記2)色地検出の結果を参照し、それが色地との判定にならないときには、もう一度、今度は白と判定する確率が高い閾値thwsb=50の甘い白判定、すなわち、前記2値化部323eを参照してそれが白の判定であると、状態変数MSを上げて文字背景を白と判定する可能性を高くしている(ステップS7〜10)。この処理(ステップS6〜10)があるので、色地と検出される薄い色画素よりも更に薄い背景濃度ムラ、例えば裏映りのような原稿の地にムラがある場合に、原稿の細かい地ムラに連動して状態変数MSが2値的に大きく変化するのが抑制され、次の白パターンマッチング部323dでの白画素か否かの判定が走査方向に細かく変動するのが抑制される。その結果、背景が薄い色地のときに、裏映りのような原稿の細かい地ムラに連動して細かい色抜け(白背景)が現われることがなくなる。
That is, in the above-described 1) RGB white background detection, a strict white determination with a low threshold of thwss = 40 and a low probability of determining white is performed, and when it is determined that there is a white background, the state variable MS is performed by the processing from step S3 in FIG. To increase the possibility of judging the character background to be white. If the white background is not determined by the strict white determination, conversely, the strict color gamut determination with high reliability for detecting a thin color pixel as a color gamut as a color gamut, that is, 2) color gamut detection is performed. Refer to the result, and when it is not determined to be a color background, once again, a white determination with a threshold value thwsb = 50 that has a high probability of determining white, that is, refer to the
≪白パターンマッチング部323d≫注目画素を中心とする5×5画素単位のブロックで連続した白画素が存在するか否かで、背景が白かを判断する。そのために、注目画素に関して、次式が満たされる時に、注目画素を白画素と仮に定めて、白パターンマッチングを行う:
(非色画素&(白地情報MS≧thw1(13))&2値化白)#
(非色画素&(白地情報MS≧thw2(1))&谷白画素&2値化白)
ここで、この条件式を満たすかのチェックを行う注目画素は、図5のステップS5および14〜17の白伝搬処理の対象となってその処理過程を経たものであり、前記条件式の中の「白地情報MS」が、白伝搬処理後の前記チェックを行う注目画素の白地情報MS[I]である。但し、このMS[I]は白伝搬処理を終えた白地情報であって、そのIは、前記チェックを行う注目画素の主走査方向xの位置であり、前述の白判定部323cで状態変数MSを算出する注目画素の主走査方向xの位置とは別物である。
<< White Pattern Matching Unit 323d >> It is determined whether the background is white based on whether or not there is a continuous white pixel in a 5 × 5 pixel unit block centered on the target pixel. Therefore, for the target pixel, when the following expression is satisfied, the target pixel is temporarily determined as a white pixel and white pattern matching is performed:
(Non-color pixel & (white background information MS ≧ thw1 (13)) & binarized white) #
(Non-color pixel & (white background information MS ≧ thw2 (1)) & valley white pixel & binarized white)
Here, the target pixel for checking whether or not this conditional expression is satisfied has been subjected to the white propagation process in steps S5 and 14 to 17 in FIG. “White background information MS” is the white background information MS [I] of the target pixel to be checked after the white propagation process. However, MS [I] is the white background information after the white propagation processing, and I is the position in the main scanning direction x of the target pixel to be checked, and the
前記条件式の中の、「非色画素」は前記2)色地検出の出力である色地判定信号dが「0」であること、「2値化白」は前記2値化部323eの2値化白判定信号が「1」(2値化白)であること、および、「谷白画素」は、前記3)谷白画素検出の検出結果が谷白画素であること、をそれぞれ意味し、#は論理和(オア:または)を意味する。白パターンマッチングは、前記条件式で判定した出力(白画素か否)に対し、図12の縦横斜めの連続性パターンPMPa〜PMPdのいずれかに該当するかをチェックするものである。パターンPMPa〜PMPdに付した白丸は、白画素であることを意味する。他の空白画素は、白画素であるか否か不問である。
In the conditional expression, “non-color pixel” indicates that the color gamut determination signal d, which is the output of 2) color gamut detection, is “0”, and “binary white” indicates that the
注目画素を中心とする5×5画素マトリクスの白画素分布が図12のパターンPMPa,PMPb,PMPcまたはPMPdに該当すると、注目画素が白パターン画素であると判定する。 If the white pixel distribution of the 5 × 5 pixel matrix centered on the target pixel corresponds to the pattern PMPa, PMPb, PMPc, or PMPd in FIG. 12, it is determined that the target pixel is a white pattern pixel.
<グレー判定>
≪グレー画素検出≫R,G,B,Y,M,C,Bkの色相分割を行い、色相毎に濃度の低い画素を検出する。色相分割は、後述する色判定と同一である。ここで、フィルタ後のGデータをthgrと比較して、Gデータより大きいか、RGB白抽出の色画素検出で色画素であるかのどちらかを満たしていれば、下記の演算を行い、下記条件を満たしていれば、グレー画素とする。ここで、色毎に閾値を変えているのは各インクの最大濃度が異なるためである。
4.1)R−Y色相領域境界(ry)
R−2 * G+B>0
4.2)Y−G色相領域境界(yg)
11*R−8*G−3*B>0
4.3)GーC色相領域境界(gc)
1*R−5*G+4*B<0
4.4)CーB色相領域境界(cb)
8*R−14*G+6*B<0
4.5)BーM色相領域境界(bm)
9*R−2*G−7*B<0
4.6)MーR色相領域境界(mr)
R+5*G−6*B<0
4.8)Y画素画素判定(gry)
(色画素である)&(ry==1)&
(yg==0)&(RGBの最大値<thmaxy)
4.9)G画素判定(grg)
(色画素である)&(yg==1)&
(gc==0)&(RGBの最大値<thmaxg)
4.10)C画素判定(grc)
(色画素である)&(gc==1)&
(cb==0)&(RGBの最大値<thmaxc)
4.11)B画素判定(grb)
(色画素である)&(cb==1)&
(bm==0)&(RGBの最大値<thmaxb)
4.12)M画素判定(grm)
(色画素である)&(bm==1)&
(mr==0)&RGBの最大値<thmaxm)
4.13)R画素判定(grr)
(色画素である)&(mr==1)&
(ry==0)&(RGBの最大値 <thmaxr)
4.14)色画素でない時(grbk)
(RGBの最大値<thmaxbk)
4.15)グレー画素判定
4.8)〜4.15)のいずれかの条件を満たす時にグレー画素とする。なお、「==」はC言語の表記である。
<Gray judgment>
<< Gray Pixel Detection >> Hue division of R, G, B, Y, M, C, and Bk is performed, and a pixel having a low density is detected for each hue. Hue division is the same as color determination described later. Here, the filtered G data is compared with thgr, and if it is larger than the G data or if it is a color pixel in RGB white extraction color pixel detection, the following calculation is performed. If the condition is satisfied, the pixel is a gray pixel. Here, the threshold is changed for each color because the maximum density of each ink is different.
4.1) RY hue region boundary (ry)
R-2 * G + B> 0
4.2) Y-G hue region boundary (yg)
11 * R-8 * G-3 * B> 0
4.3) GC hue region boundary (gc)
1 * R-5 * G + 4 * B <0
4.4) CB hue region boundary (cb)
8 * R-14 * G + 6 * B <0
4.5) BM hue region boundary (bm)
9 * R-2 * G-7 * B <0
4.6) MR hue region boundary (mr)
R + 5 * G-6 * B <0
4.8) Y pixel pixel determination (gry)
(It is a color pixel) & (ry == 1) &
(Yg == 0) & (maximum RGB value <thmaxy)
4.9) G pixel determination (grg)
(It is a color pixel) & (yg == 1) &
(Gc == 0) & (maximum RGB value <thmaxg)
4.10) C pixel determination (grc)
(It is a color pixel) & (gc == 1) &
(Cb == 0) & (maximum RGB value <thmaxc)
4.11) B pixel determination (grb)
(It is a color pixel) & (cb == 1) &
(Bm == 0) & (maximum RGB value <thmaxb)
4.12) M pixel determination (grm)
(It is a color pixel) & (bm == 1) &
(Mr == 0) & RGB maximum value <thmaxm)
4.13) R pixel determination (grr)
(It is a color pixel) & (mr == 1) &
(Ry == 0) & (maximum RGB value <thmaxr)
4.14) When not a color pixel (grbk)
(RGB maximum value <thmaxbk)
4.15) Gray pixel determination When satisfying any of the conditions 4.8) to 4.15), a gray pixel is determined. Note that “==” is a C language notation.
この処理は図21のグレー画素検出部323b−1で行われる。前述のようにRGB白抽出部323bをグレー画素検出部323b−1、色画素検出部323b−2、RGB白地検出部323b−3から構成し、これら各部にR,G,Bの各画像データを入力する。グレー画素検出部323b−1の出力はグレーパターンマッチング部323hに入力され、グレーパターンマッチングのパターンマッチング結果はグレー膨張部323iに入力され、膨張処理を行った後、判定部323mに入力される。また、白判定部323cには、色画素検出部323b−2、RGB白地検出部323b−3および2値化部323eの出力が入力され、白判定部323cの判定結果は白パターンマッチング部323dに入力され、そのパターンマッチング結果は、白パターン補正部323jおよび白補正部323gに入力される。白パターン補正部323hの補正結果はさらに白膨張部323kおよび白収縮部323lで処理された後、判定部323mに入力され、また、白補正部323gの処理結果はそのまま判定部323mに入力される。なお、グレー膨張部323iで膨張処理する前に、収縮処理を施しておけば、孤立点の除去が可能となる。また、白パターンマッチング部323d、白パターン補正部323j、白膨張部323k、白収縮部323lおよび白補正部323gは、白と白でない境界領域を検出するための構成で、白補正部323gの出力は線幅を示し、白収縮部323lの出力は白領域を示し、前記グレー膨張部323iの出力は中濃度であることを示す。そこで、判定部323mでは、これら3つの出力に対して優先順位を付けて判定し、判定結果を後段に出力する。この場合、優先順位1は白補正部323gからの線幅情報であり、優先順位2はグレー膨張部323iからの中濃度情報であり、優先順位3は、白収縮部323lからの白領域情報である。
This processing is performed by the gray
≪グレーパターンマッチング部323h≫グレーパターンマッチング部323hでは、Dをグレー画素として、bkはグレー画素より濃いところとして下記パターンマッチングを行う。複写原稿は、薄い200線の万線パターン、300銭の万線であるので、複写原稿もグレー検出するように下記のようなパターンを採用している。下記パターンに一致したものは、グレー画素となる。図22(a)、図22(b)にこのときのパターンを示す。図22(a)は200線用のパターンであり、図22(b)は300線用のパターンである。
<< Gray
( D15
D25
D35
D32 D45 D38
!BK41 D42 !BK43 !BK44 D55 !BK46 !BK47 D48 !BK49
D52 D65 D58
D75
D85
D95 )
#( D05
D15
D25
D31 D33 D35 D37 D38
D41 !BK42 D43 !BK44 D45 !BK46 D47 !BK48 D48
D51 D53 D55 D57 D58
D65
D75
D85 )
≪白パターン補正部323j≫白パターン補正部323jでは、白画素パターンマッチングで孤立(1×1、1×2、2×1、2×2、1×3、3×1の白画素)しているアクティブ画素を非アクティブにする。このことにより、孤立している画素を除去する。
(D15
D25
D35
D32 D45 D38
! BK41 D42! BK43! BK44 D55! BK46! BK47 D48! BK49
D52 D65 D58
D75
D85
D95)
# (D05
D15
D25
D31 D33 D35 D37 D38
D41! BK42 D43! BK44 D45! BK46 D47! BK48 D48
D51 D53 D55 D57 D58
D65
D75
D85)
<< White Pattern Correction Unit 323j >> The white pattern correction unit 323j is isolated by white pixel pattern matching (1 × 1, 1 × 2, 2 × 1, 2 × 2, 1 × 3, 3 × 1 white pixels). The active pixel that is present is deactivated. This removes isolated pixels.
≪白膨張部323k≫白膨張部323kでは、 白画素パターンマッチングの補正の結果を7×41のORを行う。
<<
≪白収縮部323l≫白収縮部323lでは、白膨張部323kにおける白膨張の結果の1×33のANDを行う。白膨張と白収縮を行うことにより、白画素パターンマッチング部323dでの補正結果に対して膨張と小面積で存在する非アクティブ画素を除去する。この判定結果は、白地と境界部分に対して、非白地側の境界領域を含む結果となる。言いかえれば、白地よりも大きな領域となる。
<< White Contraction Unit 323l >> The white contraction unit 323l performs 1 × 33 AND of the result of white expansion in the
≪白補正部323g≫白補正部323gでは、図12のブロックパターンBCPの×を付した注目画素を中心とした15×11画素において、四隅の各6×4画素領域それぞれに1つ以上の白候補ブロックが存在するときに、注目ブロックに白ブロック補正データを与える。このことにより、白地に囲まれた領域を白領域とする。
<<
≪グレー膨張部323i≫グレー膨張部323iでは、グレーパターンマッチングの結果に対して、11×11のOR処理をする。このことにより、グレー領域に対してやや大きな領域となる。
この出力結果(グレー判定結果)は、図21の判定323mと図4の総合判定326に出力する。
<<
This output result (gray determination result) is output to the
さらに、グレー膨張部32iでは、高濃度検出を行うために以下の処理を行う。高濃度検出は、高濃度検出、黒膨張、黒収縮の3つブロックからなる。まず、画像データの高濃度部分の領域を抽出する。高濃度検出では、RGB画像データの最大値が、ある所定の閾値thkより大きいならば、高濃度データと出力する。高濃度検出の結果が高濃度データである時に1として17×12のOR処理をする。次に、黒膨張の結果を黒収縮にて、9×4のAND処理をする。黒膨張と黒収縮により、高濃度検出の結果に対して周辺4画素領域を広げている。ここで、4画素広げているのはフレアなどの影響で周辺画素が薄くなっても補正することを考慮している。黒膨張後の結果は、高濃度検出結果として図4の総合判定326に出力される。
Further, the gray expansion unit 32i performs the following processing in order to perform high density detection. High density detection consists of three blocks: high density detection, black expansion, and black contraction. First, the region of the high density portion of the image data is extracted. In high density detection, if the maximum value of RGB image data is larger than a predetermined threshold value thk, high density data is output. When the result of high density detection is high density data, 17 × 12 OR processing is performed as 1. Next, 9 × 4 AND processing is performed on the result of black expansion by black contraction. Due to black expansion and black contraction, the peripheral four-pixel region is expanded with respect to the result of high density detection. Here, the expansion of four pixels is considered to correct even if the peripheral pixels become thin due to the influence of flare or the like. The result after black expansion is output to the
≪判定部323m≫判定部323mでは、白補正部323gの結果がアクティブまたは、白収縮部323lの結果がアクティブでかつグレー膨張部323iの結果が非アクティブの時に白背景とする。式で表現すると次式のようになる。
<<
白補正の結果 # (白収縮の結果 & !グレー膨張の結果)
ここで、白補正の結果では、白地に囲まれた領域を確実に白領域と判定して、白収縮の結果 & !グレー膨張の結果の結果では、濃い黒文字周辺を白領域として、濃度の薄いところを非白領域としている。
White correction result # (white shrinkage result &! Gray expansion result)
Here, in the result of white correction, the area surrounded by the white background is definitely determined as the white area, and the result of white shrinking &! As a result of the gray expansion, a dark black character periphery is set as a white area, and a low density area is set as a non-white area.
図13において、丸Bp1〜Bp4で囲んだ黒の突出部は、前述の注目ブロックを中心とした15×11画素において四隅の各6×4画素領域それぞれに1つ以上の白候補ブロックが存在するとき、注目ブロックに白ブロック補正データを与える白ブロック補正によって白ブロックに置き換えられる。丸Bp1〜Bp4で囲んだ黒の突出部のように白地で囲まれた黒領域を、白領域とすることは、そこを絵柄部と判定する可能性を低くする。後述する総合判定部326では、非白領域は絵柄と判定するが、丸Bp1〜Bp4で囲んだ黒の突出部のように白地で囲まれた黒領域を絵柄と誤判定する可能性が減る。さらに、白収縮の結果、グレー膨張の結果によって黒地と白地境界を白領域(文字領域)と判定するので、濃い文字エッジは、文字の太さにかかわらず白地判定するので、文字エッジを正しく文字エッジと判定することが可能となる。濃度の薄い部分は文字エッジ判定しなくなる。
In FIG. 13, in the black protrusions surrounded by the circles Bp1 to Bp4, one or more white candidate blocks exist in each of the 6 × 4 pixel regions at the four corners in 15 × 11 pixels centering on the above-described target block. At this time, the white block is replaced with the white block by white block correction giving white block correction data to the target block. Making a black region surrounded by a white background like the black protrusions surrounded by the circles Bp1 to Bp4 as a white region lowers the possibility of determining it as a picture portion. In the
<文字/写真判定レベルの調整>
前述のように白領域抽出部323では、白判定部323cでRGB白抽出部323bの白地判定信号、色地判定信号dおよび谷白画素判定信号、ならびに、2値化部323eの2値化白判定信号に対応する白の程度をあらわす状態変数である白地情報MSを生成する。そして白パターンマッチング部323dで、前記色地判定信号d、白地情報MS、2値化白判定信号および谷白画素判定信号に基づいて注目画素が白画素か否を仮に定めて、注目画素を含む画素マトリスクに対する白画素分布パターンマッチングによって白画素か否を確定する。この結果と、黒判定部および黒パターンマッチング部323fの結果を用いて、白補正部323gが注目画素が黒地と白地境界との境界(白領域:文字領域)であるかどうかを判定する。なお、白領域抽出部323は、グレー画素の判定の場合図21の回路構成であるが、白黒判定については、図4の回路構成で処理される。
<Adjustment of text / photo judgment level>
As described above, in the white
RGB白抽出部323bの白地判定信号(図5のステップS3で参照)は、注目画素のR、G、B画像データのすべてが閾値thwss=40より小さいと「1」(白地)である。この閾値thwssを大きくすると、大きい値の白地情報MSを定める確率が高くなり、前記「白領域」(黒地と白地境界との境界:文字領域)を摘出する確率が高くなる(すなわち絵柄領域を摘出する確率が低下する)。閾値thwssを小さくするとこの逆となる。
The white background determination signal (see step S3 in FIG. 5) of the RGB
2値化部323eの2値化白判定信号(図5のステップS7で参照)は、フィルタ部321のG画像データのエッジ強調出力が閾値thwsb=50より小さければ、「1」(2値化白)である。この閾値thwsbを大きくすると、大きい値の白地情報MSを定める確率が高くなり、前記「白領域」を摘出する確率が高くなる(すなわち絵柄領域を摘出する確率が低下する)。閾値thwsbを小さくするとこの逆となる。
The binarized white determination signal of the
「白領域」の画像データには後工程で、文字画像を鮮明に表すための画像処理が施されるので、閾値thwssおよびthwsbを大きくすると、文字に優先度が高い画像処理が施される。非白領域すなわち絵柄(写真)領域の画像データには後工程で、写真や絵柄を忠実に表すための画像処理が施されるので、閾値thwssおよびthwsbを小さくすると、絵柄(写真)に優先度が高い画像処理が施される。 Since the image data for “white area” is subjected to image processing for clearly expressing the character image in a later step, when the threshold values thwss and thwsb are increased, image processing with high priority is performed on the characters. The image data in the non-white area, that is, the picture (picture) area, is subjected to image processing for faithfully representing the picture or picture in a later process. Therefore, if the threshold values thwss and thwsb are reduced, the priority is given to the picture (picture). High image processing is performed.
ところで、RGB白抽出部323bの色地判定信号d(図5のステップS6で参照)が「1」(色地)であると白地情報MSを低くし、前記「白領域」を摘出する確率が低くなる(すなわち絵柄領域を摘出する確率が高くなる)。前記2)色地検出で色地判定信号dを生成する処理B.、C.で用いる閾値thwc(例えば20)を小さくすると、周辺画素(図11の△と□)を同時に色画素と検出する確率すなわち(bとcのエクスクルーシブノア)=「1」となる確率が高くなって色地判定信号d=「1」(色地)を得る確率が高くなり、前記「白領域」を摘出する確率が低くなる(すなわち絵柄領域を摘出する確率が高くなる)。
By the way, if the color gamut determination signal d (refer to step S6 in FIG. 5) of the RGB
そこで、本実施形態では、図2の操作/表示部OPBにて、キー入力による入力モードのメニュー表示ならびに液晶ディスプレに表示されたメニュー画面上のキー画像(パラメータ指定キーおよびアップ、ダウンキー)の操作によって調整するパラメータ調整の中の「文字/写真レベル」の調整によって、閾値thwss、thwsbおよびthwcを次のように調整するようにしている:
パラメータ 文字側調整値 標準 写真側調整値
6 5 4 3 2 1 0
thwss 46 44 42 40 38 36 34
thwsb 56 54 52 50 48 46 44
thwc 26 24 22 20 18 16 14
すなわち、オペレータが操作/表示部OPBで調整設定するパラメータ「文字/写真レベル」の標準値(デフォルト)は「3」であり、このデフォルト値が、前記の文字/写真レベルと閾値thwss、thwsbおよびthwcとの関係を表す変換テーブルと共に、図3に示すROM358に書き込まれており、図3に示すIPU300に電源が投入され、CPU357がIPU300の初期化をするときに、CPU357がROM358から文字/写真レベルのデフォルト値を読み出して、それに対応する閾値thwss、thwsbおよびthwcを変換テーブルから読み出してRAM356の、各閾値宛てレジスタに書きこんで、白領域抽出部323での前述の処理に用いる。その後、操作ボードOPBからの入力で文字/写真レベルの調整があり、調整後の値Aがメインコントローラ10からCPU357に与えられると、CPU357は、調整後の値Aに対応するパラメータthwss、thwsbおよびthwcの各値を、ROM358の変換テーブルから読み出してRAM356のパラメータ宛てレジスタに書きこむ。
Therefore, in the present embodiment, in the operation / display unit OPB in FIG. 2, the menu display of the input mode by key input and the key image (parameter designation key and up / down key) on the menu screen displayed on the liquid crystal display are displayed. The thresholds thwss, thwsb, and thwc are adjusted as follows by adjusting the “character / photo level” in the parameter adjustment that is adjusted by the operation:
Parameter Text side adjustment value Standard Photo
thwss 46 44 42 40 38 36 34
thwsb 56 54 52 50 48 46 44
thwc 26 24 22 20 18 16 14
That is, the standard value (default) of the parameter “character / photo level” that is adjusted and set by the operator on the operation / display unit OPB is “3”, and this default value is the character / photo level and the threshold values thwss, thwsb, and 3 is written in the
閾値を標準値thwss=40、thwsb=50、thwc=20に設定しているときに、操作ボードOPBを使ってオペレータが「文字/写真レベル」の値をi(例えば1)だけ大きく「Up」すると、閾値thwss、thwsbおよびthwcが2i(2)分、文字優先方向に変更した値に定められる。逆に、オペレータが「文字/写真レベル」の値をi(例えば1)だけ小さく「Down」すると、閾値thwss、thwsbおよびthwcが2i(2)分、写真優先方向に変更した値に定められる。 When the threshold values are set to the standard values thwss = 40, thwsb = 50, and thws = 20, the operator uses the operation board OPB to increase the value of “character / photo level” by i (for example, 1) to “Up”. Then, the thresholds thwss, thwsb, and thwc are set to values that are changed in the character priority direction by 2i (2). Conversely, when the operator reduces the value of “character / photo level” by “down” by i (for example, 1), the threshold values thwss, thwsb, and thwc are set to values that are changed to the photo priority direction by 2i (2).
<網点抽出>
≪網点抽出部324≫網点抽出部324は、図23に示すように第1網点ピーク検出部324a、第2網点ピーク検出部324b、第3網点ピーク検出部324c、第1網点領域検出部324d、第3網点領域検出部324eおよび一時記憶手段(一時メモリ)324fからなる。第1網点ピーク検出部324aおよび第3網点ピーク検出部324cには、G画像データが入力され、第2網点ピーク検出部324bにはB画像データが入力される。第1網点領域検出部324dには、第1網点ピーク検出部324aおよび第2網点ピーク検出部324bの検出結果が入力され、第2網点領域検出部324eには、第3網点ピーク検出部324cの検出結果が入力される。また、一時メモリ324fは、第1および第2網点領域検出部324d、324fの検出結果が一時保存される。なお、図4における網点抽出部324は図23におけるNに対応する。
<Halftone extraction>
<<
第1網点ピーク検出部324aは、G画像データを用いて所定の大きさの二次元局所領域内の画素濃度情報から、網点ドットの一部を形成する画素(網点ピーク画素と呼ぶ)を検出する回路である。局所領域に関して次の二つの条件が同時に成立するときに、領域の中心画素を網点ピーク画素として検出する。
条件1:中心画素の濃度レベルが局所領域内で最大(山ピーク)または最小(谷ピーク)である。
条件2:中心画素に対し点対称関係にある全ての画素のペアについて、画素ペアの濃度レベルの平均と中心画素の濃度レベルとの差の絶対値が、閾値Th以上である。
A first halftone dot
Condition 1: The density level of the central pixel is maximum (mountain peak) or minimum (valley peak) in the local region.
Condition 2: The absolute value of the difference between the average density level of the pixel pair and the density level of the center pixel is greater than or equal to the threshold Th for all pixel pairs that are in point symmetry with respect to the center pixel.
図14を参照して、第1網点ピーク検出部324aの検出処理を具体的に説明する。局所領域として5×5画素マトリクス(一般化して示すとM×M画素マトリクス)のマスクを採用した例である。5×5画素マトリクスの各画素の符号を、図11のパターンMPpに示すものとすると、注目画素となる中心画素c3の濃度Lcが、その周囲画素の濃度L1〜L8と比較して最大または最小であるとともに、
abs(2Lc−L1−L8)≧Lth
かつ abs(2Lc−L2−L7)≧Lth
かつ abs(2Lc−L3−L6)≧Lth
かつ abs(2Lc−L4−L5)≧Lth
のときに、マスクの中心画素(Lc)を網点ピーク画素として検出する。abs関数は絶対値をとることを意味する。Lthは閾値(固定値)である。
With reference to FIG. 14, the detection process of the 1st halftone
abs (2Lc-L1-L8) ≧ Lth
And abs (2Lc-L2-L7) ≧ Lth
And abs (2Lc-L3-L6) ≧ Lth
And abs (2Lc-L4-L5) ≧ Lth
At this time, the center pixel (Lc) of the mask is detected as a halftone dot peak pixel. The abs function means taking an absolute value. Lth is a threshold value (fixed value).
具体的には、周囲画素は、図14に示す周囲画素分布パターンMPaまたはMPbの4角形を付記した画素とする。周囲画素分布パターンMPaとMPbに基づいた前述の網点ピーク画素検出のどちらかが、網点ピーク画素と検出した時に、そのときの注目画素(中心画素c3)に網点ピーク画素を表す検出信号を与える。2つのパターンを用いるのは、網点の線数に幅広く対応するためである。 Specifically, the surrounding pixels are pixels with a surrounding pixel distribution pattern MPa or MPb quadrangle shown in FIG. When either halftone dot pixel detection described above based on the surrounding pixel distribution patterns MPa and MPb detects a halftone peak pixel, a detection signal representing a halftone dot pixel at the current pixel of interest (center pixel c3) give. The reason for using the two patterns is to deal with a wide range of halftone dot lines.
パターンMPaは、 L1=b2、 L2=b3、 L3=b4、L4=c2、 L5=c4、 L6=d2、L7=d3、 L8=d4、と定めたものである。ここで、L1=b2とは、画素b2の濃度を、前述の網点ピーク画素検出演算のL1の値とすることを意味する。 The pattern MPa is defined as L1 = b2, L2 = b3, L3 = b4, L4 = c2, L5 = c4, L6 = d2, L7 = d3, L8 = d4. Here, L1 = b2 means that the density of the pixel b2 is set to the value of L1 in the above-described halftone peak pixel detection calculation.
パターンMPbは、 L1=b2、 L2=a3、 L3=b4、L4=c1、 L5=c5、 L6=d2、L7=e3、 L8=d4、と定めたものである。 The pattern MPb is defined as L1 = b2, L2 = a3, L3 = b4, L4 = c1, L5 = c5, L6 = d2, L7 = e3, L8 = d4.
また、複写の場合、副走査方向yの拡大、縮小はスキャナ200の原稿走査速度の低、高で行うので、スキャナ200からは、副走査方向yの拡大、縮小があった画像データが与えられる。そこで、縮小のときには、前述のパターンMPa、MPbに代えて、図14上に示すパタン―ンMPc、MPdを用いる。拡大のときには、図14上に示すパタ―ンMPe、MPfを用いる。なお、パタ―ンMPe、MPfにおいて、三角印を与えた画素も、前述の「周囲画素」に加えても良い。
In the case of copying, enlargement / reduction in the sub-scanning direction y is performed at low and high document scanning speeds of the
第2網点ピーク検出部324bは、Bデータを用いて網点ピーク検出するものであって、機能は、第1網点ピーク検出部324aと同じである。第1網点ピーク検出部324aは、G画像データを用いるのでほとんどの色に対して反応するが、Yに対しては反応しないので、第2網点ピーク検出部324cでは、B画像データを使用してYの網点ピークを検出することを目的としている補助的なものである。
The second halftone peak detector 324b detects halftone dots using B data, and has the same function as the first
網点領域検出324cは、第1網点ピーク画素検出324a、第2網点ピーク画素検出324bのどちらかにより検出された山と谷の網点ピーク画素を所定の大きさの二次元の小領域毎に計数し、山と谷の網点ピーク画素の合計を小領域の計数値Pとする。この計数値Pが閾値Pthより大きいときに、小領域の全画素(あるいは画素単位の処理の場合、小領域の中心画素のみ)を網点領域と判定する。判定の結果は一時メモリ324fに記憶される。
The halftone dot area detection 324c is a two-dimensional small area having a predetermined size for halftone dot peak pixels detected by either the first halftone dot
図24(a)を参照して、第3網点ピーク検出部324cの検出処理を具体的に説明する。この第3網点ピーク検出部324cの検出処理は、100線以下、65線(新聞の網点)以上の検出を目的とし、局所領域として7×7画素マトリクス(一般化して示すとM×M画素マトリクス)のマスクを採用した例である。図24(c)のパターンに示すものとすると、注目画素となる中心画素群の濃度Lcが、その周囲画素の濃度群L1〜L8と比較して最大または最小であるとともに、
abs(2Lc−L1−L8)≧Lth
かつ abs(2Lc−L2−L7)≧Lth
かつ abs(2Lc−L3−L6)≧Lth
かつ abs(2Lc−L4−L5)≧Lth
のときに、マスクの中心画素(Lc)を網点ピーク画素として検出する。abs関数は絶対値をとることを意味する。Lthは閾値(固定値)である。
With reference to Fig.24 (a), the detection process of the 3rd halftone peak detection part 324c is demonstrated concretely. The detection process of the third halftone dot peak detection unit 324c is intended to detect 100 lines or less and 65 lines (newspaper halftone dots) or more, and a 7 × 7 pixel matrix (M × M when generalized) is used as a local region. This is an example employing a pixel matrix mask. As shown in the pattern of FIG. 24C, the density Lc of the central pixel group serving as the target pixel is maximum or minimum as compared with the density groups L1 to L8 of the surrounding pixels.
abs (2Lc-L1-L8) ≧ Lth
And abs (2Lc-L2-L7) ≧ Lth
And abs (2Lc-L3-L6) ≧ Lth
And abs (2Lc-L4-L5) ≧ Lth
At this time, the center pixel (Lc) of the mask is detected as a halftone dot peak pixel. The abs function means taking an absolute value. Lth is a threshold value (fixed value).
具体的には、周囲画素は、図24(a)に示す周囲画素分布パターンした画素とする。周囲画素分布パターンに基づいた前述の第1および第2網点ピーク検出部324a,324bのどちらかが網点ピーク画素と検出した時に、そのときの注目画素(中心画素d4)に網点ピーク画素を表す検出信号を与える。2つのパターンを用いるのは、網点の網点面積率に幅広く対応するためである。
Specifically, the surrounding pixels are pixels having a surrounding pixel distribution pattern shown in FIG. When one of the first and second halftone
Lcの濃度は周辺画素を参照して以下のように求める。
Lc=Min(d4,d3,d5,c4,e4)
このLcが周辺画素に対して最大値の時は、パターンは、
L1=Max(a1,a2,b1)
L2=Max(a3,a4,a5)
L3=Max(a6,a7,c7)
L4=Max(c1,d1,e1)
L5=Max(c7,d7,e7)
L6=Max(f1,g1,g2)
L7=Max(g3,g4,g5)
L8=Max(g6,g7,f7)
と定めたものである。ここで、L1=Max(a1,a2,b1)とは、画素a1,a2,b1の濃度の最大値を、前述の網点ピーク画素検出演算のL1の値とすることを意味する。
Lc=Min(d4,d3,d5,c4,e4)とは、Lcがd4、d3、d5、c4、e4の中の最小のものであることを意味する。
The density of Lc is obtained as follows with reference to surrounding pixels.
Lc = Min (d4, d3, d5, c4, e4)
When this Lc is the maximum value for the surrounding pixels, the pattern is
L1 = Max (a1, a2, b1)
L2 = Max (a3, a4, a5)
L3 = Max (a6, a7, c7)
L4 = Max (c1, d1, e1)
L5 = Max (c7, d7, e7)
L6 = Max (f1, g1, g2)
L7 = Max (g3, g4, g5)
L8 = Max (g6, g7, f7)
It is determined. Here, L1 = Max (a1, a2, b1) means that the maximum value of the density of the pixels a1, a2, b1 is set as the value of L1 in the above-described halftone peak pixel detection calculation.
Lc = Min (d4, d3, d5, c4, e4) means that Lc is the smallest of d4, d3, d5, c4, and e4.
また、Lc=Max(d4,d3,d5,c4,e4)
このLcが周辺画素に対して最小値の時は、パターンは、
L1=Min(a1,a2,b1)
L2=Min(a3,a4,a5)
L3=Max(a6,a7,c7)
L4=Max(c1,d1,e1)
L5=Max(c7,d7,e7)
L6=Max(f1,g1,g2)
L7=Max(g3,g4,g5)
L8=Max(g6,g7,f7)
と定めたものである。
Lc = Max (d4, d3, d5, c4, e4)
When this Lc is the minimum value for the surrounding pixels, the pattern is
L1 = Min (a1, a2, b1)
L2 = Min (a3, a4, a5)
L3 = Max (a6, a7, c7)
L4 = Max (c1, d1, e1)
L5 = Max (c7, d7, e7)
L6 = Max (f1, g1, g2)
L7 = Max (g3, g4, g5)
L8 = Max (g6, g7, f7)
It is determined.
また、複写の場合、副走査方向yの拡大、縮小はスキャナ200の原稿走査速度の低、高で行うので、スキャナ200からは、副走査方向yの拡大、縮小があった画像データが与えられる。そこで、縮小のときには、図14(b)に示すパタン―ンを用いる。拡大のときには、図14(a)に示すパタ―ンを用いる。
In the case of copying, enlargement / reduction in the sub-scanning direction y is performed at low and high document scanning speeds of the
第3網点ピーク検出部324cの演算式は、1画素のデータで演算するのではなく、複数の画素(min、maxの演算)で、対象となる画素を参照する。これは、低線数の網点は濃淡の周期が大きくなるので、1画素で決定するのでは周辺画素を参照することにより、ノイズ(ごみ)の影響を少なくし、かつ、算術演算量を減らし、他のブロックを共通に演算式を使えるようにしているので、ハード化が容易である。 The calculation formula of the third halftone peak detection unit 324c refers to the target pixel with a plurality of pixels (calculations of min and max), not with data of one pixel. This is because halftone dots with a low number of lines have a large grayscale period, so if one pixel is determined, the influence of noise (dust) is reduced by referring to surrounding pixels, and the amount of arithmetic operations is reduced. Since the arithmetic expression can be used in common with other blocks, hardware is easy.
第1網点領域検出部324dは、第1網点ピーク検出部324aによって検出された山と谷の網点ピーク画素を、所定の大きさの二次元の小領域毎に計数し、山と谷の網点ピーク画素の合計を小領域の計数値Pとする。この計数値Pが閾値Pthより大きいときに、小領域の全画素(あるいは画素単位の処理の場合、小領域の中心画素のみ)を網点領域と判定する。判定の結果は一時メモリ324fに記憶される。
The first halftone dot
第1網点領域検出部324dまたは第2網点領域検出部324eのどちらかが網点領域ならば、注目している小領域の近傍の処理済み領域の網点/非網点判定結果(周辺の特徴情報)に応じ適応的に閾値Pthを変化させる。本実施形態においては、閾値Pthとして、2つの値TH1,TH2(ただしTH1>TH2)が用意され、一時メモリ324fに記憶されている注目小領域近傍の処理済み領域の判定結果によって、その一方の値を選択する。すなわち、近傍の領域が非網点領域と判定されていた場合には、線画領域である可能性が高いので、誤検出を減らすために条件が厳しくなるTH1のほうを閾値Pthとして選択する。これに対し、近傍領域が網点領域であると判定されていた場合には、網点領域である可能性が高いので、条件が緩くなるTH2のほうを閾値Pthとして用いる。なお、閾値Pthの初期値としてはTH1を選択する。
If either the first halftone dot
図14上のAMPに、前述の小領域の分布を示す。小領域分布パターンAMPのS1〜S4のそれぞれは、例えば4×4画素の大きさの小領域(ブロック)であり、S4が注目している小領域、S1,S2およびS3は処理済みの小領域であるとする。S1,S2およびS3のすべてが網点領域であると判定されている時には、Th2がS4の判定のための閾値Pthとして用いられる。S1,S2およびS3の1つでも非網点領域と判定されているときは、閾値PthとしてTH1が選択される。網点領域と判定したときに“1”で、非網点と判定した時に“0”の網点領域検出信号htが網点抽出部324から出力される。ただし、これは一例であって、S1,S2およびS3のいずれか1つの小領域でも網点領域と判定されたときにTH2を選択し、すべてが非網点領域と判定されたときにのみTH1を選択するようにしてもよい。さらに、参照する近傍領域をS1のみ、あるいはS2のみとすることもできる。
The AMP on FIG. 14 shows the distribution of the small regions described above. Each of S1 to S4 of the small area distribution pattern AMP is, for example, a small area (block) having a size of 4 × 4 pixels. S4 is a small area of interest, and S1, S2, and S3 are processed small areas. Suppose that When it is determined that all of S1, S2, and S3 are halftone areas, Th2 is used as the threshold value Pth for the determination of S4. When one of S1, S2 and S3 is determined to be a non-halftone area, TH1 is selected as the threshold value Pth. A halftone dot region detection signal ht is output from the halftone
≪色判定部325≫原稿中の色(有彩)画素や黒(無彩)画素を検出する際には、R,G,Bの相対的な読み取りずれが、各色画像データのサンプリングや機械的精度のために存在する。図15を用いて説明する。図15の(a)は、画像濃度信号で、黒濃度信号は理想的には、R,B,G濃度信号ともレベルの高低が一致したとき理想の黒である。ところが、実際の画像データは、レンズ206でCCD207上に画像を結像し、CCD207の画像信号をデジタル化したもので、図15の(b)が理想の高低波形となる。しかし、一般的なスキャナでは、3ラインCCDセンサを用いているため、画像データのR,G,Bの各画像を時間的に同時に読み取るのではなく、R,G,Bの各ラインセンサは等間隔で配置され、時間的に同時に読むことができないので、どうしても読み取り位置ずれが生じてしまう。例えば、図15の(b)に示すレベル変化の黒を表すR,G,B各色濃度信号は、図15の(c)に示すように相対的にずれる。このずれが大きいと、黒領域の周縁に色ずれが現われる。
<<
≪色相分割部325a≫色判定部325は、有彩色領域を見つけるものである。入力データR,G,Bは、色相分割部25aにて、c,m,yおよび色判定用w(白)の信号に変換される。色相分割の例としては、それぞれの色の境界を求め、1画素内のR,G,Bそれぞれの画像データの最大値と最小値の差をRGB差と定義して、以下のようにした。ここでは、R,G,B画像データは、数字が大きくなると黒くなる(濃くなる)。
<<
1)R−Y色相領域境界(ry)
R−2*G+B>0
2)Y−G色相領域境界(yg)
11*R−8*G−3*B> 0
3)G−C色相領域境界(gc)
1*R−5*G+4*B<0
4)C−B色相領域境界(cb)
8*R−14*G+6*B<0
5)B−M色相領域境界(bm)
9*R−2*G−7*B<0
6)M−R色相領域境界(mr)
R+5*G−6*B<0
7)色判定用w(白)画素判定:(R<thwa)&(G<thwa)&(B<thwa)ならば、y=m=c=0とする。thwaは閾値である。
1) RY hue area boundary (ry)
R-2 * G + B> 0
2) YG hue region boundary (yg)
11 * R-8 * G-3 * B> 0
3) GC hue region boundary (gc)
1 * R-5 * G + 4 * B <0
4) CB hue region boundary (cb)
8 * R-14 * G + 6 * B <0
5) BM hue region boundary (bm)
9 * R-2 * G-7 * B <0
6) MR hue region boundary (mr)
R + 5 * G-6 * B <0
7) Color determination w (white) pixel determination: If (R <thwa) & (G <thwa) & (B <thwa), y = m = c = 0. thwa is a threshold value.
8)Y画素判定:(ry==1)&(yg==0)&(RGB差>thy)ならば、y=1、m=c=0とする。thyは閾値である。 8) Y pixel determination: If (ry == 1) & (yg == 0) & (RGB difference> thy), then y = 1 and m = c = 0. thy is a threshold value.
9)G画素判定:(yg==1)&(gc==0)&(RGB差>thg)ならば、c=y=1、m=0とする。thgは閾値である。 9) G pixel determination: If (yg == 1) & (gc == 0) & (RGB difference> thg), c = y = 1 and m = 0. thg is a threshold value.
10)C画素判定:(gc==1)&(cb==0)&(RGB差>thc)ならば、c=1、m=y=0とする。thcは閾値である。 10) C pixel determination: If (gc == 1) & (cb == 0) & (RGB difference> thc), c = 1 and m = y = 0. thc is a threshold value.
11)B画素判定:(cb==1)&(bm==0)&(RGB差>thb)ならば、m=c=1、y=0とする。thbは閾値である。 11) B pixel determination: If (cb == 1) & (bm == 0) & (RGB difference> thb), m = c = 1 and y = 0. thb is a threshold value.
12)M画素判定:(bm==1)&(mr==0)&(RGB差>thm)ならば、m=1、y=c=0とする。thmは閾値である。 12) M pixel determination: If (bm == 1) & (mr == 0) & (RGB difference> thm), m = 1 and y = c = 0. thm is a threshold value.
13)R画素判定:(mr==1)&(ry==0)&(RGB差>thr)ならば、y=m=1、c=0とする。thrは閾値である。 13) R pixel determination: If (mr == 1) & (ry == 0) & (RGB difference> thr), y = m = 1 and c = 0. thr is a threshold value.
14)BK画素判定:7)〜13)に該当しない時、y=m=c=1とする。 14) BK pixel determination: When not corresponding to 7) to 13), y = m = c = 1.
さらに、色判定用w画素の判定を行う。条件は、
(R<thw)&(G<thw)&(B<thw)
ならば、色画素用w画素とし、wとして出力する。thwは閾値である。ここで、7)〜14)の優先順位は、数の小さい方を優先する。前述の閾値thwa、thy、thm、thc、thr、thg、thbは、複写(処理)前に決まる閾値である。thwとthwaの関係は、thw>thaとなっている。出力信号は、c,m,yに各1ビットの3ビットデータと、さらに、色判定用色画素検出のwの1ビットである。ここで色相毎に閾値をかえているのは、色相領域毎に、有彩範囲が異なる時に色相領域に応じた閾値を決定する。この色相分割は、一例であって、どんな式を使用してもよい。
Further, the color determination w pixel is determined. condition is,
(R <thw) & (G <thw) & (B <thw)
Then, it is set as a w pixel for a color pixel and is output as w. thw is a threshold value. Here, the priority of 7) to 14) is given priority to the smaller number. The above-described threshold values thwa, thy, thm, thc, thr, thg, thb are threshold values determined before copying (processing). The relationship between thw and thwa is thw> tha. The output signal is 3 bits of data of 1 bit for each of c, m, and y, and 1 bit of w for color pixel detection for color determination. Here, the threshold is changed for each hue because the threshold corresponding to the hue area is determined for each hue area when the chromatic range is different. This hue division is an example, and any formula may be used.
色相分割部325aの出力c,m,y,wは、ラインメモリ325b〜325eに5ライン蓄え、色画素判定部325fに入力する。
Output lines c, m, y, and w of the
≪色画素判定部325f≫図6に、色画素判定部325fの内容を示す。5ライン分のc,m,y,wのデータは、パターンマッチング部325f5〜325f7と、カウント部325f1〜325f4に入力する。ここでまず、B/C信号を求める流れの中のパターンマッチング部325f6について説明する。
<< Color
≪パターンマッチング部325f6≫色画素用w画素が存在する時は、その画素のc=m=y=0に補正する。この補正により、注目画素を中心とする5×5画素マトリクスの白レベルが大きくなる。次に注目画素が、色相分割部325aで判定した画素のc,m,yの全てが1(c=m=y=1)または全てが0(c=m=y=0)以外の画素(色画素)であるかを、該5×5画素マトリクスが次のパターンにマッチングするかをチェックすることによって、判定する。
1)色画素パターン群
1―1) パターン1―1(pm1)
D23 & D33 & D43
1―2) パターン1―2(pm2)
D32 & D33 & D34
1―3) パターン1―3(pm3)
D22 & D33 & D44
1―4) パターン1―4(pm4)
D24 & D33 & D42
中心画素(注目画素)はD33である。図16にこれらのパターンpm1〜pm4を示す。これらのパターン上の白丸は、c,m,yの少なくとも一者が1であることを示す。パターンマッチングを採用するのは、孤立点などを拾わないようにするためである。逆に、網点などの、小面積色検出する際には、中心画素が1(c=m=y=1)または全てが0(c=m=y=0)以外の画素(色画素)であるかで、判定すればよい。
<< Pattern Matching Unit 325f6 >> When there is a w pixel for a color pixel, the pixel is corrected to c = m = y = 0. This correction increases the white level of the 5 × 5 pixel matrix centered on the pixel of interest. Next, the pixel of interest is a pixel other than all of c, m, y determined by the
1) Color pixel pattern group 1-1) Pattern 1-1 (pm1)
D23 & D33 & D43
1-2) Pattern 1-2 (pm2)
D32 & D33 & D34
1-3) Pattern 1-3 (pm3)
D22 & D33 & D44
1-4) Pattern 1-4 (pm4)
D24 & D33 & D42
The central pixel (target pixel) is D33. FIG. 16 shows these patterns pm1 to pm4. White circles on these patterns indicate that at least one of c, m, and y is 1. Pattern matching is used to prevent picking up isolated points. On the other hand, when detecting a small area color such as a halftone dot, the central pixel is a pixel (color pixel) other than 1 (c = m = y = 1) or all 0 (c = m = y = 0). It may be determined whether or not.
2)色細線用パターン群
白に囲まれた色線を検出する。これに用いるパターンを図17に示す。図17において、白丸を付した画素は、c,m,yが全て0の画素である。注目画素(中心画素)を中心とする5×5画素マトリクスのデータ(c,m,y)の分布が、図17のパターンpw11a〜pw14dのいずれかにマッチングすると、そのときの注目画素(中心画素)を色線画素と見なす。
2―1)パターン2―1(pw11a〜pw11d)
((D12&D13&D14)&(D42&D43&D44))#
((D12&D13&D14)&(D52&D53&D54))#
((D22&D23&D42)&(D42&D43&D44))#
((D22&D23&D42)&(D52&D53&D54))
2―2)パターン2―2(pw12a〜pw12d)
((D21&D31&D41)&(D24&D34&D44))#
((D21&D31&D41)&(D25&D35&D45))#
((D22&D23&D24)&(D24&D34&D44))#
((D22&D23&D24)&(D25&D35&D45))
2―3)パターン2―3(pw13a〜pw13d)
((D11&D21&D12)&(D35&D44&D53))#
((D11&D21&D12)&(D45&D44&D55))#
((D13&D22&D31)&(D35&D44&D53))#
((D13&D22&D31)&(D45&D44&D55))
2―4)パターン2―4(pw14a〜pw14d)
((D13&D24&D35)&(D41&D51&D52))#
((D14&D15&D25)&(D41&D51&D52))#
((D13&D24&D35)&(D31&D42&D53))#
((D14&D15&D25)&(D31&D42&D53))
3)白領域パターン群
c,m,yが全て0のところのパターンマッチングを行う。これに用いるパターンを図18に示す。図18において、白丸を付した画素は、c,m,yが全て0の画素である。注目画素(中心画素)を中心とする5×5画素マトリクスのデータ(c,m,y)の分布が、図18のパターンpw21a〜pw24dのいずれかにマッチングすると、そのときの注目画素(中心画素)を白領域画素と見なす。
3―1)パターン3―1(pw21a〜pw21d)
(D21&D31&D41)#
(D22&D32&D42)#
(D24&D34&D44)#
(D25&D35&D45)
3―2)パターン3―2(pw22a〜pw22d)
(D12&D13&D14)#
(D22&D23&D24)#
(D42&D43&D44)#
(D52&D53&D54)
3―3)パターン3―3(pw23a〜pw23d)
(D52&D51&D41)#
(D53&D42&D31)#
(D35&D24&D13)#
(D25&D15&D14)
3―4)パターン3―4(pw24a〜pw24d)
(D54&D55&D45)#
(D53&D44&D35)#
(D31&D22&D13)#
(D21&D11&D12)
4)色画素候補2の判定
前記で抽出したパターンマッチング結果が以下のパターンに一致すれば、注目画素を、色判定用色画素候補2とする:
((pm1 == 1) &
((pw11 == 1) # (pw21 != 1))) #
((pm2 == 1) &
((pw12 == 1) # (pw22 != 1))) #
((pm3 == 1) &
((pw13 == 1) # (pw23 != 1))) #
((pm4 == 1) &
((pw14 == 1) # (pw24 != 1)))
ここで、(pm1 == 1)は、注目画素を中心とするデータ分布が、パターンpm1にマッチングすることを意味し、(pw11 == 1)はパターンpw11a〜pw11dのいずれかにマッチングすることを意味し、(pw21!= 1)はパターンpw21a〜pw21dのいずれかにマッチングすることを意味する。&は論理積を、#は論理和を意味する。このパターンマッチングにより、白領域に囲まれた色画素を色画素候補として、それ以外で白領域が存在する時は、色画素としない。白領域がない色画素パターンマッチングで一致したものは、色画素候補となる。
2) Color thin line pattern group A color line surrounded by white is detected. The pattern used for this is shown in FIG. In FIG. 17, pixels with white circles are pixels in which c, m, and y are all 0. When the distribution of the data (c, m, y) of the 5 × 5 pixel matrix centered on the target pixel (center pixel) matches any of the patterns pw11a to pw14d in FIG. 17, the target pixel (center pixel) at that time ) Is regarded as a color line pixel.
2-1) Pattern 2-1 (pw11a to pw11d)
((D12 & D13 & D14) & (D42 & D43 & D44)) #
((D12 & D13 & D14) & (D52 & D53 & D54)) #
((D22 & D23 & D42) & (D42 & D43 & D44)) #
((D22 & D23 & D42) & (D52 & D53 & D54))
2-2) Pattern 2-2 (pw12a to pw12d)
((D21 & D31 & D41) & (D24 & D34 & D44)) #
((D21 & D31 & D41) & (D25 & D35 & D45)) #
((D22 & D23 & D24) & (D24 & D34 & D44)) #
((D22 & D23 & D24) & (D25 & D35 & D45))
2-3) Pattern 2-3 (pw13a to pw13d)
((D11 & D21 & D12) & (D35 & D44 & D53)) #
((D11 & D21 & D12) & (D45 & D44 & D55)) #
((D13 & D22 & D31) & (D35 & D44 & D53)) #
((D13 & D22 & D31) & (D45 & D44 & D55))
2-4) Pattern 2-4 (pw14a to pw14d)
((D13 & D24 & D35) & (D41 & D51 & D52)) #
((D14 & D15 & D25) & (D41 & D51 & D52)) #
((D13 & D24 & D35) & (D31 & D42 & D53)) #
((D14 & D15 & D25) & (D31 & D42 & D53))
3) White region pattern group Pattern matching is performed where c, m, and y are all zero. The pattern used for this is shown in FIG. In FIG. 18, pixels with white circles are pixels in which c, m, and y are all 0. When the distribution of the data (c, m, y) of the 5 × 5 pixel matrix centered on the target pixel (center pixel) matches any of the patterns pw21a to pw24d in FIG. 18, the target pixel (center pixel) at that time ) Is regarded as a white area pixel.
3-1) Pattern 3-1 (pw21a to pw21d)
(D21 & D31 & D41) #
(D22 & D32 & D42) #
(D24 & D34 & D44) #
(D25 & D35 & D45)
3-2) Pattern 3-2 (pw22a to pw22d)
(D12 & D13 & D14) #
(D22 & D23 & D24) #
(D42 & D43 & D44) #
(D52 & D53 & D54)
3-3) Pattern 3-3 (pw23a to pw23d)
(D52 & D51 & D41) #
(D53 & D42 & D31) #
(D35 & D24 & D13) #
(D25 & D15 & D14)
3-4) Pattern 3-4 (pw24a to pw24d)
(D54 & D55 & D45) #
(D53 & D44 & D35) #
(D31 & D22 & D13) #
(D21 & D11 & D12)
4) Determination of
((Pm1 == 1) &
((Pw11 == 1) # (pw21! = 1))) #
((Pm2 == 1) &
((Pw12 == 1) # (pw22! = 1))) #
((Pm3 == 1) &
((Pw13 == 1) # (pw23! = 1))) #
((Pm4 == 1) &
((Pw14 == 1) # (pw24! = 1)))
Here, (pm1 == 1) means that the data distribution centered on the target pixel matches the pattern pm1, and (pw11 == 1) means that it matches any of the patterns pw11a to pw11d. This means that (pw21! = 1) matches with any of the patterns pw21a to pw21d. & Means logical product, and # means logical sum. With this pattern matching, a color pixel surrounded by a white area is set as a color pixel candidate, and when there is a white area other than that, it is not set as a color pixel. Those matched by color pixel pattern matching without a white area are color pixel candidates.
≪カウント部325f1≫注目画素を中心とする5×5画素マトリクス内に、色判定用w画素が存在する時は、その画素の色相分割部325aで判定したc,m,yデータをc=m=y=0に補正する。この補正により、該画素マトリクスの白レベルが大きくなる。そして、該画素マトリクス内の各画素のc,m,yの1(c=1、m=1、y=1)の数をカウントする。c,m,yそれぞれについてのカウント値の最大値と最小値との差が、thcnt以上でかつ最小値がthmin未満ならば、色画素候補1とする。thcnt、thminは、複写(処理)前に設定する閾値である。y,m,cにプレーン展開して、N×Nのマトリクスにおいてのそれぞれのプレーン毎に数を数えて、最少値をブラックと仮定している。このことにより、黒画素の読み取りが漏れても補正が可能となる。そして最大値と最小値の差で有彩画素を判定している。このことにより、黒画素が読取りから外れた画素を補正して、有彩画素を抽出する。注目画素を中心とする5×5画素マトリクス内に一定画素の有彩画素があると注目画素を有彩画素としている。
<< Counting unit 325f1 >> When a w determination pixel for color determination exists in a 5 × 5 pixel matrix centered on the target pixel, the c, m, y data determined by the
≪色画素判定部325f8≫パターンマッチング部325f6とカウント部325f1の出力にもとづいて、色画素判定部325f8で、色画素か否かを判定する。色画素候補1でかつ色画素候補2であれば、色画素1とする。
<< Color Pixel Determination Unit 325f8 >> Based on the outputs of the pattern matching unit 325f6 and the count unit 325f1, the color pixel determination unit 325f8 determines whether the pixel is a color pixel. If the
≪ブロック化部325f9≫色画素判定部325f8の出力をブロック化部325f9にてブロック化をする。ブロック化とは、4×4画素のマトリックスにおいて、1画素以上の色画素1があれば、該4×4画素マトリックス全体を色画素1ブロックとして出力するものである。ブロック化部325f9以降の処理は、4×4画素を1ブロックとしてブロック単位出力する。
<< Blocking Unit 325f9 >> The output of the color pixel determining unit 325f8 is blocked by the blocking unit 325f9. Blocking means that if there is one or
≪孤立点除去部325f10≫ブロック化したデータを孤立点除去部325f10にて、注目ブロックの隣り合うブロックに色画素1ブロックがなければ孤立点として、除去する。 << Isolated Point Removing Unit 325f10 >> The block data is removed by the isolated point removing unit 325f10 as an isolated point if there is no color pixel block in the adjacent block of the target block.
≪膨張部325f11≫孤立点除去部325f10の出力を、膨張部325f11にて、色画素1ブロックが存在する場合は、5×5ブロックに膨張する。膨張するのは、色画素の周辺を黒文字処理をしないようにするためである。ここで、出力するB/C信号は、色画素1ブロックの時にL(有彩)を出力し、それ以外の時は、H(無彩)を出力する。 << Expansion Unit 325f11 >> The output of the isolated point removal unit 325f10 is expanded to 5 × 5 blocks in the expansion unit 325f11 when there is one color pixel block. The reason for the expansion is to prevent black character processing around the color pixel. Here, the output B / C signal outputs L (chromatic) when the color pixel is one block, and outputs H (achromatic) at other times.
≪カウント部325f2≫注目画素を中心とする5×5画素マトリクス内に色判定用w画素が存在する時は、その画素の色相分割部325aで判定したc,m,yデータをc=m=y=0に補正する。この補正により、該画素マトリクスの白レベルが大きくなる。そして、該画素マトリクス内の各画素の、c,m,yの1(c=1,m=1,y=1)の数をカウントする。c,m,yそれぞれについてのカウント値の最大値と最小値との差が、thacnt以上でかつ最小値がthamin未満ならば、注目画素を色画素候補1とする。thacnt、thaminは、複写(処理)前に設定する閾値である。
<< Counting unit 325f2 >> When there is a w determination pixel for color determination in a 5 × 5 pixel matrix centered on the pixel of interest, the c, m, y data determined by the
≪色画素判定部325f12≫パターンマッチング部325f6とカウント部325f2の出力にもとづいて、色画素判定部325f12で、色画素か否かを判定する。色画素候補1でかつ色画素候補2であれば、色画素2とする。
<< Color Pixel Determination Unit 325f12 >> Based on the outputs of the pattern matching unit 325f6 and the count unit 325f2, the color pixel determination unit 325f12 determines whether the pixel is a color pixel. If it is the
≪ブロック化部325f13≫色画素判定部325f12の出力をブロック化部325f13にてブロック化をする。即ち、4×4画素のマトリックスにおいて、1画素以上の色画素2があれば、該4×4画素マトリックの全体を色画素2ブロックとして、出力する。ブロック化部325f13以降の処理は、4×4画素を1ブロックとしてブロック単位出力する。
<< Blocking Unit 325f13 >> The output of the color pixel determining unit 325f12 is blocked by the blocking unit 325f13. That is, if there is one or
≪密度部325f14≫孤立ブロックの除去のために、3×3ブロックの中のアクティブ条件(色画素2ブロック)が3個以上あり、注目ブロックがアクティブ(色画素)ならば、注目ブロックをアクティブブロック(色画素2ブロック)とする。
<< Density section 325f14 >> If there are 3 or more active conditions (
≪カウント部325f3≫注目画素を中心とする5×5画素マトリクス内の各画素のc,m,yの1(c=1、m=1、y=1)の数をカウントする。c,m,yそれぞれについてのカウント値の最大値と最小値との差が、tha1cnt以上で、かつカウントしたc,m,yの最小値が、tha1min未満ならば、色画素候補3とする。tha1cnt、tha1minは、複写(処理)前に設定する閾値である。
<< Counter 325f3 >> The number of c, m, and y 1 (c = 1, m = 1, y = 1) of each pixel in the 5 × 5 pixel matrix centered on the target pixel is counted. If the difference between the maximum value and the minimum value of c, m, and y for each of c, m, and y is equal to or greater than tha1cnt, and the counted minimum value of c, m, and y is less than tha1min,
≪パターンマッチング部325f5≫色画素検出で判定した画素(c,m,y)が色画素かどうかを5×5画素マトリクスを用いるパターンマッチングで判定する。パターンはパターンマッチング部325f6のものと同じである。パターンマッチングで一致した画素は、色画素候補4とする。
<< Pattern Matching Unit 325f5 >> It is determined by pattern matching using a 5 × 5 pixel matrix whether the pixel (c, m, y) determined by the color pixel detection is a color pixel. The pattern is the same as that of the pattern matching unit 325f6. The pixel matched by pattern matching is set as a
≪色画素判定部325f15≫色画素候補3でかつ色画素候補4であれば、色画素3とする。
<< Color Pixel Determination Unit 325f15 >> If the
≪ブロック化部325f16≫色画素判定部325f15の出力をブロック化部325f16にてブロック化をする。すなわち、4×4画素のマトリックスにおいて、1画素以上の色画素3があれば、該4×4画素マトリックスの全体を色画素3ブロックとして、出力する。ブロック化部325f16以降の処理は、4×4を1ブロックとしてブロック単位出力する。
<< Blocking Unit 325f16 >> The output of the color pixel determining unit 325f15 is blocked by the blocking unit 325f16. That is, if there is one or
≪密度部325f17≫孤立ブロックの除去のために、3×3ブロックの中のアクティブ条件(色画素3ブロック)が3個以上あり、注目ブロックがアクティブ(色画素3)ならば、注目ブロックをアクティブブロック(色画素3ブロック)とする。
<< Density 325f17 >> If there are three or more active conditions (
≪カウント部325f4≫注目画素を中心とする5×5画素マトリクス内の各画素の、色相分割部325aで判定したc、m、yの1(c=1、m=1、y=1)の数をカウントする。c、m、yの各カウント値の最小値が、thabk以上ならば、注目画素を黒画素候補1とする。thabkは、複写(処理)前に設定する閾値である。
<< Counting unit 325f4 >> 1 of c, m, and y (c = 1, m = 1, y = 1) determined by the
≪パターンマッチング部325f7≫注目画素を中心とする5×5画素マトリクスにおいて、c=m=y=1の画素のパターンマッチングを行う。
1―1)パターン1―1(pm1)
D23&D33&D43
1―2)パターン1―2(pm2)
D32&D33&d34
1―3)パターン1―3(pm3)
D22&D33&D44
1―4)パターン1―4(pm4)
D42&D33& D24
これらのパターンは図16に示すものであり、図中に丸印を付した画素が、c=m=y=1の画素である。これらのパターンのどれかに一致した時に、注目画素を黒画素候補2とする。
<< Pattern Matching Unit 325f7 >> In a 5 × 5 pixel matrix centered on the pixel of interest, pattern matching is performed on a pixel with c = m = y = 1.
1-1) Pattern 1-1 (pm1)
D23 & D33 & D43
1-2) Pattern 1-2 (pm2)
D32 & D33 & d34
1-3) Pattern 1-3 (pm3)
D22 & D33 & D44
1-4) Pattern 1-4 (pm4)
D42 & D33 & D24
These patterns are shown in FIG. 16, and the pixels with circles in the figure are pixels with c = m = y = 1. When matching with any of these patterns, the target pixel is set as a
≪無彩判定部325f18≫注目画素が、黒画素候補1でかつ黒画素候補2であれば、黒画素とする。
<< Achromatic determination unit 325f18 >> If the target pixel is the
≪ブロック化部325f19≫黒画素の出力をブロック化部325f19にてブロック化をする。ここでのブロック化とは、4×4画素のマトリックスにおいて、1画素以上の黒画素があれば、該4×4画素マトリックスの全体を黒画素ブロックとして、出力する。ブロック化部325f19以降の処理は、4×4画素を1ブロックとしてブロック単位出力する。
<< Blocking Unit 325f19 >> The black pixel output is blocked by the blocking unit 325f19. In this block formation, if there is one or more black pixels in a 4 × 4 pixel matrix, the entire 4 × 4 pixel matrix is output as a black pixel block. The processing after the block forming
≪膨張部325f20≫3×3ブロックのマトリックス内において、注目ブロックがアクティブ(黒画素ブロック)で、その周辺画素がノンアクティブ(非黒画素)ならば、注目ブロックをノンアクティブ(非黒画素ブロック)にする。 << Expansion unit 325f20 >> If a target block is active (black pixel block) and its surrounding pixels are non-active (non-black pixel) in a 3 × 3 block matrix, the target block is non-active (non-black pixel block) To.
≪総合色画素判定部325f21≫注目ブロックが、色画素判定部325f12でアクティブ(色画素2)と判定されかつ無彩判定部325f18でアクティブ(黒画素)と判定されていなければ、注目ブロックは色(色ブロック)と判定する。また、色画素判定部325f15がアクティブ(色画素)の時も色と判定する。 << Total Color Pixel Determination Unit 325f21 >> If the target block is determined to be active (color pixel 2) by the color pixel determination unit 325f12 and not determined to be active (black pixel) by the achromatic determination unit 325f18, the target block is colored (Color block) is determined. Also, when the color pixel determination unit 325f15 is active (color pixel), the color is determined.
≪膨張部325f22≫総合色画素判定部325f21で、色と判定したブロックに対して小さな文字を連続と見なすために、注目ブロックを中心とする9×9ブロックのマトリックス内に1ブロックでもアクティブブロックがあれば、注目ブロックをアクティブブロックとする。ここで、大きく膨張させるのは、文字同士のすき間を埋めるためである。 << Expansion unit 325f22 >> In order for the overall color pixel determination unit 325f21 to consider small characters as continuous with respect to the block determined to be a color, there is even one active block in the 9 × 9 block matrix centered on the target block. If there is, the target block is set as an active block. Here, the reason for the large expansion is to fill the gap between the characters.
≪連続カウント部325f23≫連続カウント部325f23では、色画素ブロックの連続性を見て、カラー原稿か白黒原稿かを判定する。膨張部325f22の出力データ(色画素ブロック)の中の色画素の連続数をカウントすることにより、カラー原稿かどうか判定する。 << Continuous Count Unit 325f23 >> The continuous count unit 325f23 determines whether the color document is a color document or a monochrome document by looking at the continuity of the color pixel blocks. By counting the number of continuous color pixels in the output data (color pixel block) of the expansion unit 325f22, it is determined whether the document is a color document.
図7に、この判定処理の内容を示す。注目画素が色画素ブロックにある時に注目画素の左上、上、右上および左の画素の色画素連続数を参照して、注目画素の色画素連続数を算出する(ステップS21〜26)。ここで、注目画素を、例えば図11の5×5画素分布パターンMPpのc3画素とすると、左上、上、右上および左の画素はそれぞれ、b2,b3,b4およびc2の画素である。注目画素が色画素ブロックにないときには、それには0なる色画素連続数を与える(ステップS21〜27)。 FIG. 7 shows the contents of this determination process. When the target pixel is in the color pixel block, the number of continuous color pixels of the target pixel is calculated with reference to the number of continuous color pixels of the upper left, upper, upper right, and left pixels of the target pixel (steps S21 to S26). Here, if the target pixel is, for example, the c3 pixel of the 5 × 5 pixel distribution pattern MPp in FIG. 11, the upper left, upper, upper right, and left pixels are the pixels b2, b3, b4, and c2, respectively. When the pixel of interest is not in the color pixel block, a continuous color pixel number of 0 is given to it (steps S21 to S27).
注目画素が色画素ブロックにある場合は、先ず注目画素(c3)の上画素(b3)の色画素連続数をチェックして(ステップS22)、それが0であると、参照値Aに右上画素(b4)の色画素連続数に1を加えた値を与え(ステップS24)、上画素(b3)の色画素連続数が0であると参照値Aに右上画素(b4)の色画素連続数を与える(ステップS23)。次に、参照値Bに左上画素(b2)の色画素連続数に1を加えた値を与え、参照値Cには上画素(b3)の色画素連続数に1を加えた値を与え、また参照値Dには左画素(c2)の色画素連続数に1を加えた値を与える(ステップS25)。そして、参照値A、B、CおよびDのうちの最高値を注目画素(c3)の色画素連続数とする(ステップS26)。 When the target pixel is in the color pixel block, first, the number of continuous color pixels of the upper pixel (b3) of the target pixel (c3) is checked (step S22). A value obtained by adding 1 to the number of continuous color pixels of (b4) is given (step S24), and the number of continuous color pixels of the upper right pixel (b4) is added to the reference value A when the number of continuous color pixels of the upper pixel (b3) is 0. (Step S23). Next, a value obtained by adding 1 to the number of continuous color pixels of the upper left pixel (b2) is given to the reference value B, and a value obtained by adding 1 to the number of continuous color pixels of the upper pixel (b3) is given to the reference value B. Further, a value obtained by adding 1 to the number of continuous color pixels of the left pixel (c2) is given to the reference value D (step S25). Then, the highest value among the reference values A, B, C, and D is set as the number of consecutive color pixels of the target pixel (c3) (step S26).
注目画素(c3)に色画素連続数を前述のように与えると、この色画素連続数が設定値THACS以上であるかをチェックして(ステップS28)、THACS以上であると、カラー原稿であると決定して(ステップS29)、そこで連続カウント部325f23の処理を終える。色画素連続数が設定値THACS未満であると、注目画素を走査方向x、yの次の画素に更新して、前述の処理を繰返す。原稿全面について前述の処理をした結果、最後まで色画素連続数が設定値THACS未満であったときには(ステップS30〜34)、原稿は白黒画像であると決定する。 When the number of continuous color pixels is given to the target pixel (c3) as described above, it is checked whether the number of continuous color pixels is equal to or greater than the set value THACS (step S28). Is determined (step S29), and the processing of the continuous count unit 325f23 is ended there. If the number of continuous color pixels is less than the set value THACS, the target pixel is updated to the next pixel in the scanning directions x and y, and the above-described processing is repeated. As a result of performing the above-described processing on the entire surface of the document, if the number of continuous color pixels is less than the set value THACS until the end (steps S30 to S34), it is determined that the document is a monochrome image.
前述の色画素連続数は、ほぼ縦の色付き線分と横の色付き線分の和となる。右上の色画素連続数が、他と異なるのは二重カウントを防ぐためである。色画素連続数の具体的なデータを図19に示した。図19に示す数字を入れた小四角が色画素であり、数字が該画素に与えた色画素連続数である。数字を入れた小四角が連なったブロックが色画素群であり、同一原稿上のどれかの色画素群のなかの色画素連続数が1つでも設定値THACS以上になるとそこで、カラー原稿であるとカラーか白黒かの判定を確定する(ステップS28、29)。 The number of continuous color pixels is substantially the sum of vertical colored line segments and horizontal colored line segments. The number of consecutive color pixels in the upper right is different from others because it prevents double counting. Specific data on the number of continuous color pixels is shown in FIG. A small square including a number shown in FIG. 19 is a color pixel, and the number is a continuous number of color pixels given to the pixel. A block consisting of a series of small squares with numbers is a color pixel group, and even if one continuous color pixel in any color pixel group on the same document exceeds the set value THACS, it is a color document. The determination of color or black and white is confirmed (steps S28 and 29).
色画素判定部1〜3(325f8−325f15)と分けたのは、カラー原稿か白黒原稿かの判定精度を高くするためである。黒文字処理のための色画素判定は、誤判定をしても局所的でさほど目立たない。しかし、カラー原稿か白黒原稿かの判定は、誤判定をすると原稿全体に影響する。そこで、カウント部325f1−f4を独立とした。本来ならば、色相分割部325aから独立にした方がよいが色相分割部325aを独立にすると、パターンマッチング部325f5−f7のメモリが増えるので、好ましくない。カウント部325f1−f4のパラメータ(色画素候補1、3、黒画素候補1)で、色画素のパラメータ(色画素1−3)を変更している事により、メモリ量の増加を少なくしている。色画素判定部2,3(325f12、325f15)を設けているのは蛍光ペンの黄色のような濃度の低い色を検出するためで、さらに、無彩判定(黒画素判定)部325f18を備えたのは濃度を低くすると誤検出した際に補正するためである。蛍光ペンなど濃度の薄い色は、ある程度の幅で黒データで補正しても問題はない。複数の色画素を抽出する際に、w(白)のレベルを変えているだけなので、色画素検出のために2つ分のメモリを持つ必要がなく、1つ分+1ラインの容量で可能である。
The reason why it is divided from the color
連続カウント部325f23で、1ライン前のカウントデータと現在のラインのカウントデータを参照してカウント値を数えているので、確実に周辺画素の連続を正確に数えることができ、これにより色画素の連続を数えることが可能となる。本実施形態では、R,G,B画像データに対して色相判定を行ったが、R,G,B画像データに限定するものではなく、輝度色差(例えばLab)などに対して、色相判定することは、容易である。 Since the count value is counted by the continuous count unit 325f23 by referring to the count data of the previous line and the count data of the current line, it is possible to accurately count the continuity of the peripheral pixels. It is possible to count continuations. In this embodiment, the hue determination is performed on the R, G, B image data. However, the hue determination is not limited to the R, G, B image data, and the hue determination is performed on a luminance color difference (for example, Lab). It is easy.
≪総合判定部326≫総合判定部326は、文字判定部、膨張処理部、文字なか判定部およびデコード部からなる。
<<
≪膨張処理部≫膨張処理部では、文字判定部の結果を8×8ブロックのOR処理をして、その後に3×3ブロックのAND処理をして4ブロックの膨張処理を行う。すなわち、注目ブロックを中心とする8×8ブロックのいずれかのブロックが文字エッジであると、注目ブロックも文字エッジブロックであると仮定し、該注目ブロックを中心とする3×3ブロックのすべてが文字エッジであると注目ブロックを文字エッジと確定し、注目ブロックとそれに隣接する3ブロック、計4ブロックを文字エッジと見なす。OR処理してからAND処理するのは、特に黒文字の場合、黒文字の領域の周辺に小領域の非黒文字領域が存在すると、処理の差により違和感が感じられることがあり、例えば黒が薄く見えるからである。これを防ぐために、OR処理で非黒文字領域を大きくしている。AND処理は、望むべき膨張量にするために行っている。 << Expansion Processing Unit >> The expansion processing unit performs OR processing of 8 × 8 blocks on the result of the character determination unit, and then performs AND processing of 3 × 3 blocks to perform 4-block expansion processing. That is, if any block of the 8 × 8 block centered on the target block is a character edge, it is assumed that the target block is also a character edge block, and all 3 × 3 blocks centered on the target block are If it is a character edge, the block of interest is determined as the character edge, and the block of interest and three blocks adjacent to it are regarded as a character edge. The reason for performing the AND process after the OR process is that, particularly in the case of a black character, if there is a small non-black character area around the black character area, a sense of incongruity may be felt due to a difference in processing, for example, black appears to be faint It is. In order to prevent this, the non-black character area is enlarged by OR processing. The AND process is performed to obtain a desired expansion amount.
≪文字判定部≫文字判定部では、エッジ抽出部322の結果がエッジありで、網点抽出部324の結果が網点なしで白領域抽出部323の白領域結果が白領域ありのときは、文字エッジと判定する。そうでないときには非文字エッジ(絵柄または文字なか)と判定し、その結果を図25に示すように膨張処理部に出力する。
<< Character determination unit >> In the character determination unit, when the result of the
ところでカラー複写機は、1枚の複写をするのに、4回スキャンをするので、スキャン毎に、微妙に文字判定結果が異なる。特に、ブラック作像時に非黒文字判定をし、ブラック作像以外のときに黒文字判定をすると、この黒文字領域は薄くなってしまうので、膨張処理部にてbk時には8×8ブロックのOR処理をして、その後に3×3ブロックのAND処理をしてbk以外の作像時は、5×5ブロックのOR処理をして、その後は1×1ブロックのAND処理をする。なお、1×1のAND処理をする、と言うことは、その結果が処理前と同一になるので、何の処理もしないと言うことと同義である。膨張処理の結果は、文字エッジ信号としてデコード部に出力する。 By the way, since a color copying machine scans four times to make one copy, the character determination result slightly differs for each scan. In particular, if non-black character determination is performed at the time of black image formation and black character determination is performed at times other than black image formation, this black character area becomes thin. Therefore, the expansion processing unit performs OR processing of 8 × 8 blocks at bk. Then, 3 × 3 block AND processing is performed, and when image formation other than bk is performed, 5 × 5 block OR processing is performed, and thereafter 1 × 1 block AND processing is performed. Note that performing 1 × 1 AND processing is synonymous with performing no processing because the result is the same as before processing. The result of the expansion process is output to the decoding unit as a character edge signal.
このように膨張処理をすることにより、分離結果が異なって文字の領域が薄くなることがなくなる。この膨張処理によって、文字の中部分が濃くなることがあるが、文字のエッジに対して文字のなかが薄いと濃度は飽和しているので、違和感はない。 By performing the expansion process in this way, the separation result is different and the character area is not thinned. This expansion process may darken the middle part of the character, but if the character is light relative to the edge of the character, the density is saturated, so there is no sense of incongruity.
図20に、カラー複写によるカラー色剤の重なりを、模式的に拡大して示す。図20の(d)が、4色とも黒文字処理した理想の場合を示す。図20の(e)が、4色とも黒文字処理して、bkのみ補正がかからず、bk以外で補正がかかって薄くなった場合を示す。図20の(f)が、本実施形態によってbkのみ黒文字処理した、好適な場合を示し、図20の(g)が、本実施形態によってbkのみ黒文字処理して、bkのみ補正がかからず、bk以外で補正がかかった好適な場合を示す。 FIG. 20 schematically shows an enlargement of the overlapping of the color colorants by color copying. FIG. 20D shows an ideal case where black characters are processed for all four colors. (E) of FIG. 20 shows a case where black characters are processed for all four colors, and only bk is not corrected, and correction other than bk is applied and lightened. FIG. 20 (f) shows a preferable case where only black characters are processed according to the present embodiment. FIG. 20 (g) shows black characters processed only according to the present embodiment and only bk is not corrected. , Bk is a preferable case where correction is applied.
図20の(a)が、膨張量は同一で黒文字処理した理想の場合を示す。図20の(b)は、膨張量は同一で黒文字処理して印字位置がずれた場合(白く抜ける)を示す。図20の(c)が、bkの膨張量が大きい場合で、本実施形態によって黒文字処理して印字位置がずれた場合を示す。 FIG. 20A shows an ideal case where the expansion amount is the same and black characters are processed. FIG. 20B shows the case where the expansion amount is the same and the print position is shifted after black character processing (out of white). FIG. 20C shows a case where the printing position is shifted by the black character processing according to the present embodiment when the expansion amount of bk is large.
図25の文字なか判定する総合判定326で使用する特徴量は、グレー判定結果(図8の出力)、高濃度検出結果(図8の出力)、色判定結果(図22のb/c信号)、網点分離結果(図12の出力)、文字判定結果(図25の文字判定の出力)を使用する。
The feature quantities used in the
図25に示すように、文字なか判定は、絵柄判定、黒判定、2つのミラー、抽出1,2と判定からなり、内部処理は、絵柄、文字、黒の3状態で、文字なか判定を行う。
As shown in FIG. 25, the determination of whether the character is a character consists of a pattern determination, a black determination, two mirrors,
1)絵柄判定
これは、黒文字のなかにない特徴量より求める。網点分離結果、グレー判定結果、色判定結果のいずれかがアクティブであれば、絵柄とする。式で書くと次式の様になる。
網点分離結果 # グレー判定結果 # 色判定結果
1) Picture determination This is obtained from a feature quantity not included in black characters. If any of the halftone dot separation result, the gray determination result, and the color determination result is active, the pattern is used. When written in a formula, it becomes like the following formula.
Halftone separation result # Gray judgment result # Color judgment result
2)黒判定
これは、黒文字のなかにある特徴量(濃い黒)を求める。色判定結果は色でなく、高濃度判定結果が濃いときに、黒とする。式で書くと次式の様になる。
!色判定結果 # 高濃度判定結果
2) Black determination This obtains a feature amount (dark black) in a black character. The color determination result is not a color, but is black when the high density determination result is dark. When written in a formula, it becomes like the following formula.
! Color judgment result # High density judgment result
3)抽出A
抽出部Aでは、正像画像で文字なか判定をする。抽出部Aにおける判定の流れを図26に示す。線分処理(ステップS2601)では、1ライン前の黒判定結果を補正する。線分処理の具体的な処理のフローチャートを図27に示す。まず、線分処理を実施するライン上の連続画素数i=0と設定する(ステップS2601)。次に、線分処理対象の画素が黒判定において黒と判定されたか否かを判断する(ステップS2702)。該画素が黒判定において黒と判定されなかったときは(ステップS2702/NO)、状態変数の配列SS[i−j](処理対象ラインの1ライン前の処理済ライン)と注目ラインの判定結果MS[i−j]の黒判定の結果が同一として線分処理は終了する(ステップS2703)。一方、該画素が黒判定において黒と判定されたときは(ステップS2702/YES)、注目ラインの黒判定における主走査方向への黒の連続画素数iが検出される(ステップS2704)。検出された連続画素数iが閾値thlより大きいときは(ステップS2705/YES)、状態変数の配列SS[i−j]を絵柄領域のラインに補正する(ステップS2706)。次に、連続画素数iを初期化する処理が実行される(ステップS2707、ステップS2708/YES)。連続画素数iがi=0とならないときは(ステップS2707、ステップS2708/NO)、再び線分処理が行われる(ステップS2703)。なお、主走査方向への連続画素数iが閾値thlより大きくなかったときは(ステップS2704/NO)、状態変数の配列SS[i−j]と注目ラインの判定結果MS[i−j]の黒判定の結果が同一として線分処理は終了する(ステップS2702)。以上の処理により、黒判定で黒の連続画素数が、閾値thlより大きければ、黒画素を絵柄領域に補正する。線分処理では、文字のなかを検出する線幅を規定している。例えば、thlが48で前ラインの連続画素数が48画素以上ならば、次ラインにて文字なか判定しないようにしている。
3) Extraction A
The extraction unit A determines whether the image is a normal image. The flow of determination in the extraction unit A is shown in FIG. In the line segment processing (step S2601), the black determination result of the previous line is corrected. FIG. 27 shows a flowchart of specific processing of line segment processing. First, the continuous pixel number i = 0 on the line on which line segment processing is performed is set (step S2601). Next, it is determined whether or not the pixel subject to line segment processing is determined to be black in the black determination (step S2702). When the pixel is not determined to be black in the black determination (step S2702 / NO), the state variable array SS [i−j] (the processed line one line before the processing target line) and the target line determination result The line segment processing ends with the black determination result of MS [i−j] being the same (step S2703). On the other hand, when the pixel is determined to be black in the black determination (step S2702 / YES), the black continuous pixel number i in the main scanning direction in the black determination of the target line is detected (step S2704). When the detected number of consecutive pixels i is larger than the threshold value thl (step S2705 / YES), the state variable array SS [i−j] is corrected to the line of the picture area (step S2706). Next, a process for initializing the continuous pixel number i is executed (step S2707, step S2708 / YES). When the continuous pixel number i is not i = 0 (step S2707, step S2708 / NO), the line segment processing is performed again (step S2703). If the number of consecutive pixels i in the main scanning direction is not larger than the threshold thl (step S2704 / NO), the state variable array SS [i−j] and the determination result MS [i−j] of the target line As a result of the black determination, the line segment processing ends (step S2702). With the above processing, if the number of continuous black pixels is larger than the threshold value thl in the black determination, the black pixels are corrected to the picture area. In line segment processing, the line width for detecting characters is defined. For example, if thl is 48 and the number of continuous pixels in the previous line is 48 pixels or more, it is determined that the next line is not a character.
線分処理が完了すると(ステップS2601)、以下の処理が実行される。なお、以下の処理において、注目画素が複数一致する時は、上が優先される。注目画素が文字判定部326a又は絵柄判定における判定の結果が検出される(ステップS2602)。像域分離の文字判定部326aにおける文字判定結果で文字と判定されたならば、文字なか領域とする(ステップS2602/文字)。一方、絵柄判定の結果が絵柄領域ならば、注目画素が絵柄領域に属するとして抽出Aにおける処理は終了する(ステップS2602/絵柄)。なお、像域分離のアルゴ上、文字と絵柄ともonになることはない。文字判定部326a及び絵柄判定において、どちらに判定されなかったときは、注目画素の黒判定の結果が検出される(ステップS2603)。注目画素の黒判定の結果が黒でなかったときは(ステップS2603/NO)、中間領域と判定される。一方、注目画素の黒判定の結果が黒であった場合は(ステップS2603/YES)、線分処理後の1ライン前の判定結果が検出される(ステップS2604)。線分処理後の1ライン前の判定結果が絵柄領域であれば(ステップS2604/絵柄)、絵柄領域とする。一方、線分処理後の1ライン前の判定結果が絵柄以外であった場合は(ステップS2604/絵柄以外)、絵柄判定における1画素前の判定結果が検出される(ステップS2605)。1画素前の判定結果が絵柄領域であれば(ステップS2605/絵柄)、絵柄領域とする。一方、1画素前の判定結果が絵柄以外であった場合は(ステップS2605/絵柄以外)、線分処理を経た1ライン前の文字なか判定の結果が検出される(ステップS2606)。1ライン前の文字なか判定の結果が文字なか領域と判定された場合は(ステップS2606/文字なか)、注目画素は文字なか領域に属すると判定される。一方、1ライン前の文字なか判定の結果が文字なか領域以外と判定されていた場合は(ステップS2606/文字なか以外)、1画素前の文字なか判定の結果が検出される(ステップS2707)。1画素前の文字なか判定の結果が文字なかと判定されていた場合は(ステップS2707/文字なか)、注目画素も文字なか領域に属すると判定される。一方、1画素前の文字なか判定の結果が文字なか以外と判定されていた場合は(ステップS2707/文字なか以外)、注目画素は中間領域と判定される。 When the line segment processing is completed (step S2601), the following processing is executed. In the following processing, when a plurality of target pixels match, the top is prioritized. The pixel of interest is detected by the character determination unit 326a or the pattern determination result (step S2602). If it is determined that the character is determined by the character determination result in the character determination unit 326a for image area separation, the character is determined as a region (step S2602 / character). On the other hand, if the result of the picture determination is the picture area, the process in the extraction A is terminated because the target pixel belongs to the picture area (step S2602 / picture). Note that neither characters nor patterns are turned on on the image area separation algorithm. If neither is determined in the character determination unit 326a or the pattern determination, the black determination result of the target pixel is detected (step S2603). When the black determination result of the target pixel is not black (step S2603 / NO), it is determined as an intermediate region. On the other hand, if the result of black determination for the pixel of interest is black (step S2603 / YES), the determination result one line before the line segment processing is detected (step S2604). If the determination result one line before the line segment processing is a pattern area (step S2604 / pattern), the pattern area is determined. On the other hand, when the determination result one line before the line segment processing is other than the pattern (step S2604 / other than the pattern), the determination result one pixel before in the pattern determination is detected (step S2605). If the determination result one pixel before is a picture area (step S2605 / picture), the picture area is set. On the other hand, if the determination result one pixel before is other than the pattern (step S2605 / other than the pattern), the determination result is detected whether the character is one line before the line processing (step S2606). When it is determined that the character is an area before the character (step S2606 / character), the target pixel is determined to belong to the area. On the other hand, if it is determined that the character is one area before the character, the result of the determination is whether the character is one character before (step S2606 / other than the character). If it is determined that the character one pixel before is a character (step S2707 / character), it is determined that the pixel of interest also belongs to the character region. On the other hand, if it is determined that the character one pixel before is not a character (step S2707 / other than a character), the target pixel is determined to be an intermediate region.
4)抽出B
抽出Bでは、逆像(ミラー)画像で文字なか判定をする。逆像での処理をパイプライン処理で実現するために、抽出Bの前後でミラーをしている。抽出Bにおける処理のフローチャートを図28に示す。抽出Aと抽出Bの違いは、線分処理が無い点で他は同じであるので、説明を省略する。線分処理を行っていないのは、単に処理を減らしたいからである。逆に正像処理に線幅処理をしないで、逆像時に線幅処理をしても最終結果(文字なか判定信号)は同じである。
4) Extraction B
In the extraction B, it is determined whether the character is an inverse image (mirror) image. Mirroring is performed before and after extraction B in order to realize processing with an inverse image by pipeline processing. FIG. 28 shows a flowchart of processing in extraction B. The difference between Extraction A and Extraction B is the same except that there is no line segment processing, and thus description thereof is omitted. The reason why line processing is not performed is simply to reduce processing. Conversely, even if line width processing is performed during reverse image processing without performing line width processing for normal image processing, the final result (determination signal for characters) is the same.
5)判定
抽出Aと抽出Bの両方の結果が文字なか領域であれば文字なかとする。ここでは、抽出Bが2つのミラー回路を通っているために、抽出Aと抽出Bでは2ラインずれている。2ラインずれたまま処理することにより、遅延用メモリを増加する必要がなくなる。ここでの文字なか判定信号は、文字エッヂ信号を含んでいる。
5) Determination If the result of both extraction A and extraction B is a character or an area, it is determined that the character is a character. Here, since extraction B passes through two mirror circuits, extraction A and extraction B are shifted by two lines. By processing while shifting by two lines, there is no need to increase the delay memory. Here, the character determination signal includes a character edge signal.
このように、周辺画素の画像の状態を参照して注目画素の文字なか判定をするにより、大きさ画像領域の文字のなかを判定することができる。さらに、高濃度データの周辺画素周りに、網点分離結果(印刷物)、色判定結果(色)、グレー判定結果(印画紙写真)の時は、文字なか判定しないようにしている。ここで、色を見ているのは黒文字のなかを黒文字判定しているからで黒文字以外に色文字のなかを検出する場合は、色判定結果を参照しないようにすればよい。色文字なかと黒文字なかを分けて異なる処理をするならば、色判定結果で色と非色(色じゃない)で分ければよい。また、高度データの周辺に網点分離結果(印刷物)、色判定結果(色)、グレー判定結果(印画紙写真)がなく、文字エッヂが存在する時は、文字なか判定するようにしている。網点分離結果を参照しているのは、印刷物の網点における黒の濃いところを誤判定しないようにするためにある。グレー判定結果を参照しているのは、印画紙写真の暗いところを誤判定しないためにある。このように、高濃度領域の隣接領域を参照することに文字のなかを精度よく判定することができる。 As described above, by referring to the state of the image of the surrounding pixels and determining whether the character is the target pixel, it is possible to determine the character in the size image area. Further, when a halftone dot separation result (printed matter), a color determination result (color), or a gray determination result (printing paper photograph) is made around the peripheral pixels of the high density data, it is not determined that the character is a character. Here, the color is seen because black characters are determined among black characters, and when color characters other than black characters are detected, the color determination result may not be referred to. If different processing is performed for color characters and black characters, the color determination result may be divided into color and non-color (not color). In addition, when there is no halftone dot separation result (printed material), color determination result (color), gray determination result (printing paper photograph) around the altitude data, and there is a character edge, it is determined whether the character is a character. The halftone dot separation result is referred to in order to prevent erroneous determination of a dark black portion in the halftone dot of the printed matter. The reason for referring to the gray determination result is to prevent erroneous determination of a dark portion of the photographic paper photograph. As described above, it is possible to accurately determine the character by referring to the adjacent area of the high density area.
≪デコード部≫デコード部が最終的に出力するC/P信号は、下記のようになる:
C/P信号 文字エッジ信号 文字なか信号
0 なし ×
1 あり なし 文字エッジ領域
2 あり なし 文字なか領域
また、色判定部325からは図4および図25に示すようにB/C信号が出力される。
<< Decoding Unit >> The C / P signal finally output by the decoding unit is as follows:
C / P signal Character edge
1 Yes No
次に、再度図3を参照する。原稿認識部320が発生するC/P信号およびB/C信号は、RGBフィルタ部330、色補正部340、変倍部350、インターフェース部352、UCR部360、CMYBkフィルタ部370、CMYBkγ補正部380および階調処理部390に、画像データに同期してカスケードに与えられる。
Next, FIG. 3 will be referred to again. The C / P signal and B / C signal generated by the
RGBフィルタ部330は、RGBデータをMTF補正するフィルタであり、N×Nの画素マトリックスに対応する係数マトリクスと、各係数に各画像データを乗じて重み付け平均値を得るロジックで構成されている。C/P信号が1を表すもの(文字エッジ領域)である時には、鮮鋭化処理用の係数マトリクスを用い、0または2を表すもの(文字なか領域または絵柄領域)である時には平滑化処理用の係数マトリクスを用いて、重み付け平均値を導出し色補正部340に出力する。色補正部340は、R、G、Bデータを一次のマスキング処理等でC、M、Yデータに変換する。変倍部350は、画像データに、主走査方向xの拡大・縮小または等倍処理を施す。
The
UCR部360は、画像データの色再現を向上させるためのものであり、色補正部340から入力したC、M、Yデータの共通部分をUCR(加色除去)処理してBkデータを生成し、C、M、Y、Bkデータを出力する。ここで、C/P信号が1(文字エッジ領域)以外の時(文字なか領域または絵柄領域のとき)は、スケルトンブラック処理を行う。C/P信号が1(文字エッジ領域)の時は、フルブラック処理を行う。さらにC/P信号が1(文字エッジ領域)かつB/C信号がH(無彩領域)の時は、C、M、Yのデータをイレースする。これは、黒文字の時、黒成分のみで表現するためである。
The
また、UCR部360の出力画像信号IMGは、一時点はC、M、Y、Bkのうち一色であり、面順次の一色出力である。すなわち、4回原稿読み取りを行うことにより、フルカラー(4色)データを生成する。また、白黒複写のときは、Bk作像一回でよいので、1回の原稿読み取りでよい。カラー原稿か、白黒原稿かの判定機構があれば、原稿に応じた読み取り回数ですむので、操作者が、原稿に応じてカラー原稿か白黒原稿かを判断して複写する必要がなくなる。本実施形態では、B/C信号がカラー原稿か、白黒原稿かの判定に参照する信号である。原稿全面でB/C信号がH(無彩領域)であったときにメインコントローラ10が、白黒原稿と判定する。
In addition, the output image signal IMG of the
CMYBkフィルタ部370は、カラープリンタ400の周波数特性やC/P信号に応じて、N×Nの空間フィルタを用い、平滑化や鮮鋭化処理を行う。CMYBkγ補正部380は、カラープリンタ400の周波数特性やC/P信号に応じて、γカーブを変更し処理する。C/P信号が0(絵柄領域)の時は画像を忠実に再現するγカーブを用い、C/P信号が1(文字エッジ領域)の時はγカーブを立たせてコントラストを強調する。さらに、C/P信号が2(文字なか領域)の時は、文字エッヂ領域より濃くなるγカーブを設定する。文字なかのγカーブを文字エッヂγより濃くすることにより、文字のなかのデータが薄くなるのを防ぐ効果がある。
The
階調処理部390は、カラープリンタ400の階調特性やC/P信号に応じて、ディザ処理、誤差拡散処理等の量子化を行う。Bk作像の時は、C/P信号が0(絵柄領域)の時は階調重視の処理を行い、それ以外の時は解像力重視の処理を行う。Bk以外の作像の時は、C/P信号が0(絵柄領域)の時は階調重視の処理を行い、それ以外の時は解像力重視の処理を行う。以上の処理をした画像データは、バッフアメモリを有するビデオコントロール359からカラープリンタ400に、その画像データ書込み動作に同期して、与えられる。
The
前記IPU300は、絵柄処理(C/P信号=0)の時は、RGBフィルタ部330で平滑化処理を行い、UCR部360でスケルトンブラックの処理を行い、CMYBkγ補正部380ではリニア(階調性)を重視したカーブを選択し、CMYBkフィルタ部370および階調処理部390では階調を重視した処理を行う。
When the image processing (C / P signal = 0), the
一方、文字処理(C/P信号=1でB/C信号=L)の時は、RGBフィルタ部330でエッジ強調処理を行い、UCR部360でフルブラック処理を行い、CMYBkγ補正部380ではコントラストを重視したカーブを選択し、CMYBkフィルタ部370および階調処理部390では解像度を重視した処理を行う。
On the other hand, when character processing (C / P signal = 1 and B / C signal = L), the
また、黒文字処理(C/P信号=1でB/C信号=H)として、Bkを除くC、M、Yの画像形成時には、C、M、Yデータを印字しない。これは、黒文字の周りが位置ずれのために色付くのを防ぐためである。また、この時のBkデータのRGBフィルタ部330は色文字のときより、エッジ強調を強めに行ってくっきりさせても良い。
In black character processing (C / P signal = 1 and B / C signal = H), C, M, and Y data are not printed during C, M, and Y image formation excluding Bk. This is to prevent the surroundings of black characters from being colored due to misalignment. In addition, the
このようにIPU300では、絵柄、黒文字エッジ、色文字エッジおよび文字なか処理の4種の処理を行う。
As described above, the
10 メインコントローラ
12 スキャナコントローラ
16 プリンタコントローラ
17 FAXコントローラ
18 パラレルI/F
19 LANコントロール
20 通信コントローラ
40 画像処理ユニット(IPU)
200 カラー画像読取装置(スキャナ)
300 画像処理ユニット(IPU)
320 原稿認識部
321 フィルタ部
322 エッジ抽出部
323 白領域抽出部
323e 2値化部
323b RGB白抽出部
323b−1 グレー画素検出部
323b−2 色画素検出部
323b−3 RGB白地検出部
323c 白判定部
323d 白パターンマッチング部
323g 白補正部
323h グレーマッチング部
323i グレー膨張部
323j 白パターン補正部
323k 白膨張部
323l 白収縮部
323m 判定部
324 網点抽出部
324a 第1網点ピーク検出部
324b 第2網点ピーク検出部
324c 第3網点ピーク検出部
324d 第1網点領域検出部
324e 第2網点領域検出部
324f 一時メモリ
325 色判定部
326 総合判定
330 RGBフィルタ
400 カラー画像記録装置(カラープリンタ)
10
19
200 Color image reader (scanner)
300 Image processing unit (IPU)
320 Document Recognition Unit 321
Claims (9)
前記画像データの文字エッジ領域を検出する文字エッジ領域検出手段と、
前記画像データの中濃度領域を検出する中濃度領域検出手段と、
前記中濃度領域検出手段によって検出した前記中濃度領域を膨張処理する膨張手段と、
前記画像データの絵柄領域を検出する絵柄領域検出手段と、
前記文字エッジ領域検出手段による文字エッジ領域検出結果、前記中濃度領域検出手段による中濃度領域検出結果、及び前記絵柄領域検出手段による絵柄領域検出結果から前記画像データが文字を有するか否かを判定する文字判定手段と、
前記中濃度領域検出手段によって検出した前記中濃度領域を膨張処理する膨張処理手段と、
前記画像データの画像が有する色を判定する色判定手段と、
前記文字判定手段による判定結果、前記色判定手段による判定結果、前記中濃度領域検出手段によって検出した前記中濃度領域、及び前記絵柄領域検出手段によって検出した前記絵柄領域により前記画像データが文字の中であるか否かを判定する判定手段とを有することを特徴とする画像処理装置。 In an image processing apparatus that performs predetermined processing on output image data and outputs the processed image data,
A character edge area detecting means for detecting a character edge area of the image data;
Medium density area detecting means for detecting a medium density area of the image data;
Expansion means for expanding the medium concentration area detected by the medium concentration area detection means;
A pattern area detecting means for detecting a pattern area of the image data;
It is determined whether the image data has a character from the character edge area detection result by the character edge area detection means, the medium density area detection result by the medium density area detection means, and the pattern area detection result by the pattern area detection means. Character judging means to perform,
Expansion processing means for expanding the medium concentration area detected by the medium concentration area detection means;
Color determination means for determining the color of the image of the image data;
The image data is contained in the character by the determination result by the character determination unit, the determination result by the color determination unit, the medium density region detected by the medium density region detection unit, and the design area detected by the design region detection unit. An image processing apparatus comprising: determination means for determining whether or not
前記画像処理対象領域から網点を検出し、
前記網点が検出されなかったとき、前記画像処理対象領域に前記絵柄領域が含まれないと判定し、
前記網点が検出されたとき、前記画像処理対象領域に前記絵柄領域が含まれると判定することを特徴とする請求項1記載の画像処理装置。 The pattern area detecting means includes
Detecting halftone dots from the image processing target area,
When the halftone dot is not detected, it is determined that the image area is not included in the image processing target area,
The image processing apparatus according to claim 1, wherein when the halftone dot is detected, the image processing target area is determined to include the pattern area.
前記画像データから高濃度領域を検出する高濃度領域検出手段と、
前記画像データからグレー画素を検出するグレー画素検出手段と、
前記画像データから白領域を検出する白領域検出手段とを有することを特徴とする請求項1から3のいずれか1項記載の画像処理装置。 The medium concentration area detecting means includes
High density area detection means for detecting a high density area from the image data;
Gray pixel detection means for detecting gray pixels from the image data;
The image processing apparatus according to claim 1, further comprising a white area detecting unit configured to detect a white area from the image data.
原稿画像を色分解して読み取って生成した画像データを前記画像処理装置に入力する読取手段とを有することを特徴とする画像読取装置。 An image processing apparatus according to any one of claims 1 to 5,
An image reading apparatus comprising: reading means for inputting image data generated by color-separating and reading a document image to the image processing apparatus.
前記画像処理装置から出力された画像データに基づいて作像し、作像された画像を用紙上に形成し、画像出力する画像出力手段とを有することを特徴とする画像形成装置。 An image processing apparatus according to any one of claims 1 to 5,
An image forming apparatus comprising: an image output unit that forms an image based on image data output from the image processing apparatus, forms the formed image on a sheet, and outputs the image.
原稿画像を色分解して読み取って生成した画像データを前記画像処理装置に入力する読取手段と、
前記画像処理装置から出力された画像データに基づいて作像し、作像された画像を用紙上に形成し、画像出力する画像出力手段とを有することを特徴とするカラー複写装置。 An image processing apparatus according to any one of claims 1 to 5,
Reading means for inputting image data generated by color-separating and reading a document image to the image processing apparatus;
A color copying apparatus comprising: an image output unit that forms an image based on image data output from the image processing device, forms the formed image on a sheet, and outputs the image.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2004180225A JP2006005680A (en) | 2004-06-17 | 2004-06-17 | Image processing apparatus, image reading apparatus, image forming apparatus, and color copying apparatus |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2004180225A JP2006005680A (en) | 2004-06-17 | 2004-06-17 | Image processing apparatus, image reading apparatus, image forming apparatus, and color copying apparatus |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2006005680A true JP2006005680A (en) | 2006-01-05 |
Family
ID=35773681
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2004180225A Pending JP2006005680A (en) | 2004-06-17 | 2004-06-17 | Image processing apparatus, image reading apparatus, image forming apparatus, and color copying apparatus |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2006005680A (en) |
Cited By (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2007189274A (en) * | 2006-01-11 | 2007-07-26 | Ricoh Co Ltd | Image processing device |
| JP2008022286A (en) * | 2006-07-12 | 2008-01-31 | Ricoh Co Ltd | Image processing apparatus, image forming apparatus, image distribution apparatus, image processing method, program, and recording medium |
| JP2009111645A (en) * | 2007-10-29 | 2009-05-21 | Ricoh Co Ltd | Color pixel determination apparatus, image processing apparatus, image forming apparatus, color pixel determination method, and color pixel determination program |
| CN113205633A (en) * | 2020-01-16 | 2021-08-03 | 深圳怡化电脑股份有限公司 | Method and device for detecting red and blue fibers of bill, electronic equipment and storage medium |
-
2004
- 2004-06-17 JP JP2004180225A patent/JP2006005680A/en active Pending
Cited By (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2007189274A (en) * | 2006-01-11 | 2007-07-26 | Ricoh Co Ltd | Image processing device |
| JP2008022286A (en) * | 2006-07-12 | 2008-01-31 | Ricoh Co Ltd | Image processing apparatus, image forming apparatus, image distribution apparatus, image processing method, program, and recording medium |
| US7986837B2 (en) | 2006-07-12 | 2011-07-26 | Ricoh Company, Ltd. | Image processing apparatus, image forming apparatus, image distributing apparatus, image processing method, computer program product, and recording medium |
| JP2009111645A (en) * | 2007-10-29 | 2009-05-21 | Ricoh Co Ltd | Color pixel determination apparatus, image processing apparatus, image forming apparatus, color pixel determination method, and color pixel determination program |
| CN113205633A (en) * | 2020-01-16 | 2021-08-03 | 深圳怡化电脑股份有限公司 | Method and device for detecting red and blue fibers of bill, electronic equipment and storage medium |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP3983101B2 (en) | Image processing apparatus, image reading apparatus, image forming apparatus, and color copying apparatus | |
| US7139100B2 (en) | Image-processing device processing image data by judging a detected and expanded medium-density field as a non-character edge field | |
| US6965695B2 (en) | Method and system for processing character edge area data | |
| JP3907155B2 (en) | Image data correction apparatus, image reading apparatus, and image forming apparatus | |
| JP4010434B2 (en) | Image processing, forming and color copying equipment | |
| JP2007215204A (en) | Image processing device | |
| JP4063480B2 (en) | Image processing device | |
| JP4380696B2 (en) | Image processing device | |
| JP2006005680A (en) | Image processing apparatus, image reading apparatus, image forming apparatus, and color copying apparatus | |
| JP2004153563A (en) | Image processing device, image reading device, image forming device, and color copying device | |
| JP4833893B2 (en) | Image processing apparatus, image processing method, image reading apparatus, image forming apparatus, copying apparatus, program, and computer-readable recording medium | |
| JP2005051353A (en) | Image processing apparatus, image reading apparatus, image forming apparatus, computer program, and recording medium | |
| JP2006014094A (en) | Image processing apparatus, image reading apparatus, image forming apparatus, color copying apparatus, image processing program, and recording medium | |
| JP2004104625A (en) | Image processing, reading, forming apparatus and color copying apparatus | |
| JP2003259115A (en) | Image processing device, image reading device, image forming device, and color copying device | |
| JP3982669B2 (en) | Image processing device | |
| JP4133674B2 (en) | Image processing apparatus, image reading apparatus, and color copying apparatus | |
| JP4379873B2 (en) | Image processing apparatus, storage medium, image reading apparatus, and image forming apparatus | |
| JP2007006526A (en) | Image processing apparatus, low line number halftone dot detection apparatus, image reading apparatus, image forming apparatus, and color copying apparatus | |
| JP4695472B2 (en) | Image processing apparatus, image forming apparatus, image processing method, program, and storage medium | |
| JP2009111645A (en) | Color pixel determination apparatus, image processing apparatus, image forming apparatus, color pixel determination method, and color pixel determination program | |
| JP2004112725A (en) | Image processing device, image reading device, image forming device, and copying device | |
| JP4320309B2 (en) | Image processing apparatus, image processing method, image processing program, and recording medium recording the program | |
| JP2004112355A (en) | Image processing device | |
| JPH10210314A (en) | Digital image processing device |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060726 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080129 |
|
| A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080317 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20080422 |