JP4086537B2 - Image processing method, image processing apparatus, image forming apparatus, computer program, and recording medium - Google Patents

Image processing method, image processing apparatus, image forming apparatus, computer program, and recording medium Download PDF

Info

Publication number
JP4086537B2
JP4086537B2 JP2002122974A JP2002122974A JP4086537B2 JP 4086537 B2 JP4086537 B2 JP 4086537B2 JP 2002122974 A JP2002122974 A JP 2002122974A JP 2002122974 A JP2002122974 A JP 2002122974A JP 4086537 B2 JP4086537 B2 JP 4086537B2
Authority
JP
Japan
Prior art keywords
image
color
type
image data
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2002122974A
Other languages
Japanese (ja)
Other versions
JP2003319195A (en
Inventor
牧生 後藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2002122974A priority Critical patent/JP4086537B2/en
Publication of JP2003319195A publication Critical patent/JP2003319195A/en
Application granted granted Critical
Publication of JP4086537B2 publication Critical patent/JP4086537B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Color, Gradation (AREA)
  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)
  • Image Analysis (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、画像データから画像種別の判別を自動的に行い、判別結果に基づいて画像処理を行う画像処理方法、該画像処理方法を実行する画像処理装置、該画像処理装置を備える画像形成装置、コンピュータを前記画像処理装置として実現させるためのコンピュータプログラム、及び該コンピュータプログラムを記録してあるコンピュータで読み取りが可能な記録媒体に関する。
【0002】
【従来の技術】
電子写真方式又はインクジェット方式を用いた複写機等の画像形成装置は、従来のアナログ式のほかにデジタル式のものが普及しており、またデジタル画像処理技術の進展によって、カラー画像を高画質に再現するフルカラーのデジタル複写機・複合機等が製品化されている。
【0003】
これらの画像形成装置を用いて複写される原稿に関しては、文字画像、線画画像、写真画像、又はこれらを組合せた文字/写真画像等が存在しており、良好な再現画像を得るためには、それぞれの原稿の種別に応じた適切な画像処理を行う必要がある。
【0004】
このような状況の中で、画像形成装置の操作モードとして、原稿の種別に応じた画像処理を行うために原稿の種別を選択する、文字モード、写真モード、文字/写真モード等が備えられている。しかしながら、操作者が手動により各原稿に対してモードの切り替えを行うことは、非常に煩わしい作業である。また、不適切なモードが選択された場合等には、著しい画像の劣化が見られることが多く、無駄な複写が行われることになる。
【0005】
そこで、このような問題を解決するために、画像(原稿)の種別を自動的に判別する処理を行うことが提案されている。例えば、特開2000−32287号公報においては、入力された画像データに対応する画像の種別を自動的に判別し、判別結果に応じて適切な補正処理を施すか否かを判断している。
【0006】
前記公報に記載される画像種別判別処理は、入力された画像データの明度分布情報(1.明度が全階調域に広く分布しているか、又は特定階調に集中して分布しているか、2.明度極大値ポイント数)及び画像の色数を用いて行う。これにより、人工的に作成されたデザイン画又はロゴ等の「グラフィカル画像」であるか、風景画又は人物像のような「ピクトリアル画像」であるか、ディザ又は誤差拡散等の面積階調表現により低階調数化処理を施した画像であるかを判別する。
【0007】
【発明が解決しようとする課題】
例えば、コンピュータで作成したイラスト等を印刷機又はプリンタで出力した画像は面積階調であるため、明度分布情報及び色数等を正確に求めることができない。つまり、前記公報の方法によれば、このような面積階調の画像を読み込んだ場合、色数が非常に多くなり、色数が多い印画紙写真との区別ができない。また、文字のみの画像と、文字と写真とが混在している画像との画像処理の切り替えを行うことができない。
【0008】
さらに、グラフィカル画像であると判別した場合、カラーバランス補正、コントラスト補正、精細度補正は行わず、ピクトリアル画像であると判別した場合、これらの補正処理を行うが、これら以外のグラフィカル画像及びピクトリアル画像に対する画像処理については記載されていない。これら各々の画像に対しても適切な画像処理が必要である。
【0009】
本発明は斯かる事情に鑑みてなされたものであって、その目的とするところは、入力された画像データから画像種別の特徴を表す特徴量を抽出して文字画像、写真画像又は文字及び写真画像の何れかの画像種別を判別し、前記画像データから色情報の特徴を表す特徴量を抽出して画像を判別し、該判別結果に基づいて前記画像種別の判別結果に対して補正を施すか否かを判定することにより、画像の種別をより厳密に判別し、判別した画像種別に応じて適切な画像処理を行うことができる画像処理方法、該画像処理方法を実行する画像処理装置、該画像処理装置を備える画像形成装置を提供することにある。
【0010】
また、本発明の他の目的は、コンピュータを本発明に係る画像処理装置として実現させるためのコンピュータプログラム、及び該コンピュータプログラムを記録したコンピュータで読み取りが可能な記録媒体を提供することにある。
【0011】
【課題を解決するための手段】
本発明に係る画像処理方法は、入力された画像データから画像の種別を判別し、この判別結果に基づいて画像処理を行う画像処理方法において、画像データから画像種別の特徴を表す特徴量を抽出して文字画像、写真画像又は文字及び写真画像の何れかの画像種別を判別する第1の過程と、前記画像データから色情報の特徴を表す特徴量を抽出して画像を判別し、該判別結果に基づいて前記第1の過程の判別結果に対して補正を施すか否かを判別する第2の過程と、該第2の過程の判別結果に基づいて前記第1の過程にて判別した画像種別に対して、より厳密な画像種別がなされるべく、補正を施す第3の過程とを備えることを特徴とする。
【0012】
本発明にあっては、入力された画像データから、画像種別の特徴を表す特徴量を抽出して画像種別を判別することにより、文字画像と、写真が混在している画像との判別を行うことができるのみならず、さらに色情報の特徴を表す特徴量も抽出し、計2つの特徴量に基づいて画像種別を判別することにより、より厳密に画像種別を判別することができる。またこの結果、判別した画像種別に応じた適切な画像処理を行うことができる。
【0013】
また、本発明に係る画像処理方法は、前記第2の過程は、前記画像データから有彩色のエッジとなる画素数を計数する過程と、前記画像データの色数を計数する過程とを備えることを特徴とする。
【0014】
本発明にあっては、有彩色のエッジとなる画素数及び色数を計数することにより、コンピュータで作成したイラスト等をプリンタで出力した面積階調の画像と印画紙写真とを異なる画像種別として判別したり、手書きのイラストを個別の画像種別として判別する等、多様な画像データに対して画像種別を厳密に判別することができる。
【0015】
また、本発明に係る画像処理方法は、前記色数を計数する過程は、前記画像データから色分布を算出する過程を備えることを特徴とする。
【0016】
本発明にあっては、画像データから色分布を算出することにより、度数値が所定の閾値よりも大きい区分のみを前記画像データ中の色数として計数することができるので、色数を正確に計数することができる。
また、本発明に係る画像処理方法は、前記第2の過程は、計数した前記画素数及び色数と所定の閾値との関係に基づいて、画像を判別し、該判別結果に基づいて前記第1の過程の判別結果に対して補正を施すか否かを判別することを特徴とする。
本発明にあっては、入力された画像データから、画像種別の特徴を表す特徴量を抽出して画像種別を判別することにより、文字画像と、写真が混在している画像との判別を行うことができるのみならず、さらに色情報の特徴を表す特徴量も抽出し、計2つの特徴量に基づいて画像種別を判別することにより、より厳密に画像種別を判別することができる。またこの結果、判別した画像種別に応じた適切な画像処理を行うことができる。
【0017】
また、本発明に係る画像処理装置は、入力された画像データから画像の種別を判別する画像種別判別手段を備え、該画像種別判別手段の判別結果に基づいて画像処理を行う画像処理装置において、前記画像種別判別手段は、画像データから画像種別の特徴を表す特徴量を抽出して文字画像、写真画像又は文字及び写真画像の何れかの画像種別の判別を行う第1判別手段と、前記画像データから色情報の特徴を表す特徴量を抽出して画像を判別し、該判別結果に基づいて前記第1判別手段の判別結果に対して補正を施すか否かを判別する第2判別手段と、該第2判別手段の判別結果に基づいて前記第1判別手段にて判別した画像種別に対して、より厳密な画像種別がなされるべく、補正を施す手段とを備えることを特徴とする。
【0018】
本発明にあっては、入力された画像データの画像種別の特徴を表す特徴量を抽出して画像種別の判別を行う第1判別手段を備えることにより、文字画像と、写真が混在している画像とを判別することができる。さらに、色情報の特徴を表す特徴量を抽出して第1判別手段の判別結果に対して補正を施すか否かの判別を行う第2判別手段を備えることにより、画像種別の特徴を表す特徴量及び色情報の特徴を表す特徴量の計2つの特徴量に基づいて画像種別を判別するので、より厳密に画像種別を判別することができる。またこの結果、判別した画像種別に応じた適切な画像処理を行うことができる。
【0019】
また、本発明に係る画像処理装置は、前記第2判別手段は、前記画像データから有彩色のエッジとなる画素数を計数する手段と、前記画像データの色数を計数する色数計数手段とを備えることを特徴とする。
【0020】
本発明にあっては、第2判別手段が、有彩色のエッジである画素数の多少及び色数とを計数する手段を備えることにより、コンピュータで作成したイラスト等をプリンタで出力した面積階調の画像と印画紙写真とを異なる画像種別として判別したり、手書きのイラストを個別の画像種別として判別する等、多様な画像データに対して画像種別を厳密に判別することができる。
【0021】
また、本発明に係る画像処理装置は、前記色数計数手段は、前記色数を計数すべく前記画像データから色分布を算出する手段を備えることを特徴とする。
【0022】
本発明にあっては、画像データから色分布を算出する手段を備えることにより、度数値が所定の閾値よりも大きい区分のみを前記画像データ中の色数として計数することができるので、色数を正確に計数することができる。
また、本発明に係る画像処理装置は、前記第2判別手段は、計数した前記画素数及び色数と所定の閾値との関係に基づいて、画像を判別し、該判別結果に基づいて前記第1の過程の判別結果に対して補正を施すか否かを判別することを特徴とする。
本発明にあっては、入力された画像データから、画像種別の特徴を表す特徴量を抽出して画像種別を判別することにより、文字画像と、写真が混在している画像との判別を行うことができるのみならず、さらに色情報の特徴を表す特徴量も抽出し、計2つの特徴量に基づいて画像種別を判別することにより、より厳密に画像種別を判別することができる。またこの結果、判別した画像種別に応じた適切な画像処理を行うことができる。
【0023】
また、本発明に係る画像形成装置は、本発明に係る画像処理装置の何れかを備え、該画像処理装置が画像処理した画像データに基づき、画像を形成することを特徴とする。
【0024】
本発明にあっては、本発明に係る画像処理装置の何れかを備え、該画像処理装置が画像処理した画像データに基づき、画像を形成することにより、多様な画像データに対して、画像種別をより厳密に判別して適切な画像処理を行うことができるので、入力された画像データを良好に再現する画像を出力する画像形成装置を実現することができる。
【0025】
また、本発明に係るコンピュータプログラムは、コンピュータに、入力された画像データから画像の種別を判別させ、この判別結果に基づいて画像処理を行わせるためのコンピュータプログラムにおいて、コンピュータに、画像データから画像種別の特徴を表す特徴量を抽出して文字画像、写真画像又は文字及び写真画像の何れかの画像種別を判別させる第1ステップと、コンピュータに、前記画像データから色情報の特徴を表す特徴量を抽出して画像を判別し、該判別結果に基づいて前記第1ステップの判別結果に対して補正を施すか否かを判別させる第2ステップと、コンピュータに、前記第2ステップの判別結果に基づいて前記第1ステップにて判別した画像種別に対して、より厳密な画像種別がなされるべく、補正を施させる第3ステップとを実行させることを特徴とする。
【0026】
本発明にあっては、このコンピュータプログラムが格納されたコンピュータにおいて、入力された画像データに対して厳密に画像種別を判別し、判別した画像種別に応じて適切な画像処理を行うことができる。また、プログラムの書き換えが可能な画像処理装置、画像形成装置等においても、コンピュータプログラムを格納することによって、同様に、画像データの画像種別を判別して適切な画像処理を行わせることができる。
【0027】
さらに、本発明に係るコンピュータで読み取りが可能な記録媒体は、コンピュータに、入力された画像データから画像の種別を判別させ、この判別結果に基づいて画像処理を行わせるためのコンピュータプログラムを記録してあるコンピュータでの読み取りが可能な記録媒体において、コンピュータに、画像データから画像種別の特徴を表す特徴量を抽出して文字画像、写真画像又は文字及び写真画像の何れかの画像種別を判別させる第1ステップと、コンピュータに、前記画像データから色情報の特徴を表す特徴量を抽出して画像を判別し、該判別結果に基づいて前記第1ステップの判別結果に対して補正を施すか否かを判別させる第2ステップと、コンピュータに、前記第2ステップの判別結果に基づいて前記第1ステップにて判別した画像種別に対して、より厳密な画像種別がなされるべく、補正を施させる第3ステップとを実行させるためのコンピュータプログラムを記録してあることを特徴とする。
【0028】
本発明にあっては、CD−ROM等としてコンピュータプログラムをコンピュータに読み込ませることができるので、この結果、コンピュータにおいて、入力された画像データに対して厳密に画像種別を判別し、判別した画像種別に応じて適切な画像処理を行うことができる。
【0029】
【発明の実施の形態】
以下、本発明をその実施の形態を示す図面に基づいて説明する。
図1は、本発明に係る画像処理方法、画像処理装置、画像形成装置の実施の形態であるデジタルカラー複写機の要部構成を示すブロック図である。
【0030】
図1に示すように、カラー画像処理装置2に、カラー画像入力装置(画像読取手段)1とカラー画像出力装置3とが接続され、全体としてデジタルカラー複写機を構成している。カラー画像入力装置1は、例えばCCD(Charge Coupled Device )を備えるスキャナで構成され、原稿からの反射光像を、RGB(R:Red、G:Green、B:Blue)のアナログ信号としてCCDにて読み取って、カラー画像処理装置2へ出力する。
【0031】
カラー画像入力装置1にて読み取られた画像データは、カラー画像処理装置2を構成するA/D(アナログ/デジタル)変換部10、シェーディング補正部11、画像種別判別部(画像種別判別手段)12、入力階調補正部13、領域識別処理部14、色補正部15、黒生成下色除去部16、空間フィルタ処理部17、出力階調補正部18、及び階調再現処理部19により順次処理され、CMYK(C:シアン、M:マゼンタ、Y:イエロー、K:ブラック(黒))のデジタルカラー信号として、カラー画像出力装置3へ出力される。
【0032】
A/D変換部10は、RGBのアナログ信号をデジタル信号に変換してシェーディング補正部11へ出力し、シェーディング補正部11は、A/D変換部10から入力されたRGBのデジタル信号に対して、カラー画像入力装置1の照明系、結像系、撮像系で生じた各種の歪みを取り除く補正を行い、補正したRGBのデジタル信号を画像種別判別部12へ出力する。
【0033】
画像種別判別部12は、入力されたRGBのデジタル信号(RGBの反射率信号)を濃度信号等、カラー画像処理装置2に適した信号に変換し、補色反転してCMY信号に変換する。さらに、入力された画像データに対応する画像が、文字画像であるか、写真画像(印刷写真・印画紙写真)であるか、又は文字及び写真を組み合わせた文字/写真画像であるかの画像種別の判別を自動的に行うと共に、入力された画像データの色情報に基づいて、画像種別の判別結果に対して補正を施すか否かを判別する。補正を施すと判別した場合には、さらに、色鉛筆画・アニメーションの下絵、絵画、イラスト・アニメーションの下絵の何れかとして判別する。画像種別判別部12は、このような判別結果を示す画像種別判別信号をカラー画像処理装置2内の入力階調補正部13及び入力階調補正部13よりも後段に備えられる各処理部へ出力する。
【0034】
入力階調補正部13は、カラーバランスを整えると同時に、画像種別判別部12の判別結果に基づいて下地濃度の除去及びコントラスト等の画質調整処理を行い、領域識別処理部14へ出力する。
領域識別処理部14は、画像データの各画素が文字領域、網点領域、及び写真領域の何れであるかを識別する処理を行い、各画素がどの領域に属しているかを示す領域識別信号を、黒生成下色除去部16、空間フィルタ処理部17、及び階調再現処理部19へ出力すると共に、入力階調補正部13から入力されたデジタル信号をそのまま後段の色補正部15へ出力する。
【0035】
色補正部15は、色再現の忠実化実現のために、不要吸収成分を含むCMY色材の分光特性に基づく色濁りを取り除く処理を行い、補正後のCMYの3信号を黒生成下色除去部16へ出力する。
黒生成下色除去部16は、色補正後のCMYの3信号から黒(K)信号を生成する黒生成の処理を行い、生成したK信号を元のCMY信号から差し引いて新たなCMY信号を生成し、生成したK信号及び新たなCMY信号からなるCMYKの4信号を空間フィルタ処理部17へ出力する。
【0036】
なお、黒生成下色除去部16における黒生成処理の一例として、スケルトンブラックによる黒生成を行う一般的な方法がある。この方法では、スケルトンカーブの入出力特性をy=f(x)、入力されるデータをC、M、Y、出力されるデータをC´、M´、Y´、K´、UCR(Under Color Removal)率をα(0<α<1)とすると、黒生成下色除去処理は、以下の式で表される。
【0037】
K´=f{min(C,M,Y)}
C´=C−αK´
M´=M−αK´
Y´=Y−αK´
【0038】
空間フィルタ処理部17は、黒生成下色除去部16から入力されるCMYK信号の画像データに対して、領域識別信号に基づいてデジタルフィルタによる空間フィルタ処理を行い、空間周波数特性を補正することによって出力する画像のぼやけ及び粒状性劣化を防ぐ処理を行い、処理後のCMYK信号を出力階調補正部18へ出力する。
【0039】
出力階調補正部18は、入力されたCMYK信号をカラー画像出力装置3の特性値である網点面積率に変換する出力階調補正処理を行い、処理後のCMYK信号を階調再現処理部19へ出力する。階調再現処理部19は、入力されたCMYK信号の画像データを最終的に画素に分離し、それぞれの階調を再現できるように処理する階調再現処理(中間調生成)を行う。
【0040】
上述した画像処理では、特に黒文字又は色文字の再現性を高めるために、領域識別処理部14において文字として識別された領域は、空間フィルタ処理部17による空間フィルタ処理における鮮鋭強調処理で高周波数の強調量が大きくされる。また、階調再現処理部19では、高域周波数の再現に適した高解像度のスクリーンでの二値化又は多値化処理が選択できるように構成されている。また、領域識別処理部14において網点として識別された領域は、空間フィルタ処理部17により、入力網点成分を除去するためのローパスフィルタ処理が施される。領域識別処理部14において写真として識別された領域は、階調再現処理部19により、階調再現性を重視したスクリーンでの二値化又は多値化処理が行われる。
【0041】
上述した各処理は、カラー画像入力装置1が読み取った原稿の画像データに対して行っているが、デジタルカメラ等の入力機器により入力された画像データ、又は、コンピュータにより作成された画像データに対して行ってもよい。上述した各処理が行われた画像データは、図示しない記憶手段に一旦記憶され、所定のタイミングで読み出されてカラー画像出力装置3へ出力される。以上の処理は図示しないCPU(Central Processing Unit )により制御される。また、カラー画像出力装置3としては、画像データを記録シート(例えば紙等)上に出力するものであり、例えば、電子写真方式又はインクジェット方式を用いたカラー画像出力装置等を挙げることができるが、特に限定されるものではない。
【0042】
上述した画像種別判別部12について、図2、図3、図4に基づいて、より詳細に説明する。画像種別判別部12は、図2に示すように、第1判別部(第1判別手段)4、第2判別部(第2判別手段)5及び補正処理部(補正を施す手段)6から構成されている。
【0043】
第1判別部4としては、例えば、本件出願人による特願2001−12450に開示した構成を用いることができる。第1判別部4は、図3に示すように、信号変換部41、濃度分布算出部42、第1最大度数濃度区分抽出部43、第2最大度数濃度区分抽出部44、文字画像判定部45、写真画像判定部46、及び画像種別判定部48を備えており、画像種別の特徴を表す特徴量を抽出し、この特徴量に基づいて、例えば、文字画像、写真画像、文字/写真画像の何れであるかの判別を行う。前記原稿の特徴量とは、画像データにおける、総画素数(画像データ全体の画素数)、画像データの濃度分布等のことをいう。
【0044】
信号変換部41は、RGBの反射率信号をRGBの濃度信号に変換し、さらに補色反転してCMY信号に変換する。濃度分布算出部42は、変換されたCMY信号の画像データの各色成分毎に濃度分布を算出する。図5は、濃度分布算出部42により算出された濃度分布を表す濃度ヒストグラムの例である。図5(a)は文字画像、図5(b)は写真画像、図5(c)は文字/写真画像の画像データのある色成分の濃度ヒストグラムであり、横軸は濃度値を示し、縦軸はそれぞれの濃度値を有する区分の度数値を示している。
【0045】
図3に示した第1最大度数濃度区分抽出部43は、算出された濃度分布から、最大度数値(第1最大度数値)を有する濃度区分(第1最大度数濃度区分)を抽出する。第2最大度数濃度区分抽出部44は、前記濃度分布から、第1最大度数濃度区分抽出部43にて抽出した第1最大度数濃度区分及びこの濃度区分に隣接する濃度区分以外で、最大度数値(第2最大度数値)を有する濃度区分(第2最大度数濃度区分)を抽出する。図5の濃度ヒストグラムにおいて、抽出した第1最大度数濃度区分及び第2最大度数濃度区分を斜線で示している。
【0046】
文字画像判定部45は、低度数閾値設定部451、低度数濃度区分数判定部452、第1閾値設定部453、最大度数値判定部454及び第2閾値設定部455からなり、画像データに対応する画像が文字画像であるか否かの判定を行う。
【0047】
低度数濃度区分数判定部452は、低度数閾値設定部451にて予め設定される低度数閾値よりも度数値が小さい濃度区分(低度数濃度区分、図5の濃度ヒストグラムに示す)数を計数する。そして、計数した低度数濃度区分数と、第1閾値設定部453にて予め設定される第1閾値とを比較する。
低度数濃度区分数≧第1閾値 である場合に、文字画像であると判定する。
【0048】
最大度数値判定部454は、低度数濃度区分数判定部452にて文字画像であると判定されなかった画像データに対して、第1最大度数値を総画素数で割った値と、第2閾値設定部455にて予め設定される第2閾値とを比較する。
第1最大度数値/総画素数≧第2閾値 である場合に、文字画像であると判定する。
このようにして、文字画像判定部45は、低度数濃度区分数が多い、又はある濃度の度数値が高い画像データに対して、文字画像であると判定する(図5(a))。
【0049】
写真画像判定部46は、文字画像判定部45にて文字画像であると判定されなかった画像データに対して、写真画像であるか否かの判定を行う。総画素数を、第1最大度数値と第2最大度数値との差で割った値と、第3閾値設定部47にて予め設定される第3閾値とを比較する。
総画素数/(第1最大度数値−第2最大度数値)≧第3閾値 である場合に、写真画像であると判定する。
総画素数/(第1最大度数値−第2最大度数値)<第3閾値 である場合は、文字/写真画像であると判定する。
このようにして、写真画像判定部46は、階調性がある画像データに対して写真画像であると判定し(図5(b))、文字画像及び写真画像の両方の特徴を有する画像データに対して文字/写真画像であると判定する(図5(c))。
【0050】
画像種別判定部48は、文字画像判定部45、写真画像判定部46で行われた判定結果に基づいて、第1判別部4における総合判定を行う。画像データの3色の色成分のうち2色以上で同じ判定結果が得られた場合、画像種別の第1判別部4の判別結果として2色以上で同じであった判定結果を採用する。2色以上で同じ判定結果が得られなかった場合、画像種別は文字/写真画像であると判別する。このようにして、第1判別部4にて文字画像、写真画像、文字/写真画像の何れかとして画像種別の判別を行い、判別結果を示す信号を図2に示した補正処理部6へ出力する。
【0051】
なお、写真画像又は文字/写真画像と判別した場合、写真画像が印刷写真(網点)であるのか又は印画紙写真であるのかの判別をさらに行うようにしてもよい。判別方法の1例を挙げると、以下のとおりである。
注目画素を中心とした例えば3×31の画素よりなるブロックを抽出し、各ラインで隣接する画素の濃度差の絶対値を求め、閾値と比較する。
全てのラインにおける濃度差の絶対値≧閾値 である場合、注目画素を含むラインは網点と判定する。また、前記以外の場合、非網点と判定する。ここでは、ラインに対する判定を例に挙げたが、注目画素のみに対して判定してもよい。
さらに、網点と判定されたライン数(又は画素数)を計数し、この計数したライン数を閾値と比較する。
網点と判定されたライン数≧閾値 である場合、印刷写真であると判別する。そして、前記以外の場合、印画紙写真であると判別する。
【0052】
次に、図2に示した第2判別部5について説明する。第2判別部5は、図4に示すように、色線数計数部(有彩色のエッジとなる画素数を計数する手段)51、色数計数部(色数計数手段)52及び補正判定部53からなり、画像データから色情報の特徴を表す特徴量を抽出し、第1判別部4の判別結果に対して補正を施すか否かの判別を行い、判別結果を示す補正信号(オン/オフ)を出力する。前記特徴量とは、有彩色のエッジである画素数(色線数)、全色数、高彩度の色数のことをいう。
【0053】
色線数計数部51は、図示しないエッジ検出部と有彩色判定部とからなり、エッジであり、かつ有彩色である画素の数を計数することにより、色線数を計数する。
前記エッジ検出部は、注目画素を中心とした例えば3×3の画素を抽出し、主走査方向ゾーベルフィルタ・副走査方向ゾーベルフィルタによる処理を行う。処理結果が予め定められた閾値以上である場合に、前記注目画素はエッジであると判定する。
【0054】
前記有彩色判定部は、注目画素のR、G、B信号の最大値と最小値との差が、予め設定された閾値以上である場合に、前記注目画素は有彩色であると判定する。前記エッジ検出部にてエッジであると判定し、かつ、前記有彩色判定部にて有彩色であると判定した画素数を計数することにより、色線数計数部51は色線数を計数する。
【0055】
一方、色数計数部52は色分布算出部(色分布を算出する手段)521を備え、色分布算出部521により画像データから色分布を算出し、算出した色分布から全色数及び高彩度色数を計数する。ここで色分布とは、以下に示す3次元ヒストグラムのような画像の色情報の特徴を表すものであり、カラー画像入力装置1によりサンプリングされた画像データ、すなわち、原稿の色分布を表しているのではない。画像データとしては、RGB信号の画像データを用いてもよいし、又は補色反転したCMY信号の画像データ、CIE1976L*** (CIE:Commission Internationale de l'Eclairage:国際照明委員会、L* :明度、a* ・b* :色度)信号の画像データを用いてもよく、本実施の形態においてはRGB信号の画像データを用いる。
【0056】
図6は、RGB信号の画像データから算出した色分布を表す3次元ヒストグラムの例である。図6において、各ヒストグラムはR信号成分の区分毎に作成されており、それぞれのグラフにおいてx軸はG信号成分、y軸はB信号成分、z軸は、G信号成分及びB信号成分からなる区分の度数値を示している。なお、図6においては、G、B信号成分をそれぞれ5個の区分に分割しているが、これに限定するものでなく、適宜の区分数であってよい。
【0057】
算出した色分布から全色数及び高彩度の色数を計数する方法としては、例えば以下の方法が挙げられる。図7に示すように、x軸、y軸、z軸として画像データのR、G、B信号成分(データ範囲:0〜255)をとる入力信号空間を作成し、この入力信号空間を同じ間隔S(算出した色分布の区分に相当する間隔)で格子(サンプリング格子)に分割する。なお、図7においては、図6の3次元ヒストグラムに合わせて、入力信号空間を間隔Sで5×5×5個のサンプリング格子に分割した例を示しているが、これに限定するものでなく、適宜の間隔で分割を行うことができる。前記入力信号空間が分割されて形成された各サンプリング格子Cijk (0≦i,j,k≦255/S)ついて、以下の処理を行う。
【0058】
処理対象のサンプリング格子Cijk について、算出した色分布を参照することにより、サンプリング格子Cijk に対応する色分布の区分の度数値を、サンプリング点数Pijk として設定する。そして、設定したサンプリング点数Pijk を、サンプリング格子Cijk に対応する色分布の区分が表す色は存在するものとするか否かを判定するための閾値TH0と比較する。
サンプリング点数Pijk >閾値TH0 である場合、前記色は存在するものとすると判定し、計数すべく全色数N=N+1とし、引き続き以下に示す処理を行う。
サンプリング点数Pijk ≦閾値TH0 である場合、前記色は存在しないものと判定して以下に示す処理を行わず、次のサンプリング格子についての処理を開始する。
【0059】
サンプリング点数Pijk >閾値TH0である場合、引き続いて以下の処理を行う。サンプリング格子Cijk の例えば中心の点等の代表となるRGB成分について、最大値MAX(R,G,B)と、最小値MIN(R,G,B)との差を、サンプリング格子Cijk に対応する色分布の区分が表す色が高彩度の色であるか否かを判定するために閾値TH1と比較する。
最大値MAX(R,G,B)−最小値MIN(R,G,B)>閾値TH1 である場合、前記色は高彩度の色であると判定し、計数すべく高彩度色数M=M+1とし、次のサンプリング格子についての処理を開始する。
最大値MAX(R,G,B)−最小値MIN(R,G,B)≦閾値TH1 である場合、前記色は高彩度の色でないと判定し、次のサンプリング格子についての処理を開始する。
【0060】
入力信号空間の全サンプリング格子に対して以上の処理を行い、全色数N及び高彩度色数Mを出力する。以上のようにして、図4に示した色数計数部52は、全色数及び高彩度色数を計数する。
【0061】
そして、補正判定部53は、色線数計数部51及び色数計数部52の計数値に基づいて、第1判別部4の判別結果に対して補正を施すか否かを判定し、判定結果を第2判別部5の判別結果とし、判別結果を示す補正信号(オン/オフ)を補正処理部6へ出力する。色線数計数部51が計数した色線数が所定の範囲内にある(閾値THcl1≦色線数≦閾値THcl2)、色数計数部52が計数した高彩度色数が所定の閾値以上である(高彩度色数≧閾値THcr)、色数計数部52が計数した全色数が所定の閾値以下である(全色数≦閾値THc)、の3つの条件のうち少なくとも1つを満たす場合、第1判別部4の判別結果に対して補正を施すと判定して補正信号をオンにする。
【0062】
閾値THcl1は、印画紙写真と印刷写真とを区別するための閾値である。印画紙写真では色の分布が一様となっており、印刷写真と比較して色線数が少ないという特徴がある。また、閾値THcl2は、色鉛筆画と色文字とを区別するための閾値である。色鉛筆画は、色文字と比較してエッジがはっきりしていない、すなわち色線数が少ないという特徴がある。
閾値THcl1≦色線数≦閾値THcl2 である場合、画像データに対応する画像は、印画紙写真又は色文字ではなく、デザイン・イラスト(グラフィカル画像)又は色鉛筆画の可能性があるとして第1判別部4の判別結果に対して補正を施すと判定し、補正信号をオンにする。
【0063】
また、閾値THcrはデザイン・イラスト(グラフィカル画像)であるか否かを区別するための閾値である。
高彩度色数≧閾値THcr である場合、グラフィカル画像であるとして第1判別部4の判別結果に対して補正を施すと判定し、補正信号をオンにする。
【0064】
さらに、閾値THcもまたデザイン・イラスト(グラフィカル画像)又は絵画であるか否かを区別するための閾値である。
全色数≦閾値THc である場合、グラフィカル画像又は絵画であるとして第1判別部4の判別結果に対して補正を施すと判定し、補正信号をオンにする。
人工的に作成されたデザイン・イラスト(グラフィカル画像)では、使用される色は限られ、また、自然界には存在しない彩度の高い色が使われることがあり、印画紙写真などの自然画と比較して高彩度の色が多く色数が少ないという特徴がある。絵画においても同様に使われる色は限られるので、印画紙写真と比較して色数が少ないという特徴がある。
【0065】
このように、前述した3つの条件のうち少なくとも1つを満たしている場合、デザイン・イラスト(グラフィカル画像)又は色鉛筆画の可能性があるとして第1判別部4の判別結果に対して補正を施すと判定し、オンの補正信号を図2に示した補正処理部6へ出力し、前述した3つの条件を何れも満たさない場合、第1判別部4の判別結果に対して補正を施さないと判定し、オフの補正信号を補正処理部6へ出力する。
【0066】
図2の補正処理部6は、第2判別部5により入力される補正信号がオンであるか否かを判定し、補正信号がオフであると判定した場合、補正処理を行わず、第1判別部4の判別結果をそのまま画像種別判別部12の判別結果とする。一方、補正信号がオンであると判定した場合、第1判別部4の判別結果に対して以下のように補正を施す。
【0067】
第1判別部4にて文字画像であると判別された場合、色鉛筆画・アニメーションの下絵であると判別する。第1判別部4にて写真画像であると判別された場合、絵画・デザインであると判別する。また、第1判別部4にて文字/写真画像と判別された場合、イラスト・アニメーションの下絵であると判別する。このようにして、画像種別判別部12は画像種別をさらに厳密に判別し、判別結果を示す画像種別判別信号を出力する。
【0068】
次に、上述した画像種別判別部12による画像種別の判別の処理手順を図8、図9、図10、図11に示すフローチャートに基づいて説明する。
【0069】
図8、図9は画像種別判別部12の第1判別部4の処理手順を示す。第1判別部4は、信号変換部41において、画像データのRGBの反射率信号をRGBの濃度信号に変換し、さらに補色反転してCMY信号に変換する信号変換を行う(ステップS1)。濃度分布算出部42において、変換されたCMY信号の画像データの各色成分毎に濃度分布を算出する(ステップS2)。以下の処理は画像データの各色成分に対して夫々行う。
【0070】
算出した濃度分布から、第1最大度数濃度区分抽出部43において、最大度数値(第1最大度数値)を有する濃度区分(第1最大度数濃度区分)を抽出し(ステップS3)、第2最大度数濃度区分抽出部44において、第2最大度数値を有する第2最大度数濃度区分を抽出する(ステップS4)。文字画像判定部45の低度数濃度区分数判定部452において、計数する低度数濃度区分数が第1閾値以上であるか否かを判定し(ステップS5)、低度数濃度区分数が第1閾値以上であると判定した場合(ステップS5:YES)、画像データに対応する画像は文字画像であると判定してフラグFを「a」に設定する(ステップS8)。
【0071】
ステップS5において、低度数濃度区分数が第1閾値未満であると判定した場合(ステップS5:NO)、文字画像判定部45の最大度数値判定部454において、第1最大度数値を総画素数で割った値が第2閾値以上であるか否かを判定し(ステップS6)、第2閾値以上であると判定した場合(ステップS6:YES)、画像データに対応する画像は文字画像であると判定してフラグFを「a」に設定する(ステップS8)。
【0072】
ステップS6において、第1最大度数値を総画素数で割った値が第2閾値未満であると判定した場合(ステップS6:NO)、写真画像判定部46において、総画素数を、第1最大度数値と第2最大度数値との差で割った値が、第3閾値以上であるか否かを判定し(ステップS7)、第3閾値以上であると判定した場合(ステップS7:YES)、画像データに対応する画像は写真画像であると判定してフラグFを「b」に設定する(ステップS9)。
【0073】
ステップS7において、総画素数を、第1最大度数値と第2最大度数値との差で割った値が、第3閾値未満であると判定した場合(ステップS7:NO)、画像データに対応する画像は文字/写真画像であると判定してフラグFを「c」に設定する(ステップS10)。
【0074】
ステップS8、ステップS9及びステップS10の処理が終了後、画像種別判定部48において、画像データの3色の色成分のうち、2色以上で同じ判定結果が得られたか否か(2色以上でフラグFが一致しているか否か)を判定し(ステップS11)、2色以上で同じ判定結果が得られたと判定した場合(ステップS11:YES)、2色以上で同じであった判定結果を画像種別の判別結果として設定し(ステップS12)、処理を終了する。ステップS11において、2色以上で同じ判定結果が得られなかったと判定した場合(ステップS11:NO)、画像種別の判別結果は文字/写真画像であると判別してフラグFを「c」に設定し(ステップS13)、処理を終了する。
【0075】
図10は、画像種別判別部12の第2判別部5の処理手順を示す。第2判別部5は、色線数計数部51において、画像データから色線数を計数し(ステップS21)、色数計数部52において、色分布算出部521により画像データから色分布を算出し(ステップS22)、算出した色分布から全色数及び高彩度色数を計数する(ステップS23)。
【0076】
ステップS21及びステップS23において計数した値に基づいて、補正判定部53において、例えば以下のような処理により判定を行う。補正判定部53において、色線数計数部51により計数された色線数は閾値THcl1以上閾値THcl2以下であるか否かを判定し(ステップS24)、閾値THcl1以上閾値THcl2以下であると判定した場合(ステップS24:YES)、補正信号をオンにし(ステップS27)、処理を終了する。
【0077】
ステップS24において、色線数計数部51により計数された色線数は閾値THcl1以上閾値THcl2以下でないと判定した場合(ステップS24:NO)、色数計数部52により計数された高彩度色数は閾値THcr以上であるか否かを判定し(ステップS25)、閾値THcr以上であると判定した場合(ステップS25:YES)、補正信号をオンにし(ステップS27)、処理を終了する。
【0078】
ステップS25において、色数計数部52により計数された高彩度色数は閾値THcr未満であると判定した場合(ステップS25:NO)、色数計数部52により計数された全色数は閾値THc以下であるか否かを判定し(ステップS26)、閾値THc以下であると判定した場合(ステップS26:YES)、補正信号をオンにし(ステップS27)、処理を終了する。
【0079】
ステップS26において、色数計数部52により計数された全色数は閾値THcを超えていると判定した場合(ステップS26:NO)、補正信号をオフにし(ステップS28)、処理を終了する。これにより判別結果を示す補正信号が出力される。
【0080】
図11は、画像種別判別部12の補正処理部6の処理手順を示す。補正処理部6は、第2判別部5の補正判定部53により入力される補正信号がオンであるか否かを判定し(ステップS31)、オフであると判定した場合(ステップS31:NO)、補正処理を行わず処理を終了する。これにより、第1判別部4の判別結果である文字画像、写真画像、文字/写真画像を示す画像種別判別信号が出力される。
【0081】
ステップS31において、補正判定部53により入力された補正信号がオンであると判定した場合(ステップS31:YES)、フラグFが「a」であるか否かを判定し(ステップS32)、「a」であると判定した場合(ステップS32:YES)、画像データに対応する画像は色鉛筆画・アニメーションの下絵であると判別し(ステップS34)、処理を終了する。
【0082】
ステップS32において、フラグFが「a」ではないと判定した場合(ステップS32:NO)、フラグFが「b」であるか否かを判定する(ステップS33)。ステップS33において、フラグFが「b」であると判定した場合(ステップS33:YES)、画像データに対応する画像は絵画・デザインであると判別し(ステップS35)、処理を終了する。
【0083】
ステップS33において、フラグFが「b」ではない(フラグFが「c」である)と判定した場合(ステップS33:NO)、画像データに対応する画像はイラスト・アニメーションの下絵であると判別し(ステップS36)、処理を終了する。これらの処理により、画像種別判別部12から、各画像データに応じた画像種別の判別結果を示す画像種別判別信号が出力される。
【0084】
画像種別判別部12から出力される画像種別判別信号に応じて、入力階調補正部13、領域識別処理部14、色補正部15、黒生成下色除去部16、空間フィルタ処理部17、階調再現処理部19では処理が切り換えられる。上述した各部における処理について、画像データに対応する画像がそれぞれ、文字画像、写真画像、文字/写真画像、色鉛筆画・アニメーションの下絵、絵画・デザイン、イラスト・アニメーションの下絵であると判別された場合に分けて説明する。
【0085】
文字画像であると判別された場合、入力階調補正部13及び階調再現処理部19においては、ハイライト部(ごく低濃度部)は色再現しない(トナー又はインクを出力しない)、コントラストを大きくするような補正曲線を用いて処理を行う。領域識別処理部14においては、文字として識別された領域を有効とし(文字画像であったとしても、画像によっては誤って識別される場合があるため)、網点、写真として識別された領域は誤識別であるとみなして識別結果を反映させないようにする。色補正部15においては、色文字の場合、彩度を重視した変換処理を行う。黒生成下色除去部16においては、黒文字に対し、黒生成量を多めに設定する。空間フィルタ処理部17においては、エッジを強調する強調フィルタを用いて処理を行う。
【0086】
写真画像であると判別された場合、入力階調補正部13及び階調再現処理部19においては、ハイライト部から高濃度部まで階調性が維持されるような補正曲線を用いて処理を行う。領域識別処理部14においては、網点、写真として識別された領域を有効とし、文字として識別された領域は誤識別であるとみなして識別結果を反映させないようにする。色補正部15においては、階調性を重視した変換処理を行う。このとき、印刷写真の場合、印刷写真用の色補正テーブルを用い、印画紙写真の場合、印画紙写真用の色補正テーブルを用いる。黒生成下色除去部16においては、黒生成量を少なく設定する。空間フィルタ処理部17においては、平滑化フィルタを用いて処理を行う。
【0087】
文字/写真画像であると判別された場合、各処理部において、文字画像であると判別された場合と、写真画像であると判別された場合とにおける画像処理の中間パラメータを用いる。文字画像及び写真画像の何れを重視するかによって、入力階調補正部13及び階調再現処理部19においては、文字画像及び写真画像の中間のパラメータ(文字画像を重視する場合は文字画像のパラメータ寄りに設定したパラメータ、また、写真画像を重視する場合は写真画像のパラメータ寄りに設定したパラメータ)を用いてハイライト部の再現及びコントラストの調整を行う。色補正部15においては、彩度の強弱及び階調性のバランスが極端にならないように処理を行う。黒生成下色除去部16においては写真画像に影響が出ない程度に黒生成量の調整を行う。領域識別処理部14においては、識別結果をそのまま反映させる。
【0088】
色鉛筆画・アニメーションの下絵であると判別された場合、黒生成下色除去部16においては、黒文字をハッキリ再現する必要が無いため黒生成量を少なく設定する。この結果、暗い色も良好に色再現することができる。空間フィルタ処理部17においては、線画のエッジを強調しすぎると色が変わるため、文字画像に比べて強調度合いの弱いフィルタ係数を用いて処理を行う。
【0089】
絵画・デザインであると判別された場合、色補正部15においては、absolute colorimetric 法(色再現領域外のデータを最短距離の外縁部に圧縮する方法)を用いる。これにより、階調性は低下することがあるが、目標色(入力された画像データの色)に最も近い色を出力するCMY値に変換することができる。
【0090】
イラスト・アニメーションの下絵であると判別された場合、黒生成下色除去部16においては、黒生成量を少なく設定する。空間フィルタ処理部17においては、文字画像に比べて強調度合いの弱いフィルタ係数を用いて処理を行う。色補正部15においては、relative colorimetric 法(色再現領域外のデータを外縁部の狭い領域に圧縮する方法)を用いて処理を行う。これにより、階調の飽和が発生しやすい外縁部付近の色についても、階調性を維持した色再現を行うことが可能である。また、前述したabsolute colorimetric 法を用いてもよい。
【0091】
なお、本実施の形態においては、カラー画像処理装置を備えるデジタルカラー複写機を想定しているが、上述したカラー画像処理装置と同様の処理動作をコンピュータに実行させるための本発明に係るコンピュータプログラムを記録する本発明に係る可搬型記録媒体(記録媒体)を、図示しないコンピュータが備える外部記憶装置にて読み取り、読み取ったコンピュータプログラムを前記コンピュータが備える内部記憶装置に記憶し、記憶したコンピュータプログラムを前記コンピュータが備えるRAMにロードし、前記コンピュータが備えるCPUが、上述したカラー画像処理装置と同様に、画像種別に応じた適切な画像処理を実行する形態であってもよい。
前記記録媒体としては、磁気テープ及びカセットテープ等のテープ系、フレキシブルディスク、ハードディスク等の磁気ディスク、CD−ROM、MO、MD、DVD等の光ディスクのディスク系、ICカード(メモリカードを含む)、光カード等のカード系等の何れであってもよい。
【0092】
また、本発明に係るコンピュータプログラムを記録するROM等のメモリ(記録媒体)を図示しないコンピュータが備え、記録するコンピュータプログラムを読み出し、読み出したコンピュータプログラムを前記コンピュータが備えるRAMにロードし、前記コンピュータが備えるCPUが、上述したカラー画像処理装置と同様に、画像種別に応じた適切な画像処理を実行する形態であってもよい。
前記記録媒体としては、マスクROM、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read Only Memory )、フラッシュROM等による半導体メモリ等の何れであってもよい。
【0093】
さらに、図示しない通信インタフェースを備えるコンピュータにおいて、前記通信インタフェースと接続している図示しないネットワーク上のサーバ装置から本発明に係るコンピュータプログラムをダウンロードし、前記コンピュータが備えるCPUにて、上述したカラー画像処理装置と同様に、画像種別に応じた適切な画像処理を実行する形態であってもよい。
【0094】
上述した何れの形態においても、コンピュータが、スキャナ又はデジタルカメラ等の画像入力装置から入力される画像データに対して、本発明に係るコンピュータプログラムに基づいて上述したカラー画像処理装置と同様に、画像種別に応じた適切な画像処理を行い、処理後の画像データをプリンタ(画像出力装置)へ出力することにより、画像種別に応じた適切な画像処理後の画像データに基づいて紙等の記録シートへの画像形成を行うことができる。
【0095】
【発明の効果】
本発明によれば、入力された画像データから、画像種別の特徴を表す特徴量を抽出して画像種別を判別することにより、文字画像と、写真が混在している画像との判別を行うことができるのみならず、さらに色情報の特徴を表す特徴量も抽出し、計2つの特徴量に基づいて画像種別を判別することにより、より厳密に画像種別を判別することができる。またこの結果、判別した画像種別に応じた適切な画像処理を行うことができる。
【0096】
また、本発明によれば、有彩色のエッジとなる画素数及び色数を計数することにより、コンピュータで作成したイラスト等をプリンタで出力した面積階調の画像と印画紙写真とを異なる画像種別として判別したり、手書きのイラストを個別の画像種別として判別する等、多様な画像データに対して画像種別を厳密に判別することができる。
【0097】
また、本発明によれば、画像データから色分布を算出することにより、度数値が所定の閾値よりも大きい区分のみを前記画像データ中の色数として計数することができるので、色数を正確に計数することができる。
【0098】
また、本発明によれば、本発明に係る画像処理装置の何れかを備え、画像処理装置が画像処理した画像データに基づき、画像を形成することにより、多様な画像データに対して、画像種別をより厳密に判別して適切な画像処理を行うことができるので、入力された画像データを良好に再現する画像を出力する画像形成装置を実現することができる。
【0099】
さらに、本発明によれば、本発明に係るコンピュータプログラムが格納されたコンピュータにおいて、入力された画像データに対して厳密に画像種別を判別し、判別した画像種別に応じて適切な画像処理を行うことができる。また、プログラムの書き換えが可能な画像処理装置、画像形成装置等においても、コンピュータプログラムを格納することによって、同様に、画像データの画像種別を判別して適切な画像処理を行わせることができる。
【0100】
さらに、本発明によれば、CD−ROM等としてコンピュータプログラムをコンピュータに読み込ませることができるので、この結果、コンピュータにおいて、入力された画像データに対して厳密に画像種別を判別し、判別した画像種別に応じて適切な画像処理を行うことができる。
【図面の簡単な説明】
【図1】本発明に係るデジタルカラー複写機の要部構成を示すブロック図である。
【図2】画像種別判別部の構成を示すブロック図である。
【図3】図2に示す第1判別部の構成を示すブロック図である。
【図4】図2に示す第2判別部の構成を示すブロック図である。
【図5】文字画像、写真画像、文字/写真画像の濃度ヒストグラムの例を示す説明図である。
【図6】3次元ヒストグラムの例を示す説明図である。
【図7】RGB信号の入力信号空間を、同じ間隔で格子状に分割する方法を示す説明図である。
【図8】本発明に係る画像処理装置の処理動作を示すフローチャートである。
【図9】本発明に係る画像処理装置の処理動作を示すフローチャートである。
【図10】本発明に係る画像処理装置の処理動作を示すフローチャートである。
【図11】本発明に係る画像処理装置の処理動作を示すフローチャートである。
【符号の説明】
1 カラー画像入力装置
2 カラー画像処理装置
3 カラー画像出力装置
12 画像種別判別部
4 第1判別部
5 第2判別部
6 補正処理部
43 第1最大度数濃度区分抽出部
44 第2最大度数濃度区分抽出部
45 文字画像判定部
46 写真画像判定部
48 画像種別判定部
51 色線数計数部
52 色数計数部
521 色分布算出部
53 補正判定部
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image processing method for automatically determining an image type from image data and performing image processing based on the determination result, an image processing apparatus for executing the image processing method, and an image forming apparatus including the image processing apparatus. The present invention relates to a computer program for realizing a computer as the image processing apparatus, and a computer-readable recording medium on which the computer program is recorded.
[0002]
[Prior art]
In addition to the conventional analog type, digital type image forming apparatuses such as copying machines using an electrophotographic system or an ink jet system have become widespread, and color image quality has been improved with the development of digital image processing technology. Reproduced full-color digital copiers and multifunction machines have been commercialized.
[0003]
For originals copied using these image forming apparatuses, there are character images, line drawing images, photographic images, or character / photographic images that are a combination of these, and in order to obtain a good reproduction image, It is necessary to perform appropriate image processing according to the type of each document.
[0004]
Under such circumstances, as the operation mode of the image forming apparatus, there are provided a character mode, a photo mode, a character / photo mode, etc. for selecting a document type in order to perform image processing according to the document type. Yes. However, it is very troublesome for the operator to manually switch the mode for each document. In addition, when an inappropriate mode is selected, remarkable image deterioration is often observed, and useless copying is performed.
[0005]
In order to solve such a problem, it has been proposed to perform processing for automatically determining the type of image (original). For example, in Japanese Patent Application Laid-Open No. 2000-32287, an image type corresponding to input image data is automatically determined, and it is determined whether appropriate correction processing is performed according to the determination result.
[0006]
The image type determination process described in the above publication is the lightness distribution information of the input image data (1. Whether the lightness is widely distributed in all gradation regions or concentrated in a specific gradation, 2. The number of brightness maximum points) and the number of colors of the image are used. As a result, an artificially created “graphical image” such as a design image or logo, a “pictorial image” such as a landscape image or a human image, or area gradation expression such as dithering or error diffusion To determine whether the image has been subjected to the gradation reduction processing.
[0007]
[Problems to be solved by the invention]
For example, since an image produced by a computer or an illustration output by a printer or printer has an area gradation, it is not possible to accurately obtain the lightness distribution information and the number of colors. That is, according to the method of the above publication, when an image having such an area gradation is read, the number of colors becomes very large, and it cannot be distinguished from a photographic paper photograph having a large number of colors. Also, it is not possible to switch image processing between an image with only characters and an image in which characters and photos are mixed.
[0008]
Further, when it is determined that the image is a graphical image, color balance correction, contrast correction, and fineness correction are not performed. When it is determined that the image is a pictorial image, these correction processes are performed. It does not describe image processing for real images. Appropriate image processing is required for each of these images.
[0009]
  The present invention has been made in view of such circumstances, and an object of the present invention is to extract feature amounts representing features of image types from input image data.Character image, photo image or any of character and photo imageDiscriminate the image type, extract the feature amount representing the characteristics of the color information from the image data,Identify the image and based on the resultAn image processing method capable of more strictly determining the type of an image by determining whether or not to correct the determination result of the image type, and performing appropriate image processing according to the determined image type An image processing apparatus that executes the image processing method and an image forming apparatus that includes the image processing apparatus are provided.
[0010]
Another object of the present invention is to provide a computer program for realizing a computer as an image processing apparatus according to the present invention, and a computer-readable recording medium on which the computer program is recorded.
[0011]
[Means for Solving the Problems]
  An image processing method according to the present invention extracts a feature amount representing a feature of an image type from image data in an image processing method for determining an image type from input image data and performing image processing based on the determination result. do itCharacter image, photo image or any of character and photo imageA first step of discriminating an image type, and extracting a feature amount representing a feature of color information from the image dataIdentify the image and based on the resultBased on the second process for determining whether or not to correct the determination result of the first process, and the determination result of the second process,The first processAtDiscriminationImage typeAgainstIn order to make a more precise image type,And a third step of performing correction.
[0012]
In the present invention, a character image and an image in which a photograph is mixed are discriminated by extracting a feature amount representing a feature of the image type from the input image data and discriminating the image type. In addition, it is possible to more accurately determine the image type by extracting the feature amount representing the feature of the color information and determining the image type based on the total two feature amounts. As a result, appropriate image processing according to the determined image type can be performed.
[0013]
Further, in the image processing method according to the present invention, the second step includes a step of counting the number of pixels that are chromatic color edges from the image data, and a step of counting the number of colors of the image data. It is characterized by.
[0014]
In the present invention, by counting the number of pixels and the number of colors that are the edges of the chromatic color, the area gradation image output by the printer and the photographic paper photograph as different image types are output by a printer. For example, it is possible to determine the image type for various image data, such as determining a handwritten illustration as an individual image type.
[0015]
In the image processing method according to the present invention, the step of counting the number of colors includes a step of calculating a color distribution from the image data.
[0016]
  In the present invention, by calculating the color distribution from the image data, it is possible to count only the section whose power value is larger than a predetermined threshold as the number of colors in the image data. Can be counted.
  In the image processing method according to the present invention, in the second step, the image is determined based on a relationship between the counted number of pixels and colors and a predetermined threshold value, and the second process is performed based on the determination result. It is characterized in that it is determined whether or not to correct the determination result of the process 1.
  In the present invention, a character image and an image in which a photograph is mixed are discriminated by extracting a feature amount representing a feature of the image type from the input image data and discriminating the image type. In addition, it is possible to more accurately determine the image type by extracting the feature amount representing the feature of the color information and determining the image type based on the total two feature amounts. As a result, appropriate image processing according to the determined image type can be performed.
[0017]
  An image processing apparatus according to the present invention includes an image type determination unit that determines an image type from input image data, and performs image processing based on a determination result of the image type determination unit. The image type discriminating means extracts a feature amount representing a feature of the image type from the image data.Character image, photo image or any of character and photo imageA first discriminating unit for discriminating an image type, and extracting a feature amount representing a feature of color information from the image data;Identify the image and based on the resultA second discriminating unit for discriminating whether or not to correct the discrimination result of the first discriminating unit; and a determination result of the second discriminating unit.,The first discrimination meansAtDiscriminationImage typeAgainstIn order to make a more precise image type,And means for performing correction.
[0018]
In the present invention, the character image and the photograph are mixed by providing the first determination means for extracting the feature amount representing the feature of the image type of the input image data and determining the image type. It can be distinguished from an image. Furthermore, a feature that represents the feature of the image type is provided by extracting a feature amount that represents the feature of the color information and determining whether or not to correct the determination result of the first determination unit. Since the image type is determined based on a total of two feature amounts representing the features of the amount and color information, the image type can be determined more strictly. As a result, appropriate image processing according to the determined image type can be performed.
[0019]
In the image processing apparatus according to the present invention, the second determination unit includes a unit that counts the number of pixels that are edges of a chromatic color from the image data, and a color number counting unit that counts the number of colors of the image data. It is characterized by providing.
[0020]
In the present invention, the second discrimination means includes means for counting the number of pixels that are edges of chromatic colors and the number of colors, so that an area gradation obtained by outputting a computer-generated illustration or the like with a printer. The image type can be strictly discriminated for various image data, such as discriminating different images and photographic paper photographs as different image types, or discriminating handwritten illustrations as individual image types.
[0021]
The image processing apparatus according to the present invention is characterized in that the color number counting means includes means for calculating a color distribution from the image data in order to count the number of colors.
[0022]
  In the present invention, by providing the means for calculating the color distribution from the image data, only the section whose power value is larger than the predetermined threshold can be counted as the number of colors in the image data. Can be accurately counted.
  In the image processing apparatus according to the present invention, the second determination unit determines an image based on a relationship between the counted number of pixels and colors and a predetermined threshold, and the second determination unit determines the second image based on the determination result. It is characterized in that it is determined whether or not to correct the determination result of the process 1.
  In the present invention, a character image and an image in which a photograph is mixed are discriminated by extracting a feature amount representing a feature of the image type from the input image data and discriminating the image type. In addition, it is possible to more accurately determine the image type by extracting the feature amount representing the feature of the color information and determining the image type based on the total two feature amounts. As a result, appropriate image processing according to the determined image type can be performed.
[0023]
An image forming apparatus according to the present invention includes any one of the image processing apparatuses according to the present invention, and forms an image based on image data processed by the image processing apparatus.
[0024]
According to the present invention, any of the image processing apparatuses according to the present invention is provided, and an image is formed on various image data by forming an image based on the image data processed by the image processing apparatus. Therefore, it is possible to perform an appropriate image processing, and it is possible to realize an image forming apparatus that outputs an image that well reproduces input image data.
[0025]
  A computer program according to the present invention is a computer program for causing a computer to determine the type of an image from input image data and performing image processing based on the determination result. Extract feature quantities that represent the characteristics of the typeCharacter image, photo image or any of character and photo imageA first step for discriminating an image type, and a computer extracting a feature amount representing a feature of color information from the image data;Identify the image and based on the resultA second step for determining whether or not to correct the determination result of the first step; and a computer based on the determination result of the second step.,Said first stepAtDiscriminationImage typeAgainstIn order to make a more precise image type,And a third step of performing correction.
[0026]
In the present invention, the computer in which the computer program is stored can determine the image type strictly for the input image data, and perform appropriate image processing according to the determined image type. Also in an image processing apparatus, an image forming apparatus, or the like that can rewrite a program, by storing a computer program, the image type of image data can be similarly determined and appropriate image processing can be performed.
[0027]
  Furthermore, a computer-readable recording medium according to the present invention records a computer program for causing a computer to determine the type of an image from input image data and to perform image processing based on the determination result. In a recording medium that can be read by a computer, the computer extracts a feature quantity that represents the characteristics of the image type from the image data.Character image, photo image or any of character and photo imageA first step for discriminating an image type, and a computer extracting a feature amount representing a feature of color information from the image data;Identify the image and based on the resultA second step for determining whether or not to correct the determination result of the first step; and a computer based on the determination result of the second step.,Said first stepAtDiscriminationImage typeAgainstIn order to make a more precise image type,A computer program for executing the third step for performing the correction is recorded.
[0028]
In the present invention, the computer program can be read into the computer as a CD-ROM or the like. As a result, in the computer, the image type is strictly determined for the input image data, and the determined image type is determined. Appropriate image processing can be performed depending on
[0029]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, the present invention will be described with reference to the drawings illustrating embodiments thereof.
FIG. 1 is a block diagram showing a main configuration of a digital color copying machine as an embodiment of an image processing method, an image processing apparatus, and an image forming apparatus according to the present invention.
[0030]
As shown in FIG. 1, a color image input device (image reading means) 1 and a color image output device 3 are connected to a color image processing device 2 to constitute a digital color copying machine as a whole. The color image input device 1 is composed of a scanner having a CCD (Charge Coupled Device), for example, and the reflected light image from the original is converted into an RGB (R: Red, G: Green, B: Blue) analog signal by the CCD. Read and output to the color image processing apparatus 2.
[0031]
Image data read by the color image input device 1 is converted into an A / D (analog / digital) conversion unit 10, a shading correction unit 11, and an image type determination unit (image type determination unit) 12 that constitute the color image processing device 2. , Input gradation correction unit 13, region identification processing unit 14, color correction unit 15, black generation and under color removal unit 16, spatial filter processing unit 17, output gradation correction unit 18, and gradation reproduction processing unit 19 Then, it is output to the color image output device 3 as a digital color signal of CMYK (C: cyan, M: magenta, Y: yellow, K: black (black)).
[0032]
The A / D conversion unit 10 converts RGB analog signals into digital signals and outputs the digital signals to the shading correction unit 11. The shading correction unit 11 outputs the RGB digital signals input from the A / D conversion unit 10. Then, correction for removing various distortions generated in the illumination system, imaging system, and imaging system of the color image input apparatus 1 is performed, and the corrected RGB digital signal is output to the image type determination unit 12.
[0033]
The image type determination unit 12 converts the input RGB digital signal (RGB reflectance signal) into a signal suitable for the color image processing apparatus 2 such as a density signal, and inverts the complementary color to convert it into a CMY signal. Further, an image type indicating whether the image corresponding to the input image data is a character image, a photographic image (printed photograph / photographic paper photograph), or a character / photo image combining characters and photographs. Is automatically determined, and based on the color information of the input image data, it is determined whether or not to correct the image type determination result. If it is determined that correction is to be performed, it is further determined as a colored pencil drawing / animation sketch, a painting, or an illustration / animation sketch. The image type discriminating unit 12 outputs an image type discriminating signal indicating such a discrimination result to the input tone correction unit 13 in the color image processing device 2 and each processing unit provided at a later stage than the input tone correction unit 13. To do.
[0034]
The input tone correction unit 13 adjusts the color balance and simultaneously performs image quality adjustment processing such as background density removal and contrast based on the determination result of the image type determination unit 12 and outputs the result to the region identification processing unit 14.
The area identification processing unit 14 performs a process of identifying whether each pixel of the image data is a character area, a halftone dot area, or a photograph area, and outputs an area identification signal indicating which area each pixel belongs to. In addition to outputting to the black generation and lower color removal unit 16, the spatial filter processing unit 17, and the gradation reproduction processing unit 19, the digital signal input from the input gradation correction unit 13 is output to the subsequent color correction unit 15 as it is. .
[0035]
The color correction unit 15 performs processing for removing color turbidity based on the spectral characteristics of the CMY color material including unnecessary absorption components in order to realize color reproduction faithfully, and removes the three CMY signals after correction from the black generation and under color To the unit 16.
The black generation and under color removal unit 16 performs black generation processing for generating a black (K) signal from the three CMY signals after color correction, and subtracts the generated K signal from the original CMY signal to generate a new CMY signal. The four CMYK signals including the generated K signal and the new CMY signal are output to the spatial filter processing unit 17.
[0036]
As an example of the black generation process in the black generation and under color removal unit 16, there is a general method for generating black by skeleton black. In this method, the input / output characteristic of the skeleton curve is y = f (x), the input data is C, M, Y, the output data is C ′, M ′, Y ′, K ′, UCR (Under Color When the removal rate is α (0 <α <1), the black generation and under color removal processing is expressed by the following equation.
[0037]
K ′ = f {min (C, M, Y)}
C ′ = C−αK ′
M ′ = M−αK ′
Y ′ = Y−αK ′
[0038]
The spatial filter processing unit 17 performs spatial filter processing using a digital filter on the image data of the CMYK signal input from the black generation and under color removal unit 16 based on the region identification signal, thereby correcting the spatial frequency characteristics. Processing to prevent blur and graininess deterioration of the output image is performed, and the processed CMYK signal is output to the output tone correction unit 18.
[0039]
The output tone correction unit 18 performs output tone correction processing for converting the input CMYK signal into a halftone dot area ratio that is a characteristic value of the color image output device 3, and the processed CMYK signal is converted into a tone reproduction processing unit. 19 output. The gradation reproduction processing unit 19 performs gradation reproduction processing (halftone generation) for finally separating image data of the input CMYK signal into pixels and processing so as to reproduce each gradation.
[0040]
In the above-described image processing, in particular, in order to improve the reproducibility of black characters or color characters, a region identified as a character by the region identification processing unit 14 is subjected to a sharp enhancement process in the spatial filter processing by the spatial filter processing unit 17 and has a high frequency. The amount of emphasis is increased. In addition, the gradation reproduction processing unit 19 is configured to be able to select binarization or multilevel conversion processing on a high-resolution screen suitable for high frequency reproduction. In addition, the area identified as a halftone dot in the area identification processing unit 14 is subjected to a low-pass filter process for removing the input halftone component by the spatial filter processing unit 17. A region identified as a photograph in the region identification processing unit 14 is subjected to binarization or multi-value processing on the screen by the tone reproduction processing unit 19 with an emphasis on tone reproducibility.
[0041]
Each process described above is performed on the image data of the original read by the color image input apparatus 1, but the image data input by an input device such as a digital camera or the image data created by a computer is used. You may go. The image data subjected to the above-described processes is temporarily stored in a storage unit (not shown), read at a predetermined timing, and output to the color image output device 3. The above processing is controlled by a CPU (Central Processing Unit) (not shown). The color image output device 3 outputs image data on a recording sheet (for example, paper). Examples of the color image output device 3 include a color image output device using an electrophotographic method or an inkjet method. There is no particular limitation.
[0042]
The above-described image type determination unit 12 will be described in more detail based on FIG. 2, FIG. 3, and FIG. As shown in FIG. 2, the image type determination unit 12 includes a first determination unit (first determination unit) 4, a second determination unit (second determination unit) 5, and a correction processing unit (unit for performing correction) 6. Has been.
[0043]
As the 1st discrimination | determination part 4, the structure disclosed by Japanese Patent Application No. 2001-12450 by this applicant can be used, for example. As shown in FIG. 3, the first determination unit 4 includes a signal conversion unit 41, a density distribution calculation unit 42, a first maximum power density category extraction unit 43, a second maximum power density category extraction unit 44, and a character image determination unit 45. , A photographic image determination unit 46 and an image type determination unit 48, extract feature amounts representing the characteristics of the image type, and based on the feature amounts, for example, a character image, a photographic image, a character / photo image It is determined which is the case. The document feature amount refers to the total number of pixels (the number of pixels of the entire image data), the density distribution of the image data, and the like in the image data.
[0044]
The signal converter 41 converts the RGB reflectance signal into an RGB density signal, and further inverts the complementary color to convert it into a CMY signal. The density distribution calculation unit 42 calculates the density distribution for each color component of the image data of the converted CMY signal. FIG. 5 is an example of a density histogram representing the density distribution calculated by the density distribution calculation unit 42. 5A is a character image, FIG. 5B is a photographic image, FIG. 5C is a density histogram of a certain color component of the image data of the character / photo image, the horizontal axis indicates the density value, The axis shows the power value of the section having the respective density values.
[0045]
The first maximum power density category extraction unit 43 shown in FIG. 3 extracts a density zone (first maximum power density zone) having a maximum power value (first maximum power value) from the calculated concentration distribution. The second maximum power density category extraction unit 44 determines the maximum power value other than the first maximum power density category extracted by the first maximum power density category extraction unit 43 and the density category adjacent to the density category from the density distribution. A density section (second maximum power density section) having (second maximum power value) is extracted. In the density histogram of FIG. 5, the extracted first maximum power density section and second maximum power density section are indicated by hatching.
[0046]
The character image determination unit 45 includes a low frequency threshold setting unit 451, a low frequency density category number determination unit 452, a first threshold setting unit 453, a maximum power value determination unit 454, and a second threshold setting unit 455, and corresponds to image data. It is determined whether the image to be processed is a character image.
[0047]
The low frequency density category number determination unit 452 counts the number of density segments (low frequency concentration category, shown in the density histogram of FIG. 5) whose frequency value is smaller than the low frequency threshold value preset by the low frequency threshold value setting unit 451. To do. Then, the counted low frequency density division number is compared with the first threshold value preset by the first threshold value setting unit 453.
When the number of low frequency density divisions ≧ first threshold value, it is determined that the character image.
[0048]
The maximum power value determination unit 454 has a value obtained by dividing the first maximum power value by the total number of pixels for image data that has not been determined to be a character image by the low power density division number determination unit 452, The threshold value setting unit 455 compares the second threshold value set in advance.
When the first maximum numerical value / the total number of pixels ≧ the second threshold value, the character image is determined.
In this way, the character image determination unit 45 determines that the image data has a large number of low frequency density sections or a high frequency value of a certain density as a character image (FIG. 5A).
[0049]
The photographic image determination unit 46 determines whether the image data that has not been determined to be a character image by the character image determination unit 45 is a photographic image. A value obtained by dividing the total number of pixels by the difference between the first maximum value and the second maximum value is compared with a third threshold set in advance by the third threshold setting unit 47.
When the total number of pixels / (first maximum degree value−second maximum degree value) ≧ third threshold value, it is determined that the image is a photographic image.
When the total number of pixels / (first maximum degree numerical value−second maximum degree numerical value) <third threshold value, it is determined that the character / photo image.
In this way, the photographic image determination unit 46 determines that the image data having gradation is a photographic image (FIG. 5B), and image data having characteristics of both a character image and a photographic image. Is determined to be a character / photo image (FIG. 5C).
[0050]
The image type determination unit 48 performs comprehensive determination in the first determination unit 4 based on the determination results performed by the character image determination unit 45 and the photographic image determination unit 46. When the same determination result is obtained for two or more of the three color components of the image data, the determination result that is the same for two or more colors is adopted as the determination result of the first determination unit 4 for the image type. If the same determination result is not obtained for two or more colors, it is determined that the image type is a character / photo image. In this manner, the first discrimination unit 4 discriminates the image type as one of a character image, a photographic image, and a character / photo image, and outputs a signal indicating the discrimination result to the correction processing unit 6 shown in FIG. To do.
[0051]
When it is determined that the image is a photographic image or a character / photo image, it may be further determined whether the photographic image is a printed photograph (halftone dot) or a photographic paper photograph. An example of the discrimination method is as follows.
A block made up of, for example, 3 × 31 pixels centered on the target pixel is extracted, the absolute value of the density difference between adjacent pixels in each line is obtained, and compared with a threshold value.
When the absolute value of the density difference in all lines ≧ the threshold value, the line including the target pixel is determined as a halftone dot. In other cases, it is determined as a non-halftone dot. Here, the determination for the line is given as an example, but the determination may be made only for the target pixel.
Further, the number of lines (or the number of pixels) determined to be halftone dots is counted, and the counted number of lines is compared with a threshold value.
If the number of lines determined as halftone dots ≧ threshold value, it is determined that the image is a printed photograph. In other cases, it is determined that the photograph is a photographic paper photograph.
[0052]
Next, the 2nd discrimination | determination part 5 shown in FIG. 2 is demonstrated. As shown in FIG. 4, the second determination unit 5 includes a color line number counting unit (means for counting the number of pixels that are edges of chromatic colors) 51, a color number counting unit (color number counting means) 52, and a correction determination unit. 53, the feature amount representing the feature of the color information is extracted from the image data, it is determined whether or not the determination result of the first determination unit 4 is to be corrected, and a correction signal (ON / OFF) indicating the determination result is determined. OFF) is output. The feature amount means the number of pixels (number of color lines), the total number of colors, and the number of high-saturation colors that are edges of chromatic colors.
[0053]
The color line number counting unit 51 includes an edge detection unit and a chromatic color determination unit (not shown), and counts the number of color lines by counting the number of pixels that are edges and chromatic colors.
The edge detection unit extracts, for example, 3 × 3 pixels centered on the target pixel, and performs processing by the main scanning direction Sobel filter and the sub scanning direction Sobel filter. When the processing result is equal to or greater than a predetermined threshold, it is determined that the target pixel is an edge.
[0054]
The chromatic color determining unit determines that the target pixel is a chromatic color when the difference between the maximum value and the minimum value of the R, G, and B signals of the target pixel is equal to or greater than a preset threshold value. The color line number counting unit 51 counts the number of color lines by counting the number of pixels determined to be an edge by the edge detection unit and determined to be a chromatic color by the chromatic color determination unit. .
[0055]
On the other hand, the color number counting unit 52 includes a color distribution calculation unit (means for calculating a color distribution) 521. The color distribution calculation unit 521 calculates a color distribution from the image data, and the total number of colors and high chroma color are calculated from the calculated color distribution. Count the number. Here, the color distribution represents the characteristics of image color information such as the following three-dimensional histogram, and represents the image data sampled by the color image input device 1, that is, the color distribution of the document. Not. As the image data, RGB signal image data may be used, or CMY signal image data with complementary colors inverted, CIE1976L.* a* b* (CIE: Commission Internationale de l'Eclairage: International Lighting Commission, L* : Brightness, a* ・ B* : Chromaticity) signal image data may be used. In this embodiment, RGB signal image data is used.
[0056]
FIG. 6 is an example of a three-dimensional histogram representing a color distribution calculated from image data of RGB signals. In FIG. 6, each histogram is created for each segment of the R signal component. In each graph, the x axis is a G signal component, the y axis is a B signal component, and the z axis is a G signal component and a B signal component. The frequency value of the category is shown. In FIG. 6, the G and B signal components are each divided into five sections. However, the present invention is not limited to this, and an appropriate number of sections may be used.
[0057]
Examples of a method for counting the total number of colors and the number of high-saturation colors from the calculated color distribution include the following methods. As shown in FIG. 7, an input signal space that takes R, G, and B signal components (data range: 0 to 255) of image data as the x-axis, y-axis, and z-axis is created, and this input signal space is set at the same interval. Divide into grids (sampling grids) at S (interval corresponding to the calculated color distribution section). Although FIG. 7 shows an example in which the input signal space is divided into 5 × 5 × 5 sampling grids at intervals S in accordance with the three-dimensional histogram of FIG. 6, the present invention is not limited to this. The division can be performed at an appropriate interval. Each sampling grid C formed by dividing the input signal spaceijk For (0 ≦ i, j, k ≦ 255 / S), the following processing is performed.
[0058]
Sampling grid C to be processedijk For the sampling grid C by referring to the calculated color distributionijk The frequency value of the color distribution category corresponding toijk Set as. And the set number of sampling points Pijk Sampling grid Cijk Is compared with a threshold value TH0 for determining whether or not the color represented by the color distribution section corresponding to.
Number of sampling points Pijk If it is> threshold TH0, it is determined that the color exists, the total number of colors N = N + 1 is set to be counted, and the following processing is subsequently performed.
Number of sampling points Pijk If ≦ threshold value TH0, it is determined that the color does not exist, and the following processing is not performed, and processing for the next sampling grid is started.
[0059]
Number of sampling points Pijk When the threshold value TH0 is satisfied, the following processing is subsequently performed. Sampling grid Cijk For a representative RGB component such as a central point of the signal, a difference between the maximum value MAX (R, G, B) and the minimum value MIN (R, G, B) is represented by a sampling grid C.ijk Is compared with the threshold value TH1 to determine whether or not the color represented by the color distribution section corresponding to is a highly saturated color.
When the maximum value MAX (R, G, B) −minimum value MIN (R, G, B)> threshold value TH1, it is determined that the color is a high saturation color, and the high saturation color number M = M + 1 is set for counting. The process for the next sampling grid is started.
When the maximum value MAX (R, G, B) −minimum value MIN (R, G, B) ≦ threshold TH1, it is determined that the color is not a high-saturation color, and processing for the next sampling grid is started.
[0060]
The above processing is performed on all sampling grids in the input signal space, and the total number of colors N and the high saturation color number M are output. As described above, the color number counting unit 52 shown in FIG. 4 counts the total number of colors and the number of high saturation colors.
[0061]
Then, the correction determination unit 53 determines whether to correct the determination result of the first determination unit 4 based on the count values of the color line number counting unit 51 and the color number counting unit 52, and the determination result And the correction signal (ON / OFF) indicating the determination result is output to the correction processing unit 6. When the number of color lines counted by the color line number counting unit 51 is within a predetermined range (threshold THcl1 ≦ number of color lines ≦ threshold THcl2), the high saturation color number counted by the color number counting unit 52 is equal to or greater than a predetermined threshold ( When at least one of the three conditions of high saturation color number ≧ threshold THcr) and the total number of colors counted by the color number counter 52 is equal to or less than a predetermined threshold (total color number ≦ threshold THc) is satisfied, the first It is determined that the determination result of the determination unit 4 is to be corrected, and the correction signal is turned on.
[0062]
The threshold value THcl1 is a threshold value for distinguishing between a photographic paper photograph and a printed photograph. A photographic paper photograph has a uniform color distribution and is characterized by a smaller number of color lines than a printed photograph. The threshold value THcl2 is a threshold value for distinguishing between colored pencil drawings and colored characters. The colored pencil drawing has a feature that the edge is not clear as compared with the color character, that is, the number of color lines is small.
When threshold THcl1 ≦ number of color lines ≦ threshold THcl2, the first determination unit assumes that the image corresponding to the image data may be a design illustration (graphical image) or a colored pencil drawing, not a photographic paper photograph or a color character. 4 is determined to be corrected, and the correction signal is turned on.
[0063]
The threshold value THcr is a threshold value for distinguishing whether or not the image is a design illustration (graphical image).
When the number of high saturation colors ≧ the threshold THcr, it is determined that the determination result of the first determination unit 4 is to be corrected as a graphical image, and the correction signal is turned on.
[0064]
Furthermore, the threshold value THc is also a threshold value for distinguishing whether it is a design illustration (graphical image) or a painting.
When the total number of colors ≦ threshold THc, it is determined that the determination result of the first determination unit 4 is to be corrected as a graphical image or a painting, and the correction signal is turned on.
Artificially created designs and illustrations (graphical images) use only limited colors, and sometimes use highly saturated colors that do not exist in nature. Compared to this, there is a feature that there are many high-saturation colors and a small number of colors. Similarly, the colors used in paintings are also limited, so there is a feature that the number of colors is small compared to photographic paper photographs.
[0065]
As described above, when at least one of the above-described three conditions is satisfied, the determination result of the first determination unit 4 is corrected based on the possibility of a design / illustration (graphical image) or a colored pencil drawing. 2 is output to the correction processing unit 6 shown in FIG. 2, and if the above three conditions are not satisfied, the determination result of the first determination unit 4 must be corrected. The OFF correction signal is output to the correction processing unit 6.
[0066]
The correction processing unit 6 in FIG. 2 determines whether or not the correction signal input by the second determination unit 5 is on. If it is determined that the correction signal is off, the correction processing is not performed and the first processing is not performed. The discrimination result of the discrimination unit 4 is used as the discrimination result of the image type discrimination unit 12 as it is. On the other hand, when it is determined that the correction signal is ON, the determination result of the first determination unit 4 is corrected as follows.
[0067]
When the first determination unit 4 determines that the image is a character image, it determines that the image is a colored pencil drawing / animation sketch. When the first determination unit 4 determines that the image is a photographic image, it determines that the image is a painting / design. If the first discrimination unit 4 discriminates a character / photo image, it is discriminated as an illustration / animation sketch. In this way, the image type discrimination unit 12 discriminates the image type more strictly and outputs an image type discrimination signal indicating the discrimination result.
[0068]
Next, the processing procedure for determining the image type by the above-described image type determining unit 12 will be described with reference to the flowcharts shown in FIGS. 8, 9, 10, and 11.
[0069]
8 and 9 show the processing procedure of the first determination unit 4 of the image type determination unit 12. In the signal converting unit 41, the first determining unit 4 converts the RGB reflectance signal of the image data into an RGB density signal, and further performs signal conversion to invert the complementary color and convert it into a CMY signal (step S1). The density distribution calculation unit 42 calculates the density distribution for each color component of the converted CMY signal image data (step S2). The following processing is performed for each color component of the image data.
[0070]
From the calculated density distribution, the first maximum power density section extraction unit 43 extracts a density section (first maximum power density section) having the maximum power value (first maximum power value) (step S3), and a second maximum. The frequency concentration category extraction unit 44 extracts the second maximum frequency concentration category having the second maximum frequency value (step S4). In the low frequency density division number determination unit 452 of the character image determination unit 45, it is determined whether or not the low frequency density division number to be counted is equal to or more than the first threshold (step S5), and the low frequency density division number is the first threshold. When it is determined that it is above (step S5: YES), it is determined that the image corresponding to the image data is a character image, and the flag F is set to “a” (step S8).
[0071]
If it is determined in step S5 that the low frequency density division number is less than the first threshold value (step S5: NO), the maximum frequency value determination unit 454 of the character image determination unit 45 uses the first maximum frequency value as the total number of pixels. It is determined whether or not the value divided by 2 is greater than or equal to the second threshold (step S6). If it is determined that the value is greater than or equal to the second threshold (step S6: YES), the image corresponding to the image data is a character image. And flag F is set to “a” (step S8).
[0072]
In step S6, when it is determined that the value obtained by dividing the first maximum power value by the total number of pixels is less than the second threshold value (step S6: NO), the photographic image determination unit 46 sets the total number of pixels to the first maximum value. When the value divided by the difference between the frequency value and the second maximum frequency value is greater than or equal to the third threshold value (step S7), and when it is determined that the value is greater than or equal to the third threshold value (step S7: YES) Then, it is determined that the image corresponding to the image data is a photographic image, and the flag F is set to “b” (step S9).
[0073]
If it is determined in step S7 that the total number of pixels divided by the difference between the first maximum power value and the second maximum power value is less than the third threshold value (step S7: NO), it corresponds to the image data. The image to be determined is a character / photo image and the flag F is set to “c” (step S10).
[0074]
After the processing of step S8, step S9, and step S10 is completed, the image type determination unit 48 determines whether the same determination result is obtained for two or more of the three color components of the image data (for two or more colors). Whether or not the flag F is the same is determined (step S11). When it is determined that the same determination result is obtained for two or more colors (step S11: YES), the same determination result is obtained for two or more colors. The result is set as an image type discrimination result (step S12), and the process ends. If it is determined in step S11 that the same determination result is not obtained for two or more colors (step S11: NO), the image type determination result is determined to be a character / photo image, and the flag F is set to “c”. (Step S13), and the process ends.
[0075]
FIG. 10 shows a processing procedure of the second determination unit 5 of the image type determination unit 12. The second discriminating unit 5 counts the number of color lines from the image data in the color line number counting unit 51 (step S21), and the color number counting unit 52 calculates the color distribution from the image data in the color distribution calculating unit 521. (Step S22) The total number of colors and the number of high saturation colors are counted from the calculated color distribution (Step S23).
[0076]
Based on the values counted in step S21 and step S23, the correction determination unit 53 performs determination by the following process, for example. The correction determination unit 53 determines whether or not the number of color lines counted by the color line number counting unit 51 is not less than the threshold value THcl1 and not more than the threshold value THcl2 (step S24), and is determined to be not less than the threshold value THcl1 and not more than the threshold value THcl2. If so (step S24: YES), the correction signal is turned on (step S27), and the process is terminated.
[0077]
If it is determined in step S24 that the number of color lines counted by the color line number counting unit 51 is not greater than or equal to the threshold value THcl1 and less than or equal to the threshold value THcl2 (step S24: NO), the high saturation color number counted by the color number counting unit 52 is the threshold value. It is determined whether or not it is greater than THcr (step S25). If it is determined that it is greater than or equal to the threshold THcr (step S25: YES), the correction signal is turned on (step S27), and the process ends.
[0078]
When it is determined in step S25 that the high saturation color number counted by the color number counting unit 52 is less than the threshold value THcr (step S25: NO), the total number of colors counted by the color number counting unit 52 is equal to or less than the threshold value THc. It is determined whether or not there is (step S26), and if it is determined that the threshold value is THc or less (step S26: YES), the correction signal is turned on (step S27), and the process ends.
[0079]
In step S26, when it is determined that the total number of colors counted by the color number counting unit 52 exceeds the threshold value THc (step S26: NO), the correction signal is turned off (step S28), and the process is terminated. As a result, a correction signal indicating the discrimination result is output.
[0080]
FIG. 11 shows a processing procedure of the correction processing unit 6 of the image type determination unit 12. The correction processing unit 6 determines whether or not the correction signal input by the correction determination unit 53 of the second determination unit 5 is on (step S31) and determines that the correction signal is off (step S31: NO). The process ends without performing the correction process. Thereby, an image type determination signal indicating a character image, a photographic image, and a character / photo image, which is a determination result of the first determination unit 4, is output.
[0081]
If it is determined in step S31 that the correction signal input by the correction determination unit 53 is on (step S31: YES), it is determined whether or not the flag F is “a” (step S32). "(Step S32: YES), it is determined that the image corresponding to the image data is a colored pencil drawing / animation sketch (step S34), and the process ends.
[0082]
If it is determined in step S32 that the flag F is not “a” (step S32: NO), it is determined whether or not the flag F is “b” (step S33). If it is determined in step S33 that the flag F is “b” (step S33: YES), it is determined that the image corresponding to the image data is a painting / design (step S35), and the process is terminated.
[0083]
If it is determined in step S33 that the flag F is not “b” (the flag F is “c”) (step S33: NO), it is determined that the image corresponding to the image data is a sketch of the illustration / animation. (Step S36), the process ends. With these processes, the image type determination unit 12 outputs an image type determination signal indicating the determination result of the image type corresponding to each image data.
[0084]
In accordance with the image type discrimination signal output from the image type discrimination unit 12, the input tone correction unit 13, the area identification processing unit 14, the color correction unit 15, the black generation and under color removal unit 16, the spatial filter processing unit 17, the floor The tone reproduction processing unit 19 switches processing. Regarding the processing in each part described above, when it is determined that the image corresponding to the image data is a character image, photo image, character / photo image, colored pencil drawing / animation sketch, painting / design, illustration / animation sketch This will be explained separately.
[0085]
When it is determined that the image is a character image, in the input tone correction unit 13 and the tone reproduction processing unit 19, the highlight portion (very low density portion) does not reproduce the color (no toner or ink is output), and the contrast is reduced. Processing is performed using a correction curve that is increased. The area identification processing unit 14 validates the area identified as a character (because it may be erroneously identified depending on the image even if it is a character image), and the area identified as a halftone dot or photograph is It is assumed that it is misidentification and the identification result is not reflected. In the case of a color character, the color correction unit 15 performs a conversion process that emphasizes saturation. The black generation and under color removal unit 16 sets a larger black generation amount for black characters. The spatial filter processing unit 17 performs processing using an enhancement filter that enhances edges.
[0086]
When it is determined that the image is a photographic image, the input tone correction unit 13 and the tone reproduction processing unit 19 perform processing using a correction curve that maintains tone from the highlight portion to the high density portion. Do. In the area identification processing unit 14, an area identified as a halftone dot or a photograph is validated, and an area identified as a character is regarded as erroneous identification so that the identification result is not reflected. The color correction unit 15 performs conversion processing with an emphasis on gradation. At this time, in the case of a printed photograph, a color correction table for a printed photograph is used, and in the case of a photographic paper photograph, a color correction table for a photographic paper photograph is used. In the black generation and under color removal unit 16, the black generation amount is set to be small. The spatial filter processing unit 17 performs processing using a smoothing filter.
[0087]
When it is determined that the image is a character / photo image, each processing unit uses an intermediate parameter of image processing when it is determined that the image is a character image and when it is determined that the image is a photo image. Depending on whether the character image or the photographic image is important, the input gradation correction unit 13 and the gradation reproduction processing unit 19 have intermediate parameters between the character image and the photographic image (if the character image is important, the parameter of the character image). The reproduction of the highlight portion and the adjustment of the contrast are performed using the parameters set closer to each other, or the parameters set closer to the parameters of the photographic image when the photographic image is important. The color correction unit 15 performs processing so that the balance between the intensity of saturation and the balance of gradation is not extreme. The black generation and under color removal unit 16 adjusts the black generation amount so that the photographic image is not affected. The area identification processing unit 14 reflects the identification result as it is.
[0088]
If it is determined that the sketch is a colored pencil drawing / animation sketch, the black generation and under color removal unit 16 sets a small black generation amount because there is no need to clearly reproduce black characters. As a result, dark colors can be reproduced well. In the spatial filter processing unit 17, since the color changes if the edge of the line drawing is excessively emphasized, the processing is performed using a filter coefficient having a weaker enhancement degree than that of the character image.
[0089]
When it is determined that the image is a painting / design, the color correction unit 15 uses an absolute colorimetric method (a method of compressing data outside the color reproduction region to the outer edge of the shortest distance). As a result, the gradation may be lowered, but it can be converted into a CMY value that outputs a color closest to the target color (the color of the input image data).
[0090]
When it is determined that the illustration / animation is a sketch, the black generation and under color removal unit 16 sets a small black generation amount. In the spatial filter processing unit 17, processing is performed using a filter coefficient that is weaker than the character image. The color correction unit 15 performs processing using a relative colorimetric method (a method of compressing data outside the color reproduction region into a narrow region at the outer edge). As a result, it is possible to perform color reproduction while maintaining gradation even for colors near the outer edge where gradation saturation is likely to occur. Further, the absolute colorimetric method described above may be used.
[0091]
In the present embodiment, a digital color copying machine including a color image processing apparatus is assumed. However, the computer program according to the present invention for causing a computer to execute the same processing operations as those of the color image processing apparatus described above. A portable recording medium (recording medium) according to the present invention is recorded in an external storage device provided in a computer (not shown), the read computer program is stored in an internal storage device provided in the computer, and the stored computer program is stored in the computer program. The CPU may be loaded into a RAM included in the computer, and the CPU included in the computer may execute appropriate image processing according to the image type, as in the above-described color image processing apparatus.
Examples of the recording medium include tape systems such as magnetic tape and cassette tape, magnetic disks such as flexible disks and hard disks, optical disk systems such as CD-ROM, MO, MD, and DVD, IC cards (including memory cards), Any of a card system such as an optical card may be used.
[0092]
In addition, a computer (not shown) such as a ROM (recording medium) that records the computer program according to the present invention is provided, reads the computer program to be recorded, loads the read computer program into a RAM provided in the computer, and the computer Similarly to the above-described color image processing apparatus, the CPU provided may be configured to execute appropriate image processing according to the image type.
The recording medium may be a mask ROM, an EPROM (Erasable Programmable Read Only Memory), an EEPROM (Electrically Erasable Programmable Read Only Memory), a semiconductor memory such as a flash ROM, or the like.
[0093]
Further, in a computer having a communication interface (not shown), the computer program according to the present invention is downloaded from a server device on a network (not shown) connected to the communication interface, and the above-described color image processing is performed by a CPU provided in the computer. Similar to the apparatus, an appropriate image processing according to the image type may be executed.
[0094]
In any of the above-described forms, the image is input to the image data input from the image input apparatus such as the scanner or the digital camera in the same manner as the color image processing apparatus described above based on the computer program according to the present invention. By performing appropriate image processing according to the type and outputting the processed image data to a printer (image output device), a recording sheet such as paper based on the image data after appropriate image processing according to the image type Image formation can be performed.
[0095]
【The invention's effect】
According to the present invention, it is possible to discriminate between a character image and an image in which a photograph is mixed by extracting a feature amount representing a feature of an image type from input image data and discriminating the image type. In addition, the image type can be determined more strictly by extracting the feature amount representing the feature of the color information and determining the image type based on the total two feature amounts. As a result, appropriate image processing according to the determined image type can be performed.
[0096]
In addition, according to the present invention, by counting the number of pixels and the number of colors that are the edges of chromatic colors, an image of an area gradation that is output by a printer, such as an illustration created by a computer, and a photographic paper photograph are different image types. For example, the image type can be strictly determined for various image data, such as determining whether the handwritten illustration is an individual image type.
[0097]
In addition, according to the present invention, by calculating the color distribution from the image data, it is possible to count only the section whose power value is larger than the predetermined threshold as the number of colors in the image data, so that the number of colors can be accurately determined. Can be counted.
[0098]
In addition, according to the present invention, any of the image processing apparatuses according to the present invention is provided, and an image type is formed for various image data by forming an image based on the image data processed by the image processing apparatus. Therefore, it is possible to perform an appropriate image processing, and it is possible to realize an image forming apparatus that outputs an image that well reproduces input image data.
[0099]
Furthermore, according to the present invention, in the computer storing the computer program according to the present invention, the image type is strictly determined for the input image data, and appropriate image processing is performed according to the determined image type. be able to. Also in an image processing apparatus, an image forming apparatus, or the like that can rewrite a program, by storing a computer program, the image type of image data can be similarly determined and appropriate image processing can be performed.
[0100]
Furthermore, according to the present invention, the computer program can be read into the computer as a CD-ROM or the like. As a result, the computer determines the image type strictly for the input image data, and determines the determined image. Appropriate image processing can be performed according to the type.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a main configuration of a digital color copying machine according to the present invention.
FIG. 2 is a block diagram illustrating a configuration of an image type determination unit.
FIG. 3 is a block diagram illustrating a configuration of a first determination unit illustrated in FIG. 2;
4 is a block diagram illustrating a configuration of a second determination unit illustrated in FIG. 2. FIG.
FIG. 5 is an explanatory diagram illustrating an example of a density histogram of a character image, a photographic image, and a character / photo image.
FIG. 6 is an explanatory diagram illustrating an example of a three-dimensional histogram.
FIG. 7 is an explanatory diagram showing a method of dividing an input signal space of RGB signals into a grid pattern at the same interval.
FIG. 8 is a flowchart showing a processing operation of the image processing apparatus according to the present invention.
FIG. 9 is a flowchart showing a processing operation of the image processing apparatus according to the present invention.
FIG. 10 is a flowchart showing a processing operation of the image processing apparatus according to the present invention.
FIG. 11 is a flowchart showing a processing operation of the image processing apparatus according to the present invention.
[Explanation of symbols]
1 Color image input device
2 Color image processing device
3 Color image output device
12 Image type discriminator
4 First discriminator
5 Second discriminator
6 Correction processing section
43 1st maximum power density category extraction unit
44 Second Maximum Frequency Concentration Category Extraction Unit
45 Character image determination unit
46 Photo Image Judgment Unit
48 Image type determination unit
51 Color line counting unit
52 Color number counting unit
521 Color distribution calculator
53 Correction determination unit

Claims (11)

入力された画像データから画像の種別を判別し、この判別結果に基づいて画像処理を行う画像処理方法において、
画像データから画像種別の特徴を表す特徴量を抽出して文字画像、写真画像又は文字及び写真画像の何れかの画像種別を判別する第1の過程と、
前記画像データから色情報の特徴を表す特徴量を抽出して画像を判別し、該判別結果に基づいて前記第1の過程の判別結果に対して補正を施すか否かを判別する第2の過程と、
該第2の過程の判別結果に基づいて前記第1の過程にて判別した画像種別に対して、より厳密な画像種別がなされるべく、補正を施す第3の過程と
を備えることを特徴とする画像処理方法。
In an image processing method for determining an image type from input image data and performing image processing based on the determination result,
A first step of extracting a feature amount representing a feature of an image type from image data and determining an image type of a character image, a photographic image, or a character and a photographic image ;
A feature amount representing a feature of color information is extracted from the image data, an image is discriminated, and a second discriminating whether or not to correct the discrimination result of the first process based on the discrimination result. Process,
Based on the determination result of the second process, the image type is determined by the first step, to more stringent image type is made, characterized in that it comprises a third step of performing correction An image processing method.
前記第2の過程は、
前記画像データから有彩色のエッジとなる画素数を計数する過程と、
前記画像データの色数を計数する過程と
を備えることを特徴とする請求項1に記載の画像処理方法。
The second process includes:
A process of counting the number of pixels that become chromatic edges from the image data;
The image processing method according to claim 1, further comprising: counting the number of colors of the image data.
前記色数を計数する過程は、
前記画像データから色分布を算出する過程を備えることを特徴とする請求項2に記載の画像処理方法。
The process of counting the number of colors includes:
The image processing method according to claim 2, further comprising a step of calculating a color distribution from the image data.
前記第2の過程は、The second process includes:
計数した前記画素数及び色数と所定の閾値との関係に基づいて、画像を判別し、該判別結果に基づいて前記第1の過程の判別結果に対して補正を施すか否かを判別することを特徴とする請求項2又は3に記載の画像処理方法。An image is discriminated based on the relationship between the counted number of pixels and colors and a predetermined threshold value, and whether or not to correct the discrimination result of the first process is discriminated based on the discrimination result. The image processing method according to claim 2, wherein the image processing method is an image processing method.
入力された画像データから画像の種別を判別する画像種別判別手段を備え、該画像種別判別手段の判別結果に基づいて画像処理を行う画像処理装置において、
前記画像種別判別手段は、
画像データから画像種別の特徴を表す特徴量を抽出して文字画像、写真画像又は文字及び写真画像の何れかの画像種別の判別を行う第1判別手段と、
前記画像データから色情報の特徴を表す特徴量を抽出して画像を判別し、該判別結果に基づいて前記第1判別手段の判別結果に対して補正を施すか否かを判別する第2判別手段と、
該第2判別手段の判別結果に基づいて前記第1判別手段にて判別した画像種別に対して、より厳密な画像種別がなされるべく、補正を施す手段と
を備えることを特徴とする画像処理装置。
In an image processing apparatus that includes an image type determination unit that determines the type of an image from input image data, and that performs image processing based on the determination result of the image type determination unit,
The image type determining means includes
First discriminating means for extracting a feature amount representing a feature of an image type from image data and discriminating a character image, a photographic image, or any image type of a character and a photographic image ;
A second determination for extracting a feature amount representing a feature of color information from the image data , determining an image, and determining whether to correct the determination result of the first determination unit based on the determination result Means,
Based on the determination result of the second discriminating means, the image type is determined by said first determination means, to a more precise image type is made, image, characterized in that it comprises a means for performing correction Processing equipment.
前記第2判別手段は、
前記画像データから有彩色のエッジとなる画素数を計数する手段と、
前記画像データの色数を計数する色数計数手段と
を備えることを特徴とする請求項に記載の画像処理装置。
The second determining means includes
Means for counting the number of pixels to be chromatic edges from the image data;
The image processing apparatus according to claim 5 , further comprising: a color number counting unit that counts the number of colors of the image data.
前記色数計数手段は、
前記色数を計数すべく前記画像データから色分布を算出する手段を備えることを特徴とする請求項に記載の画像処理装置。
The color number counting means includes
The image processing apparatus according to claim 6 , further comprising means for calculating a color distribution from the image data so as to count the number of colors.
前記第2判別手段は、The second determining means includes
計数した前記画素数及び色数と所定の閾値との関係に基づいて、画像を判別し、該判別結果に基づいて前記第1の過程の判別結果に対して補正を施すか否かを判別することを特徴とする請求項6又は7に記載の画像処理装置。An image is discriminated based on the relationship between the counted number of pixels and colors and a predetermined threshold value, and whether or not to correct the discrimination result of the first process is discriminated based on the discrimination result. The image processing apparatus according to claim 6, wherein the image processing apparatus is an image processing apparatus.
請求項乃至の何れかに記載された画像処理装置を備え、
該画像処理装置が画像処理した画像データに基づき、画像を形成することを特徴とする画像形成装置。
An image processing apparatus according to any one of claims 5 to 8 , comprising:
An image forming apparatus that forms an image based on image data image-processed by the image processing apparatus.
コンピュータに、入力された画像データから画像の種別を判別させ、この判別結果に基づいて画像処理を行わせるためのコンピュータプログラムにおいて、
コンピュータに、画像データから画像種別の特徴を表す特徴量を抽出して文字画像、写真画像又は文字及び写真画像の何れかの画像種別を判別させる第1ステップと、
コンピュータに、前記画像データから色情報の特徴を表す特徴量を抽出して画像を判別し、該判別結果に基づいて前記第1ステップの判別結果に対して補正を施すか否かを判別させる第2ステップと、
コンピュータに、前記第2ステップの判別結果に基づいて前記第1ステップにて判別した画像種別に対して、より厳密な画像種別がなされるべく、補正を施させる第3ステップと
を実行させることを特徴とするコンピュータプログラム。
In a computer program for causing a computer to determine the type of an image from input image data and performing image processing based on the determination result,
A first step for causing a computer to extract a feature amount representing a feature of an image type from image data to determine a character image, a photographic image, or any image type of a character and a photographic image ;
First, the computer extracts a feature amount representing the feature of color information from the image data , discriminates an image, and determines whether to correct the discrimination result of the first step based on the discrimination result. Two steps,
The computer, based on the discrimination result of the second step that, for the image type is determined by the first step, in order to more rigorous image type is made to execute a third step of subjected to correction A computer program characterized by the above.
コンピュータに、入力された画像データから画像の種別を判別させ、この判別結果に基づいて画像処理を行わせるためのコンピュータプログラムを記録してあるコンピュータでの読み取りが可能な記録媒体において、
コンピュータに、画像データから画像種別の特徴を表す特徴量を抽出して文字画像、写真画像又は文字及び写真画像の何れかの画像種別を判別させる第1ステップと、
コンピュータに、前記画像データから色情報の特徴を表す特徴量を抽出して画像を判別し、該判別結果に基づいて前記第1ステップの判別結果に対して補正を施すか否かを判別させる第2ステップと、
コンピュータに、前記第2ステップの判別結果に基づいて前記第1ステップにて判別した画像種別に対して、より厳密な画像種別がなされるべく、補正を施させる第3ステップと
を実行させるためのコンピュータプログラムを記録してあることを特徴とするコンピュータで読み取りが可能な記録媒体。
In a computer-readable recording medium in which a computer program for causing a computer to determine the type of an image from input image data and performing image processing based on the determination result is recorded,
A first step for causing a computer to extract a feature amount representing a feature of an image type from image data to determine a character image, a photographic image, or any image type of a character and a photographic image ;
First, the computer extracts a feature amount representing the feature of color information from the image data , discriminates an image, and determines whether to correct the discrimination result of the first step based on the discrimination result. Two steps,
The computer, based on the discrimination result of the second step, the image type is determined by the first step, in order to more rigorous image type is made, in order to perform the third step of subjected to correction A computer-readable recording medium on which the computer program is recorded.
JP2002122974A 2002-04-24 2002-04-24 Image processing method, image processing apparatus, image forming apparatus, computer program, and recording medium Expired - Lifetime JP4086537B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002122974A JP4086537B2 (en) 2002-04-24 2002-04-24 Image processing method, image processing apparatus, image forming apparatus, computer program, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002122974A JP4086537B2 (en) 2002-04-24 2002-04-24 Image processing method, image processing apparatus, image forming apparatus, computer program, and recording medium

Publications (2)

Publication Number Publication Date
JP2003319195A JP2003319195A (en) 2003-11-07
JP4086537B2 true JP4086537B2 (en) 2008-05-14

Family

ID=29538437

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002122974A Expired - Lifetime JP4086537B2 (en) 2002-04-24 2002-04-24 Image processing method, image processing apparatus, image forming apparatus, computer program, and recording medium

Country Status (1)

Country Link
JP (1) JP4086537B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8265345B2 (en) 2006-11-20 2012-09-11 Sharp Kabushiki Kaisha Image processing method, image processing apparatus, image forming apparatus, and image reading apparatus
JP6051747B2 (en) * 2012-10-02 2016-12-27 株式会社リコー Image forming apparatus

Also Published As

Publication number Publication date
JP2003319195A (en) 2003-11-07

Similar Documents

Publication Publication Date Title
JP4495197B2 (en) Image processing apparatus, image forming apparatus, image processing program, and recording medium for recording image processing program
JP4137890B2 (en) Image processing apparatus, image forming apparatus, image reading processing apparatus, image processing method, image processing program, and computer-readable recording medium
JP4197346B2 (en) Image processing apparatus, image processing method, image forming apparatus, image processing program, and recording medium
JP4166744B2 (en) Image processing apparatus, image forming apparatus, image processing method, computer program, and recording medium
JP4170353B2 (en) Image processing method, image processing apparatus, image reading apparatus, image forming apparatus, program, and recording medium
JP4118886B2 (en) Image processing apparatus, image forming apparatus, image reading processing apparatus, image processing method, image processing program, and computer-readable recording medium
JP4402090B2 (en) Image forming apparatus, image forming method, program, and recording medium
JP4115999B2 (en) Image processing apparatus, image forming apparatus, image reading processing apparatus, image processing method, image processing program, and computer-readable recording medium
JP4105539B2 (en) Image processing apparatus, image forming apparatus including the same, image processing method, image processing program, and recording medium
JP2007053439A (en) Isolated point discrimination apparatus, image processing apparatus, image reading apparatus, image forming apparatus, isolated point discrimination method, isolated point discrimination program, image processing program, and computer-readable recording medium
JP2005286571A (en) Image processing apparatus, image forming apparatus provided with image processing apparatus, image processing method, image processing program, and recording medium with image processing program recorded thereon
JP4522978B2 (en) Image processing apparatus, image processing method, image forming apparatus, image processing program, and recording medium
JP4086537B2 (en) Image processing method, image processing apparatus, image forming apparatus, computer program, and recording medium
JP7123752B2 (en) Image processing apparatus, image forming apparatus, image processing method, image processing program, and recording medium
JP4080252B2 (en) Image processing apparatus, image forming apparatus, image processing method, program, and recording medium
JP2011015172A (en) Device for processing image, device for forming image, method and program for processing image, and recording medium recording program for processing image
JP4039911B2 (en) Image processing apparatus and image processing method
JP4043982B2 (en) Image processing apparatus, image forming apparatus, image processing method, image processing program, and computer-readable recording medium recording the same
JP4149368B2 (en) Image processing method, image processing apparatus and image forming apparatus, computer program, and computer-readable recording medium
JP2004248103A (en) Image processing device, image reading device, image forming device, image processing method, image processing program, and computer readable record medium recording the same
JP4808282B2 (en) Image processing apparatus, image forming apparatus, image processing method, image processing program, and recording medium for recording image processing program
JP3854060B2 (en) Image processing apparatus, image forming apparatus, image processing method, and recording medium
JP4073877B2 (en) Image processing method, image processing apparatus, image forming apparatus, and computer program
JP4179998B2 (en) Image processing method, image processing apparatus, image forming apparatus, and computer program
JP4958626B2 (en) Image processing method, image processing apparatus, image forming apparatus, computer program, and recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050225

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20061215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061219

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070219

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080219

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080219

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110228

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4086537

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120229

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120229

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130228

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130228

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140228

Year of fee payment: 6

EXPY Cancellation because of completion of term