JP2009223612A - Image recognition device and program - Google Patents
Image recognition device and program Download PDFInfo
- Publication number
- JP2009223612A JP2009223612A JP2008067266A JP2008067266A JP2009223612A JP 2009223612 A JP2009223612 A JP 2009223612A JP 2008067266 A JP2008067266 A JP 2008067266A JP 2008067266 A JP2008067266 A JP 2008067266A JP 2009223612 A JP2009223612 A JP 2009223612A
- Authority
- JP
- Japan
- Prior art keywords
- image
- entry
- class
- entry field
- category
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003909 pattern recognition Methods 0.000 claims abstract description 39
- 238000012545 processing Methods 0.000 claims abstract description 35
- 238000000605 extraction Methods 0.000 claims description 30
- 238000001514 detection method Methods 0.000 claims description 4
- 230000015556 catabolic process Effects 0.000 abstract 1
- 238000006731 degradation reaction Methods 0.000 abstract 1
- 238000002360 preparation method Methods 0.000 description 22
- 238000000034 method Methods 0.000 description 18
- 238000007781 pre-processing Methods 0.000 description 11
- 239000000284 extract Substances 0.000 description 7
- 238000012937 correction Methods 0.000 description 6
- 238000010606 normalization Methods 0.000 description 3
- 238000000926 separation method Methods 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 230000007423 decrease Effects 0.000 description 2
- 241001272720 Medialuna californiensis Species 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000012567 pattern recognition method Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
Images
Landscapes
- Electrically Operated Instructional Devices (AREA)
- Character Input (AREA)
- Character Discrimination (AREA)
Abstract
Description
本発明は、画像認識装置及びプログラムに関する。 The present invention relates to an image recognition apparatus and a program.
手書き文字認識の応用分野の一つに、帳票や答案用紙、アンケート用紙などといった定型用紙(フォームとも呼ばれる)に対する手書き記入の認識がある。定型用紙に対する手書き記入の認識では、例えば、手書き記入後の定型用紙の画像と未記入の定型用紙の画像との差分を求め、求めた差分画像に対してパターン認識を行っている。このような認識では、手書き記入が記入枠、写真、グラフィックス図形などのように定型用紙上に元々存在する画像に対して重なってしまうと、手書き記入の完全な画像が得られないため、認識の精度が劣化してしまう可能性があった。 One application field of handwritten character recognition is the recognition of handwritten entries on standard forms (also called forms) such as forms, answer sheets, and questionnaire forms. In recognition of handwritten entry on a standard form, for example, a difference between an image of a standard form after handwriting and an image of a non-filled form is obtained, and pattern recognition is performed on the obtained difference image. In such recognition, if the handwritten entry overlaps the image that originally exists on the standard paper, such as an entry frame, a photograph, or a graphics figure, a complete image of the handwritten entry cannot be obtained. There was a possibility that the accuracy of would deteriorate.
これに対し、特許文献1に開示された装置では、記入枠と文字を重ね合わせた枠接触文字を、記入枠に対する文字の位置、サイズ又は傾きを様々に替えながら多数作成し、それら様々な枠接触文字を知識テーブルに登録し、パターン認識に用いている。
On the other hand, in the apparatus disclosed in
記入欄の周囲の様々な位置に写真や図形などの様々な画像が存在する可能性がある場合、それらすべての可能性を考慮したパターン認識を行うことが考えられる。しかし、パターン認識の際に考慮するパターンが多くなるほど、誤認識が増えて認識率が低下することが懸念される。 If there is a possibility that various images such as photographs and figures exist at various positions around the entry field, it is conceivable to perform pattern recognition considering all these possibilities. However, there is a concern that as the number of patterns to be considered in pattern recognition increases, misrecognition increases and the recognition rate decreases.
本発明は、記入欄の周囲における画像の存在についての可能性のすべてを考慮する場合と比較して、認識率の低下を抑制することを目的とする。 An object of the present invention is to suppress a decrease in the recognition rate as compared with a case where all the possibilities regarding the presence of an image around the entry field are considered.
本発明は、複数のカテゴリの各々について、当該カテゴリに対応する1以上のクラス候補を記憶する候補記憶手段と、前記複数のカテゴリの各々について、前記候補記憶手段に記憶された当該カテゴリに対応する1以上のクラス候補の中から、記入欄と当該記入欄の周囲の画像要素との位置関係に基づき特定される1以上のクラスを、当該カテゴリについての判定に用いるべきクラスとして選択する選択手段と、前記記入欄に対する記入の画像に対してパターン認識処理を実行することにより、前記選択手段が前記複数のカテゴリの各々について選択したクラスのなかから、前記記入欄に対する記入の画像が属するクラスを認識するパターン認識手段と、前記パターン認識手段が認識したクラスに対応するカテゴリを前記候補記憶手段に基づき特定し、特定したカテゴリを前記記入欄に対する記入の画像が属するカテゴリとして出力する出力手段と、を備える画像認識装置である。 The present invention corresponds to candidate storage means for storing one or more class candidates corresponding to the category for each of the plurality of categories, and corresponding to the category stored in the candidate storage means for each of the plurality of categories. Selecting means for selecting one or more classes specified based on the positional relationship between the entry field and the image elements around the entry field from among one or more class candidates as a class to be used for determination of the category; The pattern recognition process is performed on the image entered in the entry field to recognize the class to which the entry image in the entry field belongs from the classes selected by the selection unit for each of the plurality of categories. And a category corresponding to the class recognized by the pattern recognition means based on the candidate storage means. Identified, an image recognition device and an output means for outputting the identified category as image belongs categories of entries for the answer column.
1つの態様では、画像認識装置は、入力された画像から前記記入欄に対する記入の画像を抽出する抽出手段と、前記抽出手段により抽出された記入の画像の端点を検出する端点検出手段と、を更に備え、前記選択手段は、前記端点検出手段が検出した端点のいずれかと接触する1以上の画像要素を特定し、特定した1以上の画像要素と前記記入欄との位置関係に基づき前記判定に用いるべきクラスを選択する。 In one aspect, the image recognition apparatus includes: an extraction unit that extracts an image of an entry for the entry field from an input image; and an end point detection unit that detects an end point of the entry image extracted by the extraction unit. Further, the selection means specifies one or more image elements that are in contact with any of the end points detected by the end point detection means, and performs the determination based on a positional relationship between the specified one or more image elements and the entry field. Select the class to use.
別の態様では、画像認識装置は、1以上の画像要素と1以上の記入欄とを含んだ定型文書の記入欄ごとに、且つカテゴリごとに前記候補記憶手段に記憶されたクラス候補のうち、当該記入欄の周囲の画像要素と当該記入欄との位置関係に基づき特定された1以上のクラスを、当該記入欄についての判定に用いるクラスとして記憶する記入欄情報記憶手段と、入力された対象画像から前記各記入欄に対する記入の画像を抽出する抽出手段と、を更に備え、前記選択手段は、前記抽出手段が抽出した前記各記入欄に対する記入の画像ごとに、当該記入欄についての判定に用いるクラスを前記記入欄情報記憶手段から求める。 In another aspect, the image recognition apparatus includes class candidates stored in the candidate storage unit for each entry field of a standard document including one or more image elements and one or more entry fields, and for each category. Entry field information storage means for storing one or more classes specified based on the positional relationship between the image elements around the entry field and the entry field as a class used for determination of the entry field, and an input target Extraction means for extracting an image of entry for each entry field from an image, and the selection means is configured to determine the entry field for each entry image for each entry field extracted by the extraction means. The class to be used is obtained from the entry field information storage means.
以下、図面を参照して本発明の実施の形態(以下、実施形態という)を説明する。 Hereinafter, an embodiment of the present invention (hereinafter referred to as an embodiment) will be described with reference to the drawings.
本実施形態の画像認識装置は、帳票や答案用紙などの定型用紙(フォーム)に対してユーザが記入した文字や記号など(以下「文字」と総称する)の記入内容を認識するための装置である。 The image recognition apparatus according to the present embodiment is an apparatus for recognizing the entry contents of characters and symbols (hereinafter collectively referred to as “characters”) entered by a user on a fixed form (form) such as a form or answer sheet. is there.
本実施形態では、記入欄と、当該記入欄の周囲の画像オブジェクト(例えば写真、図形、記入枠、文字列などのように、記入される前から存在している印刷画像)との位置関係に基づき、その記入欄への記入内容をパターン認識する際に考慮するパターンを限定する。記入欄に対してあらゆる位置に画像オブジェクトが存在する可能性があると考慮すべきパターンの数は膨大なものとなるが、画像オブジェクトの位置を限定すれば考慮すべきパターンの数を減らすことができる。 In this embodiment, the positional relationship between the entry field and the image objects around the entry field (for example, a print image that exists before entry, such as a photograph, a figure, an entry frame, and a character string). Based on this, the patterns to be taken into account when recognizing the contents entered in the entry field are limited. The number of patterns that should be considered that there is a possibility that an image object exists at any position with respect to the entry field is enormous, but if the position of the image object is limited, the number of patterns to be considered can be reduced. it can.
一般に、パターン認識では、例えば識別すべき各文字の特徴情報を保持する認識辞書を用意し、その認識辞書を参照することで、識別対象の文字画像がいずれの文字に該当するかを判定する。ここで本実施形態では、完全な状態の文字に対応する特徴情報だけでなく、周囲の画像オブジェクトによって部分的に隠された状態の文字の特徴情報も、認識辞書に登録しておく。ここで、同じ文字であっても、周囲の画像オブジェクトとの相対的な位置関係が異なれば、その画像オブジェクトにより隠される部分が異なるので、文字ごとに、その文字が周囲の画像オブジェクトに対して様々な位置関係で隠された場合の特徴情報を認識辞書に登録しておく。ここでいう位置関係には、例えば相対的な方向又は距離、又はその両方が含まれる。そして、パターン認識の際には、認識辞書に登録されたそれら様々な特徴情報のうち、認識対象の文字とその周囲にある画像オブジェクトとの位置関係に対応するものを選択して用いる。 In general, in pattern recognition, for example, a recognition dictionary that holds feature information of each character to be identified is prepared, and by referring to the recognition dictionary, it is determined which character the character image to be identified corresponds to. Here, in this embodiment, not only feature information corresponding to characters in a complete state but also feature information of characters partially hidden by surrounding image objects is registered in the recognition dictionary. Here, even if the character is the same, if the relative positional relationship with the surrounding image object is different, the portion hidden by the image object is different, so that the character is relative to the surrounding image object for each character. Feature information when hidden in various positional relationships is registered in the recognition dictionary. The positional relationship here includes, for example, a relative direction and / or distance. At the time of pattern recognition, among the various feature information registered in the recognition dictionary, information corresponding to the positional relationship between the character to be recognized and the surrounding image objects is selected and used.
以下では、文字の種類を「カテゴリ」と呼び、文字は同じ種類であるが周囲の画像オブジェクトによる隠され方の異なる様々なバリエーションのことを「クラス」と呼ぶ。例えば、丸印が1つの「カテゴリ」であるとすると、周囲の画像オブジェクトにより一部分が隠された状態の丸印の形状が1つの「クラス」である。この場合、周囲の画像オブジェクトの形状や大きさ、又はその画像オブジェクトの丸印に対する位置関係、例えば上下左右のどこにあるかなどの組合せに応じて、同じ丸印という「カテゴリ」の中に様々な「クラス」ができる。 In the following, the type of character is referred to as “category”, and various variations of the same type of character but differently hidden by surrounding image objects are referred to as “class”. For example, if the circle is one “category”, the shape of the circle that is partially hidden by surrounding image objects is one “class”. In this case, there are various “categories” in the same circle depending on the shape and size of the surrounding image object, or the positional relationship of the image object with respect to the circle, for example, where the image object is located up, down, left and right "Class" is possible.
1つのカテゴリについてそのような様々なクラスのすべてを考慮するとなると、パターン認識の計算に多大のコストがかかる。しかし、認識対象の文字の周囲にその文字を部分的に隠す画像オブジェクトが存在するのか否か、存在するとしてそのオブジェクトのその文字に対する位置関係はいかなるものか、が何らかの手段で求めることができれば、カテゴリの中で考慮すべきクラスを絞り込むことができる。本実施形態は、このような考え方に即したものである。 Considering all such various classes for a category, the calculation of pattern recognition is costly. However, if there is an image object that partially hides the character around the character to be recognized, and what the positional relationship of the object with respect to the character can be determined by some means, You can narrow down the classes to be considered in the category. The present embodiment is based on such a concept.
本実施形態の画像認識装置の構成の例を図1に示す。この例では、定型用紙に対してユーザが記入を行った結果得られる記入済み文書がスキャナなどの画像読取装置により読み取られることにより、電子的な記入済み画像10が生成される。その記入済み画像10が、画像認識装置の備える記入抽出部102に入力される。
An example of the configuration of the image recognition apparatus of this embodiment is shown in FIG. In this example, an already-filled document obtained as a result of a user filling in a fixed form is read by an image reading device such as a scanner, thereby generating an electronically filled
記入抽出部102は、入力された記入済み画像10からユーザの記入内容の画像を抽出する。記入内容の抽出は、例えば記入済み画像10から原本画像を減算することにより行うことができる。また、別の例として、記入済み画像10から記入に用いられた筆記具の色の画素群を抽出することで、記入内容の画像(以下「記入内容画像」と呼ぶ)を抽出することもできる。この方式は、定型用紙の画像に含まれない色の筆記具を用いて記入が行われる場合などに適用できる。また、記入済み画像10から原本画像を減算し、減算結果の画像の中から注目する筆記具の色の画素群を抽出する方式もある。この方式は、例えば被験者が鉛筆により記入した答案と、採点者が赤ペンにより記入した丸印、バツ印などの採点結果と、を分離して抽出する場合などに利用できる。なお、記入済み画像10中に複数の記入内容画像が含まれる場合、記入抽出部102は、それら各記入内容画像に対応づけて、その画像の記入済み画像10中での位置座標の情報を抽出してもよい。記入内容画像の位置座標は、例えば、当該記入内容画像の外接長方形(例えば、縦及び横の辺が、x及びy軸方向にそれぞれ平行なもの)中の所定の基準点(例えばその長方形の対角線同士の交点、或いはその長方形の右上隅の点など)の座標の組で表せばよい。
The
認識処理部110は、記入抽出部102が抽出した記入内容画像に対してパターン認識処理を行うことで、記入内容画像が示す文字を判定する。この判定の際に認識辞書120が利用される。
The
認識処理部110は、適用クラス判定部112,判定情報記憶部114,パターン認識部116及びカテゴリ判定部118を備える。
The
適用クラス判定部112は、抽出された記入内容画像のパターン認識の際に適用するクラスを判定する。この実施形態では、判定情報記憶部114を参照して、当該記入内容画像のパターン認識に適用するクラス(以下「適用クラス」と呼ぶ)を特定する。
The application
例えばアンケート用紙などのような定型文書の場合は、文書中の各記入欄の位置は固定であり、それら各記入欄の周囲のどの位置にどのような画像オブジェクトが存在するかは分かっている。記入欄に対して記入された記入内容画像は、例えばその記入欄の周囲近傍に画像オブジェクトがなければ隠されることがない。したがって、この場合には、記入内容画像が部分的に隠された文字である可能性は考慮する必要がない。また、記入欄の下方近傍に大きな、濃度が高い画像オブジェクトがあれば、その欄に対する記入内容画像の下部が部分的に隠れてしまうことを考慮する必要が出てくる。 For example, in the case of a standard document such as a questionnaire, the position of each entry column in the document is fixed, and what image object is present at which position around each entry column is known. The entry content image entered in the entry field is not hidden unless there is an image object in the vicinity of the entry field, for example. Therefore, in this case, there is no need to consider the possibility that the entry content image is a partially hidden character. Further, if there is a large, high-density image object near the lower part of the entry field, it is necessary to consider that the lower part of the entry content image for that field is partially hidden.
例えば、図2に例示する定型文書には、テキスト記事11や写真等の写真画像12−1,12−2,グラフィックス図形13などの画像オブジェクト群と、記入欄14−1,14−2,…とがそれぞれ所定の位置に配置されている。例えば記入欄14−1の下方近傍には写真画像12−1が存在するので、記入欄14−1の記入内容画像の下部が広い範囲にわたって写真画像12−1により隠されてしまう可能性を考慮する必要がある。しかし記入欄14−1の左右や上方は記入欄を示す括弧の線画やテキスト記事11なので、仮に記入内容画像がそれらにより隠されるとしても、それは幅の細い線により隠されるだけなので、記入内容画像の形状特徴が変化するほど広い範囲にわたって隠されてしまう可能性は低い。細線幅で部分的に隠されただけなら、欠損線分補間などの公知の画像処理で隠された部分をほぼ復元できるので、隠されない場合と同等に扱うことができる。したがって、記入欄14−1に対する記入内容の認識では、「丸印」や「バツ印」などの各カテゴリについて、それぞれそのカテゴリの文字がまったく隠されない場合(すなわちユーザが記入欄内に正しく収まるように文字を記入した場合)、及び下部が隠される場合に対応する各クラスを考慮すればよい。また、記入欄14−2については、周囲近傍には記入欄を表す括弧の線があるのみ(上方の写真画像12−1はその欄から遠すぎるとする)なので、文字がまったく隠されない場合に該当するクラスのみを考慮すればよい。
For example, the standard document illustrated in FIG. 2 includes a group of image objects such as
このように、定型文書のレイアウト又は画像の情報から、各記入欄に対する記入の認識には、どの部分が隠された状態のクラスを考慮すべきかが事前に分かる。従って、この場合は、判定情報記憶部114には、各カテゴリ中の多数のクラスの中からどのクラスを適用するのかを、記入欄ごとに示した判定情報を記憶しておけばよい。
As described above, from the layout of the standard document or the information on the image, it can be known in advance which part should be considered for the recognition of the entry in each entry field. Therefore, in this case, the determination
また、別の例として、記入内容画像に対する周辺の画像オブジェクトの位置及び種類の組合せごとに、その組合せに対応する適用クラスを示した情報を判定情報記憶部114に記憶させておいてもよい。この例では、適用クラス判定部112は、例えば記入済み画像10から抽出した記入内容画像の周囲近傍に画像オブジェクトがあるかどうかを調べ、あればその画像オブジェクトの位置と種類を判定し、その判定結果に対応する適用クラスを判定情報記憶部114中の情報から求める。この例は、記入内容画像の周囲近傍の画像オブジェクトについて事前の知識がない場合にも適用できる。
As another example, for each combination of positions and types of peripheral image objects with respect to the entry content image, information indicating an application class corresponding to the combination may be stored in the determination
パターン認識部116は、公知のパターン認識処理を行うことで、適用クラス判定部112が判定した適用クラスの中から、記入内容画像に該当するクラスを判定する。この判定の際に、認識辞書120が参照される。
The
図3に認識辞書120のデータ内容の一例を示す。この例は、試験の採点のための丸印、三角印、バツ印の判別のための認識辞書の例である。この例では、丸、三角、バツのそれぞれのカテゴリについて、そのカテゴリに含まれる各クラスのクラスID(識別情報)とクラス判定情報とが含まれる。クラス判定情報は、パターン認識において、記入内容画像が当該クラスに属するかどうか判定する際の判定基準となる情報である。例えば、丸印の場合、様々な人が書いた丸印のサンプルを学習して得た丸印の特徴を表す特徴量がその一例である。丸印の下部が隠された場合のクラスについては、下部が隠された丸印の多数のサンプルから学習された特徴量をクラス判定情報として用いればよい。このような特徴量は「プロトタイプ」と呼ばれる。また、プロトタイプに加え学習サンプル群の分散を考慮する方法も知られており、この場合は分散に関する情報もクラス判定情報に含まれる。なお、クラス判定情報としてプロトタイプを用いるというのはあくまで一例に過ぎず、公知のパターン認識手法で用いられる他の判定情報を用いてもよい。例えば、クラスに該当するサンプル画像の集合自体を、そのクラスについてのクラス判定情報として用いてもよい。
FIG. 3 shows an example of data contents of the
なお、部分的に隠された状態に対応するクラスのクラス判定情報を作成するには、隠されていない状態の文字の各サンプル画像をそのクラスに対応した状態で部分的に隠した上で、学習を行えばよい。また、単に部分的に隠した状態のサンプル画像のクラスの他に、部分的に隠した結果生じたサンプル画像の端点同士を接続した画像も作成し、これらを学習することで端点接続を行った状態に対応する別のクラスの判定情報を生成してもよい。 In order to create class determination information for a class corresponding to a partially hidden state, each sample image of a character that is not hidden is partially hidden in a state corresponding to that class, Just learn. In addition to the sample image class that is only partially hidden, an image in which the end points of the sample image resulting from the partial occlusion are connected is created, and the end points are connected by learning them. Another class of determination information corresponding to the state may be generated.
そのような認識辞書120を用いて、パターン認識部116は、1以上の適用クラスの中から、対象の記入内容画像に最も近い1乃至複数のクラスを特定する。
Using such a
カテゴリ判定部118は、パターン認識部116が特定したクラスがどのカテゴリに属するかを、認識辞書120を参照して判定する。例えば、記入内容画像がクラスC03に最も近いとパターン認識部116が判定した場合、カテゴリ判定部118は、そのクラスC03が属するカテゴリC(丸印)を、認識結果として求める。
The
以上、本実施形態の概要を説明した。次に、より具体的なシステムの例について説明する。 The outline of the present embodiment has been described above. Next, a more specific system example will be described.
まず第1の例として、事前準備型の例を説明する。この例は、定型文書などのように記入内容がどのように隠される可能性があるかが事前に分かる文書に対する記入の認識のために用いられる。この例は、事前に分かる情報を用いて各記入欄についての適用クラスを事前に求めておき、実際のパターン認識時にその適用クラスの情報を利用するので、事前準備型と呼ぶ。この例を、図4〜図10を参照して説明する。 First, an example of a preliminary preparation type will be described as a first example. This example is used for recognizing entry for a document that knows in advance how the entry may be hidden, such as a standard document. In this example, an application class for each entry field is obtained in advance using information known in advance, and information on the application class is used at the time of actual pattern recognition. This example will be described with reference to FIGS.
図4は、この事前準備型のシステムの全体像を示す図である。図示のように、このシステムは、準備処理システム130と認識システム150とを備える。準備処理システム130は、前述の判定情報記憶部114を構築するための準備処理を実行するシステムである。この例では、判定情報記憶部114には、記入欄位置記憶部142と記入欄・クラス対応記憶部144とが含まれる(両者ともあとで詳述)。準備処理システム130は、記入前の定型文書の画像を解析することで、定型文書中の各記入欄についての適用クラスを特定し、記入欄・クラス対応記憶部144に登録する。記入欄位置記憶部142は、定形文書上での各記入欄の位置を記憶している。各記入欄の位置の情報は、ユーザが事前に求めて記入欄位置記憶部142に登録しておけばよい。
FIG. 4 is a diagram showing an overall view of the preparatory system. As shown, the system includes a
認識システム150は、準備処理システム130により構築された判定情報記憶部114を参照して、記入済み画像における記入内容のパターン認識を行う。
The
以下、準備処理システム130及び認識システム150の詳細な例について、順に説明する。
Hereinafter, detailed examples of the
図5に準備処理システム130の詳細構成の例を示す。準備処理システム130は、定型文書の原本画像30を読み込み、その原本画像30の中の各記入欄について、その周辺に存在する画像オブジェクトを調べることで、当該記入欄の認識に適用すべきクラスを判定する。原本画像30は、記入がまったくなされていない定型文書の原稿の画像である。
FIG. 5 shows an example of a detailed configuration of the
原本画像30はこの機構中の画像入力部132に入力される。画像入力部132は、紙に印刷された原本画像30を読み取るスキャナであってもよいし、原本画像30の電子データを入力するインタフェースであってもよい。オブジェクト抽出部134は、入力された原本画像30上に存在する文字列や写真、線画などの画像オブジェクトを、公知の技術により抽出する。このとき、オブジェクト抽出部134は、原本画像30上での画像オブジェクトの位置も求める。画像オブジェクトの位置は、例えば、画像オブジェクトに外接する矩形(縦横の辺が原本画像30の縦横の辺と並行なもの)の対角線の交点や、その矩形の対角線上の2点の座標の組などで表せばよい。
The
記入欄位置記憶部142には、図6に例示するように、原本画像30上の記入欄ごとに、その記入欄の識別情報(記入欄ID)と原本画像30上での位置が登録されている。記入欄の位置は、この例では、その記入欄の矩形範囲の右上隅と左下隅の2点の座標で表されている。
In the entry column
重複判定部136は、記入欄位置記憶部142に登録された記入欄ごとに、オブジェクト抽出部134が抽出した画像オブジェクトの中からその記入欄中の文字と重複する可能性のある画像オブジェクトを判定する。この処理では、例えば、記入欄の位置情報が示す記入欄の領域を所定倍率で拡大し、拡大された記入欄の領域と各画像オブジェクトとが位置的に重なるかどうかを判定する。この例では、記入欄の領域を拡大しておくことで、ユーザが記入欄から少しはみ出るように記入した場合に対応している。この判定で、それら記入欄の各々について、当該記入欄に対して位置的に重複する画像オブジェクトの種類(テキスト、線画、濃い写真画像、薄い写真画像など)や、その画像オブジェクトの当該記入欄に対する位置関係が特定できる。
The
選択規則記憶部139は、画像オブジェクトの種類と、記入欄と画像オブジェクトとの位置関係と、の組合せごとに、その組合せに該当する場合の適用クラスが記憶されている。図7に選択規則記憶部139が記憶する情報の一例を模式的に示す。厳密には、図7に示した表のうち、左端の列は具体的な重複の例を示すものであり、選択規則記憶部139には記憶されない。この列では、記入欄の範囲を、便宜上、破線の矩形で示している。選択規則記憶部139に記憶されるのは、「重複オブジェクト」と「認識に適用するクラス」(適用クラス)の列の情報である。
In the selection
「重複オブジェクト」の欄には、重複オブジェクトの種類と位置(位置関係)の組合せが登録される。例えば、上から1番目の行の例は、例えば重複する画像オブジェクトが記入欄を示す括弧である場合の例である。この例では重複するオブジェクトの種類は、括弧なので「細い線分」であり、位置は記入欄の左右である。また、2番目の行は、記入欄の右上に濃い写真画像のオブジェクトが存在する場合に対応する。また、「認識に提供するクラス」の欄には、適用クラスのクラスIDが登録されている。図では、説明の便宜上、クラスIDの代わりに、クラスに対応する文字形状を示している。 In the “duplicate object” column, a combination of the type and position (positional relationship) of the duplicate object is registered. For example, the example of the first line from the top is an example in the case where, for example, the overlapping image object is a parenthesis indicating an entry field. In this example, since the type of the overlapping object is a parenthesis, it is “thin line segment”, and the position is on the left and right of the entry column. The second line corresponds to the case where a dark photographic image object exists in the upper right of the entry field. The class ID of the applicable class is registered in the “class provided for recognition” column. In the figure, for convenience of explanation, character shapes corresponding to classes are shown instead of class IDs.
例えば上から1番目の行の例では、重複するオブジェクトは細い線分だけなので、丸印、バツ印などの各カテゴリについて、それぞれ、画像オブジェクトにより隠蔽されない基本形のクラスのクラス判定情報が登録されている。一方、2番目の行の例では、記入欄の左上に濃い写真画像の領域があるので、記入欄に記入された文字の左上が隠される可能性を考慮する必要がある。したがって、2行目の場合の適用クラスには、カテゴリごとに、基本形のクラスに加え、そのカテゴリの文字の左上が隠されて欠けた場合に対応するクラスが登録される。4行目の例は、記入欄を囲む太線の矩形枠が存在する例である。矩形枠は、記入欄に対して上下左右にある太い線分と捉えられる。この場合、記入内容画像と画像オブジェクトである太い線分とが繋がった一連の文字画像と認識される場合がある。例えば、丸印が矩形枠の一部の辺を横切った場合には、丸印を構成する線と矩形枠の辺とが一体となった、例えば半月形の画像が記入内容画像と認識される場合がある。そこで、そのような半月形の画像に対応するクラスが、適用クラスに追加されている。 For example, in the example of the first line from the top, since the overlapping object is only a thin line segment, for each category such as a circle mark and a cross mark, class determination information of a basic class that is not hidden by the image object is registered. Yes. On the other hand, in the example of the second row, since there is a dark photographic image area at the upper left of the entry column, it is necessary to consider the possibility of hiding the upper left of the characters entered in the entry column. Therefore, in the application class in the case of the second line, for each category, in addition to the basic class, a class corresponding to the case where the upper left of the characters in the category is hidden and missing is registered. The example on the fourth line is an example in which a thick rectangular frame surrounding the entry field exists. The rectangular frame is regarded as a thick line segment on the top, bottom, left and right of the entry field. In this case, it may be recognized as a series of character images in which the entry content image and a thick line segment as an image object are connected. For example, when a round mark crosses a part of a side of a rectangular frame, for example, a half-moon-shaped image in which a line constituting the round mark and a side of the rectangular frame are integrated is recognized as an entry content image. There is a case. Therefore, a class corresponding to such a half-moon image is added to the application class.
なお、記入欄の近傍にあるのが、記入内容画像がそのオブジェクトと重なったとしても記入内容画像が抽出できる程度の薄い写真画像オブジェクトである場合は、重複により記入内容画像が部分的に欠けることを考慮しなくてもよい。 If there is a photo image object that is thin enough to extract the entry content image even if the entry content image overlaps the object, the entry content image is partially missing due to duplication. Need not be considered.
オブジェクトが濃い写真画像であるか薄い写真画像であるかなどの種別判定は、(平均濃度を計算する等の)公知の技術で行える。 Whether the object is a dark photographic image or a thin photographic image can be determined by a known technique (such as calculating an average density).
クラス対応情報登録部138は、重複判定部136の判定結果と選択規則記憶部139に記憶された情報とに基づき、各記入欄の適用クラスを判定し、判定した記入欄と適用クラスの対応関係を記入欄・クラス対応記憶部144に登録する。
The class correspondence
例えば、重複判定部136が、ある記入欄の右上に濃い写真画像オブジェクトが重なると判定した場合、クラス対応情報登録部138は、記入欄・クラス対応記憶部144に対し、その記入欄のIDに対応づけて、図7の例の2行目の適用クラスの欄に登録されている各クラスのIDを登録する。図8に、記入欄・クラス対応記憶部144に記憶されたデータの一例を示す。”C01”、”T02”等はクラスのIDである。
For example, when the
以上のような処理を原本画像30上のすべての記入欄について行うことで、各記入欄に対応する適用クラスの情報が記入欄・クラス対応記憶部144に蓄積されることになる。
By performing the processing as described above for all entry fields on the
以上、準備処理システム130について説明した。次に、図9及び図10を参照して、認識システム150の詳細な例を説明する。
The
図9に例示した認識システム150は、画像入力部152,位置歪み補正部154,差分抽出部156,前処理部160,認識処理部110及び認識辞書120を含む。
The
認識の対象となる記入済み画像10は、画像入力部152に入力される。記入済み画像は、原本画像30に対してユーザが記入を行ったあとの画像である。画像入力部152は紙原稿を読み取るスキャナであってもよいし、画像データを入力するインタフェースであってもよく、準備処理システム130の画像入力部132と兼用してもよい。位置歪み補正部154は、入力された記入済み画像10に対し、(原本画像30との位置合わせのために)周知の位置ずれ補正や歪み補正を施す。差分抽出部156は、位置補正及び歪み補正が済んだ記入済み画像から原本画像を減算することで、ユーザの記入内容のみを示す差分画像を求める。前処理部160は、差分抽出部156が求めた差分画像に対し、後段のパターン認識に適した画像にするための前処理を施す。図示例では、前処理部160は、所定色画素抽出部162,欠損線分補間部164及び接触分離部166を含む。
The completed
所定色画素抽出部162は、差分画像から所定の色の画素のみを抽出する。これは、例えば試験答案の採点マークの認識を想定したものである。例えば、受験者が答案用紙に黒いペンで解答を記入し、採点者がその答案に対して赤いペンで丸印やバツ印等の採点マークを書き込んでいく典型的なケースでは、所定色画素抽出部162は、赤色の範囲に属する色を持つ画素を差分画像から抽出する。
The predetermined color
欠損線分補間部164は、所定色画素抽出部162により抽出された所定色の画素からなる画像に対し、欠損線分補間を行う。欠損線分補間は、線分の欠損部分を保管する周知の処理である。これにより、線分の一部が読取ノイズや細線との交差などにより欠落した場合でもその部分が補間される。
The missing line
接触分離部166は、欠損線分補間後の画像において、複数のオブジェクトに分離されるべき画像同士が接触しているのを分離するための処理を行う。この接触分離処理には公知の手法(例えば特開2007−241357号公報参照)を用いることができるので、説明を省略する。
The
以上のような機能モジュールにより、前処理部160は、記入済み画像10中の個々の採点マークの画像(前述の記入内容画像のこと)を求め、それら各画像を、その画像の記入済み画像10上での位置を示す情報と対応づけて出力する。認識処理部110は、それら各記入内容画像がどのカテゴリに属するかを、認識辞書120を参照して判定する。
With the functional modules as described above, the
この認識処理部110の詳細な構成の例を図10に示す。図10の例において、正規化部172は、前処理部160から入力された個々の記入内容画像をそれぞれ正規化する。正規化は、画像のサイズや位置、傾き、線幅などを所定の基準に合わせるための周知の処理である。また、特徴量抽出部174が、正規化後の各記入内容画像のそれぞれについて、その画像の特徴量を求める。これは記入内容画像を、画像そのものではなく、その画像の特徴を表すパラメータの組(特徴量)に変換することで、情報圧縮を行う処理である。画像の特徴量やその求め方としては従来周知のものを用いればよい。
An example of a detailed configuration of the
このような記入内容画像に対する処理に並行して、記入欄特定部176は、前処理部160から入力された各記入内容画像の位置の情報に基づき、各記入内容画像がどの記入欄に記入されたものかを特定する。この特定には、記入欄位置記憶部142内の情報を参照する。例えば、記入内容画像の位置と最も近い記入欄をその画像に対応する記入欄と判定し、その記入欄のIDを求めればよい。適用クラス判定部112は、記入内容画像ごとに、記入欄特定部176で特定された記入欄のIDに対応する各適用クラスのIDを、記入欄・クラス対応記憶部144から検索する。記入内容画像ごとに求められた各適用クラスのIDは、パターン認識部116に入力される。
In parallel with the processing for the entry content image, the entry
パターン認識部116は、記入内容画像ごとにその画像がどのクラスに該当するかをパターン認識処理により求める。より具体的には、記入内容画像ごとに、適用クラス判定部112が求めたその記入内容画像に対応する各適用クラスのIDに対応するクラス判定情報を認識辞書120から求め、それら各適用クラスのクラス判定情報と、特徴量抽出部174が求めたその記入内容画像の特徴量に基づき、周知のパターン認識を行う。これにより、それら適用クラスの中から、その記入内容画像に最も近い1乃至複数のクラスを特定する。
The
カテゴリ判定部118は、特定されたクラスがどのカテゴリに属するかを認識辞書120(図3参照)から求める。求められたカテゴリ(図3の例では、丸、三角、バツの3つのいずれか)が、この認識システム150による記入内容画像の認識結果となる。
The
なお、以上では個々の記入内容画像の認識までを説明したが、そのあとにその認識結果を集計(例えば丸印の数を集計して点数を付けるなど)するなどの後処理が続いてもよい。 In addition, although the description up to the recognition of each entry content image has been described above, post-processing such as counting the recognition results (for example, counting the number of circles and adding points) may be continued. .
以上、事前準備型のシステムについて説明した。このシステムは、記入内容画像の近傍にどのような画像オブジェクトがあるかが事前に分かっている場合のものであった。これに対し、そのような事前知識がない場合にも適用可能な事前準備無しのシステムの例を、図11及び図12を参照して説明する。 The advance preparation type system has been described above. This system is used when it is known in advance what kind of image object is in the vicinity of the entry content image. On the other hand, an example of a system without prior preparation that can be applied even in the absence of such prior knowledge will be described with reference to FIGS. 11 and 12.
このシステムでは、図4に例示した準備処理システム130のような機構は不要であり、認識システムのみを有すればよい。この場合の認識システムの全体構成は、例えば図9に示したものと同様でよいが、その中の認識処理部110の構成が事前準備型のシステムとは異なる。事前準備無しのシステムにおける認識処理部110の構成の例を図11に示す。
In this system, a mechanism such as the
図11に例示する認識処理部110の内部構成のうち、端点抽出部180,接触判定部182、適用クラス判定部186、接触端点・クラス対応記憶部146を除いた残りの機能モジュールは、図10に例示した事前準備型システムの認識処理部110内の同一符号のモジュールと同様のものである。
Of the internal configuration of the
大略的にいえば、事前準備無しのシステムでは、事前準備型システムで準備処理システム130が行っていたのと似た処理を、(事前にではなく)記入内容画像の認識の際に実行する。ただし、事前処理の場合には実際の記入内容画像がないので記入欄と画像オブジェクトとの重複を調べていたのに対し、この例では実際の記入内容画像と画像オブジェクトとの重複を調べることができる。記入欄を調べていたのでは実際の記入内容画像がその欄に対して多少ずれても認識漏れがでないように、起こりうる画像オブジェクトによる部分的な隠れ状態をすべて適用クラスとして検査する必要があった。これに対し、この例では、記入内容画像と周囲の画像オブジェクトとの実際の重複状態に即したクラスのみを適用クラスとして検査すればよいので、よりよい絞込ができる。
Generally speaking, in a system without advance preparation, processing similar to that performed by the
この例では、端点抽出部180は、前処理部160から与えられた個々の記入内容画像から、端点を抽出する。画像からの端点抽出の仕方は周知なので説明は省略する。
In this example, the end
接触判定部182は、端点抽出部180が抽出した記入内容画像の端点のうち、他の画像オブジェクトと接触している端点を特定する。検出した端点が他の画像オブジェクトと接しているかどうかは、その端点の位置と、原本画像30から求められる各画像オブジェクトの位置との比較により判定できる。
The
適用クラス判定部186は、接触判定部182の判定結果に基づき、記入内容画像の認識の際に考慮すべきクラス、すなわち適用クラスを判定する。この判定では、接触端点・クラス対応記憶部146に記憶された情報を参照する。
The application
接触端点・クラス対応記憶部146には、記入内容画像の端点のうち他の画像オブジェクトと接触する端点の位置に対応づけて、適用クラスが記憶されている。図12にその記憶部146に記憶されるデータの一例を模式的に示す。厳密には、図12に示した表のうち、左端の列は、各行が示すケースに対応する具体的な記入内容画像の例を示すものであり、接触端点・クラス対応記憶部146には記憶されない。接触端点・クラス対応記憶部146に記憶されるのは、「端点と他図形との接触」と「認識に適用するクラス」(適用クラス)の欄の情報である。「端点と他図形との接触」の欄には、記入内容画像中の端点のうち他の画像オブジェクトと接触している端点の位置が登録される。接触している端点の位置は、当該端点の記入内容画像内での位置のことであり、例えば、その端点が記入内容画像の上下左右のどの側にあるのかのことである。
The contact end point / class
例えば、図12に示した表の左端の欄には、前処理部160から与えられる記入内容画像の例が示される。破線の矩形の内部の黒線の画像が記入内容画像である。1番上の行に示される例では、手書きの丸印全体が記入内容画像として切り出されている。この画像には、下方に2つの端点が存在するが、そのどちらも、他の画像オブジェクト(これは原本画像30から求めておけばよい)とは接触していない。ここで、記入内容画像が他の画像オブジェクトに部分的に隠された場合は、記入内容画像にそのオブジェクトと接触する端点が存在するはずである。したがって、逆に言えば、図12の1番上の行の記入内容画像は、他の画像オブジェクトで隠されていないことになる。このような場合は、図12の表の右端の欄に示すように、各カテゴリの文字の基本形(欠落が一切ない状態)のクラスのみを適用クラスとすればよい。
For example, the leftmost column of the table shown in FIG. 12 shows an example of the entry content image given from the
一方、図12の2番目の行の例では、前処理部160から与えられた記入内容画像は4つの端点を持っている。ここで、その記入内容画像の外接矩形(図中の破線矩形)の上方に画像オブジェクトがあり(図12の表の中央欄の2行目を参照)、上方の2つの端点の位置がそのオブジェクトの領域に接していることが分かれば、それら2つの端点が端点抽出部180により抽出されることになる。この場合、それら2つの端点が当該記入内容画像における上方の端点であること、別観点からいえばその記入内容画像と重複する画像オブジェクトがその画像の外接矩形の上方にあること、が分かる。このように、記入内容画像の上方が隠されていることが分かるので、この場合、適用クラスには、各カテゴリについて、基本形のクラスに加え、上方が隠された状態に対応するクラスが追加されることになる。例えば、丸印のカテゴリについては、上部が欠けた円弧や、上部が欠けた半円形(端点接続が成されてしまう場合を考慮したもの)等のクラスが追加される。
On the other hand, in the example of the second row in FIG. 12, the entry content image given from the
適用クラス判定部186が判定した適用クラスはパターン認識部116に供給される。
The application class determined by the application
パターン認識部116及びカテゴリ判定部118は、図10の例における対応要素と同様の処理を行えばよい。
The
以上、本発明の実施形態を説明した。 The embodiments of the present invention have been described above.
記入内容画像のパターン認識に当たって他の画像オブジェクトにより起こり得る部分的な画像の欠落のケースをすべて考慮したのでは誤認識の可能性が高くなる。これに対し、本実施形態では、記入内容画像(又はそれが記入される記入欄)と周囲近傍の画像オブジェクトの位置関係に基づき、考慮すべきケースを絞り込んでいるので、誤認識の可能性を低減することができる。 In the case of pattern recognition of an entry content image, the possibility of misrecognition increases if all the cases of partial image loss that may occur due to other image objects are considered. On the other hand, in the present embodiment, the cases to be considered are narrowed down based on the positional relationship between the entry content image (or the entry field in which it is entered) and the surrounding image object, so that there is a possibility of erroneous recognition. Can be reduced.
以上に説明した各システムは、例えば、汎用のコンピュータに上述の各機能モジュールの処理を表すプログラムを実行させることにより実現される。ここで、コンピュータは、例えば、ハードウエアとして、図13に示すように、CPU1000等のマイクロプロセッサ、ランダムアクセスメモリ(RAM)1002およびリードオンリメモリ(ROM)1004等のメモリ(一次記憶)、HDD(ハードディスクドライブ)1006を制御するHDDコントローラ1008、各種I/O(入出力)インタフェース1010、ローカルエリアネットワークなどのネットワークとの接続のための制御を行うネットワークインタフェース1012等が、たとえばバス1014を介して接続された回路構成を有する。また、そのバス1014に対し、例えばI/Oインタフェース1010経由で、CDやDVDなどの可搬型ディスク記録媒体に対する読み取り及び/又は書き込みのためのディスクドライブ1016、フラッシュメモリなどの各種規格の可搬型の不揮発性記録媒体に対する読み取り及び/又は書き込みのためのメモリリーダライタ1018、などが接続されてもよい。上に例示した各機能モジュールの処理内容が記述されたプログラムがCDやDVD等の記録媒体を経由して、又はネットワーク等の通信手段経由で、ハードディスクドライブ等の固定記憶装置に保存され、コンピュータにインストールされる。固定記憶装置に記憶されたプログラムがRAM1002に読み出されCPU1000等のマイクロプロセッサにより実行されることにより、上に例示した機能モジュール群が実現される。なお、それら機能モジュール群のうちの一部又は全部を、専用LSI(Large Scale Integration)、ASIC(Application Specific Integrated Circuit、特定用途向け集積回路)又はFPGA(Field Programmable Gate Array)等のハードウエア回路として構成してもよい。
Each system described above is realized, for example, by causing a general-purpose computer to execute a program representing the processing of each functional module described above. Here, for example, as shown in FIG. 13, the computer includes, as hardware, a microprocessor such as a
10 記入済み画像、102 記入抽出部、110 認識処理部、112 適用クラス判定部、114 判定情報記憶部、116 パターン認識部、118 カテゴリ判定部、120 認識辞書。
DESCRIPTION OF
Claims (4)
前記複数のカテゴリの各々について、前記候補記憶手段に記憶された当該カテゴリに対応する1以上のクラス候補の中から、記入欄と当該記入欄の周囲の画像要素との位置関係に基づき特定される1以上のクラスを、当該カテゴリについての判定に用いるべきクラスとして選択する選択手段と、
前記記入欄に対する記入の画像に対してパターン認識処理を実行することにより、前記選択手段が前記複数のカテゴリの各々について選択したクラスのなかから、前記記入欄に対する記入の画像が属するクラスを認識するパターン認識手段と、
前記パターン認識手段が認識したクラスに対応するカテゴリを前記候補記憶手段に基づき特定し、特定したカテゴリを前記記入欄に対する記入の画像が属するカテゴリとして出力する出力手段と、
を備える画像認識装置。 Candidate storage means for storing one or more class candidates corresponding to the category for each of the plurality of categories;
Each of the plurality of categories is specified based on the positional relationship between the entry field and the image elements around the entry field from among one or more class candidates corresponding to the category stored in the candidate storage unit. A selection means for selecting one or more classes as classes to be used in the determination for the category;
By executing pattern recognition processing on the image entered in the entry field, the class to which the entry image in the entry field belongs is recognized from the classes selected by the selection means for each of the plurality of categories. Pattern recognition means;
An output means for identifying a category corresponding to the class recognized by the pattern recognition means based on the candidate storage means, and outputting the identified category as a category to which an image of entry for the entry field belongs;
An image recognition apparatus comprising:
前記抽出手段により抽出された記入の画像の端点を検出する端点検出手段と、
を更に備え、
前記選択手段は、前記端点検出手段が検出した端点のいずれかと接触する1以上の画像要素を特定し、特定した1以上の画像要素と前記記入欄との位置関係に基づき前記判定に用いるべきクラスを選択する、
ことを特徴とする請求項1記載の画像認識装置。 Extraction means for extracting an image of entry for the entry field from the input image;
Endpoint detection means for detecting the endpoint of the image of the entry extracted by the extraction means;
Further comprising
The selection means identifies one or more image elements that are in contact with any of the end points detected by the end point detection means, and a class to be used for the determination based on the positional relationship between the specified one or more image elements and the entry field Select
The image recognition apparatus according to claim 1.
入力された対象画像から前記各記入欄に対する記入の画像を抽出する抽出手段と、
を更に備え、
前記選択手段は、前記抽出手段が抽出した前記各記入欄に対する記入の画像ごとに、当該記入欄についての判定に用いるクラスを前記記入欄情報記憶手段から求める、
ことを特徴とする請求項1記載の画像認識装置。 Of the class candidates stored in the candidate storage unit for each entry field of the standard document including one or more image elements and one or more entry fields and for each category, the image elements around the entry field and the Entry field information storage means for storing one or more classes identified based on the positional relationship with the entry field as a class used for determination of the entry field;
Extraction means for extracting an image of entry for each entry field from the input target image;
Further comprising
The selection means obtains, from the entry field information storage means, a class to be used for determination of the entry field for each entry image for each entry field extracted by the extraction unit.
The image recognition apparatus according to claim 1.
複数のカテゴリの各々について、当該カテゴリに対応する1以上のクラス候補を記憶する候補記憶手段と、
前記複数のカテゴリの各々について、前記候補記憶手段に記憶された当該カテゴリに対応する1以上のクラス候補の中から、記入欄と当該記入欄の周囲の画像要素との位置関係に基づき特定される1以上のクラスを、当該カテゴリについての判定に用いるべきクラスとして選択する選択手段、
前記記入欄に対する記入の画像に対してパターン認識処理を実行することにより、前記選択手段が前記複数のカテゴリの各々について選択したクラスのなかから、前記記入欄に対する記入の画像が属するクラスを認識するパターン認識手段、
前記パターン認識手段が認識したクラスに対応するカテゴリを前記候補記憶手段に基づき特定し、特定したカテゴリを前記記入欄に対する記入の画像が属するカテゴリとして出力する出力手段、
として機能させるためのプログラム。 Computer
Candidate storage means for storing one or more class candidates corresponding to the category for each of the plurality of categories;
Each of the plurality of categories is specified based on the positional relationship between the entry field and the image elements around the entry field from among one or more class candidates corresponding to the category stored in the candidate storage unit. A selection means for selecting one or more classes as classes to be used for determination of the category;
By executing pattern recognition processing on the image entered in the entry field, the class to which the entry image in the entry field belongs is recognized from the classes selected by the selection means for each of the plurality of categories. Pattern recognition means,
An output means for identifying a category corresponding to the class recognized by the pattern recognition means based on the candidate storage means, and outputting the identified category as a category to which an entry image for the entry field belongs;
Program to function as.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008067266A JP2009223612A (en) | 2008-03-17 | 2008-03-17 | Image recognition device and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008067266A JP2009223612A (en) | 2008-03-17 | 2008-03-17 | Image recognition device and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009223612A true JP2009223612A (en) | 2009-10-01 |
Family
ID=41240317
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008067266A Pending JP2009223612A (en) | 2008-03-17 | 2008-03-17 | Image recognition device and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2009223612A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012027908A (en) * | 2010-07-22 | 2012-02-09 | Sharp Corp | Visual processing device, visual processing method and visual processing system |
JP2014142955A (en) * | 2014-03-19 | 2014-08-07 | Kyocera Document Solutions Inc | Mark detection device |
US9094550B2 (en) | 2011-08-24 | 2015-07-28 | Kyocera Document Solutions Inc. | Mark detection apparatus and method for detecting mark |
JP2021086297A (en) * | 2019-11-26 | 2021-06-03 | 大日本印刷株式会社 | Information processing device, control method, and program |
-
2008
- 2008-03-17 JP JP2008067266A patent/JP2009223612A/en active Pending
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012027908A (en) * | 2010-07-22 | 2012-02-09 | Sharp Corp | Visual processing device, visual processing method and visual processing system |
US9094550B2 (en) | 2011-08-24 | 2015-07-28 | Kyocera Document Solutions Inc. | Mark detection apparatus and method for detecting mark |
JP2014142955A (en) * | 2014-03-19 | 2014-08-07 | Kyocera Document Solutions Inc | Mark detection device |
JP2021086297A (en) * | 2019-11-26 | 2021-06-03 | 大日本印刷株式会社 | Information processing device, control method, and program |
JP7342655B2 (en) | 2019-11-26 | 2023-09-12 | 大日本印刷株式会社 | Information processing device, control method and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111507251B (en) | Method and device for positioning answering area in test question image, electronic equipment and computer storage medium | |
US20200065601A1 (en) | Method and system for transforming handwritten text to digital ink | |
JP5500480B2 (en) | Form recognition device and form recognition method | |
EP0738987B1 (en) | Processing machine readable forms | |
JP3345224B2 (en) | Pattern extraction device, pattern re-recognition table creation device, and pattern recognition device | |
US7929769B2 (en) | Script recognition for ink notes | |
JP2008217347A (en) | License plate recognition device, its control method and computer program | |
JP6055297B2 (en) | Character recognition apparatus and method, and character recognition program | |
CN115457565A (en) | OCR character recognition method, electronic equipment and storage medium | |
JP2007179395A (en) | Medium processing apparatus, method and system, and computer readable recording medium for recording medium processing program | |
JP4834351B2 (en) | Character recognition device and character recognition method | |
JP2009223612A (en) | Image recognition device and program | |
CN106557733A (en) | Information processor and information processing method | |
CN111612045B (en) | Universal method for acquiring target detection data set | |
JP5041775B2 (en) | Character cutting method and character recognition device | |
EP4083850A1 (en) | Method for detecting fraud in documents | |
JP4518212B2 (en) | Image processing apparatus and program | |
JP7338159B2 (en) | Information processing device and program | |
JPH1063744A (en) | Method and system for analyzing layout of document | |
JP3476595B2 (en) | Image area division method and image binarization method | |
JP5619111B2 (en) | Image determination apparatus and program | |
JP7405528B2 (en) | Media discrimination device, medium discrimination system, and medium discrimination method | |
WO2023062799A1 (en) | Information processing system, manuscript type identification method, model generation method and program | |
JP6762451B2 (en) | Guide sign recognition device and guide sign recognition method | |
JP4819661B2 (en) | Direction determining apparatus, image processing apparatus, image direction determining method, and image direction determining program |