JP2003337941A - Device and method for image recognition, and program - Google Patents
Device and method for image recognition, and programInfo
- Publication number
- JP2003337941A JP2003337941A JP2002144911A JP2002144911A JP2003337941A JP 2003337941 A JP2003337941 A JP 2003337941A JP 2002144911 A JP2002144911 A JP 2002144911A JP 2002144911 A JP2002144911 A JP 2002144911A JP 2003337941 A JP2003337941 A JP 2003337941A
- Authority
- JP
- Japan
- Prior art keywords
- image
- dimensional code
- character
- pixel
- value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Character Input (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は、紙面などに表示さ
れた文字や2次元コード図形を読み取って認識する画像
認識装置と、その画像認識方法と、その方法を規定する
コンピュータ・プログラムに関し、特に、小型な装置で
の画像認識を可能にするものである。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image recognition apparatus for reading and recognizing a character or a two-dimensional code figure displayed on a paper surface, an image recognition method therefor, and a computer program defining the method, in particular. , Which enables image recognition with a small device.
【0002】[0002]
【従来の技術】紙面に印刷された2次元コードを読み取
る従来の画像認識装置は、特開平7−234915号公
報に記載されているように、2次元コード図形が印刷さ
れた紙面に光を当てて、2次元コード図形全体からの反
射光をCCDエリアセンサの受光面に集め、CCDエリ
アセンサが反射光内の光の強弱により2次元コード図形
の全体を読み取り、電気信号に変換するように構成され
ている。2. Description of the Related Art A conventional image recognition device for reading a two-dimensional code printed on a paper surface illuminates the paper surface on which a two-dimensional code figure is printed, as described in JP-A-7-234915. Then, the reflected light from the entire two-dimensional code figure is collected on the light receiving surface of the CCD area sensor, and the CCD area sensor reads the entire two-dimensional code figure according to the intensity of the light in the reflected light and converts it into an electric signal. Has been done.
【0003】また、CCDセンサで読み取られた2次元
コードの多値画像は、通常、白、黒の2値データに変換
する2値化処理が行われ、2値化した画像を用いて認識
処理が行われる。2値化処理の方法としては、一般的に
次の方式が用いられる。
画像全体の画素値をデータとするヒストグラムから最
も分離性の高い値をしきい値に用いて2値化を行う(判
別分析法)。
画像全体を小領域に分割し、小領域ごとにしきい値を
決定して2値化を行う(領域分割法)。A multi-valued image of a two-dimensional code read by a CCD sensor is usually subjected to a binarization process for converting it into binary data of white and black, and a recognition process is performed using the binarized image. Is done. The following method is generally used as the binarization method. Binarization is performed by using a threshold value having the highest separability from a histogram having pixel values of the entire image as data (discriminant analysis method). The entire image is divided into small regions, a threshold value is determined for each small region, and binarization is performed (region division method).
【0004】[0004]
【発明が解決しようとする課題】しかし、従来の2次元
コードの画像処理装置は、2次元コードの図形を一度に
撮影する構成を採用しているため、十分な光学距離が必
要であり、また、撮像素子としてCCDエリアセンサを
用いていることから、装置の大型化が避けられず、ま
た、コストも高くなると言う問題点がある。携帯電話等
の小型携帯端末に2次元コード認識機能を付加するため
には、装置の小型化及び低コスト化が必要である。ま
た、このような小型携帯端末に文字認識機能を追加する
ことにより様々なアプリケーション用途が広がる。ま
た、従来の2値化方式は、照度ムラが小さく、コントラ
ストが高い場合には、正確に2値化できるが、光源の輝
度ムラが大きかったり、外光による影響が大きかった
り、紙面に汚れが有ったりした場合には、正確に2値化
を行うことができない。However, since the conventional image processing apparatus for a two-dimensional code adopts a structure for photographing the figures of the two-dimensional code at one time, it requires a sufficient optical distance, and However, since the CCD area sensor is used as the image pickup element, there is a problem that the device is inevitably increased in size and the cost is increased. In order to add a two-dimensional code recognition function to a small mobile terminal such as a mobile phone, it is necessary to reduce the size and cost of the device. Also, by adding a character recognition function to such a small mobile terminal, various application applications are expanded. Further, the conventional binarization method can accurately perform binarization when the illuminance unevenness is small and the contrast is high, but the brightness unevenness of the light source is large, the influence of external light is large, and the paper surface is dirty. If there is, binarization cannot be performed accurately.
【0005】本発明は、こうした従来の問題点を解決す
るものであり、文字や画像を認識する装置の小型化及び
低コスト化を図ることができ、また、入力画像の2値化
を正確に行うことができる画像認識装置を提供し、ま
た、その画像認識方法とその方法を規定するコンピュー
タ・プログラムとを提供することを目的としている。The present invention solves the above-mentioned conventional problems, and can reduce the size and cost of a device for recognizing characters and images, and can accurately binarize an input image. It is an object of the present invention to provide an image recognition apparatus that can perform the image recognition, and also provide an image recognition method and a computer program that defines the method.
【0006】[0006]
【課題を解決するための手段】そこで、本発明では、画
像認識装置に、スキャンしながら紙面に表示された2次
元コードまたは文字を一部分ずつ順次読み取る画像入力
手段と、画像入力手段が読み取った2次元コードまたは
文字の部分画像を格納する画像データ記憶手段と、画像
データ記憶手段に格納された部分画像を合成して2次元
コードまたは文字の全体画像を生成する画像合成手段
と、画像合成手段が生成した全体画像の多値データを、
2次元コードまたは文字の部分の値とそれ以外の背景部
分の値とを違えた2値データに変換する2値化手段と、
2値化手段が生成した2値化データから2次元コードま
たは文字の部分のみを切り出す画像切出し手段と、画像
切出し手段が切り出した2次元コードをデコードする2
次元コード認識手段と、画像切出し手段が切り出した文
字を文字認識する文字認識手段と、2次元コード認識手
段がデコードした2次元コードで規定されている処理を
行う処理実行手段とを設けている。In view of the above, in the present invention, the image recognition device has an image input means for sequentially reading the two-dimensional code or the characters displayed on the paper while scanning, and an image input means for reading the two-dimensional code or characters. An image data storage means for storing a partial image of a dimensional code or a character, an image synthesizing means for synthesizing a partial image stored in the image data storage means to generate an entire image of a two-dimensional code or a character, and an image synthesizing means. Multi-valued data of the generated whole image,
Binarization means for converting the value of the two-dimensional code or character portion and the value of the other background portion into binary data different from each other,
An image cutting-out unit that cuts out only a two-dimensional code or a character portion from the binarized data generated by the binarizing unit, and decodes the two-dimensional code cut out by the image cutting unit.
The dimensional code recognition means, the character recognition means for recognizing the character cut out by the image cutout means, and the processing execution means for performing the processing defined by the two-dimensional code decoded by the two-dimensional code recognition means are provided.
【0007】また、本発明の画像認識方法では、紙面を
スキャンしながら紙面に表示された2次元コードまたは
文字を一部分ずつ順次読み取り、読み取った2次元コー
ドまたは文字の部分画像を一旦、画像データ記憶手段に
格納した後、合成して2次元コードまたは文字の全体画
像を生成し、生成した全体画像の多値データを、2次元
コードまたは文字の部分の値とそれ以外の背景部分の値
とを違えた2値データに変換して2値化画像を生成し、
この2値化画像から2次元コードまたは文字の部分のみ
を切り出し、切り出した2次元コードをデコードし、切
り出した文字を文字認識し、デコードした2次元コード
で規定されている処理を行うようにしている。Further, in the image recognition method of the present invention, the two-dimensional code or character displayed on the paper is sequentially read part by part while scanning the paper, and the partial image of the read two-dimensional code or character is temporarily stored as image data. After storing in the means, the two-dimensional code or the whole image of the character is generated by synthesizing, and the multivalued data of the generated whole image is converted into the value of the two-dimensional code or the character and the value of the other background portion. Convert to different binary data to generate a binary image,
Only the two-dimensional code or character portion is cut out from this binarized image, the cut-out two-dimensional code is decoded, the cut-out character is recognized, and the processing specified by the decoded two-dimensional code is performed. There is.
【0008】また、本発明のコンピュータ・プログラム
は、コンピュータに、紙面をスキャンしながら紙面に表
示された2次元コードまたは文字を一部分ずつ順次読み
取る手順と、読み取った2次元コードまたは文字の部分
画像を一旦、画像データ記憶手段に格納する手順と、画
像データ記憶手段に格納した2次元コードまたは文字の
部分画像を合成して2次元コードまたは文字の全体画像
を生成する手順と、生成した全体画像の多値データを、
2次元コードまたは文字の部分の値とそれ以外の背景部
分の値とを違えた2値データに変換して2値化画像を生
成する手順と、この2値化画像から2次元コードまたは
文字の部分のみを切り出す手順と、切り出した2次元コ
ードをデコードする手順と、切り出した文字を文字認識
する手順と、デコードした2次元コードで規定されてい
る処理を行う手順とを実行させる。Further, the computer program of the present invention causes a computer to sequentially read the two-dimensional code or character displayed on the paper one by one while scanning the paper and a partial image of the read two-dimensional code or character. A procedure of once storing in the image data storage means, a procedure of synthesizing a partial image of the two-dimensional code or character stored in the image data storage means to generate an entire image of the two-dimensional code or character, Multivalued data
A procedure for generating a binarized image by converting the value of the two-dimensional code or character portion and the value of the other background portion into different binary data, and a procedure for generating a binarized image from this binarized image. A procedure of cutting out only the part, a step of decoding the cut out two-dimensional code, a step of recognizing the cut out character, and a step of performing the process defined by the decoded two-dimensional code are executed.
【0009】本発明では、部分的に画像を取得し、それ
を合成して全体画像を得ているため、光学系及び撮像セ
ンサの小型化が可能であり、装置の小型化・低コスト化
を図ることができる。また、紙面に表示された2次元コ
ードを読み取り、2次元コードで規定された処理を行う
ことができる。In the present invention, since the image is partially acquired and the whole image is obtained by synthesizing the images, the optical system and the image sensor can be downsized, and the size and cost of the device can be reduced. Can be planned. Further, it is possible to read the two-dimensional code displayed on the paper and perform the processing specified by the two-dimensional code.
【0010】[0010]
【発明の実施の形態】(第1の実施の形態)本発明の第
1の実施形態における画像認識装置は、図1に示すよう
に、紙面に印刷された2次元コードや文字をスキャンし
ながら、これらの画像の部分画像を順次取り込む光学式
読取部1と、光学式読取部1から入力する部分画像を一
時的に記憶する画像データ記憶部2と、画像データ記憶
部2に格納されている部分画像を合成して2次元コード
や文字の全体画像を生成する画像合成部3と、画像合成
部3で生成された全体画像の多値データを1または0の
2値データに変換する2値化部4と、2値化部4で得ら
れた画像の2値データから2次元コードまたは文字部分
のみを切り出すコード・文字切出し部5と、コード・文
字切出し部5が切り出した2次元コードに対してコード
種別を判定してデコードを行う2次元コード認識部6
と、コード・文字切出し部5が切り出した文字に対して
文字認識を行う文字認識部(OCR)7と、2次元コー
ド認識部6または文字認識部7の認識結果を出力する認
識結果出力部8と、認識結果出力部8から出力された認
識結果を基に必要とされる処理を自動的に行う処理実行
部9とを備えている。なお、各部の機能は、この装置が
内蔵するコンピュータ(CPU)にプログラムで規定し
た処理を行わせることにより実現することができる。BEST MODE FOR CARRYING OUT THE INVENTION (First Embodiment) As shown in FIG. 1, an image recognition apparatus according to a first embodiment of the present invention scans a two-dimensional code or a character printed on a paper surface. An optical reading unit 1 that sequentially takes in partial images of these images, an image data storage unit 2 that temporarily stores partial images input from the optical reading unit 1, and an image data storage unit 2 are stored. An image synthesizing unit 3 that synthesizes partial images to generate a two-dimensional code or an entire image of characters, and a binary value that converts multi-valued data of the entire image generated by the image synthesizing unit 3 into binary data of 1 or 0. A conversion unit 4, a code / character cutout unit 5 that cuts out only a two-dimensional code or a character part from the binary data of the image obtained by the binarization unit 4, and a two-dimensional code cut out by the code / character cutout unit 5. On the other hand, the code type is judged and the 2-dimensional code recognition unit 6 for over de
And a character recognition unit (OCR) 7 that performs character recognition on the characters cut out by the code / character cutout unit 5, and a recognition result output unit 8 that outputs the recognition result of the two-dimensional code recognition unit 6 or the character recognition unit 7. And a processing execution unit 9 that automatically performs necessary processing based on the recognition result output from the recognition result output unit 8. The functions of the respective units can be realized by causing a computer (CPU) incorporated in this apparatus to perform the processing specified by the program.
【0011】光学式読取部1は、図2に示すように、2
次元コードや文字が印刷された紙面15に対して均一に
光を照射する光源10と、光源10からの光及び紙面1
5からの反射光を伝搬する透明物質から成るファイバー
アレイプレート(FAP)12と、紙面15を接触させ
るためにFAP12の上面の一部分に設けた入力窓部1
6と、紙面15からの反射光を受光し電気信号に変換す
るイメージセンサ11とを備えている。As shown in FIG. 2, the optical reading unit 1 has two units.
A light source 10 that uniformly emits light onto a paper surface 15 on which a dimension code or characters are printed, and light from the light source 10 and the paper surface 1.
The input window portion 1 provided in a part of the upper surface of the FAP 12 for contacting the paper surface 15 with the fiber array plate (FAP) 12 made of a transparent material that propagates the reflected light from 5
6 and an image sensor 11 that receives the reflected light from the paper surface 15 and converts it into an electric signal.
【0012】光源10は照明用のLEDまたは半導体レ
ーザから成る。透明物質の光路を形成するFAP12
は、ガラスやプラスチック等の光学部品で代替すること
もできる。また、イメージセンサ11は、光を電気信号
に変換するCCDセンサやCMOSセンサ等である。光
源10からの光aは、紙面15の白部13に到達し、こ
こで反射された光量の強い光a’がイメージセンサ11
に到達する。また、光源10からの光bは、紙面15の
黒部14に到達し、一部の光が吸収されるため反射され
た光量の弱い光b’がイメージセンサ11に到達する。
この光の強弱を検出して紙面15の印刷物画像を得る。The light source 10 is composed of an LED or a semiconductor laser for illumination. FAP12 forming optical path of transparent material
Can be replaced by optical components such as glass and plastic. The image sensor 11 is, for example, a CCD sensor or a CMOS sensor that converts light into an electric signal. The light a from the light source 10 reaches the white portion 13 of the paper surface 15, and the light a ′ having a strong light amount reflected here is the image sensor 11.
To reach. Further, the light b from the light source 10 reaches the black portion 14 of the paper surface 15, and since a part of the light is absorbed, the light b ′ with a small reflected light amount reaches the image sensor 11.
The intensity of this light is detected to obtain a printed matter image on the paper surface 15.
【0013】この光学式読取部1は、光源10をアレイ状
にし、入力窓部16を読み取り対象物以上の十分なサイ
ズに設定し、イメージセンサ11も二次元の十分な受光
素子数を有する構成にすることで一度に対象物を読み取
ることも可能であるが、こうすると装置が大型化し、高
コストになる。そこで、入力窓部16を読み取り対象物
よりも小さい短冊状の小領域とし、光学式読取部1を対
象物に対して滑らせることで対象物の部分画像を順次取
得し、その部分画像を合成して対象物の全画像を得るよ
うに構成している。こうした構成により、光源10の光源
数とイメージセンサ11の受光素子数とを入力窓部16
の短冊状小領域の面積に対応した数に減らすことがで
き、また、必要となる光学距離も小さくできるため、装
置の小型化及び低コスト化が可能となる。In this optical reading unit 1, the light sources 10 are arrayed, the input window 16 is set to a size that is larger than the object to be read, and the image sensor 11 also has a sufficient number of two-dimensional light receiving elements. By doing so, it is possible to read the object at one time, but this increases the size of the device and increases the cost. Therefore, the input window section 16 is set as a small strip-shaped area smaller than the reading object, and the optical reading unit 1 is slid with respect to the object to sequentially acquire partial images of the object and synthesize the partial images. Then, the whole image of the object is obtained. With this configuration, the number of light sources of the light source 10 and the number of light receiving elements of the image sensor 11 are set to the input window section 16
Since the number can be reduced to the number corresponding to the area of the strip-shaped small region, and the required optical distance can be reduced, the size and cost of the device can be reduced.
【0014】画像データ記憶部2は、光学式読取部1の
イメージセンサ11で受光した読み取り対象物の部分画
像を記憶する。画像合成部3は、画像データ記憶部2に
順次記憶された部分画像から時系列の連続する2枚の部
分画像を取り出し、2枚の部分画像同士を重ね合わせる
マッチング処理を行う。これにより、2枚の部分画像の
位置ずれ量を検出して、2枚の部分画像から1枚の合成
画像を作成する。この処理を全部分画像に対して行い、
読み取り対象物の全体画像を生成する。The image data storage unit 2 stores a partial image of the reading object received by the image sensor 11 of the optical reading unit 1. The image synthesizing unit 3 extracts two time-sequential partial images from the partial images sequentially stored in the image data storage unit 2 and performs matching processing for superimposing the two partial images. As a result, the amount of positional deviation between the two partial images is detected, and one composite image is created from the two partial images. This process is performed for all partial images,
An entire image of the read object is generated.
【0015】2値化部4は、画像合成部3で生成した読
み取り対象物の全体画像の多値データからコード部分ま
たは文字部分を1、それ以外の背景部分を0にする2値
データへの変換を行う。コード・文字切出し部5は、2
値化部4で作成した読み取り対象物の2値化画像から2
次元コードまたは文字の存在している包含領域の検出を
行う。この検出処理は、画像の垂直方向及び水平方向の
ヒストグラムを取得し、両方向の黒画素存在範囲を検出
することで簡単に求めることが可能である。2次元コー
ド認識部6は、読み取り対象物が2次元コードの場合
に、コード・文字切出し部5で検出した2次元コード存
在領域の2値画像を入力してコードの種類を判定し、デ
コード処理を行う。文字認識部7は、読み取り対象物が
文字の場合に、コード・文字切出し部5で検出した文字
存在領域の2値画像を入力して1文字毎の文字を切り出
し、文字認識処理を行う。認識結果出力部8は、2次元
コード認識部6で処理したコードのデコード結果または
文字認識部7で処理した文字認識結果をディスプレイ等
の表示装置に表示する。The binarizing unit 4 converts the multivalued data of the entire image of the read object generated by the image synthesizing unit 3 into binary data in which the code portion or the character portion is 1 and the other background portions are 0. Do the conversion. The code / character cutout unit 5 is 2
2 from the binarized image of the reading object created by the binarization unit 4.
The inclusion area where the dimension code or the character exists is detected. This detection processing can be easily obtained by acquiring the vertical and horizontal histograms of the image and detecting the black pixel existence range in both directions. When the object to be read is a two-dimensional code, the two-dimensional code recognition unit 6 inputs the binary image of the two-dimensional code existing area detected by the code / character cutout unit 5, determines the type of the code, and performs a decoding process. I do. When the object to be read is a character, the character recognition unit 7 inputs the binary image of the character existing area detected by the code / character cutout unit 5, cuts out each character, and performs character recognition processing. The recognition result output unit 8 displays the decoding result of the code processed by the two-dimensional code recognition unit 6 or the character recognition result processed by the character recognition unit 7 on a display device such as a display.
【0016】処理実行部9は、認識結果出力部8で出力
された結果に応じて必要とされる処理を行う。例えば、
2次元コードまたは文字認識による認識結果がURL
アドレスであった場合は、そのホームページに自動接続
する。
2次元コードまたは文字認識による認識結果が電話番
号、FAX番号またはメールアドレスであった場合は、
それらをアドレス帳に登録する。
2次元コードまたは文字認識による認識結果が電話番
号、FAX番号またはメールアドレスであった場合は、
通信を開始する。等の処理を実行する。The process execution unit 9 performs a process required according to the result output by the recognition result output unit 8. For example, the recognition result by two-dimensional code or character recognition is URL
If it is an address, it will automatically connect to the home page. If the recognition result by the two-dimensional code or character recognition is a telephone number, FAX number or email address,
Register them in the address book. If the recognition result by the two-dimensional code or character recognition is a telephone number, FAX number or email address,
Start communication. And so on.
【0017】このように、2次元コード及び文字の認識
が可能なこの画像認識装置は、部分画像を取得・合成し
て全体画像を生成しているため、光学系及び撮像センサ
の小型化が可能になり、低コスト化を図ることができ
る。また、この画像認識装置は、2次元コードや文字の
認識結果に基づいて、電話番号やアドレスなどを登録し
たり、通信を開始したりすることができる。As described above, since the image recognition apparatus capable of recognizing the two-dimensional code and the characters acquires and synthesizes the partial images to generate the entire image, the optical system and the image sensor can be downsized. Therefore, the cost can be reduced. Further, this image recognition device can register a telephone number, an address, etc., or start communication based on the recognition result of the two-dimensional code or the character.
【0018】この装置の画像合成部3、2値化部4、コ
ード・文字切出し部5及び処理実行部9の詳しい動作に
ついて以下の実施形態で説明する。Detailed operations of the image synthesizing unit 3, the binarizing unit 4, the code / character cutting unit 5, and the process executing unit 9 of this apparatus will be described in the following embodiments.
【0019】(第2の実施の形態)本発明の第2の実施
形態では、画像合成部3における処理量削減及び処理高
速化を図るための処理について説明する。図3は、時系
列上で連続する2枚のフレーム画像の合成処理について
説明する図である。時系列上で連続する2枚の画像の
内、先に取得した画像を前フレーム画像20、後から取
得した画像を現フレーム画像21とする。画像合成を行
うためには、前フレーム画像20と現フレーム画像21
とを重ね合わせて、2つの画像が重なる重複領域22に
おける各画素の差分平均値を算出する。この処理は、前
フレーム画像20を基準として、現フレーム画像21を
装置のスキャン方向に1画素ずつずらして行う。そし
て、最も差分平均値の低い、2つの画像のずれ量が少な
い位置を検出し、この位置で2つの画像を合成する。(Second Embodiment) In the second embodiment of the present invention, processing for reducing the processing amount and speeding up the processing in the image synthesizing unit 3 will be described. FIG. 3 is a diagram for explaining a synthesizing process of two frame images that are continuous in time series. Of the two continuous images in time series, the image acquired first is the previous frame image 20, and the image acquired later is the current frame image 21. In order to perform image combination, the previous frame image 20 and the current frame image 21
And are overlapped with each other to calculate a difference average value of each pixel in the overlapping area 22 where the two images overlap. This process is performed by shifting the current frame image 21 by one pixel in the scanning direction of the apparatus with the previous frame image 20 as a reference. Then, the position where the difference amount between the two images having the lowest difference average value is small is detected, and the two images are combined at this position.
【0020】しかし、差分平均値の算出は、重複領域2
2のすべての画素をサンプルとして計算すると膨大な処
理計算と処理時間とが必要になる。そのため、このよう
な場合、重複領域22の画素をサンプリングし、計算対
象の画素の数を絞ることが一般的に行われている。図4
は、一般的に行われているサンプル取得の例である。黒
四角のサンプル26は差分計算を行う画素を表してお
り、この場合は、スキャン方向に2画素置き、スキャン
方向に対して垂直な方向に8画素置きにサンプル26を
設定している。このようなサンプリングを行うと、重複
領域22のすべての画素をサンプルに取り込む場合と比
べて、サンプル数は約16分の1に減少し、処理量及び
処理時間もそれに比例して削減できる。However, the calculation of the average difference value is performed in the overlapping area 2
If all the pixels of 2 are calculated as samples, enormous processing calculation and processing time are required. Therefore, in such a case, it is general to sample the pixels in the overlapping region 22 and reduce the number of pixels to be calculated. Figure 4
Is an example of a commonly used sample acquisition. Black square samples 26 represent pixels for which the difference calculation is performed. In this case, samples 26 are set every two pixels in the scanning direction and every eight pixels in the direction perpendicular to the scanning direction. When such sampling is performed, the number of samples is reduced to about 1/16 as compared with the case where all the pixels in the overlapping area 22 are taken into the sample, and the processing amount and the processing time can be proportionally reduced.
【0021】次に、本発明の実施形態におけるサンプル
取得の例を示す。図5は、この実施形態の画像合成部3
が行う、効率化したサンプル取得を示す図である。差分
計算時に前フレーム画像27と現フレーム画像28との
重複領域29の画素数が十分大きい場合は、重複領域2
9をサンプル取得領域31とサンプル非取得領域32と
に分割し、サンプル取得領域31の画素からサンプル取
得を行う。なお、サンプル取得領域31は、重複領域2
9における現フレーム画像28の端部側に設定する。Next, an example of sample acquisition in the embodiment of the present invention will be described. FIG. 5 shows the image composition unit 3 of this embodiment.
It is a figure which shows the efficient sample acquisition which is performed by. If the number of pixels in the overlapping area 29 between the previous frame image 27 and the current frame image 28 is sufficiently large when the difference is calculated, the overlapping area 2
9 is divided into a sample acquisition region 31 and a sample non-acquisition region 32, and samples are acquired from the pixels of the sample acquisition region 31. The sample acquisition area 31 is the overlap area 2
It is set on the end side of the current frame image 28 in FIG.
【0022】また、サンプルは、スキャン方向に対する
垂直方向のライン上には数画素置きに設定し、また、ス
キャン方向の数画素置きのライン上には、垂直方向に数
画素ずらして設定する。図5の例では、サンプル取得領
域31を重複領域29の上部8ラインに設定し、黒四角
のサンプル30は、スキャン方向に対する垂直方向には
8画素置きに設定し、スキャン方向には、2画素置き
に、垂直方向に2画素ずらして設定している。こうする
ことにより、図4のサンプル取得と比較してサンプル数
を減らすことができ、サンプルを分散させることで図4
の場合と同程度の画像合成精度を保ちながら、処理量を
削減し、処理の高速化を図ることができる。The sample is set every few pixels on a line in the vertical direction with respect to the scanning direction, and on the line every several pixels in the scanning direction, it is set by shifting a few pixels in the vertical direction. In the example of FIG. 5, the sample acquisition area 31 is set on the upper 8 lines of the overlapping area 29, and the black square samples 30 are set at every 8 pixels in the direction perpendicular to the scanning direction and 2 pixels in the scanning direction. On the other hand, it is set by shifting two pixels in the vertical direction. By doing so, the number of samples can be reduced as compared to the sample acquisition of FIG.
It is possible to reduce the amount of processing and speed up the processing while maintaining the same degree of image synthesis accuracy as in the above case.
【0023】画像合成部3は、こうして2枚の部分画像
から1枚の合成画像を作成する。そして、その合成画像
と光学式読取部1が次に読み取った部分画像とを合成
し、この処理を光学式読取部1が読み取る全ての部分画
像に対して行うことにより、読み取り対象物の全体画像
を生成する。The image synthesizing unit 3 thus creates one synthetic image from the two partial images. Then, the combined image and the partial image read next by the optical reading unit 1 are combined, and this processing is performed on all the partial images read by the optical reading unit 1 to obtain the entire image of the read object. To generate.
【0024】これにより、この実施形態の画像認識装置
は、部分画像を取得して全体画像を合成する方式であり
ながら、処理量を削減し、高速化を図ることができる。As a result, the image recognition apparatus of this embodiment is capable of reducing the processing amount and increasing the speed, even though it is a method of obtaining partial images and synthesizing the entire image.
【0025】(第3の実施の形態)本発明の第3の実施
形態では、2値化部4において、光源の輝度ムラが大き
い場合や外光による影響が大きい場合、あるいは紙面に
汚れがある場合でも、コードや文字を正確に2値化する
ための方法について説明する。(Third Embodiment) In the third embodiment of the present invention, in the binarization unit 4, when the luminance unevenness of the light source is large, the influence of external light is large, or the paper surface is dirty. Even in the case, a method for accurately binarizing a code or a character will be described.
【0026】図15は、この2値化部4の処理フローを
示している。なお、処理フローを示す図面では、“ステ
ップ”を“S”で示している。2値化部4は、画像合成
部3から出力された画像の輝度多値データを基に、この
画像を2値化するためのしきい値(判別分析法での2値
化しきい値)となる最も分離性の高い輝度値を算出する
(ステップ110)。具体的には、図6に示すように、
入力画像の輝度ヒストグラムから背景部分の山とコード
または文字の山とを分離する輝度値を算出し、これを判
別分析2値化しきい値mとする。この算出は、判別分析
法の数式(本説明では省略)で簡単に求めることが可能
である。FIG. 15 shows a processing flow of the binarizing unit 4. In the drawings showing the processing flow, “step” is indicated by “S”. The binarization unit 4 uses a threshold value (binarization threshold value in the discriminant analysis method) for binarizing this image based on the brightness multivalue data of the image output from the image synthesizing unit 3. Then, the luminance value having the highest separability is calculated (step 110). Specifically, as shown in FIG.
A luminance value that separates the mountain of the background portion from the mountain of the code or the character is calculated from the luminance histogram of the input image, and this is used as the discriminant analysis binarization threshold value m. This calculation can be easily obtained by a mathematical formula of the discriminant analysis method (omitted in this description).
【0027】次に、入力画像の輝度多値データが記憶さ
れているメモリの先頭アドレスをaddrに格納する
(ステップ111)。addrが入力画像の輝度多値デ
ータが格納されているメモリの最終アドレスを示してい
るかどうかを判定し(ステップ112)、最終アドレス
に達していない場合は、平均輝度の算出に移行する(ス
テップ113)。平均輝度の算出は、図8に示すよう
に、addrに格納されている注目画素を中心として、
周辺7×7画素の平均輝度値aを算出する。Next, the start address of the memory in which the multi-valued luminance data of the input image is stored is stored in addr (step 111). It is determined whether addr indicates the final address of the memory in which the brightness multi-valued data of the input image is stored (step 112). If the final address has not been reached, the process proceeds to the calculation of average brightness (step 113). ). As shown in FIG. 8, the average luminance is calculated by focusing on the pixel of interest stored in addr.
The average luminance value a of the peripheral 7 × 7 pixels is calculated.
【0028】次に、あらかじめ設定した平均輝度値aと
オフセット値oとの関数に基づいて、平均輝度値aから
オフセット値oを算出する(ステップ114)。図7に
は、平均輝度値aとオフセット値oとが比例関係にあ
り、“(平均輝度値,オフセット値)=(判別分析2値
化しきい値m,0)を通る直線”で関数化する例をして
いる。オフセット値oは平均輝度値aの関数であるた
め、以後オフセット値をo(a)と表記する。Next, the offset value o is calculated from the average brightness value a based on the preset function of the average brightness value a and the offset value o (step 114). In FIG. 7, the average brightness value a and the offset value o are in a proportional relationship, and are functionalized by “(a straight line passing through the average brightness value, offset value) = (discriminant analysis binarization threshold value m, 0)”. I have an example. Since the offset value o is a function of the average brightness value a, the offset value will be referred to as o (a) hereinafter.
【0029】次に、ステップ113で算出した輝度平均
値aとステップ114で算出したオフセット値o(a)と
を用いて、注目画素の2値判定を行う(ステップ11
5)。注目画素の輝度値をpとすると、p≦a−o(a)
の場合は注目画素を黒画素に2値化する(ステップ11
6)。また、p>a−o(a)の場合は、注目画素を白画
素に2値化する(ステップ117)。addrに1を加
算して輝度多値データが格納されているメモリのアドレ
スを1進める(ステップ118)。この処理をすべての
入力画像の画素に対して行い、ステップ112でadd
rが最終アドレスに到達するまで繰り返す。Next, using the brightness average value a calculated in step 113 and the offset value o (a) calculated in step 114, binary determination of the pixel of interest is performed (step 11).
5). If the luminance value of the pixel of interest is p, p ≦ a−o (a)
In the case of, the pixel of interest is binarized into a black pixel (step 11).
6). If p> a-o (a), the pixel of interest is binarized into a white pixel (step 117). 1 is added to addr to advance the address of the memory in which the multi-valued luminance data is stored by 1 (step 118). This process is performed for all the pixels of the input image, and at step 112 add
Repeat until r reaches the final address.
【0030】ここで、オフセット値の役割を説明する。
オフセット値を設定せず、領域分割法により、7×7画
素の平均輝度をしきい値として2値化を行った場合に
は、平均輝度を求める領域が7×7画素程度の微小領域
なため、輝度変化の少ない背景部分では僅かな輝度変化
でも白と黒の判定が混在して安定した2値化画像が得ら
れない。そこで、図7に示すオフセット値を導入するこ
とで平均輝度が小さい場合は黒画素になり易く(即ち、
平均輝度aがmより小さい場合は、o(a)が負となるた
め、(a−o(a))がaより大きくなり、注目画素の輝
度値pは、p≦a−o(a)となり易い)、また、平均輝
度が大きい場合は白画素になり易くしている(即ち、平
均輝度aがmより大きい場合は、o(a)が正となるた
め、(a−o(a))がaより小さくなり、注目画素の輝
度値pは、p>a−o(a)となり易い)。Here, the role of the offset value will be described.
When the binarization is performed by setting the average brightness of 7 × 7 pixels as a threshold value by the area division method without setting the offset value, the area for which the average brightness is obtained is a minute area of about 7 × 7 pixels. However, in the background portion where the luminance change is small, even if the luminance change is small, white and black judgments are mixed and a stable binarized image cannot be obtained. Therefore, by introducing the offset value shown in FIG. 7, black pixels are likely to be formed when the average luminance is small (that is,
When the average brightness a is smaller than m, o (a) becomes negative, and therefore (a-o (a)) becomes larger than a, and the brightness value p of the pixel of interest is p≤a-o (a). In addition, when the average luminance is large, white pixels are easily formed (that is, when the average luminance a is larger than m, o (a) becomes positive, and therefore (a−o (a) ) Is smaller than a, and the luminance value p of the pixel of interest tends to be p> a-o (a)).
【0031】その結果、光源の輝度ムラが大きい場合や
外光による影響が大きい場合、あるいは紙面に汚れがあ
る場合でも、コードや文字の部分と背景とを正確に分け
る2値化を行うことができる。なお、ここでは、注目画
素を中心とする周辺7×7画素の平均輝度値を算出して
いるが、周辺画素数はそれ以外の数に設定しても良い。As a result, even when the unevenness of the brightness of the light source is large, the influence of the external light is large, or the paper surface is dirty, the binarization can be performed to accurately separate the code or character portion from the background. it can. Although the average luminance value of the peripheral 7 × 7 pixels centering on the pixel of interest is calculated here, the number of peripheral pixels may be set to a different number.
【0032】(第4の実施の形態)本発明の第4の実施
形態では、印刷物から切り出す対象物が2次元コードで
あるか文字であるかを自動的に判定するコード・文字切
出し部5の処理について説明する。(Fourth Embodiment) In the fourth embodiment of the present invention, a code / character cutout unit 5 for automatically determining whether an object to be cut out from a printed matter is a two-dimensional code or a character. The processing will be described.
【0033】図16は、本発明の印刷種別判定方法を説
明する処理フローである。コード・文字切出し部5は、
2値化部4から出力された2値化画像に対して、水平方
向の射影を取り、黒画素数のヒストグラム(垂直方向ヒ
ストグラム)を算出する(ステップ120)。図9の2
次元コード(QRコード)の場合は、図10のようなヒ
ストグラムが取得される。また、図12の文字の場合
は、図13のようなヒストグラムが取得される。次い
で、2値化部4から出力された2値化画像に対して垂直
方向の射影をとり、黒画素数のヒストグラム(水平方向
ヒストグラム)を算出する(ステップ121)。図9の
2次元コード(QRコード)の場合は、図11のような
ヒストグラムが取得される。また、図12の文字の場合
は、図14のようなヒストグラムが取得される。FIG. 16 is a processing flow for explaining the printing type determining method of the present invention. The code / character cutout unit 5
The binary image output from the binarizing unit 4 is projected in the horizontal direction to calculate a histogram of the number of black pixels (vertical histogram) (step 120). 2 of FIG.
In the case of the dimension code (QR code), a histogram as shown in FIG. 10 is acquired. Further, in the case of the characters in FIG. 12, a histogram as shown in FIG. 13 is acquired. Next, the binary image output from the binarizing unit 4 is projected in the vertical direction to calculate a histogram of the number of black pixels (horizontal direction histogram) (step 121). In the case of the two-dimensional code (QR code) of FIG. 9, a histogram as shown in FIG. 11 is acquired. Further, in the case of the characters in FIG. 12, a histogram as shown in FIG. 14 is acquired.
【0034】次に、垂直方向ヒストグラムから黒画素の
山の数vnを検出し(ステップ122)、水平方向ヒス
トグラムから黒画素の山の数hnを検出する(ステップ
123)。山の検出は黒画素数1以上の連続した塊を検
出することで求められる。図10、図11及び図13の
ヒストグラムにおける山の塊は1であり、図14のヒス
トグラムにおける山の塊は30である。Next, the number vn of black pixel peaks is detected from the vertical histogram (step 122), and the number hn of black pixel peaks is detected from the horizontal histogram (step 123). The detection of a mountain is obtained by detecting a continuous block having one or more black pixels. The number of mountain clusters in the histograms of FIGS. 10, 11 and 13 is 1, and the number of mountain clusters in the histograms of FIG. 14 is 30.
【0035】次に、ステップ122で検出した山数vn
と、ステップ123で検出した山数hnとを用い、vn
×hnを評価値として、文字か2次元コードかを識別す
る(ステップ124)。vn×hnが予め定めたしきい
値よりも小さい場合は、2次元コードと判定して、2次
元コード認識処理に移り(ステップ125)、予め定め
たしきい値よりも大きい場合は、文字と判定して文字認
識処理に移る(ステップ126)。Next, the number of peaks vn detected in step 122
And the number of mountains hn detected in step 123,
Using xhn as an evaluation value, it is identified whether it is a character or a two-dimensional code (step 124). If vn × hn is smaller than a predetermined threshold value, it is determined to be a two-dimensional code and the two-dimensional code recognition process is performed (step 125). If it is larger than the predetermined threshold value, a character is detected. The determination is made and the process proceeds to the character recognition process (step 126).
【0036】具体例として、図9の2次元コードの場合
は、vn=1、hn=1となり、vn×hn=1とな
る。図12の文字の場合は、vn=1、hn=30とな
り、vn×hn=30となる。しきい値を4としたと
き、図9の場合は2次元コードであり、図12の場合は
文字であると判定できる。また、文字列が傾斜して画像
取得されることを考慮する場合は、ヒストグラムからの
山の検出を黒画素数頻度の0の位置で検出せず、想定さ
れる傾斜角に応じて黒画素数頻度の高い位置で検出する
ことで判定が可能となる。As a concrete example, in the case of the two-dimensional code shown in FIG. 9, vn = 1 and hn = 1, and vn × hn = 1. In the case of the characters in FIG. 12, vn = 1, hn = 30, and vn × hn = 30. When the threshold value is 4, it can be determined that it is a two-dimensional code in the case of FIG. 9 and a character in the case of FIG. Further, when considering that the image is acquired with the character string inclined, the detection of the mountain from the histogram is not detected at the position of 0 of the black pixel number frequency, and the black pixel number is determined according to the assumed inclination angle. The determination can be made by detecting the position at a high frequency.
【0037】この方法は、2次元コードの特徴となる切
出しコードを画像全体から検出してコードの存在を判定
する方法と比較して、処理量が少なく、高速で判定する
ことが可能である。これにより、ユーザ自身が認識対象
物を選択する煩わしい手順が不要になり、画像認識装置
の操作性が向上する。This method has a smaller processing amount and can be judged at high speed, as compared with the method of judging the existence of the code by detecting the cut-out code which is the characteristic of the two-dimensional code from the entire image. This eliminates the troublesome procedure for the user to select the recognition target, and improves the operability of the image recognition device.
【0038】(第5の実施の形態)本発明の第5の実施
形態では、処理実行部9の処理について説明する。ま
ず、事前の準備として、図18に示すように、画像認識
する本来の情報データを記載した情報データ部41に、
処理実行部9への動作命令の処理種別を表す処理種別デ
ータを記載した処理種別データ部40を付加し、情報デ
ータと処理種別データとの結合データ42を作成して、
この結合データ42を2次元コードにエンコードする。
また、処理実行部9で実行する動作命令と処理種別デー
タとの対応もあらかじめ定めておく。(Fifth Embodiment) In the fifth embodiment of the present invention, the processing of the processing execution unit 9 will be described. First, as a preliminary preparation, as shown in FIG. 18, in the information data section 41 in which original information data for image recognition is described,
A processing type data section 40 in which processing type data representing a processing type of an operation command to the processing execution unit 9 is described is added, and combined data 42 of information data and processing type data is created,
This combined data 42 is encoded into a two-dimensional code.
Further, the correspondence between the operation command executed by the process execution unit 9 and the process type data is also determined in advance.
【0039】図17は、この2次元コードを読み取る画
像認識装置の処理フローを示している。結合データがエ
ンコードされた2次元コードを光学式読取部1が読み取
ると、2次元コード認識部6はデコードを行い、結合デ
ータを復元する(ステップ130)。復元された結合デ
ータは、認識結果出力部8から処理実行部9に出力され
る。処理実行部9は、結合データから処理種別データを
取り出し(ステップ131)、処理種別データに対応し
た動作命令を実行する(ステップ132)。FIG. 17 shows a processing flow of the image recognition apparatus for reading this two-dimensional code. When the optical reading unit 1 reads the two-dimensional code in which the combined data is encoded, the two-dimensional code recognition unit 6 decodes it to restore the combined data (step 130). The restored combined data is output from the recognition result output unit 8 to the process execution unit 9. The process execution unit 9 extracts the process type data from the combined data (step 131), and executes the operation command corresponding to the process type data (step 132).
【0040】次に、図18の具体例を用いて説明する。
ここでは光学式画像認識装置が携帯電話等の小型携帯端
末に設けられており、小型携帯端末が2次元コード認識
機能を有している場合について説明する。結合データ4
2の情報データ部41には、本来の情報データであるU
RL、メールアドレス、電話番号等のデータを格納す
る。また、結合データ42の処理種別データ部40に
は、処理実行部9での処理を指定する次のような処理種
別データを格納する。
URLに自動的に接続する処理を行う場合→データ:
1
URLを登録する処理を行う場合→データ:2
メールアドレスを登録する処理を行う場合→データ:
3
電話番号を登録する処理を行う場合→データ:4
電話番号に発信する処理を行う場合→データ:5
処理実行部9は、復元された結合データ42の処理種別
データ部40に処理種別データ1が格納され、情報デー
タ部41にURLが格納されている場合には、そのUR
Lへの接続及びホームページの画面表示処理を自動的に
行う。Next, description will be given using a specific example of FIG.
Here, the case where the optical image recognition device is provided in a small mobile terminal such as a mobile phone and the small mobile terminal has a two-dimensional code recognition function will be described. Combined data 4
In the second information data section 41, U which is the original information data
Stores data such as RL, mail address, and telephone number. Further, the processing type data section 40 of the combined data 42 stores the following processing type data designating the processing in the processing executing section 9. When performing the process of automatically connecting to the URL → Data:
1 When registering a URL → Data: 2 When registering an email address → Data:
3 When processing to register a telephone number → Data: 4 When processing to call a telephone number → Data: 5 The processing execution unit 9 stores the processing type data 1 in the processing type data unit 40 of the restored combined data 42. Is stored, and the URL is stored in the information data section 41, the UR
Automatically connect to L and display screen of home page.
【0041】また、復元された結合データ42の処理種
別データ部40に処理種別データ2が格納され、情報デ
ータ部41にURLが格納されている場合には、そのU
RLを小型携帯端末のアドレス帳に登録する。また、復
元された結合データ42の処理種別データ部40に処理
種別データ3が格納され、情報データ部41にメールア
ドレスが格納されている場合には、そのメールアドレス
を小型携帯端末のメールアドレス帳に登録する。また、
復元された結合データ42の処理種別データ部40に処
理種別データ4が格納され、情報データ部41に電話番
号が格納されている場合には、その電話番号を小型携帯
端末の電話帳に登録する。また、復元された結合データ
42の処理種別データ部40に処理種別データ5が格納
され、情報データ部41に電話番号が格納されている場
合には、その電話番号への発信を自動的に行う。When the process type data 2 is stored in the process type data section 40 of the restored combined data 42 and the URL is stored in the information data section 41, the U
Register the RL in the address book of the small mobile terminal. Further, when the processing type data part 40 of the restored combined data 42 stores the processing type data 3 and the information data part 41 stores the mail address, the mail address is stored in the mail address book of the small portable terminal. Register with. Also,
If the processing type data section 40 of the restored combined data 42 stores the processing type data 4 and the information data section 41 stores the telephone number, the telephone number is registered in the telephone directory of the small portable terminal. . Further, when the processing type data section 40 of the restored combined data 42 stores the processing type data 5 and the information data section 41 stores the telephone number, the telephone number is automatically transmitted. .
【0042】このように、携帯電話等の小型携帯端末に
2次元コード認識機能を持たせることにより、動作命令
の処理種別データを含む結合データの2次元コードを読
み取らせて、小型携帯端末に各種の処理を自動的に行わ
せることができる。そのため、ユーザは、各種処理を実
行するための煩わしい操作が省略でき、小型携帯端末の
操作性の向上を図ることができる。なお、本発明の画像
認識装置の動作を規定するコンピュータ・プログラム
は、記録媒体に記録し、この記録媒体を通じて他の画像
認識装置にムーブ(移動)することができる。As described above, by providing a small mobile terminal such as a mobile phone with a two-dimensional code recognition function, the two-dimensional code of the combined data including the processing type data of the operation command can be read and various small mobile terminals can be read. The processing of can be automatically performed. Therefore, the user can omit troublesome operations for performing various processes, and can improve the operability of the small mobile terminal. The computer program that defines the operation of the image recognition device of the present invention can be recorded in a recording medium and moved to another image recognition device through this recording medium.
【0043】[0043]
【発明の効果】以上の説明から明らかなように、本発明
の画像認識装置、画像認識方法及びプログラムでは、部
分画像を取得し、合成して全体画像を生成しているた
め、光学系及び撮像センサの小型化を図ることができ、
装置の小型化及び低コスト化を実現できる。また、2次
元コードを読み取り、2次元コードで表された動作命令
を自動的に実行することができるため、ユーザは各種処
理の煩わしい操作から解放され、装置の操作性が向上す
る。As is clear from the above description, in the image recognition apparatus, the image recognition method and the program of the present invention, partial images are acquired and combined to generate the entire image. The sensor can be miniaturized,
The device can be downsized and the cost can be reduced. In addition, since the two-dimensional code can be read and the operation command represented by the two-dimensional code can be automatically executed, the user is freed from the troublesome operations of various processes, and the operability of the apparatus is improved.
【0044】また、部分画像から全体画像を合成する際
に、重ね合わせた部分画像の一部の重ね合わせ領域から
のみサンプルの画素を選択する場合には、少ない数のサ
ンプルを用いて部分画像の高精度の合成が可能である。
そのため、部分画像の合成手順が必要であるにも関わら
ず高速処理が可能になる。また、2値化画像を生成する
際に、着目する画素と当該画素の周辺画素とを含む領域
の画素平均値からオフセット値を引いた値をしきい値と
して、着目する画素の値を判定する場合には、光源の輝
度ムラが大きいときや、外光による影響が大きいとき、
紙面に汚れがあるときでも、コードや文字を正確に2値
化することができる。Further, when selecting the pixel of the sample only from a part of the overlapping area of the overlapped partial images when synthesizing the whole image from the partial images, a small number of samples are used to generate the partial image. Highly accurate composition is possible.
Therefore, high-speed processing is possible even though a partial image synthesizing procedure is required. When generating a binarized image, the value of the pixel of interest is determined by using a value obtained by subtracting an offset value from a pixel average value of a region including the pixel of interest and peripheral pixels of the pixel as a threshold value. In this case, when the brightness unevenness of the light source is large or when the influence of external light is large,
Even when the paper surface is dirty, the code and characters can be accurately binarized.
【0045】また、画像を切り出す際に、スキャン方向
に対して平行及び垂直の各方向のヒストグラムを取得
し、両方向のヒストグラムにおける山の個数と山の大き
さとから画像が2次元コードであるか文字であるかを判
定する場合には、認識対象物の自動判別が可能になり、
ユーザは、認識対象物を選択する操作から解放される。When the image is cut out, histograms in the directions parallel and perpendicular to the scanning direction are acquired, and whether the image is a two-dimensional code or a character is determined from the number of peaks and the size of the peaks in the histograms in both directions. When determining whether or not, it becomes possible to automatically identify the recognition target object,
The user is released from the operation of selecting the recognition target object.
【図1】本発明の第1の実施形態における光学式画像認
識装置の構成を示すブロック図FIG. 1 is a block diagram showing a configuration of an optical image recognition device according to a first embodiment of the present invention.
【図2】本発明の第1の実施形態における光学式読取部
の構成を示す図FIG. 2 is a diagram showing a configuration of an optical reading unit according to the first embodiment of the present invention.
【図3】本発明の第2の実施形態における画像合成処理
での2枚のフレーム画像の重ね合わせ処理を説明する図FIG. 3 is a diagram illustrating a superposing process of two frame images in an image synthesizing process according to the second embodiment of the present invention.
【図4】一般的に行われているサンプル取得の例を示す
図FIG. 4 is a diagram showing an example of sample acquisition generally performed.
【図5】本発明の第2の実施形態における画像合成処理
でのサンプル取得を示す図FIG. 5 is a diagram showing sample acquisition in image synthesis processing according to the second embodiment of the present invention.
【図6】本発明の第3の実施形態における入力画像の輝
度ヒストグラムを示す図FIG. 6 is a diagram showing a luminance histogram of an input image according to the third embodiment of the present invention.
【図7】本発明の第3の実施形態において設定するオフ
セット値と平均輝度値との関係を示す図FIG. 7 is a diagram showing a relationship between an offset value and an average brightness value set in a third embodiment of the present invention.
【図8】本発明の第3の実施形態での平均輝度値算出方
法を説明するための図FIG. 8 is a diagram for explaining an average luminance value calculation method in the third embodiment of the present invention.
【図9】2次元コード(QRコード)の例を示す図FIG. 9 is a diagram showing an example of a two-dimensional code (QR code).
【図10】本発明の第4の実施形態における2次元コー
ド(QRコード)の垂直方向ヒストグラムを示す図FIG. 10 is a diagram showing a vertical histogram of a two-dimensional code (QR code) according to the fourth embodiment of the present invention.
【図11】本発明の第4の実施形態における2次元コー
ド(QRコード)の水平方向ヒストグラムを示す図FIG. 11 is a diagram showing a horizontal direction histogram of a two-dimensional code (QR code) according to the fourth embodiment of the present invention.
【図12】文字列の例を示す図FIG. 12 is a diagram showing an example of a character string.
【図13】本発明の第4の実施形態における文字列の垂
直方向ヒストグラムを示す図FIG. 13 is a diagram showing a vertical histogram of a character string according to the fourth embodiment of the present invention.
【図14】本発明の第4の実施形態における文字列の水
平方向ヒストグラムを示す図FIG. 14 is a diagram showing a horizontal histogram of a character string according to the fourth embodiment of the present invention.
【図15】本発明の第3の実施形態における2値化方式
を説明する処理フローFIG. 15 is a processing flow illustrating a binarization method according to the third embodiment of the present invention.
【図16】本発明の第4の実施形態における印刷種別判
定方法を説明する処理フローFIG. 16 is a process flow illustrating a print type determination method according to the fourth embodiment of the present invention.
【図17】本発明の第5の実施形態における画像処理装
置の処理実行手順を示す処理フローFIG. 17 is a process flow showing a process execution procedure of the image processing apparatus according to the fifth embodiment of the present invention.
【図18】本発明の第5の実施形態で使用する動作命令
処理種別データを付加したデータを説明する図FIG. 18 is a diagram illustrating data to which operation command processing type data used in the fifth embodiment of the present invention is added.
1 光学式読取部 2 画像データ記憶部 3 画像合成部 4 2値化部 5 コード・文字切出し部 6 2次元コード認識部 7 文字認識部 8 認識結果出力部 9 処理実行部 10 光源 11 イメージセンサ 12 FAP 13 白部 14 黒部 15 紙面 16 入力窓部 20、23、27 前フレーム画像 21、24、28 現フレーム画像 22、25、29 重複領域 26、30 サンプル 31 サンプル取得領域 32 サンプル非取得領域 40 処理種別データ部 41 情報データ部 42 結合データ 1 Optical reading unit 2 Image data storage 3 Image synthesis section 4 Binarization part 5 Code / Character cutout 6 Two-dimensional code recognition unit 7 Character recognition part 8 Recognition result output section 9 Process execution unit 10 light sources 11 Image sensor 12 FAP 13 Shirobe 14 Kurobe 15 pages 16 Input window 20, 23, 27 Previous frame image 21, 24, 28 Current frame image 22, 25, 29 Overlap area 26,30 samples 31 Sample acquisition area 32 sample non-acquisition area 40 Processing type data section 41 Information Data Division 42 combined data
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G06T 7/00 G06T 7/00 300G 7/40 100 7/40 100A (72)発明者 植木 千尋 神奈川県横浜市港北区綱島東四丁目3番1 号 松下通信工業株式会社内 (72)発明者 釣部 智行 神奈川県横浜市港北区綱島東四丁目3番1 号 松下通信工業株式会社内 (72)発明者 佐野 みさ 神奈川県横浜市港北区綱島東四丁目3番1 号 松下通信工業株式会社内 (72)発明者 飯田 亮介 神奈川県横浜市港北区綱島東四丁目3番1 号 松下通信工業株式会社内 (72)発明者 井出 稚恵 神奈川県横浜市港北区綱島東四丁目3番1 号 松下通信工業株式会社内 (72)発明者 椎名 幸子 神奈川県横浜市港北区綱島東四丁目3番1 号 松下通信工業株式会社内 Fターム(参考) 5B029 BB02 CC30 DD05 5B057 CA08 CA12 CA16 CB08 CB12 CB16 CE08 CE10 CE12 DA07 DB02 DB09 DC19 DC32 5B072 CC21 CC38 DD01 DD23 DD24 DD25 FF02 LL11 LL18 5L096 AA06 BA17 BA18 EA43 FA32 FA36 FA42 FA44 FA46 GA51 HA07 JA11 ─────────────────────────────────────────────────── ─── Continuation of front page (51) Int.Cl. 7 Identification code FI theme code (reference) G06T 7/00 G06T 7/00 300G 7/40 100 7/40 100A (72) Inventor Chihiro Yokohama Kanagawa Prefecture Matsushita Communication Industrial Co., Ltd., 3-1, Tsunashima Higashi, Kohoku-ku, Yokohama (72) Inventor Tomoyuki Tsutoribe 3-4-1, Tsunashima-Higashi, Kohoku-ku, Yokohama-shi, Kanagawa Matsushita Communication Industry Co., Ltd. (72) Inventor Misa Sano 4-3-1, Tsunashima-higashi, Kohoku-ku, Yokohama-shi, Kanagawa Matsushita Communication Industry Co., Ltd. (72) Inventor Ryosuke Iida 4-3-1, Tsunashima-higashi, Kohoku-ku, Yokohama-shi, Kanagawa Matsushita Communication Industry Co., Ltd. ( 72) Inventor Chie Ide 4-3-1 Tsunashima-higashi, Kohoku-ku, Yokohama-shi, Kanagawa Matsushita Communication Industrial Co., Ltd. (72) Inventor Sachiko Shiina Yokohama, Kanagawa 4-3 Tsunashima Higashi 4-chome, Kohoku Ward Matsushita Communication Industry Co., Ltd. F-term (reference) 5B029 BB02 CC30 DD05 5B057 CA08 CA12 CA16 CB08 CB12 CB16 CE08 CE10 CE12 DA07 DB02 DB09 DC19 DC32 5B072 CC21 CC38 DD01 DD23 DD24 DD25 FF02 LL11LL 5L096 AA06 BA17 BA18 EA43 FA32 FA36 FA42 FA44 FA46 GA51 HA07 JA11
Claims (16)
元コードまたは文字を一部分ずつ順次読み取る画像入力
手段と、 前記画像入力手段が読み取った前記2次元コードまたは
文字の部分画像を格納する画像データ記憶手段と、 前記画像データ記憶手段に格納された前記部分画像を合
成して前記2次元コードまたは文字の全体画像を生成す
る画像合成手段と、 前記画像合成手段が生成した前記全体画像の多値データ
を、前記2次元コードまたは文字の部分の値とそれ以外
の背景部分の値とを違えた2値データに変換する2値化
手段と、 前記2値化手段が生成した前記2値データから前記2次
元コードまたは文字の部分のみを切り出す画像切出し手
段と、 前記画像切出し手段が切り出した前記2次元コードをデ
コードする2次元コード認識手段と、 前記画像切出し手段が切り出した前記文字を文字認識す
る文字認識手段と、 前記2次元コード認識手段がデコードした前記2次元コ
ードで規定されている処理を行う処理実行手段とを備え
ることを特徴とする画像認識装置。1. An image input unit for sequentially reading a two-dimensional code or a character displayed on a sheet while scanning, and image data storage for storing a partial image of the two-dimensional code or a character read by the image input unit. Means, an image synthesizing means for synthesizing the partial images stored in the image data storage means to generate an entire image of the two-dimensional code or characters, and multivalued data of the entire image generated by the image synthesizing means. Is converted into binary data in which the value of the two-dimensional code or character portion and the value of the other background portion are different, and the binary data generated by the binarizing means from the binary data An image cutting-out means for cutting out only a two-dimensional code or a character portion, and a two-dimensional code recognizing hand for decoding the two-dimensional code cut out by the image cutting means. And a character recognizing means for recognizing the character cut out by the image cutting means, and a process executing means for performing a process defined by the two-dimensional code decoded by the two-dimensional code recognizing means. Image recognition device.
部分画像である先行部分画像に、時間的に後の前記部分
画像である後続部分画像を合成する際に、前記先行部分
画像と前記後続部分画像とを重ね合わせ、重ね合わせた
領域の一部の領域からサンプルの画素を選択して、マッ
チング処理を行うことを特徴とする請求項1に記載の画
像認識装置。2. The image synthesizing means combines the preceding partial image with the preceding partial image when synthesizing the preceding partial image, which is the partial image preceding in time, with the succeeding partial image, which is the partial image succeeding in time. The image recognition apparatus according to claim 1, wherein the subsequent partial image is overlapped, sample pixels are selected from a partial area of the overlapped area, and matching processing is performed.
画素の周辺画素とを含む領域の画素の平均輝度を表す画
素平均値を算出し、前記画素平均値から前記画素平均値
の関数であるオフセット値を引いた値をしきい値とし
て、前記着目する画素の値を判定することを特徴とする
請求項1に記載の画像認識装置。3. The binarizing means calculates a pixel average value representing an average luminance of pixels in a region including a pixel of interest and peripheral pixels of the pixel, and the pixel average value is a function of the pixel average value. The image recognition apparatus according to claim 1, wherein the value of the pixel of interest is determined by using a value obtained by subtracting the offset value as the threshold value.
対して平行な方向及び垂直な方向のヒストグラムを取得
し、前記平行な方向及び垂直な方向における前記ヒスト
グラムの山の個数と前記山の大きさとから前記紙面に表
示された読み取り対象物が2次元コードであるか文字で
あるかを判定することを特徴とする請求項1に記載の画
像認識装置。4. The image cutting means acquires histograms in a direction parallel to and a direction perpendicular to the scanning direction, and determines the number of peaks and the size of the peaks in the histogram in the parallel and vertical directions. The image recognition apparatus according to claim 1, wherein it is determined whether the reading target displayed on the paper is a two-dimensional code or a character.
元コードにあらかじめエンコードされた動作命令のコー
ドをデコードし、前記処理実行手段は、前記2次元コー
ド認識手段がデコードした前記動作命令のコードに従っ
て前記処理を行うことを特徴とする請求項1に記載の画
像認識装置。5. The two-dimensional code recognition means decodes the code of the operation instruction previously encoded in the two-dimensional code, and the processing execution means decodes the operation instruction code decoded by the two-dimensional code recognition means. The image recognition apparatus according to claim 1, wherein the processing is performed according to the following.
た2次元コードまたは文字を一部分ずつ順次読み取り、
読み取った前記2次元コードまたは文字の部分画像を一
旦、画像データ記憶手段に格納した後、合成して前記2
次元コードまたは文字の全体画像を生成し、生成した前
記全体画像の多値データを、前記2次元コードまたは文
字の部分の値とそれ以外の背景部分の値とを違えた2値
データに変換して2値化画像を生成し、前記2値化画像
から前記2次元コードまたは文字の部分のみを切り出
し、切り出した前記2次元コードをデコードし、切り出
した前記文字を文字認識し、デコードした前記2次元コ
ードで規定されている処理を行うことを特徴とする画像
認識方法。6. A two-dimensional code or character displayed on the paper is sequentially read part by part while scanning the paper,
The read partial image of the two-dimensional code or the character is temporarily stored in the image data storage means, and is then combined to form the two-dimensional code.
An entire image of a dimension code or a character is generated, and multi-valued data of the generated entire image is converted into binary data in which the value of the two-dimensional code or character and the value of the other background portion are different. To generate a binarized image, cut out only the two-dimensional code or character portion from the binarized image, decode the cut-out two-dimensional code, character-recognize the cut-out character, and decode the An image recognition method characterized by performing processing specified by a dimension code.
前の前記部分画像である先行部分画像に、時間的に後の
前記部分画像である後続部分画像を重ね合わせ、重ね合
わせた領域の一部の領域からのみサンプルの画素を選択
して、マッチング処理を行うことを特徴とする請求項6
に記載の画像認識方法。7. When synthesizing the partial images, a preceding partial image which is the partial image preceding in time is overlapped with a subsequent partial image which is the partial image succeeding in time, 7. A matching process is performed by selecting a sample pixel only from a partial area.
The image recognition method described in.
る画素と当該画素の周辺画素とを含む領域の画素の平均
輝度を表す画素平均値を算出し、前記画素平均値から前
記画素平均値の関数であるオフセット値を引いた値をし
きい値とし、前記着目する画素の輝度値と前記しきい値
とを比較して前記着目する画素の前記2値データを判定
することを特徴とする請求項6に記載の画像認識方法。8. When generating the binarized image, a pixel average value representing average luminance of pixels in a region including a pixel of interest and peripheral pixels of the pixel is calculated, and the pixel average value is calculated from the pixel average value. A threshold value is a value obtained by subtracting an offset value that is a function of the value, and the binary data of the pixel of interest is determined by comparing the brightness value of the pixel of interest and the threshold value. The image recognition method according to claim 6.
平行な方向及び垂直な方向のヒストグラムを求め、前記
平行な方向及び垂直な方向における前記ヒストグラムの
山の個数と前記山の大きさとから、前記紙面に表示され
た読み取り対象物が2次元コードであるか文字であるか
を判定することを特徴とする請求項6に記載の画像認識
方法。9. A histogram in a direction parallel to and a direction perpendicular to the scanning direction of the binarized image is obtained, and the number of peaks and the size of the peaks in the histogram in the parallel direction and the vertical direction are used. 7. The image recognition method according to claim 6, wherein it is determined whether the reading target displayed on the paper surface is a two-dimensional code or a character.
ードがエンコードされている前記2次元コードを読み取
って前記動作命令のコードをデコードし、前記コードで
規定された動作命令を実行することを特徴とする請求項
6に記載の画像認識方法。10. A method of reading the two-dimensional code displayed on the paper sheet, in which the code of the operation instruction is encoded, decoding the code of the operation instruction, and executing the operation instruction defined by the code. The image recognition method according to claim 6, which is characterized in that.
または文字を一部分ずつ順次読み取る手順と、 読み取った前記2次元コードまたは文字の部分画像を一
旦、画像データ記憶手段に格納する手順と、 前記画像データ記憶手段に格納した前記2次元コードま
たは文字の部分画像を合成して前記2次元コードまたは
文字の全体画像を生成する手順と、 生成した前記全体画像の多値データを、前記2次元コー
ドまたは文字の部分の値とそれ以外の背景部分の値とを
違えた2値データに変換して2値化画像を生成する手順
と、前記2値化画像から前記2次元コードまたは文字の
部分のみを切り出す手順と、 切り出した前記2次元コードをデコードする手順と、 切り出した前記文字を文字認識する手順と、 デコードした前記2次元コードで規定されている処理を
行う手順とを実行させるためのプログラム。11. A procedure for a computer to sequentially read the two-dimensional code or character displayed on the paper one by one while scanning the paper, and the partial image of the read two-dimensional code or character is temporarily stored in the image data storage means. A procedure of storing, a procedure of synthesizing the partial image of the two-dimensional code or character stored in the image data storage means to generate an entire image of the two-dimensional code or character, and multi-valued data of the generated entire image Is converted into binary data in which the value of the two-dimensional code or character portion and the value of the other background portion are different to generate a binary image, and the two-dimensional image from the binary image. A procedure for cutting out only the code or character portion, a step for decoding the cut out two-dimensional code, a step for recognizing the cut out character, Program for executing a procedure for performing processing specified by the two-dimensional code over de.
像を合成して前記2次元コードまたは文字の全体画像を
生成する手順において、コンピュータに、時間的に前の
前記部分画像である先行部分画像に、時間的に後の前記
部分画像である後続部分画像を重ね合わせ、重ね合わせ
た領域の一部の領域からサンプルの画素を選択してマッ
チング処理を行う手順を実行させるための請求項11に
記載のプログラム。12. In a procedure of synthesizing the partial images of the two-dimensional code or character to generate the entire image of the two-dimensional code or character, the computer is configured to display a preceding partial image which is the partial image preceding in time. 12. The method according to claim 11, wherein a subsequent partial image which is the partial image that is temporally behind is superimposed, and a pixel of a sample is selected from a partial region of the superimposed region to perform a matching process. Program of.
タに変換して前記2値化画像を生成する手順において、
コンピュータに、着目する画素と当該画素の周辺画素と
を含む領域の画素の平均輝度を表す画素平均値を算出す
る手順と、前記画素平均値から前記画素平均値の関数で
あるオフセット値を引いた値をしきい値とし、前記着目
する画素の輝度値と前記しきい値とを比較して前記着目
する画素の2値データを判定する手順とを実行させるた
めの請求項11に記載のプログラム。13. A procedure of converting multivalued data of the entire image into binary data to generate the binarized image,
A procedure for calculating, in a computer, a pixel average value that represents the average luminance of pixels in a region including a pixel of interest and peripheral pixels of the pixel, and subtracting an offset value that is a function of the pixel average value from the pixel average value. The program according to claim 11, which executes a procedure of comparing the luminance value of the pixel of interest with the threshold value and determining binary data of the pixel of interest, with the value being a threshold.
または文字の部分を切り出す手順において、コンピュー
タに、前記2値化画像のスキャン方向に対して平行な方
向及び垂直な方向のヒストグラムを求める手順と、前記
平行な方向及び垂直な方向における前記ヒストグラムの
山の個数と前記山の大きさとから、前記画像が2次元コ
ードであるか文字であるかを判定する手順とを実行させ
るための請求項11に記載のプログラム。14. A procedure of, in the procedure of cutting out the two-dimensional code or character portion from the binarized image, a procedure of causing a computer to obtain histograms in a direction parallel to a scan direction of the binarized image and a direction perpendicular to the scan direction. And a procedure for determining whether the image is a two-dimensional code or a character based on the number of peaks and the size of the peaks in the histogram in the parallel direction and the vertical direction. 11. The program according to item 11.
理を行う手順において、コンピュータに、前記2次元コ
ードが表している動作命令のコードを識別する手順と、
前記コードに対応する前記動作命令に従って処理を行う
手順とを実行させるための請求項11に記載のプログラ
ム。15. A procedure of performing a process defined by the two-dimensional code, wherein the computer identifies a code of an operation instruction represented by the two-dimensional code,
The program according to claim 11, for executing a procedure of performing processing according to the operation instruction corresponding to the code.
に記載のプログラムを記録した記録媒体。16. A recording medium on which the program according to any one of claims 11 to 15 is recorded.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002144911A JP2003337941A (en) | 2002-05-20 | 2002-05-20 | Device and method for image recognition, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002144911A JP2003337941A (en) | 2002-05-20 | 2002-05-20 | Device and method for image recognition, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2003337941A true JP2003337941A (en) | 2003-11-28 |
Family
ID=29704445
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002144911A Pending JP2003337941A (en) | 2002-05-20 | 2002-05-20 | Device and method for image recognition, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2003337941A (en) |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2006033478A1 (en) * | 2004-09-23 | 2006-03-30 | Optoelectronics Co., Ltd. | A method of decoding barcode symbols and the like using multiple scanning lines |
JP2007128270A (en) * | 2005-11-04 | 2007-05-24 | Casio Comput Co Ltd | Data processing system and program |
JP2007164684A (en) * | 2005-12-16 | 2007-06-28 | Genetec Corp | Announcement tool |
JP2007166487A (en) * | 2005-12-16 | 2007-06-28 | Genetec Corp | Portable telephone |
US7243848B2 (en) | 2005-07-18 | 2007-07-17 | Optoelectronics Co. Ltd. | Optical module with accelerated reset capability |
US7311262B2 (en) | 2004-08-09 | 2007-12-25 | Optoelectronics Co., Ltd. | Method of decoding a symbol with a low contrast |
US7354000B2 (en) | 2005-05-05 | 2008-04-08 | Optoelectronics Co., Ltd. | Method and system for sensing a barcode |
US7360704B2 (en) | 2005-11-14 | 2008-04-22 | Optoelectronics Co., Ltd. | Scan engine with guiding light beams |
JP2009257891A (en) * | 2008-04-15 | 2009-11-05 | Mitsutoyo Corp | Absolute position length measurement type encoder |
WO2011065565A1 (en) * | 2009-11-30 | 2011-06-03 | 株式会社オプトエレクトロニクス | Optical information reading device and optical information reading method |
JP2013068980A (en) * | 2011-09-20 | 2013-04-18 | Denso Wave Inc | Optical information reader |
JP2013206348A (en) * | 2012-03-29 | 2013-10-07 | Denso Wave Inc | Information code reader |
JP2015060448A (en) * | 2013-09-19 | 2015-03-30 | 株式会社Pfu | Image processor, image processing method and computer program |
JP2021516827A (en) * | 2018-08-16 | 2021-07-08 | ▲騰▼▲訊▼科技(深▲セン▼)有限公司 | Identification code identification method and its devices, computer equipment and computer programs |
-
2002
- 2002-05-20 JP JP2002144911A patent/JP2003337941A/en active Pending
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7311262B2 (en) | 2004-08-09 | 2007-12-25 | Optoelectronics Co., Ltd. | Method of decoding a symbol with a low contrast |
JP4641315B2 (en) * | 2004-09-23 | 2011-03-02 | 株式会社オプトエレクトロニクス | Method for decoding bar code symbols using a plurality of scanning lines |
JP2008513849A (en) * | 2004-09-23 | 2008-05-01 | 株式会社オプトエレクトロニクス | Method for decoding bar code symbols using a plurality of scanning lines |
WO2006033478A1 (en) * | 2004-09-23 | 2006-03-30 | Optoelectronics Co., Ltd. | A method of decoding barcode symbols and the like using multiple scanning lines |
US7354000B2 (en) | 2005-05-05 | 2008-04-08 | Optoelectronics Co., Ltd. | Method and system for sensing a barcode |
US7243848B2 (en) | 2005-07-18 | 2007-07-17 | Optoelectronics Co. Ltd. | Optical module with accelerated reset capability |
JP2007128270A (en) * | 2005-11-04 | 2007-05-24 | Casio Comput Co Ltd | Data processing system and program |
US7360704B2 (en) | 2005-11-14 | 2008-04-22 | Optoelectronics Co., Ltd. | Scan engine with guiding light beams |
JP2007164684A (en) * | 2005-12-16 | 2007-06-28 | Genetec Corp | Announcement tool |
JP2007166487A (en) * | 2005-12-16 | 2007-06-28 | Genetec Corp | Portable telephone |
US8227744B2 (en) | 2008-04-15 | 2012-07-24 | Mitutoyo Corporation | Absolute position length measurement type encoder |
JP2009257891A (en) * | 2008-04-15 | 2009-11-05 | Mitsutoyo Corp | Absolute position length measurement type encoder |
WO2011065565A1 (en) * | 2009-11-30 | 2011-06-03 | 株式会社オプトエレクトロニクス | Optical information reading device and optical information reading method |
JP2013068980A (en) * | 2011-09-20 | 2013-04-18 | Denso Wave Inc | Optical information reader |
JP2013206348A (en) * | 2012-03-29 | 2013-10-07 | Denso Wave Inc | Information code reader |
JP2015060448A (en) * | 2013-09-19 | 2015-03-30 | 株式会社Pfu | Image processor, image processing method and computer program |
JP2021516827A (en) * | 2018-08-16 | 2021-07-08 | ▲騰▼▲訊▼科技(深▲セン▼)有限公司 | Identification code identification method and its devices, computer equipment and computer programs |
JP7164127B2 (en) | 2018-08-16 | 2022-11-01 | ▲騰▼▲訊▼科技(深▲セン▼)有限公司 | Identification code identification method, its device, computer equipment and computer program |
US11494577B2 (en) | 2018-08-16 | 2022-11-08 | Tencent Technology (Shenzhen) Company Limited | Method, apparatus, and storage medium for identifying identification code |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7245780B2 (en) | Group average filter algorithm for digital image processing | |
JP5265708B2 (en) | Image capture device with integrated barcode scanning | |
US6985631B2 (en) | Systems and methods for automatically detecting a corner in a digitally captured image | |
JP5318122B2 (en) | Method and apparatus for reading information contained in bar code | |
US7764835B2 (en) | Method and apparatus for recognizing code | |
JP4911340B2 (en) | Two-dimensional code detection system and two-dimensional code detection program | |
US8594435B2 (en) | Image processing device and method, and program therefor | |
JP2003337941A (en) | Device and method for image recognition, and program | |
US7321688B2 (en) | Image processor for character recognition | |
JP2009031876A (en) | Image processor, image forming device and image reader therewith, image processing method, image processing program and recording medium recording image processing program | |
JP2008269509A (en) | Image processing program and image processor | |
JP5017988B2 (en) | Code reader and program | |
US20140086473A1 (en) | Image processing device, an image processing method and a program to be used to implement the image processing | |
US20020012468A1 (en) | Document recognition apparatus and method | |
JP2010009579A (en) | System and method for detecting document content in real time | |
JP2007094584A (en) | Method for detecting two dimensional code, detecting device, and detecting program | |
JP3210378B2 (en) | Image input device | |
US20240296299A1 (en) | Barcode image recognition method and device using the same | |
JP3163235B2 (en) | Optical character reader | |
JP5453193B2 (en) | Tilt detection device, imaging device and method | |
JP2001076096A (en) | Device and method for image analysis | |
JPH08249421A (en) | Recognizing method for reverse character | |
JP2022019257A (en) | Information processing device, information processing method, and program | |
JP2004318896A (en) | Non-contact image reading apparatus | |
Patil et al. | Efficiency measurement with different demodulation techniques by designing picturesque 2D barcode |