WO2015145977A1 - 情報処理装置、画像処理方法と記録媒体、ならびに、pos端末装置 - Google Patents

情報処理装置、画像処理方法と記録媒体、ならびに、pos端末装置 Download PDF

Info

Publication number
WO2015145977A1
WO2015145977A1 PCT/JP2015/000995 JP2015000995W WO2015145977A1 WO 2015145977 A1 WO2015145977 A1 WO 2015145977A1 JP 2015000995 W JP2015000995 W JP 2015000995W WO 2015145977 A1 WO2015145977 A1 WO 2015145977A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
display
unit
pos terminal
information processing
Prior art date
Application number
PCT/JP2015/000995
Other languages
English (en)
French (fr)
Inventor
岩元 浩太
哲夫 井下
壮馬 白石
山田 寛
準 小林
英路 村松
秀雄 横井
二徳 高田
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to CN201580016771.2A priority Critical patent/CN106164989A/zh
Priority to US15/129,363 priority patent/US20170178107A1/en
Priority to JP2016509948A priority patent/JPWO2015145977A1/ja
Publication of WO2015145977A1 publication Critical patent/WO2015145977A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q20/00Payment architectures, schemes or protocols
    • G06Q20/08Payment architectures
    • G06Q20/20Point-of-sale [POS] network systems
    • G06Q20/208Input by product or record sensing, e.g. weighing or scanner processing
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07GREGISTERING THE RECEIPT OF CASH, VALUABLES, OR TOKENS
    • G07G1/00Cash registers
    • G07G1/0036Checkout procedures
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07GREGISTERING THE RECEIPT OF CASH, VALUABLES, OR TOKENS
    • G07G1/00Cash registers
    • G07G1/01Details for indicating

Definitions

  • the present invention relates to an apparatus using an object identification technique.
  • the present invention relates to a POS (Point Of Sales) terminal device that uses object identification technology.
  • Patent Document 1 discloses a barcode scanner technology. First, the image determination unit of the barcode scanner determines whether there is an image that is a barcode candidate in the frame of the captured image. Subsequently, when the decoding processing unit detects a partial missing of the barcode candidate image, the captured image display unit displays a guide image for guiding the barcode candidate image so as to be captured as a barcode on the display. .
  • Patent Document 1 when partial omission of a barcode candidate image cannot be detected, there is a problem that a guide image for guidance cannot be displayed and an object cannot be identified quickly.
  • An object of the present invention is to provide a technique capable of quickly recognizing an object in order to solve the above problems.
  • a POS terminal device includes an imaging unit that captures an object to generate an image, a display unit that displays an image for guiding the object in the image in a predetermined direction, and the object in the image
  • a determination unit that determines whether or not there is at least a part of the image, and if there is at least a part of the object in the image, a guidance display for guiding the object in the image in a predetermined direction is displayed on the display unit.
  • a control unit for controlling.
  • An information processing device includes a determination unit that determines whether there is at least a part of an object in a captured image, and a guidance display when there is at least a part of the object in the image.
  • An image processing method determines whether or not there is at least a part of an object in a captured image, and if there is at least a part of the object in the image, A guidance display for guiding in the direction is displayed on the display device.
  • a recording medium determines whether or not there is at least a part of an object in a photographed image, and when there is at least a part of the object in the image, the object in the image is set in a predetermined direction.
  • a program for causing a computer to display a guidance display for guiding to a computer on a display device is held.
  • an object can be recognized quickly.
  • FIG. 1 It is a figure which shows the outline
  • FIG. 1 is a diagram showing an outline of a POS terminal device 1 which is an example of a first embodiment of the present invention.
  • the POS terminal device 1 includes an imaging unit 10, a display unit 20, and an information processing device 50.
  • the information processing apparatus 50 includes a determination unit 30 and a control unit 40.
  • the imaging unit 10 captures an object and generates an image.
  • the display unit 20 displays the image generated by the imaging unit 10.
  • the determination unit 30 of the information processing device 50 determines whether there is at least a part of an object in the image generated by the imaging unit 10.
  • the control unit 40 of the information processing apparatus 50 displays a guidance display for guiding the object in the image in a predetermined direction on the display unit 20.
  • the guidance display of the control unit 40 may be guidance display that guides the object image to be displayed on the display screen of the display unit 20, and guides the object in a direction in which the object image is in focus.
  • a guidance display may be used.
  • the control unit 40 may control the display unit 20 to display an image of the object captured by the imaging unit 10 while displaying the guidance display on the display unit 20.
  • the POS terminal device 1 displays a guidance display for guiding the object in the image in a predetermined direction on the display unit 20 when there is at least a part of the object in the image. Thereby, an object can be recognized quickly.
  • FIG. 2 is a side view showing an appearance of a POS terminal device 100 which is one specific example of the first embodiment.
  • FIG. 3 is a block diagram showing the configuration of the POS terminal apparatus 100 according to the first embodiment.
  • the POS terminal device 100 includes a store clerk display unit 110, a customer display unit 112, an information processing device 120, and a product reading device 140.
  • the clerk display unit 110 in FIG. 2 displays information for the clerk, and the customer display unit 112 displays information for the customer.
  • a touch panel display or LCD Liquid Crystal Display
  • the clerk display unit 110 and the customer display unit 112 may include an input device such as a keyboard.
  • the display unit 110 for clerk displays information necessary for the clerk under the control of the information processing device 120 and accepts the operation of the clerk.
  • the customer display unit 112 displays information necessary for the customer under the control of the information processing apparatus 120. Customer operations may be accepted as necessary.
  • the information processing apparatus 120 controls operations of the display unit 110 for the clerk, the display unit 112 for the customer, and the product reading device 140. In addition, the information processing apparatus 120 performs necessary processing according to the operation received by the store clerk display unit 110. Further, the information processing apparatus 120 performs necessary processing such as image processing in accordance with the image information read by the product reading device 140.
  • the product reading device 140 includes a housing 142 and an imaging unit 130.
  • a part of the housing 142 is provided with a light-transmissive product reading surface 144.
  • the commodity reading surface 144 is provided on the surface of the housing 142 on the clerk side for the work of the clerk, and the object is directed when the object is imaged.
  • the imaging unit 130 is provided inside the housing 142. When the store clerk points the object received from the customer to the product reading surface 144, the imaging unit 130 reads the image of the object. As a result, the POS terminal apparatus 100 performs object recognition processing.
  • the range in which the imaging unit 130 can image an object depends on optical characteristics such as the angle of view and the focal point of the lens of the imaging unit 130.
  • the imageable area A includes an angle of view range that is reflected on the imaging unit 130 through a lens depending on an angle of view and the like, and a focus range in which a clear image can be obtained when focused.
  • the imageable area in the POS terminal device 100 of FIG. 2 is shown as an imageable area A surrounded by an alternate long and short dash line.
  • the vertical direction in the field angle range is indicated by a chain line extending from the imaging unit 130 through the product reading surface 144.
  • the horizontal direction of the field angle range is not shown.
  • the vertical direction and the horizontal direction start from the position of the imaging unit 130.
  • the focus range is a range in the depth direction from the photographing unit 130 to the product reading surface 144.
  • the left-right direction of the field angle range not shown in FIG. 2 is a direction perpendicular to the up-down direction and the depth direction.
  • the imaging unit 130 will be described in detail below.
  • the imaging unit 130 can take at least the following three forms.
  • the imaging unit 130 includes a two-dimensional image imaging unit that captures a two-dimensional image, a distance sensor that measures the distance to the product, and a distance image generation unit.
  • the two-dimensional image capturing unit captures an object directed to the product reading surface 144 and generates a two-dimensional color image or a two-dimensional monochrome image including the image of the object.
  • the distance sensor measures, for example, a distance from the distance sensor to the position of the object directed to the product reading surface 144 by a TOF (Time Of Flight) method. That is, the distance sensor irradiates light rays such as infrared rays and measures the distance from the time taken for the irradiated light rays to reciprocate to the object.
  • the distance image generation unit measures the distance at each position of the object, and generates a distance image (three-dimensional image) by superimposing the two-dimensional images. In the first case, the imaging unit 130 can image an object whose distance to the product is within a predetermined range (for example, 15 cm to 30 cm).
  • the imaging unit 130 includes one two-dimensional image imaging unit that captures a two-dimensional image.
  • the image of the object can be acquired by taking the difference between the background image captured in advance by the imaging unit 130 and the image including the object.
  • the imaging unit 130 includes a plurality of two-dimensional image imaging units that capture a two-dimensional image, and a distance image generation unit.
  • the distance image generation unit can generate a distance image (three-dimensional image) based on a difference in field of view between the plurality of imaging units.
  • the determination unit 122 determines whether or not there is at least a part of the object in the image. This process can be realized, for example, by executing a program under the control of the control unit 124. Specifically, it is realized by executing a program stored in a storage unit (not shown).
  • FIG. 4 is a flowchart showing operations of the POS terminal apparatus 100 and the information processing apparatus 120.
  • steps S100 to S300 are a flow church showing the operation of the POS terminal apparatus 100
  • steps S200 to S300 as a part thereof are a flowchart showing the operation of the information processing apparatus 120.
  • the imaging unit 130 of the POS terminal apparatus 100 captures an object and generates an image (S100).
  • the determination unit 122 of the information processing device 120 determines whether or not there is at least a part of an object in the image (S200). Specifically, when the image is a distance image including distance information, there is at least a part of the object in the predetermined vertical range, the horizontal range, and the depth direction, which is the imageable area A. It is determined whether or not. If the image is a normal two-dimensional image that does not include distance information, it is determined whether or not there is at least a part of the object within the predetermined vertical range and the horizontal range that are the imageable area A. .
  • step S200 when at least a part of the object is not present in the image (NO in S200), the process returns to step S100, and the imaging unit 130 images the object again.
  • the control unit 124 displays a guidance display for guiding the object in the image in a predetermined direction on the salesclerk display unit 110 ( S300).
  • the control unit 124 controls to display a guidance display that guides the entire object to enter the imageable area A.
  • the store clerk moves the object according to the guidance display.
  • FIG. 5A is a diagram illustrating an example of a positional relationship between the object 131 and the imageable area A in the imaging unit 130 of the POS terminal device 100 in FIG.
  • An imageable area A in FIG. 5A is an area set in the direction from the imaging unit 130 to the object side.
  • FIG. 5A shows a state in which a part of the object 131 is included in the imageable area A of the imaging unit 130.
  • the object is indicated by a circle, and specific examples include fresh foods such as tomatoes and apples, or packaged sweets. Note that the object can be applied in a shape other than a round shape.
  • a part of the object 131 is present on the upper right side of the imageable area A when viewed from the imaging unit 130 side.
  • FIG. 5B is a diagram showing an example of the guidance display 111 displayed on the salesclerk display unit 110 of FIG. 3 or FIG.
  • the control unit 124 (FIG. 4) performs image processing so that a part of the object 131 is present in which part of the image. Recognize.
  • An image captured by the imaging unit 130 is composed of pixels divided in the vertical direction and the horizontal direction. Then, the control unit 124 recognizes which pixel has the object. Furthermore, the control unit 124 determines a direction in which the entire object 131 is guided to enter the imageable area A.
  • the guiding direction is determined by the control unit 124 by calculating the direction from the pixel position where the object is imaged to the pixel position at the approximate center of the entire image. At this time, the position of the image of the object imaged by the imaging unit 130 and the position of the object viewed by the store clerk from the work position are symmetrical.
  • the control unit 124 displays the guidance display 111 corresponding to the guidance direction in consideration of this point on the store clerk display unit 110.
  • the control unit 124 may display the captured object image 114 on the salesclerk display unit 110 together with the guidance display 111. Even when the captured object image 114 is displayed on the clerk display unit 110, the position of the object image captured by the imaging unit 130 and the position of the object viewed by the clerk from the work position are symmetrical. For this reason, the control unit 124 displays an image obtained by inverting the left and right with respect to the center of the image on the clerk display unit 110. The store clerk can confirm the position of the object and the guidance display on the store clerk display unit 110, and thus can move the object so that the entire object can be imaged. As a result, since the entire object is imaged by the imaging unit 130, image matching with the product image database can be performed quickly.
  • control unit 124 may change the color displayed on the display unit 110 for the store clerk as the object 131 moves. For example, green may be displayed when all the objects are in the imageable area A, yellow when more than half of the object is included, and red when less than half of the object is included.
  • FIG. 6A is a diagram showing a positional relationship between the object and the imageable area A according to the first embodiment.
  • the imaging unit 130 installed in the product reading device 140 that is a part of the POS terminal device images the object 131 through the product reading surface 144.
  • the object 131 is partly in the imageable area A and is located closer to the imaging unit 130 than the imageable area A.
  • the control unit 124 (FIG. 4) indicates that the imaging unit 130 is positioned closer to the imaging unit 130 than the imaging possible region A. Judgment is based on the ability to obtain the distance.
  • the control unit 124 recognizes in which part of the image the depth direction of the image is a part of the object 131 from the acquired distance information.
  • the control unit 124 displays a guidance display for guiding an object in the image in a predetermined direction on the salesclerk display unit 110.
  • the guidance display is displayed on the store clerk display unit 110 so that the entire object enters the imageable area A.
  • FIG. 6B is a diagram showing a guidance display displayed on the display unit 110 for clerk.
  • the control unit 124 displays a character “Please keep the product away from the product reading surface” as the guidance display 113. indicate.
  • the control unit 124 displays red when the distance between the object 131 and the product reading surface 144 is too close (FIG. 6), and displays green when the distance between the object and the product reading surface 144 is too far. Is displayed.
  • the POS terminal apparatus 100 includes the imaging unit 130, the display unit 110 for the clerk, the determination unit 122, and the control unit 124
  • the present embodiment is not limited to the above example.
  • the POS terminal device 100 includes an imaging unit 130 and a store clerk display unit 110
  • the information processing device 120 installed outside the POS terminal device 100 includes a determination unit 122 and a control unit 124
  • the POS terminal device. 100 and the information processing apparatus 120 may be connected by wire or wireless.
  • a second embodiment will be described.
  • the second embodiment is different from the first embodiment in that the information processing apparatus 120 includes a storage unit 126 and a collation unit 128. Note that components that are substantially the same as those in the first embodiment are denoted by the same reference numerals, and description thereof is omitted.
  • FIG. 7 is a block diagram showing a configuration of the POS terminal apparatus 100 according to the second embodiment.
  • the POS terminal device 100 according to the second embodiment includes a storage unit 126 and a verification unit 128 in addition to the case of FIG.
  • the storage unit 126 stores a database of product images.
  • the product image database is information on the shape and color that are the characteristics of the product image of each product.
  • the collation unit 128 identifies which product the captured image is by collating the image captured by the image capturing unit 130 with the feature of the product image in the product image database.
  • the determination unit 122 and the collation unit 128 can be realized by executing a program under the control of the control unit 124, for example. Specifically, it is realized by executing a program stored in the storage unit 126.
  • the product image database is stored in the storage unit 126, but is not limited thereto.
  • a database of product images may be stored in a storage device (not shown) installed outside the POS terminal device 100. In that case, the collation unit 128 obtains the feature of the product image from the storage device and collates it with the image captured by the imaging unit 130.
  • FIG. 8 is a flowchart showing the operation of the POS terminal apparatus 100 or the information processing apparatus 120.
  • steps S100 to S300 in FIG. 4 are a flow church showing the operation of the POS terminal apparatus 100
  • steps S200 to S230 which are a part thereof are flowcharts showing the operation of the information processing apparatus 120.
  • the imaging unit 130 of the POS terminal apparatus 100 captures an object and generates an image (S100).
  • the determination unit 122 of the information processing device 120 determines whether or not there is at least a part of an object in the image (S200). Specifically, when the image is a distance image including distance information, there is at least a part of the object in the predetermined vertical range, the horizontal range, and the depth direction, which is the imageable area A. It is determined whether or not. If the image is a normal two-dimensional image that does not include distance information, it is determined whether or not there is at least a part of the object within the predetermined vertical range and the horizontal range that are the imageable area A. .
  • the determination unit 122 may not perform the NO process in S200. This is because there is a possibility that a product can be specified by image collation in the next step.
  • the collation unit 128 collates the captured image with the product image database stored in the storage unit 126.
  • the control unit 124 proceeds to the settlement process as the identified product (S300). If the collation unit 128 cannot identify which product is the result of the collation, the control unit 124 displays a guidance display on the salesclerk display unit 110 (S230). The guidance display is the same as the display shown in FIG. 5B or C and FIG. 6B.
  • the POS terminal device 1 includes the imaging unit 130, the display unit 110 for the store clerk, the determination unit 122, the collation unit 128, and the control unit 124 has been described above, but is not limited thereto.
  • the POS terminal device 100 includes an imaging unit 130 and a store clerk display unit 110
  • the information processing device 120 installed outside the POS terminal device 100 includes a determination unit 122, a control unit 124, and a verification unit 128.
  • a configuration in which the POS terminal device 100 and the information processing device 120 are connected by wire or wireless may be used.
  • At least a part of the information processing apparatuses 50 and 120 described above may be realized by executing a program (software program, computer program) in the CPU 910 of the computer 900 shown in FIG.
  • a program that is a constituent element of the determination unit 30 in FIG. 1, the control unit 40, the determination unit 122 in FIG. 3 and FIG. 7, the control unit 124, and the collation unit 128 in FIG.
  • a CPU Central Processing Unit
  • ROM Read Only Memory
  • the read program is, for example, as shown in the flowcharts of FIGS.
  • a RAM Random Access Memory
  • the present invention described using the above-described embodiment as an example is considered to be configured by a computer-readable storage medium storing a code representing the computer program or a code representing the computer program. be able to.
  • the computer-readable storage medium is, for example, a hard disk drive 940, a removable magnetic disk medium (not shown), an optical disk medium, a memory card, or the like.
  • the present invention has been described above using the above-described embodiment as an exemplary example. However, the present invention is not limited to the above-described embodiment. That is, the present invention can apply various modes that can be understood by those skilled in the art within the scope of the present invention.
  • This application claims priority based on Japanese Patent Application No. 2014-065932 filed on Mar. 27, 2014, the entire disclosure of which is incorporated herein.

Landscapes

  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Accounting & Taxation (AREA)
  • Finance (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Cash Registers Or Receiving Machines (AREA)
  • Image Analysis (AREA)

Abstract

 物体を迅速に認識することができる技術を提供する。POS端末装置は、物体を撮像して画像を生成する撮像部と、画像内の物体を所定の方向に誘導するための誘導表示を表示する表示部と、画像内に物体の少なくとも一部があるか否かを判定する判定部と、画像内に物体の少なくとも一部がある場合、誘導表示を表示部に表示するように制御する制御部と、を備える。

Description

情報処理装置、画像処理方法と記録媒体、ならびに、POS端末装置
 本発明は、物体の識別技術を用いる装置に関する。または、物体の識別技術を用いるPOS(Point Of Sales)端末装置に関する。
 特許文献1は、バーコードスキャナ技術を開示する。まず、バーコードスキャナの画像判定部が撮像画像のフレーム内にバーコードの候補となる画像があるか否かを判定する。続いて、デコード処理部がバーコード候補画像の部分的な欠落を検出した場合、撮像画像表示部がバーコード候補画像をバーコードとして撮像できるように案内するためのガイド画像を表示器に表示する。
特開2010-231436号公報
 しかしながら、特許文献1のように、バーコード候補画像の部分的な欠落が検出できない場合、案内するためのガイド画像を表示することができず、物体を迅速に識別できなくなるという課題がある。
 本発明の目的は、上記の課題を解決するために、物体を迅速に認識することができる技術を提供することにある。
 本発明の一態様であるPOS端末装置は、物体を撮像して画像を生成する撮像部と、画像内の物体を所定の方向に誘導するための画像を表示する表示部と、画像内に物体の少なくとも一部があるか否かを判定する判定部と、画像内に物体の少なくとも一部がある場合、画像内の物体を所定の方向に誘導するための誘導表示を表示部に表示するように制御する制御部と、を備える。
 本発明の一態様である情報処理装置は、撮像された画像内に物体の少なくとも一部があるか否かを判定する判定部と、画像内に物体の少なくとも一部がある場合、誘導表示を表示装置に表示するように制御する制御部と、を備える。
 本発明の一形態である画像処理方法は、撮像した画像内に物体の少なくとも一部があるか否かを判定し、画像内に物体の少なくとも一部がある場合、画像内の物体を所定の方向に誘導するための誘導表示を表示装置に表示する。
 本発明の一形態である記録媒体は、撮影した画像内に物体の少なくとも一部があるか否かを判定し、画像内に物体の少なくとも一部がある場合、画像内の物体を所定の方向に誘導するための誘導表示を表示装置に表示することをコンピュータに実行させるプログラムを保持する。
 本発明によれば、物体を迅速に認識することができる。
本発明の第1の実施形態にかかるPOS端末装置の概要を示す図である。 第1の実施形態にかかるPOS端末装置の外観を示す側面図である。 第1の実施形態にかかるPOS端末装置の構成を示すブロック図である。 第1の実施形態にかかるPOS端末装置および情報処理装置の動作を示すフローチャートである。 第1の実施形態にかかる物体と撮像可能領域との位置関係を示す図である。 表示部に表示される誘導表示を示す図である。 表示部に表示される誘導表示を示す図である。 第1の実施形態にかかる物体と撮像可能領域との位置関係を示す図である。 表示部に表示される誘導表示を示す図である。 第2の実施形態にかかるPOS端末装置の構成を示すブロック図である。 第2の実施形態にかかるPOS端末装置および情報処理装置の動作を示すフローチャートである。 コンピュータによるハードウェア構成を示す図である。
 (第1の実施形態)
 本発明にかかる第1の実施形態の概要を説明する。図1は、本発明の第1の実施形態の一例であるPOS端末装置1の概要を示す図である。図1に示すように、POS端末装置1は、撮像部10と、表示部20と、情報処理装置50とを備える。情報処理装置50は、判定部30と、制御部40とを備える。
 撮像部10は、物体を撮像して画像を生成する。表示部20は、撮像部10が生成した画像を表示する。情報処理装置50の判定部30は、撮像部10が生成した画像内に物体の少なくとも一部があるか否かを判定する。情報処理装置50の制御部40は、撮像部10が生成した画像内に物体の一部がある場合、画像内の物体を所定の方向に誘導するための誘導表示を表示部20に表示する。例えば、制御部40の誘導表示は、物体の画像が表示部20の表示画面にすべて表示されるように誘導する誘導表示であってもよく、物体の画像のピントが合う方向に物体を誘導する誘導表示であってもよい。なお、制御部40は、誘導表示を表示部20に表示しつつ、撮像部10が撮像している物体の画像を表示部20に表示するように制御してもよい。
 本発明の実施形態にかかるPOS端末装置1は、画像内に物体の少なくとも一部がある場合、画像内の物体を所定の方向に誘導するための誘導表示を表示部20に表示する。これにより、迅速に物体を認識することができる。
 以上は、POS端末装置1が撮像部10と、表示部20と、情報処理装置50とを備える構成の一例であるが、これに限られるものではない。例えば、POS端末装置1が撮像部10と、表示部20とを備え、POS端末装置1の外部に設置された情報処理装置50が判定部30と制御部40とを備え、POS端末装置1と情報処理装置50とが有線や無線で接続される構成でもよい。
 以下、第1の実施形態の具体例について、図面を用いてより詳細に説明する。図2は、第1の実施形態の1つの具体例であるPOS端末装置100の外観を示す側面図である。また、図3は、第1の実施形態にかかるPOS端末装置100の構成を示すブロック図である。POS端末装置100は、店員用表示部110と、顧客用表示部112と、情報処理装置120と、商品読取装置140と、を備える。図2の店員用表示部110は、店員のための情報を表示し、顧客用表示部112は、顧客のための情報を表示する。
 店員用表示部110および顧客用表示部112は、タッチパネルディスプレイ、LCD(Liquid Crystal Display)を用いることができる。店員用表示部110および顧客用表示部112は、キーボード等の入力装置を備えていてもよい。店員用表示部110は、情報処理装置120の制御によって、店員に必要な情報を表示し、店員の操作を受け付ける。
 顧客用表示部112は、情報処理装置120の制御によって、顧客に必要な情報を表示する。必要に応じて顧客の操作を受け付けてもよい。
 情報処理装置120は、店員用表示部110、顧客用表示部112及び商品読取装置140の動作を制御する。また、情報処理装置120は、店員用表示部110によって受け付けられた操作に応じて必要な処理をする。また、情報処理装置120は、商品読取装置140によって読み取られた画像情報に応じて、画像処理等の必要な処理をする。
 商品読取装置140は、筐体142と、撮像部130とを有する。筐体142の一部には、光透過性がある商品読取面144が設けられている。商品読取面144は、店員の作業のために筐体142の店員側の面に設けられ、物体を撮像させるときに、その物体が向けられる。撮像部130は、筐体142の内部に設けられている。店員が顧客から受け取った物体を商品読取面144に向けると、撮像部130が物体の画像を読み取る。これにより、POS端末装置100は、物体の認識処理をする。
 撮像部130が物体を撮像できる範囲(以下、撮像可能範囲と示す)は、撮像部130のレンズの画角および焦点などの光学特性に依存する。撮像可能領域Aは、画角等によりレンズを通して撮像部130に写り込む画角範囲と、焦点を合わせたときに鮮明な像が得られる焦点範囲で構成される。このため、図2のPOS端末装置100における撮像可能領域は、一点鎖線で囲まれた撮像可能領域Aのように示される。図2において、画角範囲のうち上下方向は、撮像部130から商品読取面144を経て広がる鎖線で示される。図2上、画角範囲の左右方向は示されない。なお上下方向、左右方向は、撮像部130の位置を起点としている。焦点範囲は、撮影部130から商品読取面144への奥行方向の範囲となる。このとき図2に示されない画角範囲の左右方向は、当該上下方向と当該奥行方向に垂直な方向となる。
 撮像部130については、以下に詳述する。撮像部130は、少なくとも以下の3通りの形態をとることができる。第1の場合、撮像部130は、2次元の画像を撮像する2次元画像撮像部と、商品までの距離を計測する距離センサと、距離画像生成部と、を備える。2次元画像撮像部は、商品読取面144に向けられた物体を撮像して、その物体の画像を含む2次元のカラー画像又は2次元のモノクロ画像を生成する。
 距離センサは例えばTOF(Time Of Flight)方式で、距離センサから商品読取面144に向けられた物体の位置までの距離を計測する。つまり、距離センサは、赤外線等の光線を照射し、照射された光線が物体まで往復するのにかかる時間から距離を計測する。距離画像生成部は、物体の各位置で距離を計測し、2次元画像を重ね合わせて距離画像(3次元画像)を生成する。第1の場合、撮像部130は、商品までの距離が所定範囲(例えば15cm~30cm)内にある物体を撮像することができる。
 第2の場合、撮像部130は、2次元の画像を撮像する2次元画像撮像部を1個、備える。第2の場合、撮像部130があらかじめ撮像しておいた背景画像と、物体を含む画像との差分をとって物体の画像を取得することができる。
 第3の場合、撮像部130は、2次元の画像を撮像する2次元画像撮像部を複数個と、距離画像生成部と、を備える。距離画像生成部は、複数の撮像部間の視野の違いにより距離画像(3次元画像)を生成することができる。
 判定部122は、画像内に物体の少なくとも一部があるか否かを判定する。この処理は、例えば、制御部124の制御によって、プログラムを実行させることによって実現できる。具体的には、記憶部(図示せず)に格納されたプログラムを実行して実現する。
 図4は、POS端末装置100、および、情報処理装置120の動作を示すフローチャートである。図4において、ステップS100~S300は、POS端末装置100の動作を示すフローチャーチであり、その一部であるステップS200~S300は、情報処理装置120の動作を示すフローチャートである。
 POS端末装置100の撮像部130は物体を撮像して画像を生成する(S100)。次に、情報処理装置120の判定部122は、画像内に物体の少なくとも一部があるか否かを判定する(S200)。具体的には、画像が距離情報を含む距離画像の場合、撮像可能領域Aである、所定の上下方向の範囲、左右方向の範囲および奥行方向内の範囲内に、物体の少なくとも一部があるか否かを判定する。また、画像が距離情報を含まない、通常の2次元画像の場合、撮像可能領域Aである所定の上下方向の範囲及び左右方向の範囲内に物体の少なくとも一部があるか否かを判定する。
 次に、画像内に物体の少なくとも一部がない場合(S200でNO)、ステップS100に戻り、撮像部130は再び物体を撮像する。
 次に、画像内に物体の少なくとも一部がある場合(S200でYES)、制御部124は、画像内の物体を所定の方向に誘導するための誘導表示を店員用表示部110に表示する(S300)。一例として、制御部124は、撮像可能領域Aに物体の全体が入るように誘導する誘導表示を表示するように制御する。物体の全体が入るように誘導する誘導表示を表示することにより、店員は誘導表示に従って物体を動かす。その結果、物体の全体が撮像部130により撮像されるため、商品画像のデータベースとの画像マッチングを迅速に行うことができる。
 図5Aは、物体131と、図2のPOS端末装置100の撮像部130における撮像可能領域Aとの位置関係の一例を示す図である。図5Aにおける撮像可能領域Aは、撮像部130から物体側の方向に設定された領域である。図5Aは、物体131の一部が撮像部130の撮像可能領域Aに含まれる状態を示している。図5Aで、物体を丸で示しているが、具体例としては、トマトやリンゴのような生鮮食品、又は、パッケージされたお菓子である。なお、物体は、丸形以外の形状でも適用可能である。図5Aでは、物体131は、撮像部130側から見て一部が撮像可能領域Aの右上側に存在する。
 図5Bは、図3又は図4の店員用表示部110に表示される誘導表示111の一例を示す図である。撮像部130(図4)が撮像した画像内に物体131の少なくとも一部がある場合、制御部124(図4)は、画像処理することにより、画像のどの部分に物体131の一部があるかを認識する。
 撮像部130で撮影される画像は、上下方向および左右方向に区切られた画素で構成される。そして、制御部124は、どの画素に物体があるかを認識する。さらに、制御部124は、撮像可能領域Aに物体131の全体が入るように誘導する方向を決定する。誘導する方向は、制御部124が、物体が撮像された画素位置から、全体画像の略中心の画素位置までの方向を計算して決定する。この際、撮像部130が撮像する物体の画像の位置と、店員が作業位置から見る物体の位置は、左右対称となる。制御部124はこの点を考慮して誘導する方向に対応した誘導表示111を店員用表示部110に表示する。
 また、図5Cに示すように、制御部124は、撮像した物体の画像114を、誘導表示111とともに、店員用表示部110に表示してもよい。撮像した物体の画像114を店員用表示部110に表示する場合も、撮像部130が撮像する物体の画像の位置と、店員が作業位置から見る物体の位置が左右対称となる。このため、制御部124は、画像の中心を境に左右を反転させた画像を店員用表示部110に表示する。店員は、物体がある位置と、誘導表示とを店員用表示部110で確認することができるため、物体全体を撮像できるように、物体を移動することができる。その結果、物体の全体が撮像部130により撮像されるため、商品画像のデータベースとの画像マッチングを迅速に行うことができる。
 図5A~Cに示すような矢印による誘導表示の他に、制御部124は、物体131の移動に伴い店員用表示部110に表示する色を変化させてもよい。例えば、撮像可能領域Aに物体の全てが入っている場合は緑色、物体の半分以上が入っている場合は黄色、物体の半分未満が入っている場合は赤色を表示させてもよい。
 図6Aは、第1の実施形態にかかる物体と撮像可能領域Aとの位置関係を示す図である。POS端末装置の一部である商品読取装置140内に設置された撮像部130は、商品読取面144を介して物体131を撮像する。図6Aに示すように、物体131は、撮像可能領域Aに一部が入っており、撮像可能領域Aより撮像部130に近い方に位置している。
 この場合、制御部124(図4)は、撮像可能領域Aより撮像部130に近い方に位置していることを、撮像部130が上述した第1の場合と第2の場合に物体までの距離を取得できることに基づいて判断する。制御部124は、取得した距離の情報から、画像の奥行方向のどの部分に物体131の一部があるかを認識する。続いて、制御部124は、画像内の物体を所定の方向に誘導するための誘導表示を店員用表示部110に表示する。望ましい例として、物体の全体が撮像可能領域Aに入るように、誘導表示を店員用表示部110に表示する。
 図6Bは、店員用表示部110に表示される誘導表示を示す図である。図6Aに示すように、物体を撮像部130に対して奥行方向に動かす必要がある場合、制御部124は、誘導表示113として、「商品を商品読取面から遠ざけてください。」との文字を表示する。別の誘導表示として、制御部124は、物体131と商品読取面144との距離が近づきすぎる場合(図6)、赤色を表示し、物体と商品読取面144との距離が遠すぎる場合、緑色を表示する。
 以上、POS端末装置100が、撮像部130と、店員用表示部110と、判定部122と、制御部124とを備える構成について説明したが本実施形態は上記の例に限られるものではない。例えば、POS端末装置100が撮像部130と、店員用表示部110とを備え、POS端末装置100の外部に設置された情報処理装置120が判定部122と制御部124とを備え、POS端末装置100と情報処理装置120とが有線や無線で接続される構成でもよい。
 (第2の実施形態)
 次に、第2の実施形態について説明する。第2の実施形態においては、情報処理装置120が、記憶部126と、照合部128とを備える点が第1の実施形態と異なる。なお、第1の実施形態と実質的に同様の構成部分については同じ符号を付し、説明を省略する。
 図7は、第2の実施形態にかかるPOS端末装置100の構成を示すブロック図である。第2の実施形態のPOS端末装置100は、図3の場合に加えて、記憶部126と、照合部128とを備える。記憶部126は、商品画像のデータベースを記憶している。ここで、商品画像のデータベースは、各商品の商品画像の特徴である形状、色の情報である。照合部128は、撮像部130が撮像した画像と、商品画像のデータベースの商品画像の特徴を照合することにより、撮像した画像が、どの商品であるかを特定する。
 判定部122、照合部128は、例えば、制御部124の制御によって、プログラムを実行させることによって実現できる。具体的には、記憶部126に格納されたプログラムを実行して実現する。なお、上記説明では、商品画像のデータベースは記憶部126で記憶されているが、これに限られるものではない。POS端末装置100の外部に設置された記憶装置(図示せず)に商品画像のデータベースが保存されてもよい。その場合、照合部128は、記憶装置から商品画像の特徴を取得して撮像部130が撮像した画像と照合することになる。
 図8は、POS端末装置100、又は、情報処理装置120の動作示すフローチャートである。図8において、図4において、ステップS100~S300は、POS端末装置100の動作を示すフローチャーチであり、その一部であるステップS200~S230は、情報処理装置120の動作を示すフローチャートである。
 POS端末装置100の撮像部130は物体を撮像して画像を生成する(S100)。次に、情報処理装置120の判定部122は、画像内に物体の少なくとも一部があるか否かを判定する(S200)。具体的には、画像が距離情報を含む距離画像の場合、撮像可能領域Aである、所定の上下方向の範囲、左右方向の範囲および奥行方向内の範囲内に、物体の少なくとも一部があるか否かを判定する。また、画像が距離情報を含まない、通常の2次元画像の場合、撮像可能領域Aである所定の上下方向の範囲及び左右方向の範囲内に物体の少なくとも一部があるか否かを判定する。
 次に、画像内に物体の少なくとも一部がない場合(S200でNO)、S100に戻り、撮像部130は再び物体を撮像する。
 なお、判定部122はS200でNOの処理を行わないこと、としてもよい。これは、次のステップの画像照合により商品が特定できる可能性があるためである。
 次に、画像内に物体の少なくとも一部がある場合(S200でYES)、照合部128は、撮像した画像と、記憶部126に記憶された商品画像データベースとを照合する。照合部128は、照合することにより撮像した画像がどの商品であるかを特定した場合、制御部124は、特定された商品として決済処理に進む(S300)。照合部128は、照合した結果、どの商品であるかを特定できない場合、制御部124は店員用表示部110に誘導表示を表示する(S230)。誘導表示は、図5B又はC、図6Bで示した表示と同様である。
 以上、POS端末装置1が撮像部130と、店員用表示部110と、判定部122と、照合部128と、制御部124とを備える場合について説明したが、これに限られるものではない。例えば、POS端末装置100が撮像部130と、店員用表示部110とを備え、POS端末装置100の外部に設置された情報処理装置120が判定部122と制御部124と照合部128を備え、POS端末装置100と情報処理装置120とが有線や無線で接続される構成でもよい。
 前述した情報処理装置50、120の少なくとも一部は、プログラム(ソフトウェアプログラム,コンピュータプログラム)が図9に示すコンピュータ900のCPU910において実行されることにより実現されてもよい。具体的には、図1の判定部30、制御部40、図3、図7の判定部122、制御部124、図7の照合部128の構成要素とするプログラムを実行することにより実現できる。これらの構成要素は、CPU(Central Processing Unit)910がROM(Read Only Memory)930あるいはハードディスクドライブ940からプログラムを読み込み、読み込んだプログラムを、例えば図4、図8に示したフローチャートの手順の如くCPU910、及び、RAM(Random Access Memory)920を用いて実行することにより実現されてもよい。そして、このような場合において、上述した実施形態を例に説明した本発明は、係るコンピュータプログラムを表すコードあるいはそのコンピュータプログラムを表すコードが格納されたコンピュータ読み取り可能な記憶媒体によって構成されると捉えることができる。コンピュータ読み取り可能な記憶媒体は、例えばハードディスクドライブ940や、不図示の着脱可能な磁気ディスク媒体,光学ディスク媒体やメモリカードなどである。なお、図1の判定部30、制御部40、図3、図7の判定部122、制御部124、図7の照合部128は、集積回路による専用のハードウェアであってもよい。
 以上、上述した実施形態を模範的な例として本発明を説明した。しかしながら、本発明は、上述した実施形態には限定されない。即ち、本発明は、本発明のスコープ内において、当業者が理解し得る様々な態様を適用することができる。
 この出願は、2014年3月27日に出願された日本出願特願2014-065932を基礎とする優先権を主張し、その開示の全てをここに取り込む。
 1    POS端末装置
 10   撮像部
 20   表示部
 30   判定部
 40   制御部
 50   情報処理装置
 100  POS端末装置
 110   店員用表示部
 111   誘導表示
 112   店員用表示部
 113   誘導表示
 114   物体の画像
 120  情報処理装置
 122  判定部
 124  制御部
 128  照合部
 130  撮像部
 131  物体
 140  商品読取装置
 142  筐体
 144  商品読取面
 900  コンピュータ
 910  CPU
 920  RAM
 930  ROM
 940  ハードディスクドライブ
 950  通信インターフェース

Claims (10)

  1.  物体を撮像して画像を生成する撮像手段と、
     前記画像内の前記物体を所定の方向に誘導するための誘導表示を表示する表示手段と、
     前記画像内に前記物体の少なくとも一部があるか否かを判定する判定手段と、
     前記画像内に前記物体の少なくとも一部がある場合、前記誘導表示を前記表示手段に表示するように制御する制御手段と、
     を備えるPOS端末装置。
  2.  前記画像と商品画像データベースとを照合する照合手段と、を備え、
     照合の結果、前記物体がどの商品であるかを特定できない場合、前記制手段は、前記誘導表示を前記表示手段に表示するように制御する、
     POS端末装置。
  3.  前記画像内の前記物体を所定の方向に誘導するとは、前記撮像手段の撮像可能領域に前記物体の全体が入るように誘導することである、
     請求項1又は2に記載のPOS端末装置。
  4.  前記画像内の前記物体を所定の方向に誘導するとは、撮像可能領域における前記撮像手段の焦点範囲に含まれる奥行方向への誘導である、
     請求項1乃至3のいずれか1項に記載のPOS端末装置。
  5.  前記画像内の前記物体を所定の方向に誘導するとは、撮像可能領域における上下方向、左右方向、又は、これらを組合せた方向への誘導である、請求項1乃至3のいずれか1項に記載のPOS端末装置。
  6.  前記誘導表示は、前記画像内の前記物体の位置に応じた色の変化である、請求項1乃至5のいずれか1項に記載のPOS端末装置。
  7.  撮像された画像内に物体の少なくとも一部があるか否かを判定する判定手段と、
     前記画像内に前記物体の少なくとも一部がある場合、前記画像内の前記物体を所定の方向に誘導するための誘導表示を表示装置に表示するように制御する制御手段と、
     を備える情報処理装置。
  8.  物体を撮像して画像を生成する撮像手段と、
     前記画像内の前記物体を所定の方向に誘導するための誘導表示を表示する表示手段と、
    を有するPOS端末装置と、
     前記画像内に前記物体の少なくとも一部があるか否かを判定する判定手段と、
     前記画像内に前記物体の少なくとも一部がある場合、前記誘導表示を表示装置に表示するように制御する制御手段と、
     を有する情報処理装置と、
     を備える情報処理システム。
  9.  撮像した画像内に物体の少なくとも一部があるか否かを判定し、
     前記画像内に前記物体の少なくとも一部がある場合、前記画像内の前記物体を所定の方向に誘導するための誘導表示を表示装置に表示する、
     画像処理方法。
  10.  撮影した画像内に物体の少なくとも一部があるか否かを判定し、
     前記画像内に前記物体の少なくとも一部がある場合、前記画像内の前記物体を所定の方向に誘導するための誘導表示を表示装置に表示することをコンピュータに実行させるプログラムを保持する記録媒体。
PCT/JP2015/000995 2014-03-27 2015-02-26 情報処理装置、画像処理方法と記録媒体、ならびに、pos端末装置 WO2015145977A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201580016771.2A CN106164989A (zh) 2014-03-27 2015-02-26 信息处理设备、信息处理方法、记录介质及pos终端设备
US15/129,363 US20170178107A1 (en) 2014-03-27 2015-02-26 Information processing apparatus, information processing method, recording medium and pos terminal apparatus
JP2016509948A JPWO2015145977A1 (ja) 2014-03-27 2015-02-26 情報処理装置、画像処理方法とプログラム、ならびに、pos端末装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014065932 2014-03-27
JP2014-065932 2014-03-27

Publications (1)

Publication Number Publication Date
WO2015145977A1 true WO2015145977A1 (ja) 2015-10-01

Family

ID=54194533

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/000995 WO2015145977A1 (ja) 2014-03-27 2015-02-26 情報処理装置、画像処理方法と記録媒体、ならびに、pos端末装置

Country Status (4)

Country Link
US (1) US20170178107A1 (ja)
JP (4) JPWO2015145977A1 (ja)
CN (1) CN106164989A (ja)
WO (1) WO2015145977A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016115284A (ja) * 2014-12-17 2016-06-23 カシオ計算機株式会社 商品識別装置および商品認識ナビゲーション方法
JP2019153152A (ja) * 2018-03-05 2019-09-12 日本電気株式会社 情報処理システム、情報処理方法及びプログラム
WO2019181424A1 (ja) * 2018-03-22 2019-09-26 日本電気株式会社 情報処理システム、情報処理方法及び記憶媒体

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006344066A (ja) * 2005-06-09 2006-12-21 Sharp Corp 図形コード読取装置
JP2011165139A (ja) * 2010-02-15 2011-08-25 Toshiba Tec Corp コードシンボル読取装置及び制御プログラム
JP2013156804A (ja) * 2012-01-30 2013-08-15 Toshiba Tec Corp 商品読取装置及び商品読取プログラム

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001338296A (ja) * 2000-03-22 2001-12-07 Toshiba Corp 顔画像認識装置および通行制御装置
JP3974375B2 (ja) * 2001-10-31 2007-09-12 株式会社東芝 人物認識装置、人物認識方法および通行制御装置
JP2004357897A (ja) * 2003-06-04 2004-12-24 Namco Ltd 情報提供システム、プログラム、情報記憶媒体および情報提供方法
KR100594240B1 (ko) * 2004-01-29 2006-06-30 삼성전자주식회사 패널 테스트 패턴을 발생하는 패널 구동 드라이버 및 패널테스트 방법
US8194045B1 (en) * 2005-01-27 2012-06-05 Singleton Technology, Llc Transaction automation and archival system using electronic contract disclosure units
JP4303748B2 (ja) * 2006-02-28 2009-07-29 シャープ株式会社 画像表示装置及び方法、画像処理装置及び方法
US8876001B2 (en) * 2007-08-07 2014-11-04 Ncr Corporation Methods and apparatus for image recognition in checkout verification
US7909248B1 (en) * 2007-08-17 2011-03-22 Evolution Robotics Retail, Inc. Self checkout with visual recognition
JP4523975B2 (ja) * 2008-01-24 2010-08-11 東芝テック株式会社 データコード読み取り装置
JP4436872B2 (ja) * 2008-01-24 2010-03-24 東芝テック株式会社 データコード読み取り装置
JP5666772B2 (ja) * 2008-10-14 2015-02-12 Necソリューションイノベータ株式会社 情報提供装置、情報提供方法及びプログラム
JP4997264B2 (ja) * 2009-03-26 2012-08-08 東芝テック株式会社 コードシンボル読取装置
JP5535508B2 (ja) * 2009-03-31 2014-07-02 Necインフロンティア株式会社 セルフpos装置及びその動作方法
JP4856263B2 (ja) * 2009-08-07 2012-01-18 シャープ株式会社 撮像画像処理システム、画像出力方法、プログラムおよび記録媒体
JP5053396B2 (ja) * 2010-02-15 2012-10-17 東芝テック株式会社 コードシンボル読取装置及びその制御プログラム
JP5000738B2 (ja) * 2010-03-10 2012-08-15 東芝テック株式会社 コード読取装置およびプログラム
JP5544332B2 (ja) * 2010-08-23 2014-07-09 東芝テック株式会社 店舗システムおよびプログラム
JP5132732B2 (ja) * 2010-08-23 2013-01-30 東芝テック株式会社 店舗システムおよびプログラム
JP5463247B2 (ja) * 2010-09-02 2014-04-09 東芝テック株式会社 セルフチェックアウト端末及びプログラム
JP5621421B2 (ja) * 2010-09-06 2014-11-12 ソニー株式会社 画像処理装置、プログラム及び画像処理方法
US8474712B2 (en) * 2011-09-29 2013-07-02 Metrologic Instruments, Inc. Method of and system for displaying product related information at POS-based retail checkout systems
JP2013077120A (ja) * 2011-09-30 2013-04-25 Nippon Conlux Co Ltd 電子マネー決済システムおよび決済端末ならびに記憶媒体
JP6021489B2 (ja) * 2011-10-03 2016-11-09 キヤノン株式会社 撮像装置、画像処理装置およびその方法
JP5450560B2 (ja) * 2011-10-19 2014-03-26 東芝テック株式会社 商品データ処理装置、商品データ処理方法及び制御プログラム
US8736634B2 (en) * 2012-02-29 2014-05-27 Nec Corporation Color scheme changing apparatus, color scheme changing method, and color scheme changing program
JP6003989B2 (ja) * 2012-08-15 2016-10-05 日本電気株式会社 情報処理装置、情報処理システム、未登録商品照会方法及び未登録商品照会プログラム
JP5612645B2 (ja) * 2012-09-06 2014-10-22 東芝テック株式会社 情報処理装置及びプログラム
JP5707375B2 (ja) * 2012-11-05 2015-04-30 東芝テック株式会社 商品認識装置及び商品認識プログラム
JP6147676B2 (ja) * 2014-01-07 2017-06-14 東芝テック株式会社 情報処理装置、店舗システム及びプログラム
JP6220679B2 (ja) * 2014-01-08 2017-10-25 東芝テック株式会社 情報処理装置、店舗システム及びプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006344066A (ja) * 2005-06-09 2006-12-21 Sharp Corp 図形コード読取装置
JP2011165139A (ja) * 2010-02-15 2011-08-25 Toshiba Tec Corp コードシンボル読取装置及び制御プログラム
JP2013156804A (ja) * 2012-01-30 2013-08-15 Toshiba Tec Corp 商品読取装置及び商品読取プログラム

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016115284A (ja) * 2014-12-17 2016-06-23 カシオ計算機株式会社 商品識別装置および商品認識ナビゲーション方法
JP2019153152A (ja) * 2018-03-05 2019-09-12 日本電気株式会社 情報処理システム、情報処理方法及びプログラム
WO2019181424A1 (ja) * 2018-03-22 2019-09-26 日本電気株式会社 情報処理システム、情報処理方法及び記憶媒体
JP2019168839A (ja) * 2018-03-22 2019-10-03 日本電気株式会社 情報処理システム、情報処理方法及びプログラム
US11276053B2 (en) 2018-03-22 2022-03-15 Nec Corporation Information processing system, method, and storage medium for detecting a position of a customer, product or carrier used for carrying the product when the customer approaches a payment lane and determining whether the detected position enables acquisition of identification information from the product
JP7228150B2 (ja) 2018-03-22 2023-02-24 日本電気株式会社 情報処理システム、情報処理方法及びプログラム

Also Published As

Publication number Publication date
JP2024015415A (ja) 2024-02-01
JPWO2015145977A1 (ja) 2017-04-13
CN106164989A (zh) 2016-11-23
JP7578178B2 (ja) 2024-11-06
US20170178107A1 (en) 2017-06-22
JP7453137B2 (ja) 2024-03-19
JP2019012546A (ja) 2019-01-24
JP6819658B2 (ja) 2021-01-27
JP2021051806A (ja) 2021-04-01

Similar Documents

Publication Publication Date Title
US10121039B2 (en) Depth sensor based auto-focus system for an indicia scanner
JP7578178B2 (ja) 端末装置
US10249030B2 (en) Image transformation for indicia reading
JP2016126797A (ja) 加速度に基づく動き許容および予測符号化
JP2017187988A (ja) コード認識装置
US10839554B2 (en) Image labeling for cleaning robot deep learning system
JP2019164842A (ja) 人体行動分析方法、人体行動分析装置、機器及びコンピュータ可読記憶媒体
US20150116543A1 (en) Information processing apparatus, information processing method, and storage medium
JP2023508501A (ja) 3次元座標と2次元特徴点との関連付け
JP7036874B2 (ja) コード認識装置
US9979858B2 (en) Image processing apparatus, image processing method and program
JP4807170B2 (ja) パターン検出方法、パターン検出プログラム、パターン検出装置、及び撮像装置
JP6221283B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
KR102050590B1 (ko) 디지털 이미지 판단시스템 및 그 방법, 이를 위한 애플리케이션 시스템
US10339661B2 (en) Movement direction determination method and movement direction determination device
JP5935118B2 (ja) 物体検出装置および物体検出方法
JP7228112B2 (ja) 投影制御装置、投影装置、投影方法及びプログラム
JP2007206963A (ja) 画像処理装置及び画像処理方法及びプログラム及び記憶媒体
CN114694145A (zh) 作为视场识别和瞄准的双照明器
US8292181B1 (en) Apparatus and system for a hybrid optical code scanner
JP6157068B2 (ja) 情報処理装置及びその制御方法
JP7304992B2 (ja) コード認識装置
US11880738B1 (en) Visual odometry for optical pattern scanning in a real scene
US11922268B1 (en) Object identification based on a partial decode
WO2019094164A1 (en) Methods and apparatus for rapid dimensioning an object

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15767826

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2016509948

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 15129363

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15767826

Country of ref document: EP

Kind code of ref document: A1