JP2009126660A - Article management system and information processing apparatus - Google Patents

Article management system and information processing apparatus Download PDF

Info

Publication number
JP2009126660A
JP2009126660A JP2007305327A JP2007305327A JP2009126660A JP 2009126660 A JP2009126660 A JP 2009126660A JP 2007305327 A JP2007305327 A JP 2007305327A JP 2007305327 A JP2007305327 A JP 2007305327A JP 2009126660 A JP2009126660 A JP 2009126660A
Authority
JP
Japan
Prior art keywords
article
area
unit
detection
stored
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Abandoned
Application number
JP2007305327A
Other languages
Japanese (ja)
Inventor
Hiroyuki Kushida
博之 櫛田
Shinji Saegusa
慎治 三枝
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba TEC Corp
Original Assignee
Toshiba TEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba TEC Corp filed Critical Toshiba TEC Corp
Priority to JP2007305327A priority Critical patent/JP2009126660A/en
Priority to US12/323,938 priority patent/US20090135013A1/en
Priority to CNA2008101774748A priority patent/CN101447055A/en
Publication of JP2009126660A publication Critical patent/JP2009126660A/en
Abandoned legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/08Logistics, e.g. warehousing, loading or distribution; Inventory or stock management

Landscapes

  • Business, Economics & Management (AREA)
  • Engineering & Computer Science (AREA)
  • Strategic Management (AREA)
  • Economics (AREA)
  • Development Economics (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Marketing (AREA)
  • Finance (AREA)
  • Accounting & Taxation (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • Human Resources & Organizations (AREA)
  • Tourism & Hospitality (AREA)
  • Quality & Reliability (AREA)
  • Operations Research (AREA)
  • Game Theory and Decision Science (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Display Racks (AREA)
  • Warehouses Or Storage Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an article management system and information processing apparatus capable of precisely investigating consumers' attention to articles such as commercial products and samples displayed on shelves and tables. <P>SOLUTION: This article management system is provided with an article placement position storing means for associating article identifying information on a plurality of articles placed on a placement part with article position information indicating positions on which the articles are placed and storing the information; a target detecting means for detecting a target approaching to the articles placed on the placement part or the positions where the articles are placed and measuring and outputting target position information indicating the position of the target; and an article identifying means for determining the article position information including the target position information output by the target detecting means and identifying the article identifying information stored while associated with the determined article position information. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、棚や台に陳列、保管された、商品、見本品等の物品の管理を行う物品管理システム及び情報処理装置に関する。   The present invention relates to an article management system and an information processing apparatus for managing articles such as merchandise and samples displayed and stored on shelves and stands.

近年、小売店等での店舗では、他店との商品販売競争が激化し、他店との差別化の為、お客である消費者の注目する商品を調査し把握することが、マーケティングにおいて重要な要素になっている。例えば、店舗内に陳列されている商品への消費者の注目度を調査したり、商品が陳列されている商品陳列棚の商品レイアウトである棚割りの効果などを調査することも、重要である。 In recent years, in retail stores, etc., product sales competition with other stores has intensified, and in order to differentiate from other stores, it is important in marketing to investigate and grasp the products that customers are paying attention to It is an element. For example, it is also important to investigate the consumer's attention to the products displayed in the store, and to investigate the effect of the shelf layout, which is the product layout of the product display shelf on which the products are displayed. .

下記特許文献1には、商品陳列棚、ショーケースなどを計測対象として、消費者の注目度合いを計測する技術が開示されている。
特開平10−048008号公報。
Patent Document 1 below discloses a technique for measuring the degree of attention of a consumer using a merchandise display shelf, a showcase, or the like as a measurement target.
JP 10-048008 A.

上記特許文献1は、テレビカメラを調査対象商品の周辺の天井、壁等に設置して消費者の画像を撮像し、陳列された商品への消費者の注目度合いを求めるものである。しかしながら、このような画像を利用した技術は、計測範囲が狭くなってしまう。また、照明や、棚や柱の影などの光学的影響を受け易く、さらに、天井、壁への設置、取り外し工事、保守が大掛かりで、設置場所が限定される、などの課題を有している。   In Patent Document 1, a television camera is installed on a ceiling, a wall, or the like around a product to be surveyed to capture an image of the consumer, and the degree of attention of the consumer to the displayed product is obtained. However, the technique using such an image has a narrow measurement range. In addition, it is susceptible to optical influences such as lighting and shadows on shelves and pillars, and has problems such as installation on the ceiling and walls, removal work, maintenance, and limited installation location. Yes.

また、店舗内の計測範囲に消費者が滞在した時間が一定時間を超えた場合に、その計測範囲に存在する陳列棚の商品に消費者が注目したと判断しているので、商品陳列棚に陳列された商品が一種類であれば、注目度合いは計測できるが、実際の店舗では、商品陳列棚には複数種類の商品が少しずつ陳列されているのが現状であり、上記特許文献1の技術では、より正確に消費者が注目した商品を特定し集計することはできない。   In addition, if the consumer's stay in the measurement range in the store exceeds a certain time, it is determined that the consumer has focused on the product on the display shelf that exists in the measurement range. If there is only one type of displayed product, the degree of attention can be measured. However, in actual stores, a plurality of types of products are displayed little by little on the product display shelf. With technology, it is not possible to identify and aggregate the products that consumers have focused on more accurately.

実際に、消費者が購入した商品であれば、POS(Point Of Sales)システムが管理する商品販売データを分析すれば、消費者が現時点で注目し購入した商品を調査することは可能である。しかし消費者が、商品陳列棚から一度は手に取ったものの、再び陳列棚に返却した商品の特定や、消費者が実際に手を伸ばして商品を手に取った回数と販売個数との対比等、POSシステムの商品販売データからは分析できない情報も消費者が注目しているが購入までには至らない、又は注目度の割には販売個数が増えない商品の情報として、店舗の販売戦略において重要な情報である。   In fact, if the product is a product purchased by a consumer, it is possible to investigate the product that the consumer has paid attention to at the present time by analyzing the product sales data managed by a POS (Point Of Sales) system. However, the consumer picked up the product from the product display shelf once, but returned it to the display shelf again, and contrasted the number of products sold with the number of times the consumer actually reached out and picked up the product. Information that cannot be analyzed from POS system product sales data, etc., but consumers are paying attention, but it does not lead to purchase, or the sales strategy of stores as information on products whose sales volume does not increase for the degree of attention Is important information.

本発明は、棚や台に陳列された、商品、見本品等の物品に対する消費者の注目度を、詳細に調査することが可能となる物品管理システム及び情報処理装置を提供することを目的とする。   An object of the present invention is to provide an article management system and an information processing apparatus capable of investigating in detail a consumer's attention to an article such as a product or a sample displayed on a shelf or a stand. And

上記した目的を達成するために、本発明の物品管理システムでは、載置部に載置される複数の物品の物品識別情報と物品が載置される位置を示す物品位置情報を関連付けて記憶する物品載置位置記憶手段と、載置部に載置される物品又は物品が載置される位置に接近する対象物を検出し、その対象物の位置を示す対象物位置情報を計測し出力する対象物検出手段と、この対象物検出手段が出力する対象物位置情報が含まれる物品位置情報を判別し、判別した物品位置情報と関連付けて記憶された物品識別情報を特定する物品特定手段とを発明の構成として備えている。   In order to achieve the above-described object, in the article management system of the present invention, article identification information of a plurality of articles placed on the placement unit and article position information indicating positions where the articles are placed are stored in association with each other. The article placement position storage means and the article placed on the placement section or the object approaching the position where the article is placed are detected, and the object position information indicating the position of the object is measured and output. Object detection means and article specification means for determining article position information including the object position information output by the object detection means, and specifying article identification information stored in association with the determined article position information It is provided as a configuration of the invention.

本発明によれば、棚や台に陳列された、商品、見本品等の物品に対する消費者の注目度を、詳細に調査する物品管理システム及び情報処理装置を提供することが可能となる。   ADVANTAGE OF THE INVENTION According to this invention, it becomes possible to provide the goods management system and information processing apparatus which investigate a consumer's attention degree with respect to articles, such as goods and a sample displayed on a shelf or a stand, in detail.

以下、本発明を実施するための最良の形態について、図面を用いて説明する。   The best mode for carrying out the present invention will be described below with reference to the drawings.

(第1の実施形態)
図1〜図14を用いて本発明の第1の実施形態を説明する。
(First embodiment)
A first embodiment of the present invention will be described with reference to FIGS.

図1は、本発明の第1の実施形態である物品管理システム80の構成を示した図である。物品管理システム80は、センサ部20(対象物検出手段)と、システム管理部40(情報処理装置)から構成されている。   FIG. 1 is a diagram showing a configuration of an article management system 80 according to the first embodiment of the present invention. The article management system 80 includes a sensor unit 20 (object detection means) and a system management unit 40 (information processing device).

センサ部20は、例えば店舗の商品陳列棚1(載置部)の棚ごとに設置されるセンサ部20a、センサ部20b、センサ部20cから構成され、商品陳列棚1に陳列された商品2(物品)又は商品陳列場所8(物品載置領域)に接近する対象物3を検出すると、各センサ部から対象物3までの距離を計測し対象物3の位置データ(対象物位置情報)としてシステム管理部40に送信する。なお、センサ部20a、センサ部20b、センサ部20cは、同じハードウェア構成で同じ機能を有するので、第1の実施形態では、対象物検出手段としてセンサ部20bについて説明する。   The sensor unit 20 includes, for example, a sensor unit 20a, a sensor unit 20b, and a sensor unit 20c that are installed for each shelf of the product display shelf 1 (placement unit) in the store, and the product 2 ( If the object 3 approaching the article) or the article display place 8 (article placement area) is detected, the distance from each sensor unit to the object 3 is measured, and the system is used as position data (object position information) of the object 3 It transmits to the management part 40. Since the sensor unit 20a, the sensor unit 20b, and the sensor unit 20c have the same function with the same hardware configuration, the sensor unit 20b will be described as the object detection unit in the first embodiment.

センサ部20bが対象物3までの距離を計測する方法としては、例えばセンサ部20bから対象物3に、波長0.7μm〜0.1mm程度の赤外線としての赤外レーザ光からなる投射光30を投射し対象物3で反射される反射光31をセンサ部20bで検出し、投射光30を投射する時間と反射光31を検出する時間との時間差にもとづいて対象物3までの距離を計測する方法がある。   As a method for the sensor unit 20b to measure the distance to the object 3, for example, the projection light 30 made of infrared laser light as infrared light having a wavelength of about 0.7 μm to 0.1 mm is applied to the object 3 from the sensor unit 20b. The reflected light 31 projected and reflected by the object 3 is detected by the sensor unit 20b, and the distance to the object 3 is measured based on the time difference between the time for projecting the projection light 30 and the time for detecting the reflected light 31. There is a way.

本実施形態では、センサ部20bは赤外レーザ光からなる投射光30により対象物3までの距離を計測するが、センサ部20bが距離を計測する方法はこれに限定されるものではなく、例えば、周波数が約20kHz以上の音波である超音波を投射し、その反射波を検出し、赤外レーザ光と同様に超音波を投射した時間と反射波を検出した時間から対象物3までの距離を計測しても良い。   In this embodiment, although the sensor part 20b measures the distance to the target object 3 with the projection light 30 which consists of infrared laser light, the method by which the sensor part 20b measures distance is not limited to this, For example, The ultrasonic wave which is a sound wave having a frequency of about 20 kHz or more is projected, the reflected wave is detected, and the distance from the time when the ultrasonic wave is projected and the time when the reflected wave is detected in the same manner as the infrared laser light to the object 3 May be measured.

検出対象となる対象物3としては、店舗の店員やお客の手や腕又は商品が考えられる。将来的には店舗で買物支援サービスを行うサービスロボット等のロボットアームが考えられる。   As the object 3 to be detected, a store clerk, a customer's hand, arm, or product may be considered. In the future, a robot arm such as a service robot that provides a shopping support service in a store can be considered.

システム管理部40は、センサ部20a、センサ部20b、センサ部20cから構成されるセンサ部20とLANや専用回線等の通信回線60で接続され、各センサ部が送信出力した対象物3の位置データを受信し、受信した位置データにもとづいて処理を行う。   The system management unit 40 is connected to the sensor unit 20 including the sensor unit 20a, the sensor unit 20b, and the sensor unit 20c through a communication line 60 such as a LAN or a dedicated line, and the position of the object 3 transmitted and output by each sensor unit. Data is received and processing is performed based on the received position data.

図2は、物品管理システム80のハードウェア構成を示す図である。センサ部20bは、センサ部20bの各ハードウェアの制御を行う制御部であるMPU(Micro Processing Unit)21と、対象物3を検出するための投射光30を発する発光部22(投射部)、対象物3からの反射光31を検出する受光部23(検出部)、タイマ部26、ハードディスクやメモリ等の記憶部27と、システム管理部40とデータの送受信を行う通信部28と、電源部29等から構成される。各部の機能については後述する。   FIG. 2 is a diagram illustrating a hardware configuration of the article management system 80. The sensor unit 20b includes an MPU (Micro Processing Unit) 21 that is a control unit that controls each hardware of the sensor unit 20b, and a light emitting unit 22 (projection unit) that emits projection light 30 for detecting the object 3. A light receiving unit 23 (detection unit) that detects reflected light 31 from the object 3, a timer unit 26, a storage unit 27 such as a hard disk or a memory, a communication unit 28 that transmits and receives data to and from the system management unit 40, and a power supply unit 29 etc. The function of each part will be described later.

システム管理部41は、システム管理部41の各ハードウェアの制御を行う制御部であるMPU(Micro Processing Unit)41と、キーボードやマウス等の入力部42、液晶ディスプレイや有機ELディスプレイ等の表示器やプリンタ等の出力部43、ハードディスクやメモリ等の記憶部44、タイマ部45、センサ部20や他のシステムとデータの送受信を行う通信部46と、電源部47等から構成される。記憶部44には、位置データテーブル100、有効領域テーブル110、棚割テーブル120、位置特定テーブル130、物品特定テーブル140が設けられる。   The system management unit 41 includes an MPU (Micro Processing Unit) 41 that is a control unit that controls each hardware of the system management unit 41, an input unit 42 such as a keyboard and a mouse, and a display device such as a liquid crystal display and an organic EL display. And an output unit 43 such as a printer, a storage unit 44 such as a hard disk or a memory, a timer unit 45, a communication unit 46 that transmits / receives data to / from the sensor unit 20 and other systems, a power supply unit 47, and the like. The storage unit 44 includes a position data table 100, an effective area table 110, a shelf allocation table 120, a position specifying table 130, and an article specifying table 140.

図3〜図5を用いて、物品管理システム80の対象物検出段として機能するセンサ部20を説明する。   The sensor unit 20 that functions as an object detection stage of the article management system 80 will be described with reference to FIGS.

図3は、センサ部20bの構成を示した図である。センサ部20bは、発光部22(投射部)、受光部23(検出部)、筐体32、センサ制御部36等で構成される。筐体32は、例えば円筒状の形状で形成され、円周方向に沿って180度開口された円環状の透明窓34が設けられている。発光部22は、例えば、赤外レーザやLEDなどの光源等で構成され、受光部23は、例えば、フォトダイオードなどの光センサ等で構成される。   FIG. 3 is a diagram illustrating a configuration of the sensor unit 20b. The sensor unit 20b includes a light emitting unit 22 (projection unit), a light receiving unit 23 (detection unit), a housing 32, a sensor control unit 36, and the like. The housing 32 is formed, for example, in a cylindrical shape, and is provided with an annular transparent window 34 opened 180 degrees along the circumferential direction. The light emitting unit 22 is configured by a light source such as an infrared laser or an LED, for example, and the light receiving unit 23 is configured by an optical sensor such as a photodiode, for example.

センサ制御部36は対象物位置算出手段として機能する。センサ制御部36は、MPU21、タイマ26、記憶部27、通信部28、電源部29等から構成され、発光部22の発光制御を行うとともに、センサ部20bと対象物3までの距離を計測し算出する。   The sensor control unit 36 functions as an object position calculation unit. The sensor control unit 36 includes an MPU 21, a timer 26, a storage unit 27, a communication unit 28, a power supply unit 29, and the like, performs light emission control of the light emitting unit 22, and measures the distance between the sensor unit 20 b and the object 3. calculate.

投射光30と反射光31による距離の算出方法は、例えば、発光部22から発する赤外レーザ光を短いパルス状の投射光30として発し、その反射光31を受光部23で検出し、投射光30を発した時間と反射光31を検出した時間の時間差、発してから検出するまでの往復時間と、基準となる投射光30と反射光31の速度とから距離を求める方法や、発光部22から発する赤外レーザ光を、一定周波数の正弦波で変調し、投射光30と反射光31の位相差から距離を求める方法が考えられる。位相差から距離を求める方法では、1周期以上の位相差が出る距離は測定できないので、予め決まっている検出領域から変調する周波数を決める必要がある。本実施形態では、センサ部20bは赤外レーザ光からなる投射光30により対象物3までの距離を計測するが、赤外レーザ光と同様に、超音波を投射しその反射波を検出し超音波を投射した時間と反射波を検出した時間から対象物3までの距離を計測しても良い。   As a method for calculating the distance between the projection light 30 and the reflected light 31, for example, infrared laser light emitted from the light emitting unit 22 is emitted as short pulsed projection light 30, the reflected light 31 is detected by the light receiving unit 23, and the projection light is emitted. A method for obtaining a distance from the time difference between the time when the light is emitted 30 and the time when the reflected light 31 is detected, the round-trip time from the time when the light is emitted to the detection, and the speed of the reference projection light 30 and the reflected light 31; A method is conceivable in which the infrared laser light emitted from is modulated with a sine wave having a constant frequency and the distance is obtained from the phase difference between the projection light 30 and the reflected light 31. In the method of obtaining the distance from the phase difference, it is not possible to measure the distance at which a phase difference of one cycle or more occurs, so it is necessary to determine the frequency to be modulated from a predetermined detection region. In the present embodiment, the sensor unit 20b measures the distance to the object 3 with the projection light 30 made of infrared laser light. However, as with the infrared laser light, the sensor unit 20b projects an ultrasonic wave and detects the reflected wave to detect the distance. You may measure the distance to the target object 3 from the time which projected the sound wave and the time which detected the reflected wave.

センサ制御部36は、発光部22が投射光30を発した時間と受光部23が反射光31を検出した時間との時間差とから、前述の方法を用いて、センサ部20bから対象物3までの距離を算出し、その算出した距離データとセンサ部20bを識別するセンサ識別データとから構成される位置データをシステム管理部40に送信する。システム管理部40は、センサ部20bから位置データを受信すると、位置データがどのセンサ部(20a、20b、または20c)から送信されたかを判断し、対象物3の位置情報を取得する。   From the time difference between the time when the light emitting unit 22 emits the projection light 30 and the time when the light receiving unit 23 detects the reflected light 31, the sensor control unit 36 uses the above-described method to move from the sensor unit 20 b to the object 3. The position data composed of the calculated distance data and the sensor identification data for identifying the sensor unit 20b is transmitted to the system management unit 40. When receiving the position data from the sensor unit 20b, the system management unit 40 determines from which sensor unit (20a, 20b, or 20c) the position data is transmitted, and acquires the position information of the object 3.

図4は、商品陳列棚1(載置部)にセンサ部20a、センサ部20b、およびセンサ部20cから構成されるセンサ部20を設置した状態を示した図である。各センサ部は、商品陳列棚1に陳列された商品2(物品)又は商品2の商品陳列場所8(物品載置領域)に接近する対象物3を検出する。センサ部20は、例えば商品陳列棚1の開口された商品出し入れ領域6(開口部)が存在する棚前面4側の棚周部5の側部に設置される。   FIG. 4 is a diagram illustrating a state in which the sensor unit 20 including the sensor unit 20a, the sensor unit 20b, and the sensor unit 20c is installed on the commodity display shelf 1 (mounting unit). Each sensor unit detects an object 3 approaching the product 2 (article) displayed on the product display shelf 1 or the product display place 8 (article placement area) of the product 2. The sensor part 20 is installed in the side part of the shelf periphery part 5 by the side of the shelf front 4 in which the goods insertion / extraction area | region 6 (opening part) opened of the goods display shelf 1 exists, for example.

センサ部20a、センサ部20b、およびセンサ部20cから、横方向に向けて発せられる幅を有する投射光30によって、対象物3を検出する基準となる検出領域7a、検出領域7b、および検出領域7cが、商品出し入れ領域6の前面に帯状に覆うように形成される。   A detection region 7a, a detection region 7b, and a detection region 7c that serve as a reference for detecting the object 3 by the projection light 30 having a width emitted in the lateral direction from the sensor unit 20a, the sensor unit 20b, and the sensor unit 20c. Is formed so as to cover the front surface of the product insertion / removal region 6 in a band shape.

図5は、商品陳列棚1を商品2の商品陳列場所8別にA1からA12までのブロック10に区分した状態を示す図である。A1からA12それぞれのブロック10は、商品陳列場所8の大きさに合わせて領域が決められる。本実施の形態では、A1からA12のそれぞれのブロック10は同じ大きさで、縦50cm、横80cmとしたが、この大きさに限定されるものでは無く、商品陳列場所8の大きさに合わせてブロック毎に異なる大きさとしても良い。本実施の形態では、商品陳列棚1の大きさは、センサ部20a、センサ部20b、およびセンサ部20cが設置される位置を結ぶ線を基準線11とすると、X軸方向に0cmから320cmとなる。   FIG. 5 is a diagram illustrating a state in which the product display shelf 1 is divided into blocks 10 from A1 to A12 according to the product display location 8 of the product 2. The area of each block 10 of A1 to A12 is determined according to the size of the commodity display place 8. In the present embodiment, each of the blocks A1 to A12 has the same size and is 50 cm in length and 80 cm in width, but is not limited to this size, and is matched to the size of the product display place 8. The size may be different for each block. In the present embodiment, the size of the commodity display shelf 1 is 0 cm to 320 cm in the X-axis direction when a line connecting positions where the sensor unit 20a, the sensor unit 20b, and the sensor unit 20c are installed is a reference line 11. Become.

センサ部20a、センサ部20b、またはセンサ部20cから発せられる投射光30による検出領域7a、検出領域7b、または検出領域7cは、商品陳列棚1の商品出し入れ領域6を帯状に覆うように形成されるため、商品陳列棚1に陳列された商品2又は商品陳列場所8に接近する対象物3だけで無く、商品陳列棚1が設置されている店内の柱9や壁、といった検出対象とすべきでない固定された背景物や、商品陳列棚1の横に位置する店員やお客、台車のような設備器具といった移動する背景物も検出してしまう。   The detection region 7a, the detection region 7b, or the detection region 7c by the projection light 30 emitted from the sensor unit 20a, the sensor unit 20b, or the sensor unit 20c is formed so as to cover the product insertion / removal region 6 of the product display shelf 1 in a band shape. Therefore, not only the product 2 displayed on the product display shelf 1 or the object 3 approaching the product display place 8 but also the detection target such as the pillar 9 and the wall in the store where the product display shelf 1 is installed. It is also possible to detect a moving background such as a fixed background object or a store clerk or customer located next to the merchandise display shelf 1 or equipment such as a cart.

より正確に、消費者が注目している商品の情報を捉えるには、これらの背景物の位置データは検出対象から除外する必要がある。本実施の形態のシステム管理部40は、背景物の位置データを除外するために、検出領域7a、検出領域7b、および検出領域7cのうち、商品陳列棚1のA1ブロックからA12ブロックの商品陳列場所8に該当する検出領域を、有効な検出領域の上限値として定義し、この有効な検出領域である、有効検出領域12a、有効検出領域12b、および有効検出領域12c以外で検出された背景物の位置データを除外する有効情報抽出処理を行う。   In order to capture the information of the product that the consumer is paying attention to more accurately, it is necessary to exclude the position data of these background objects from the detection target. In order to exclude the position data of the background object, the system management unit 40 according to the present embodiment displays the product display from the A1 block to the A12 block of the product display shelf 1 among the detection region 7a, the detection region 7b, and the detection region 7c. The detection area corresponding to the place 8 is defined as the upper limit value of the effective detection area, and the background object detected outside the effective detection area 12a, the effective detection area 12b, and the effective detection area 12c. The effective information extraction process is performed to exclude the position data.

図6は、システム管理部40の記憶部44に記憶する、位置データテーブル100の構成を示す図である。位置データテーブル100は、センサ識別データエリア101に関連付けて、X軸距離エリア102、検出対象エリア103が設けられている。センサ部20a、センサ部20b、およびセンサ部20cから送信された各センサ部を識別するセンサ識別データとX軸方向の距離データからなる位置データを、それぞれ、センサ識別データエリア101、X軸距離エリア102に記憶する。検出対象エリア103は、有効情報抽出処理により判断された検出対象とする位置データの場合は「1」を記憶し、検出対象としない位置データの場合は「0」を記憶する。検出対象エリア103のデータにより検出対象とするか判別することが可能となる。   FIG. 6 is a diagram illustrating a configuration of the position data table 100 stored in the storage unit 44 of the system management unit 40. The position data table 100 is provided with an X-axis distance area 102 and a detection target area 103 in association with the sensor identification data area 101. Position data consisting of sensor identification data for identifying each sensor unit transmitted from the sensor unit 20a, sensor unit 20b, and sensor unit 20c and distance data in the X-axis direction are represented by a sensor identification data area 101 and an X-axis distance area, respectively. 102. The detection target area 103 stores “1” in the case of position data to be detected determined by the valid information extraction process, and stores “0” in the case of position data not to be detected. It is possible to determine whether or not to be a detection target based on the data in the detection target area 103.

図7は、システム管理部40の記憶部44に記憶する、有効領域テーブル110の構成を示す図である。有効領域テーブル110は、有効領域記憶手段として機能し、センサ部20a、センサ部20b、およびセンサ部20cが形成する検出領域7(検出領域7a、検出領域7b、検出領域7c)のうち有効な検出領域である有効検出領域12(有効検出領域12a、有効検出領域12b、有効検出領域12c)の大きさの上限値を記憶する。センサ識別データエリア111に関連付けて、各センサ部別の有効検出領域の上限値(領域情報)を記憶する上限値エリア112が設けられている。本実施の形態では、320cmを上限値として上限値エリア112に記憶する。上限値を超える位置データは、有効検出領域12a、有効検出領域12b、および有効検出領域12cより外側に存在する背景物が反射して算出された、検出対象外の背景物の位置データとして有効情報抽出処理され検出対象から除外される。   FIG. 7 is a diagram illustrating a configuration of the effective area table 110 stored in the storage unit 44 of the system management unit 40. The effective area table 110 functions as an effective area storage unit, and is effective detection among the detection areas 7 (the detection area 7a, the detection area 7b, and the detection area 7c) formed by the sensor unit 20a, the sensor unit 20b, and the sensor unit 20c. The upper limit value of the size of the effective detection area 12 (effective detection area 12a, effective detection area 12b, and effective detection area 12c) is stored. In association with the sensor identification data area 111, an upper limit area 112 for storing the upper limit value (area information) of the effective detection area for each sensor unit is provided. In the present embodiment, 320 cm is stored in upper limit area 112 as the upper limit. The position data exceeding the upper limit value is valid information as position data of a background object that is not detected and is calculated by reflection of a background object that exists outside the effective detection area 12a, the effective detection area 12b, and the effective detection area 12c. It is extracted and excluded from detection targets.

図8は、システム管理部40の記憶部44に記憶する、棚割テーブル120の構成を示す図である。棚割テーブル120は、物品載置位置記憶手段として機能する。ブロックエリア121に関連付けて、商品陳列棚1のA1からA12の各ブロックが位置する範囲を検出するセンサ部の識別データを記憶するセンサ識別データエリア122、各ブロックの範囲データを記憶する範囲エリア123、各ブロックに陳列される商品2(物品)の商品識別データ(物品識別情報)を記憶する識別データエリア124が設けられている。範囲エリア123に記憶する範囲データは、商品陳列棚1のセンサ部20a、センサ部20b、およびセンサ部20cが設置される位置を結ぶ線を基準線11として、各ブロックが位置するX軸方向の範囲を示すデータである。センサ識別データエリア122のセンサ識別データと、範囲エリア123の範囲データとが物品位置情報として機能する。   FIG. 8 is a diagram showing the configuration of the shelf allocation table 120 stored in the storage unit 44 of the system management unit 40. The shelf allocation table 120 functions as an article placement position storage unit. In association with the block area 121, a sensor identification data area 122 that stores identification data of a sensor unit that detects a range in which each of the blocks A1 to A12 of the commodity display shelf 1 is located, and a range area 123 that stores range data of each block An identification data area 124 for storing product identification data (article identification information) of the product 2 (article) displayed in each block is provided. The range data stored in the range area 123 is based on the X-axis direction where each block is located, with the line connecting the positions where the sensor unit 20a, the sensor unit 20b, and the sensor unit 20c of the product display shelf 1 are installed as the reference line 11. Data indicating the range. The sensor identification data in the sensor identification data area 122 and the range data in the range area 123 function as article position information.

図9は、システム管理部40の記憶部44に記憶する、位置特定テーブル130の構成を示す図である。ブロックエリア131に関連付けて、商品陳列棚1のA1からA12の各ブロックに対応する有効検出領域12の対象物3の検出結果を記憶するTmエリア132、Tm−1エリア133、Tm−2エリア134、Tm−3エリア135、Tm−4エリア136・・・Tm−99エリア137が順に設けられている。   FIG. 9 is a diagram illustrating a configuration of the position specifying table 130 stored in the storage unit 44 of the system management unit 40. In association with the block area 131, a Tm area 132, a Tm-1 area 133, and a Tm-2 area 134 for storing the detection results of the object 3 in the effective detection area 12 corresponding to the blocks A1 to A12 of the merchandise display shelf 1 are stored. , Tm-3 area 135, Tm-4 area 136... Tm-99 area 137 are provided in this order.

Tmエリア132〜Tm−99エリア137には、各ブロックに対応する有効検出領域12で対象物3を検出したと判断すると「1」を記憶し、検出しないと判断すると「0」を記憶する。有効情報抽出処理がされた位置データに基づいて各ブロック別に対象物3の検出結果をTmエリア132に記憶する。先にTmエリア132に記憶していた検出結果はTm−1エリア133に記憶し、Tm−1エリア133に記憶していた検出結果はTm−2エリア134に記憶し、Tm−2エリア134に記憶していた検出結果はTm−3エリア135に記憶し、というように過去の検出結果は記憶エリアを順次移動して記憶する。本実施形態では、検出結果は100回分記憶することが可能である。センサ部20a、センサ部20b、およびセンサ部20cの検出周期が10Hzであれば、100回分の検出結果を記憶することで、過去10秒間の検出結果を記憶することが可能となる。   In the Tm area 132 to the Tm-99 area 137, “1” is stored when it is determined that the object 3 is detected in the effective detection area 12 corresponding to each block, and “0” is stored when it is determined that it is not detected. The detection result of the object 3 is stored in the Tm area 132 for each block based on the position data on which the valid information extraction processing has been performed. The detection results previously stored in the Tm area 132 are stored in the Tm-1 area 133, the detection results stored in the Tm-1 area 133 are stored in the Tm-2 area 134, and are stored in the Tm-2 area 134. The stored detection results are stored in the Tm-3 area 135, and the past detection results are sequentially moved and stored in the storage area. In the present embodiment, detection results can be stored 100 times. If the detection period of the sensor unit 20a, the sensor unit 20b, and the sensor unit 20c is 10 Hz, the detection results for the past 10 seconds can be stored by storing the detection results for 100 times.

図10は、システム管理部40の記憶部44に記憶する、物品特定テーブル140の構成を示した図である。ブロックエリア141に関連付けて、商品陳列棚1のA1からA12の各ブロック別に識別データエリア142、検出回数エリア143が設けられている。物品特定テーブル140を参照することで、対象物3が接近したブロックとそこに陳列される商品、接近した回数が把握可能となる。   FIG. 10 is a diagram showing the configuration of the article identification table 140 stored in the storage unit 44 of the system management unit 40. In association with the block area 141, an identification data area 142 and a detection frequency area 143 are provided for each block A1 to A12 of the commodity display shelf 1. By referring to the article identification table 140, it is possible to grasp the blocks that the object 3 has approached, the products that are displayed there, and the number of times that they have approached.

図11〜図14のフローチャートを用いて、物品管理システム80の処理について説明する。   The processing of the article management system 80 will be described with reference to the flowcharts of FIGS.

図11は、システム管理部40の制御部であるMPU41が実行する、対象物3が接近する商品陳列棚1に陳列される商品2又は商品陳列場所8を特定する処理のフローチャートを示す図である。   FIG. 11 is a diagram illustrating a flowchart of processing executed by the MPU 41 that is a control unit of the system management unit 40 to specify the product 2 or the product display place 8 displayed on the product display shelf 1 to which the object 3 approaches. .

システム管理部40は、センサ部20a、センサ部20b、およびセンサ部20cよりセンサ部20a、センサ部20b、およびセンサ部20cが検出した1回分の位置データを順次受信し取得する(ステップS1、対象物位置取得手段)。受信した位置データは、位置データテーブル100に記憶する(ステップS2)。   The system management unit 40 sequentially receives and acquires one position data detected by the sensor unit 20a, the sensor unit 20b, and the sensor unit 20c from the sensor unit 20a, the sensor unit 20b, and the sensor unit 20c (step S1, target Object position acquisition means). The received position data is stored in the position data table 100 (step S2).

本実施形態では、センサ部20a、センサ部20b、およびセンサ部20cは、それぞれ対象物3の距離データを算出し、各センサ部を識別するセンサ識別データと距離データから構成される位置データを送信する。受信した位置データにもとづいて、各センサ部のセンサ識別データを位置データテーブル100のセンサ識別データエリア101に記憶し、このセンサ識別データエリア101に記憶したセンサ識別データに関連付けて距離データをX軸距離エリア102に記憶する。   In the present embodiment, each of the sensor unit 20a, the sensor unit 20b, and the sensor unit 20c calculates distance data of the object 3, and transmits position data composed of sensor identification data and distance data for identifying each sensor unit. To do. Based on the received position data, the sensor identification data of each sensor unit is stored in the sensor identification data area 101 of the position data table 100, and the distance data is associated with the sensor identification data stored in the sensor identification data area 101 in the X-axis. Store in the distance area 102.

位置データテーブル100のX軸距離エリア102に記憶した距離データと、有効領域テーブル110(有効領域記憶手段)の上限値エリア112に記憶した有効検出領域12(有効検出領域12a、有効検出領域12b、有効検出領域12c)の上限値データ(領域情報)とを用いて有効情報抽出処理を行う(ステップS3)。   The distance data stored in the X-axis distance area 102 of the position data table 100 and the effective detection area 12 (effective detection area 12a, effective detection area 12b, stored in the upper limit area 112 of the effective area table 110 (effective area storage means), Effective information extraction processing is performed using the upper limit data (region information) of the effective detection region 12c) (step S3).

図12は、システム管理部40の制御部であるMPU41が実行する、有効情報抽出処理のフローチャートを示す図である。有効情報抽出処理は有効情報抽出手段として機能する。   FIG. 12 is a diagram illustrating a flowchart of valid information extraction processing executed by the MPU 41 which is the control unit of the system management unit 40. The effective information extraction process functions as effective information extraction means.

位置データテーブル100のX軸距離エリア102に記憶したセンサ部20a、センサ部20b、またはセンサ部20cが検出した距離データを、有効領域テーブル110の上限値エリア112に記憶した各センサ部の有効検出領域12(有効検出領域12a、有効検出領域12b、有効検出領域12c)の上限値データと比較する(ステップS31)。   Effective detection of each sensor unit in which the distance data detected by the sensor unit 20a, the sensor unit 20b, or the sensor unit 20c stored in the X-axis distance area 102 of the position data table 100 is stored in the upper limit value area 112 of the effective region table 110 It is compared with the upper limit value data of the area 12 (effective detection area 12a, effective detection area 12b, effective detection area 12c) (step S31).

位置データテーブル100のX軸距離エリア102に記憶した距離データが、有効領域テーブル110の上限値エリア112に記憶した各センサ部の有効検出領域12(有効検出領域12a、有効検出領域12b、有効検出領域12c)の上限値データ以内か判断する(ステップS32)。距離データが上限値データ以内で無い場合は(ステップS32のNO)、対象物3は商品陳列棚1の有効検出領域12より外側で検出されたことになり、位置データテーブル100の検出対象エリア103に「0」を記憶して(ステップS41)、有効情報抽出処理を終了する。   The distance data stored in the X-axis distance area 102 of the position data table 100 is the effective detection area 12 (effective detection area 12a, effective detection area 12b, effective detection) of each sensor unit stored in the upper limit value area 112 of the effective area table 110. It is determined whether it is within the upper limit value data in the area 12c) (step S32). If the distance data is not within the upper limit data (NO in step S32), the object 3 is detected outside the valid detection area 12 of the commodity display shelf 1, and the detection target area 103 of the position data table 100 is detected. “0” is stored in (step S41), and the valid information extraction process is terminated.

距離データが上限値データ以内である場合は(ステップS32のYES)、対象物3は商品陳列棚1の有効検出領域12の範囲内で検出されたことになり、位置データテーブル100の検出対象エリア103に「1」を記憶して(ステップS33)、有効情報抽出処理を終了する。   If the distance data is within the upper limit value data (YES in step S32), the object 3 is detected within the effective detection area 12 of the commodity display shelf 1, and the detection target area of the position data table 100 is detected. “1” is stored in 103 (step S33), and the valid information extraction process is terminated.

有効情報抽出処理では、対象物3が検出された位置が各センサ部(センサ部20a、センサ部20b、センサ部20c)の有効検出領域12(有効検出領域12a、有効検出領域12b、有効検出領域12c)以内か判断する。これは、商品陳列棚1に陳列された商品2又は商品陳列場所8に接近する対象物3のみを検出対象として位置を特定するためである。有効情報抽出処理により、商品陳列棚1の周辺を移動する店員やお客、商品陳列棚1の周辺の柱や壁、設備器具等の、商品に接近する対象物として集計するのに必要では無い背景物の位置データを、検出結果から除外することが可能となる。   In the effective information extraction process, the position where the object 3 is detected is the effective detection region 12 (effective detection region 12a, effective detection region 12b, effective detection region) of each sensor unit (sensor unit 20a, sensor unit 20b, sensor unit 20c). 12c) It is judged whether it is within. This is because the position is specified by using only the product 2 displayed on the product display shelf 1 or the object 3 approaching the product display place 8 as a detection target. Background that is not necessary for counting up as objects that are close to the product, such as salesclerks and customers moving around the product display shelf 1, columns, walls, equipment, etc. The position data of the object can be excluded from the detection result.

次に、位置データテーブル100と棚割テーブル120とを用いて、位置特定処理を行う(ステップS5)。   Next, position specifying processing is performed using the position data table 100 and the shelf allocation table 120 (step S5).

図13は、システム管理部40の制御部であるMPU41が実行する、位置特定処理のフローチャートを示す図である。   FIG. 13 is a diagram illustrating a flowchart of the position specifying process executed by the MPU 41 which is the control unit of the system management unit 40.

位置データテーブル100に記憶した位置データのうち、検出対象エリア103に「1」を記憶している位置データを検出対象とする対象物3の位置データとして抽出する(ステップS51)。   Of the position data stored in the position data table 100, the position data having “1” stored in the detection target area 103 is extracted as the position data of the object 3 to be detected (step S51).

抽出した位置データのセンサ識別エリア101に記憶したセンサ識別データおよびX軸距離エリア102に記憶した距離データと、棚割テーブル120のセンサ識別エリア122のセンサ識別データおよび範囲エリア123に記憶したA1からA12の各ブロックが位置する範囲を示す範囲データとを比較する(ステップS53)。   From the sensor identification data stored in the sensor identification area 101 of the extracted position data and the distance data stored in the X-axis distance area 102, the sensor identification data in the sensor identification area 122 of the shelf allocation table 120, and the A1 stored in the range area 123 The range data indicating the range where each block of A12 is located is compared (step S53).

抽出した位置データのセンサ識別データとセンサ識別データエリア122に記憶したセンサ識別データが一致し、かつ距離データが含まれる範囲データを範囲エリア123に記憶するブロックが棚割テーブル120に記憶しているか判断する(ステップS55)。棚割テーブル120に該当するブロック10が無い場合は(ステップS55のNO)、位置特定テーブル130の全てのブロックのTmエリア132に検出結果として「0」を記憶し(ステップS61)、位置特定処理を終了する。   Whether the block that stores the range data including the distance data in the range area 123 matches the sensor identification data of the extracted position data and the sensor identification data stored in the sensor identification data area 122 is stored in the shelf allocation table 120 Judgment is made (step S55). If there is no corresponding block 10 in the shelf allocation table 120 (NO in step S55), “0” is stored as the detection result in the Tm area 132 of all the blocks in the position specifying table 130 (step S61), and the position specifying process is performed. Exit.

棚割テーブル120に該当するブロックが有る場合は(ステップS55のYES)、該当するブロックを抽出し(ステップS57)、位置特定テーブル130の該当するブロックのTmエリア132に検出結果として「1」を記憶し、該当しないブロックのTmエリア132に検出結果として「0」を記憶する(ステップS59)。   If there is a corresponding block in the shelf allocation table 120 (YES in step S55), the corresponding block is extracted (step S57), and “1” is detected as the detection result in the Tm area 132 of the corresponding block in the position specifying table 130. Store “0” as the detection result in the Tm area 132 of the non-applicable block (step S59).

このとき、先にTmエリア132に記憶していた検出結果はTm−1エリア133に記憶し、Tm−1エリア133に記憶していた検出結果はTm−2エリア134に記憶し、Tm−2エリア134に記憶していた検出結果はTm−3エリア135に記憶し、Tm−3エリア135に記憶していた検出結果はTm−4エリア136に記憶し、というように過去の検出結果は、記憶エリアを順次移動して記憶する。位置特定テーブル130にA1からA12の各ブロック別に対象物3の検出結果を記憶して、位置特定処理を終了する。   At this time, the detection result previously stored in the Tm area 132 is stored in the Tm-1 area 133, the detection result stored in the Tm-1 area 133 is stored in the Tm-2 area 134, and Tm-2 The detection results stored in the area 134 are stored in the Tm-3 area 135, the detection results stored in the Tm-3 area 135 are stored in the Tm-4 area 136, and so on. The storage area is sequentially moved and stored. The detection result of the object 3 is stored for each block A1 to A12 in the position specifying table 130, and the position specifying process is terminated.

次に、検出結果を記憶した位置特定テーブル130と棚割テーブル120とを用いて物品特定処理を行う(ステップS7)。   Next, an article specifying process is performed using the position specifying table 130 and the shelf allocation table 120 that store the detection results (step S7).

図14は、システム管理部40の制御部であるMPU41が実行する、物品特定処理のフローチャートを示す図である。物品特定処理は物品特定手段として機能する。   FIG. 14 is a diagram illustrating a flowchart of the article specifying process executed by the MPU 41 that is the control unit of the system management unit 40. The article specifying process functions as an article specifying means.

位置特定テーブル130のTmエリア132に記憶した、A1からA12のブロック別の対象物3の検出結果と、棚割テーブル120の識別データエリア124に記憶した商品識別データとを使用して、対象物3が接近する位置に陳列する商品2を特定する。   Using the detection results of the objects 3 by blocks A1 to A12 stored in the Tm area 132 of the position specifying table 130 and the product identification data stored in the identification data area 124 of the shelf allocation table 120, the object A product 2 to be displayed at a position close to 3 is specified.

まず、位置特定テーブル130のTmエリア132に記憶した検出結果のうち、対象物3が有効検出領域12(有効検出領域12a、有効検出領域12b、有効検出領域12c)以内で検出された「1」を記憶したブロックを抽出する(ステップS71)。   First, among the detection results stored in the Tm area 132 of the position specifying table 130, the object 3 is detected within the effective detection area 12 (the effective detection area 12a, the effective detection area 12b, and the effective detection area 12c). Is stored (step S71).

抽出したブロックと同じブロックが物品特定テーブル140のブロックエリア141に記憶していないか判断する(ステップS73)。同じブロックが物品特定テーブル140のブロックエリア141に記憶している場合は(ステップS73のNO)、物品特定テーブル140の該当するブロックの検出回数エリア143のカウントに「1」を加えて(ステップS79)、物品特定処理を終了する。   It is determined whether the same block as the extracted block is stored in the block area 141 of the article identification table 140 (step S73). If the same block is stored in the block area 141 of the article identification table 140 (NO in step S73), “1” is added to the count in the detection count area 143 of the corresponding block in the article identification table 140 (step S79). ), And ends the article specifying process.

同じブロックが物品特定テーブル140のブロックエリア141に記憶されていない場合は(ステップS73のYES)、そのブロックを物品特定テーブル140のブロックエリア141に記憶する(ステップS75)。   If the same block is not stored in the block area 141 of the article specifying table 140 (YES in step S73), the block is stored in the block area 141 of the article specifying table 140 (step S75).

物品特定テーブル140のブロックエリア141に記憶したブロックと同じブロックが関連付けられた商品識別データを棚割テーブル120の識別データエリア123から選択し、物品特定テーブル140の識別データエリア142に記憶する(ステップS77)。   Product identification data associated with the same block as the block stored in the block area 141 of the article identification table 140 is selected from the identification data area 123 of the shelf allocation table 120 and stored in the identification data area 142 of the article identification table 140 (step) S77).

物品特定テーブル140の該当するブロックの検出回数エリア143のカウントに「1」を加えて(ステップS79)、物品特定処理を終了する。   “1” is added to the count in the detection count area 143 of the corresponding block of the article specifying table 140 (step S79), and the article specifying process is terminated.

物品特定処理により、物品特定テーブル140のブロックエリア141に記憶するブロックデータと、識別データエリア142に記憶する商品識別データと、検出回数エリア143に記憶する検出回数データが関連付けて記憶される。物品特定テーブル140のブロックエリア141に記憶するブロックデータは、対象物3が接近し有効検出領域12で検出されたブロックであり、そのブロックデータに関連付けられた識別データエリア142に記憶された商品識別データを参照することで、対象物3が接近する商品2の商品識別データを特定することが可能となる。さらにブロックデータに関連付けられた検出回数エリア143に記憶された検出回数データを参照することで、対象物3が接近する商品2の検出回数を集計することが可能となる。   By the article specifying process, block data stored in the block area 141 of the article specifying table 140, product identification data stored in the identification data area 142, and detection count data stored in the detection count area 143 are stored in association with each other. The block data stored in the block area 141 of the article specifying table 140 is a block detected by the effective detection area 12 when the object 3 approaches, and the product identification stored in the identification data area 142 associated with the block data. By referring to the data, it is possible to specify the product identification data of the product 2 to which the object 3 approaches. Furthermore, by referring to the detection frequency data stored in the detection frequency area 143 associated with the block data, it is possible to add up the detection frequency of the product 2 that the object 3 approaches.

本実施の形態では、商品陳列棚1に陳列された商品2又は商品陳列場所8に接近する消費者の手や腕等の対象物3を商品別に検出することで、消費者の購入の有無に関わらず、消費者が商品陳列棚より選択し手に取った商品を調査することが可能となる。よって消費者が注目している商品を商品別により詳細に調査することが可能となる。また商品陳列棚の棚割レイアウトの変更前後で本発明を実施することで、商品陳列棚の棚割レイアウトの良否を商品別により詳細に調査することが可能となる。   In the present embodiment, the product 2 displayed on the product display shelf 1 or the object 3 such as the hand or arm of the consumer approaching the product display place 8 is detected for each product, thereby determining whether or not the consumer has purchased. Regardless, it is possible to investigate the product that the consumer has selected and picked up from the product display shelf. Therefore, it becomes possible to investigate in detail the product that the consumer is paying attention to by product. Further, by implementing the present invention before and after the change of the shelf layout of the product display shelf, it is possible to investigate in detail the quality of the shelf layout of the product display shelf by product.

また、対象物検出手段であるセンサ部20の光源に赤外レーザ光を用いたため、計測範囲が広く、店舗や倉庫の照明等の光学的条件の影響を軽微にすることが可能となる。またシステムの構成がシンプルで、お客の行き来が激しい24時間営業の店舗等においても、システムの設置や保守が比較的容易に行うことが可能となる。   In addition, since infrared laser light is used as the light source of the sensor unit 20 that is the object detection means, the measurement range is wide, and the influence of optical conditions such as lighting in stores and warehouses can be minimized. In addition, it is possible to install and maintain the system relatively easily even in a 24-hour store or the like where the system configuration is simple and customers are coming and going.

また、センサ部20を商品陳列棚1の商品出し入れ領域6が存在する棚前面4側の開口部側に設置することにより対象物3を検出する検出領域(有効検出領域12)を開口部側に形成するこが可能となる。よって消費者が商品を手に取った際に対象物3として検出することにより、より正確に消費者が注目している商品を調査することが可能となる。 Moreover, the detection area (effective detection area 12) which detects the target object 3 is installed on the opening side by installing the sensor unit 20 on the opening side on the shelf front surface 4 side where the commodity taking-in / out area 6 of the commodity display shelf 1 is present. It can be formed. Therefore, when the consumer picks up the product, the product 3 is detected as the object 3 so that the product that the consumer is paying attention to can be investigated more accurately.

また、センサ部20を商品陳列棚1の複数の棚ごとに設置することにより複数の消費者がそれぞれ異なる棚に陳列された商品2に接近しても正確に検出することが可能となる。   Further, by installing the sensor unit 20 for each of the plurality of shelves of the product display shelf 1, it is possible to accurately detect even when a plurality of consumers approach the product 2 displayed on different shelves.

なお、この発明は前記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化可能である。   Note that the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage.

例えば、本実施形態では、小売店等の店舗における商品、見本品等の、物品の管理を行う物品管理システムに本発明を適用したがこれに限定する必要は無く。倉庫等の部品、部材等の物品の管理を行う物品管理システムに本発明を適用しても良い。   For example, in the present embodiment, the present invention is applied to an article management system that manages articles such as merchandise and sample goods in a store such as a retail store, but the present invention is not limited to this. The present invention may be applied to an article management system for managing articles such as parts and members in a warehouse.

また、本実施形態では、商品を陳列する棚を上下に配置した縦型の商品陳列棚に本発明を適用したがこれに限定する必要は無く、略水平に複数の商品を区切って陳列する平台やワゴン等の商品陳列台に本発明を適用しても良い。   Further, in the present embodiment, the present invention is applied to a vertical product display shelf in which shelves for displaying products are arranged up and down. However, the present invention is not limited to this, and a flat table that divides and displays a plurality of products approximately horizontally. The present invention may be applied to a product display stand such as a car or a wagon.

この他、前記実施形態に開示されている複数の構成要素の適宜な組み合わせにより種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態に亘る構成要素を組み合わせてもよい。   In addition, various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the embodiment. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, the constituent elements over different embodiments may be combined.

(第2の実施の形態)
図15〜図30を用いて、本発明の第2の実施形態を説明する。第1の実施形態と共通する説明は省略する。
(Second Embodiment)
A second embodiment of the present invention will be described with reference to FIGS. A description common to the first embodiment is omitted.

図15は、本発明の第2の実施形態である物品管理システム80の構成を示した図である。物品管理システム80は、センサ部220(対象物検出手段)と、システム管理部40(情報処理装置)から構成されている。   FIG. 15 is a diagram showing a configuration of an article management system 80 according to the second embodiment of the present invention. The article management system 80 includes a sensor unit 220 (object detection means) and a system management unit 40 (information processing apparatus).

センサ部220は、例えば店舗の商品陳列棚1(載置部)に設置され、商品陳列棚1に陳列された商品2(物品)又は商品陳列場所8(物品載置領域)に接近する対象物3を検出すると、センサ部220から対象物3までの距離を計測し、計測した距離データを対象物3の位置データ(対象物位置情報)としてシステム管理部40に送信する。   The sensor unit 220 is installed on, for example, a merchandise display shelf 1 (placement unit) in a store, and is close to a product 2 (article) or a merchandise display place 8 (article placement area) displayed on the merchandise display shelf 1. When 3 is detected, the distance from the sensor unit 220 to the object 3 is measured, and the measured distance data is transmitted to the system management unit 40 as position data (object position information) of the object 3.

センサ部220が対象物3までの距離を計測する方法としては、例えばセンサ部220から対象物3に波長0.7μm〜0.1mm程度の赤外線としての赤外レーザ光からなる投射光230を投射し対象物3で反射される反射光231をセンサ部220で検出し、投射光230を投射する時間と反射光231を検出する時間との時間差にもとづいて対象物3までの距離を計測する方法がある。   As a method for the sensor unit 220 to measure the distance to the object 3, for example, the projection light 230 composed of infrared laser light as infrared rays having a wavelength of about 0.7 μm to 0.1 mm is projected from the sensor unit 220 to the object 3. Then, the reflected light 231 reflected by the object 3 is detected by the sensor unit 220, and the distance to the object 3 is measured based on the time difference between the time for projecting the projection light 230 and the time for detecting the reflected light 231. There is.

本実施の形態では、センサ部220は赤外レーザ光からなる投射光230により対象物3までの距離を計測するが、センサ部220が距離を計測する方法はこれに限定されるものではなく、例えば、周波数が約20kHz以上の音波である超音波を投射し、その反射波を検出し、赤外レーザ光と同様に超音波を投射した時間と反射波を検出した時間から対象物3までの距離を計測しても良い。   In the present embodiment, the sensor unit 220 measures the distance to the object 3 by the projection light 230 made of infrared laser light, but the method by which the sensor unit 220 measures the distance is not limited to this, For example, an ultrasonic wave that is a sound wave having a frequency of about 20 kHz or more is projected, its reflected wave is detected, and the time from when the ultrasonic wave is projected and the time when the reflected wave is detected in the same manner as the infrared laser light to the object 3. The distance may be measured.

システム管理部40は、センサ部220とLANや専用回線等の通信回線60で接続され、センサ部220が送信出力した対象物3の位置データを受信し、受信した位置データにもとづいて処理を行う。   The system management unit 40 is connected to the sensor unit 220 via a communication line 60 such as a LAN or a dedicated line, receives the position data of the object 3 transmitted and output by the sensor unit 220, and performs processing based on the received position data. .

図16は、本実施の形態の物品管理システム80のハードウェア構成を示す図である。センサ部220は、センサ部220の各ハードウェアの制御を行う制御部であるMPU(Micro Processing Unit)221と、対象物3を検出するための投射光230を発する発光部222(投射部)、対象物3からの反射光231を検出する受光部223(検出部)、角度検出部224、モータ部225、タイマ部226、ハードディスクやメモリ等の記憶部227と、システム管理部40とデータの送受信を行う通信部228と、電源部229等から構成される。各部の機能については後述する。  FIG. 16 is a diagram illustrating a hardware configuration of the article management system 80 according to the present embodiment. The sensor unit 220 includes an MPU (Micro Processing Unit) 221 that is a control unit that controls each hardware of the sensor unit 220, and a light emitting unit 222 (projection unit) that emits projection light 230 for detecting the target 3. A light receiving unit 223 (detection unit) that detects reflected light 231 from the object 3, an angle detection unit 224, a motor unit 225, a timer unit 226, a storage unit 227 such as a hard disk or memory, and data transmission / reception with the system management unit 40. The communication unit 228 that performs the above and the power supply unit 229 and the like. The function of each part will be described later.

システム管理部41は、システム管理部41の各ハードウェアの制御を行う制御部であるMPU(Micro Processing Unit)41と、キーボードやマウス等の入力部42、液晶ディスプレイや有機ELディスプレイ等の表示器やプリンタ等の出力部43、ハードディスクやメモリ等の記憶部44、タイマ部45、センサ部220や他のシステムとデータの送受信を行う通信部46と、電源部47等から構成される。記憶部44には、位置データテーブル300、有効領域テーブル310、棚割テーブル320、位置特定テーブル330、物品特定テーブル340が設けられる。   The system management unit 41 includes an MPU (Micro Processing Unit) 41 that is a control unit that controls each hardware of the system management unit 41, an input unit 42 such as a keyboard and a mouse, and a display device such as a liquid crystal display and an organic EL display. And an output unit 43 such as a printer, a storage unit 44 such as a hard disk or a memory, a timer unit 45, a sensor unit 220, a communication unit 46 that transmits / receives data to / from other systems, a power source unit 47, and the like. The storage unit 44 includes a position data table 300, an effective area table 310, a shelf allocation table 320, a position specifying table 330, and an article specifying table 340.

図17〜図21を用いて物品管理システム80の対象物検出手段として機能するセンサ部220を説明する。   A sensor unit 220 that functions as an object detection unit of the article management system 80 will be described with reference to FIGS.

図17は、センサ部220の構成を示した図である。センサ部220は、筐体232、回転体233、角度検出部224、センサ制御部236等で構成される。筐体232は、例えば円筒状の形状で形成され、円周方向に沿って180度開口された円環状の透明窓234が設けられている。回転体233は、発光部222(投射部)、受光部223(検出部)、モータ部225、投受光ミラー235等で構成される。発光部222は(投射部)、例えば、赤外レーザやLEDなどの光源等で構成され、受光部223は(検出部)、例えば、フォトダイオードなどの光センサ等で構成される。モータ部225は、例えば、ブラシレスDCモータ等で構成される。   FIG. 17 is a diagram illustrating a configuration of the sensor unit 220. The sensor unit 220 includes a housing 232, a rotating body 233, an angle detection unit 224, a sensor control unit 236, and the like. The housing 232 is formed, for example, in a cylindrical shape, and is provided with an annular transparent window 234 that is opened 180 degrees along the circumferential direction. The rotating body 233 includes a light emitting unit 222 (projecting unit), a light receiving unit 223 (detecting unit), a motor unit 225, a light projecting / receiving mirror 235, and the like. The light emitting unit 222 is configured by (projection unit), for example, a light source such as an infrared laser or LED, and the light receiving unit 223 is configured by (detection unit), for example, an optical sensor such as a photodiode. The motor unit 225 is configured by, for example, a brushless DC motor.

投受光ミラー235は、発光部222が発した投射光230を所定の方向に反射させ、対象物3が反射した反射光231を受光部223の方向に反射させる機能を備える。投受光ミラー235は、回転体233と一緒に、例えば10Hzで回転し、発光部222が発した投射光230は、投受光ミラー235を経由してセンサ部220の周囲、例えば180度開口された透明窓に沿って180度の範囲で投射され、センサ部220の周囲を2次元的に走査することが可能である。角度検出部224は、例えば、フォトインタラプタ、又は磁気センサ等で構成され、回転体233の回転角度を検出し出力する。   The light projecting / receiving mirror 235 has a function of reflecting the projection light 230 emitted from the light emitting unit 222 in a predetermined direction and reflecting the reflected light 231 reflected by the object 3 in the direction of the light receiving unit 223. The light projecting / receiving mirror 235 rotates together with the rotating body 233 at, for example, 10 Hz, and the projection light 230 emitted from the light emitting unit 222 is opened around the sensor unit 220 via the light projecting / receiving mirror 235, for example, 180 degrees. It is projected within a range of 180 degrees along the transparent window, and the periphery of the sensor unit 220 can be scanned two-dimensionally. The angle detection unit 224 includes, for example, a photo interrupter or a magnetic sensor, and detects and outputs the rotation angle of the rotating body 233.

センサ制御部236は、対象物位置算出手段として機能する。MPU221、タイマ226、記憶部227、通信部228、電源部229等から構成され、モータ部225の回転制御を行うとともに、角度検出部224が出力する信号により、回転する回転体233の角度θを計測する。角度を求める回転体233の角度θの角度基準線は任意に設定することが可能である。例えば、1度の角度検出分解能を有し、任意の角度基準線から1度毎に回転体233の角度θを計測し出力することが可能である。   The sensor control unit 236 functions as an object position calculation unit. The MPU 221, the timer 226, the storage unit 227, the communication unit 228, the power supply unit 229, and the like control the rotation of the motor unit 225, and determine the angle θ of the rotating rotating body 233 according to the signal output from the angle detection unit 224. measure. The angle reference line of the angle θ of the rotating body 233 for obtaining the angle can be arbitrarily set. For example, it has an angle detection resolution of 1 degree, and can measure and output the angle θ of the rotating body 233 every 1 degree from an arbitrary angle reference line.

センサ制御部236は、モータ部225を制御し回転体233を回転させながら、発光部222を発光制御する。発光部222が発した投射光230は、投受光ミラー235、および透明窓234を経由して投射され、センサ部220の周囲を、例えば10Hzで走査する。この走査する領域に対象物3があると、対象物3から反射光231が発せられ、透明窓234、および投受光ミラー235を経由して受光部223で反射光231が検出される。   The sensor control unit 236 controls light emission of the light emitting unit 222 while controlling the motor unit 225 and rotating the rotating body 233. The projection light 230 emitted from the light emitting unit 222 is projected through the light projecting / receiving mirror 235 and the transparent window 234, and scans around the sensor unit 220 at 10 Hz, for example. When the object 3 is present in the area to be scanned, the reflected light 231 is emitted from the object 3, and the reflected light 231 is detected by the light receiving unit 223 via the transparent window 234 and the light projecting / receiving mirror 235.

センサ制御部236は、第1の実施形態と同様に、発光部222が投射光230を発した時間と受光部223が反射光231を検出した時間との時間差、発してから検出するまでの往復時間と基準となる投射光30と反射光31の速度とから、センサ部220から対象物3までの距離rを算出し、その算出した距離rと角度検出部224が出力する角度θとから構成される位置データをシステム管理部40に送信出力する。本実施形態では、センサ部220は赤外レーザ光からなる投射光30により対象物3までの距離を計測するが、赤外レーザ光と同様に、超音波を投射しその反射波を検出し超音波を投射した時間と反射波を検出した時間から対象物3までの距離を計測しても良い。   Similar to the first embodiment, the sensor control unit 236 performs a time difference between the time at which the light emitting unit 222 emits the projection light 230 and the time at which the light receiving unit 223 detects the reflected light 231, and the reciprocation from the generation to the detection. The distance r from the sensor unit 220 to the object 3 is calculated from the time and the reference projection light 30 and the reflected light 31, and the calculated distance r and the angle θ output from the angle detection unit 224 are configured. The position data to be transmitted is transmitted to the system management unit 40. In the present embodiment, the sensor unit 220 measures the distance to the object 3 with the projection light 30 made of infrared laser light. However, similarly to the infrared laser light, the sensor unit 220 projects an ultrasonic wave and detects the reflected wave to detect the distance. You may measure the distance to the target object 3 from the time which projected the sound wave and the time which detected the reflected wave.

図18は、商品陳列棚1にセンサ部220を設置した状態を示した図である。センサ部220は、商品陳列棚1に陳列された商品2(物品)又は商品2の商品陳列場所8(物品載置領域)に接近する対象物3を検出する。センサ部220は、例えば商品陳列棚1の開口された商品出し入れ領域6(開口部)が存在する棚前面4側の棚周部5の上部の略中央に設置される。センサ部220から180度の範囲で下方に向けて発せられる投射光230によって、対象物3を検出する基準となる検出領域207が、商品出し入れ領域6を覆うように商品出し入れ領域6の前面に形成される。   FIG. 18 is a diagram illustrating a state in which the sensor unit 220 is installed on the commodity display shelf 1. The sensor unit 220 detects the product 2 (article) displayed on the product display shelf 1 or the object 3 approaching the product display place 8 (article placement area) of the product 2. The sensor unit 220 is installed, for example, in the approximate center of the upper portion of the shelf peripheral portion 5 on the shelf front surface 4 side where the product insertion / extraction region 6 (opening portion) of the product display shelf 1 is present. A detection region 207 serving as a reference for detecting the object 3 is formed on the front surface of the product in / out region 6 so as to cover the product in / out region 6 by the projection light 230 emitted downward from the sensor unit 220 within a range of 180 degrees. Is done.

図19は、センサ部220を商品陳列棚1の開口された商品出し入れ領域6(開口部)が存在する棚前面4側の棚周部5の下部の略中央に設置した状態を示した図である。センサ部220から180度の範囲で上方に向けて発せられる投射光230によって、対象物3を検出する基準となる検出領域207が、商品出し入れ領域6を覆うように商品出し入れ領域6の前面に形成される。なお、センサ部220の設置場所は、商品2又は商品2の商品陳列場所8に接近する対象物3が検出できるのであれば、棚周部5の上部又は下部に限定する必要は無く、棚周部5の左右の側部に設置しても良い。   FIG. 19 is a diagram showing a state in which the sensor unit 220 is installed at the approximate center of the lower portion of the shelf peripheral portion 5 on the shelf front surface 4 side where the product insertion / extraction region 6 (opening portion) of the product display shelf 1 is present. is there. A detection region 207 serving as a reference for detecting the object 3 is formed on the front surface of the product in / out region 6 so as to cover the product in / out region 6 by the projection light 230 emitted upward from the sensor unit 220 within a range of 180 degrees. Is done. The installation location of the sensor unit 220 need not be limited to the upper or lower portion of the shelf peripheral portion 5 as long as the product 2 or the object 3 approaching the product display location 8 of the product 2 can be detected. You may install in the right and left side part of the part 5. FIG.

図20は、センサ部220が設置された商品陳列棚1を棚前面4側から見た状態を示す図である。商品陳列棚1の棚周部5の上部の略中央に設置されたセンサ部220から、センサ部220の周囲180度の範囲で下方に向けて投射光230が投射される。   FIG. 20 is a diagram illustrating a state in which the commodity display shelf 1 in which the sensor unit 220 is installed is viewed from the shelf front surface 4 side. The projection light 230 is projected downward from the sensor unit 220 installed at the approximate center of the shelf peripheral part 5 of the commodity display shelf 1 within a range of 180 degrees around the sensor unit 220.

前述したとおり、センサ部220から投射される投射光230はセンサ部220の周囲を、例えば10Hzの周期で回転し走査しているので、商品陳列棚1の商品出し入れ領域6を覆うように検出領域207が形成される。この検出領域207に対象物3が接触すると、センサ部220から投射される投射光230は、対象物3で反射され、その反射光231をセンサ部220で検出することが可能となる。   As described above, the projection light 230 projected from the sensor unit 220 rotates and scans around the sensor unit 220 with a period of, for example, 10 Hz, so that the detection region covers the product insertion / removal region 6 of the product display shelf 1. 207 is formed. When the object 3 comes into contact with the detection area 207, the projection light 230 projected from the sensor unit 220 is reflected by the object 3, and the reflected light 231 can be detected by the sensor unit 220.

センサ制御部236は、前述したとおり対象物3までの距離rを算出し、角度θを検出し、距離rと角度θとから構成される位置データをシステム管理部40に、走査1回毎に送信出力する。   As described above, the sensor control unit 236 calculates the distance r to the object 3, detects the angle θ, and sends position data composed of the distance r and the angle θ to the system management unit 40 for each scan. Send output.

図21は、商品陳列棚1を商品2の商品陳列場所8別に、A1からA16までのブロック10に区分した状態を示す図である。A1からA16それぞれのブロック10は、商品陳列場所8の大きさに合わせて領域が決められる。本実施の形態では、A1からA16のそれぞれのブロック10は同じ大きさで、縦50cm、横80cmとしたが、この大きさに限定されるものでは無く、商品陳列場所8の大きさに合わせてブロック毎に異なる大きさとしても良い。本実施の形態では、商品陳列棚1の大きさは、センサ部220が設置される位置を基準点211とすると、X軸方向は160cmから−160cm、Y軸方向は0から200cmとなる。   FIG. 21 is a diagram showing a state in which the product display shelf 1 is divided into blocks 10 from A1 to A16 for each product display location 8 of the product 2. The area of each block 10 of A1 to A16 is determined according to the size of the commodity display place 8. In the present embodiment, each of the blocks A1 to A16 has the same size, 50 cm in length and 80 cm in width, but is not limited to this size, and is matched to the size of the product display place 8. The size may be different for each block. In the present embodiment, the size of the commodity display shelf 1 is 160 cm to −160 cm in the X-axis direction and 0 to 200 cm in the Y-axis direction when the position where the sensor unit 220 is installed is the reference point 211.

センサ部220から発せられる投射光230による検出領域207は、商品陳列棚1の商品出し入れ領域6を覆うように形成されるため、商品陳列棚1に陳列された商品2又は商品陳列場所8に接近する対象物3だけで無く、商品陳列棚1が設置されている店内の床209や、壁、又は建築物の柱、といった検出対象とすべきでない固定された背景物や、商品陳列棚1の横に位置する店員やお客、台車のような設備器具といった移動する背景物も検出してしまう。   Since the detection area 207 by the projection light 230 emitted from the sensor unit 220 is formed so as to cover the merchandise entry / exit area 6 of the merchandise display shelf 1, it approaches the merchandise 2 or the merchandise display place 8 displayed on the merchandise display rack 1. Not only the target object 3 to be detected, but also the fixed background object that should not be detected such as the floor 209 in the store where the product display shelf 1 is installed, the wall, or the pillar of the building, and the product display shelf 1 Moving background objects such as shop assistants, customers, and equipment such as carts are also detected.

より正確に、消費者が注目している商品の情報を捉えるには、これらの背景物の位置データは検出対象から除外する必要がある。本実施の形態のシステム管理部40は、背景物の位置データを除外するために、検出領域207のうち、商品陳列棚1のA1ブロックからA16ブロックの商品陳列場所8に該当する検出領域を、有効な検出領域の上限値として定義し、この有効な検出領域である有効検出領域212以外で検出された背景物の位置データを除外する有効情報抽出処理を行う。   In order to capture the information of the product that the consumer is paying attention to more accurately, it is necessary to exclude the position data of these background objects from the detection target. In order to exclude the position data of the background object, the system management unit 40 according to the present embodiment detects a detection area corresponding to the commodity display place 8 from the A1 block to the A16 block of the commodity display shelf 1 in the detection area 207. An effective information extraction process is performed in which the upper limit value of the effective detection area is defined and the position data of the background object detected outside the effective detection area 212 which is the effective detection area is excluded.

図22は、システム管理部40の記憶部44に記憶する、位置データテーブル300の構成を示す図である。位置データテーブル300は、角度エリア301に関連付けて、距離エリア302、X軸距離エリア303、Y軸距離エリア304、検出対象エリア305が設けられている。センサ部220から送信された角度θと距離rとからなる位置データをそれぞれ、角度データを角度エリア301に記憶し、距離データを角度データに関連付けて距離エリア302に記憶する。X軸距離エリア303とY軸距離エリア304にはそれぞれ、角度エリア301に記憶する角度データと距離エリア302に記憶する距離データとから、対象物3のX軸方向の距離データとY軸方向の距離データを算出して記憶する。検出対象エリア305は、有効情報抽出処理により検出対象とする位置データの場合は「1」を記憶し、検出対象としない位置データの場合は「0」を記憶する。検出対象エリア305のデータにより検出対象とするか判別することが可能となる。   FIG. 22 is a diagram illustrating a configuration of the position data table 300 stored in the storage unit 44 of the system management unit 40. In the position data table 300, a distance area 302, an X-axis distance area 303, a Y-axis distance area 304, and a detection target area 305 are provided in association with the angle area 301. The position data composed of the angle θ and the distance r transmitted from the sensor unit 220 is stored in the angle area 301 and the distance data is stored in the distance area 302 in association with the angle data. In the X-axis distance area 303 and the Y-axis distance area 304, the distance data in the X-axis direction and the Y-axis direction of the object 3 are respectively obtained from the angle data stored in the angle area 301 and the distance data stored in the distance area 302. Distance data is calculated and stored. The detection target area 305 stores “1” in the case of position data to be detected by the valid information extraction process, and stores “0” in the case of position data not to be detected. It is possible to determine whether or not to be a detection target based on the data in the detection target area 305.

図23は、システム管理部40の記憶部44に記憶する、有効領域テーブル310の構成を示す図である。有効領域テーブル310は、有効領域記憶手段として機能し、センサ部220が形成する検出領域207のうち有効な領域である有効検出領域212の大きさの上限値を記憶する。方向エリア311に関連付けて、各方向の上限値(領域情報)を記憶する上限値エリア312が設けられている。本実施の形態では、センサ部220が設置された位置を基準点として、X軸方向は160cm〜−160cm、Y軸方向は200cm、が各方向の上限値として上限値エリア312に記憶する。上限値を超える位置データは、有効検出領域212より外側に存在する背景物が反射して算出された、検出対象外の背景物の位置データとして有効情報抽出処理され検出対象から除外される。   FIG. 23 is a diagram illustrating a configuration of the effective area table 310 stored in the storage unit 44 of the system management unit 40. The effective area table 310 functions as an effective area storage unit, and stores an upper limit value of the size of the effective detection area 212 that is an effective area among the detection areas 207 formed by the sensor unit 220. In association with the direction area 311, an upper limit area 312 for storing an upper limit value (region information) in each direction is provided. In the present embodiment, with the position where the sensor unit 220 is installed as a reference point, 160 cm to −160 cm in the X-axis direction and 200 cm in the Y-axis direction are stored in the upper limit area 312 as the upper limit value in each direction. The position data exceeding the upper limit value is excluded from the detection target by performing effective information extraction processing as position data of the background object outside the detection target, which is calculated by reflecting the background object existing outside the effective detection region 212.

図24は、システム管理部40の記憶部44に記憶する、棚割テーブル320の構成を示す図である。棚割テーブル320は、物品載置位置記憶手段として機能する。ブロックエリア321に関連付けて、商品陳列棚1のA1からA16の各ブロックが位置する範囲を示す範囲データ(物品位置情報)を記憶する範囲エリア322、各ブロックに陳列される商品2(物品)の商品識別データ(物品識別情報)を記憶する識別データエリア323が設けられている。範囲エリア322に記憶する範囲データは、商品陳列棚1のセンサ部220が設置される位置を基準点として、各ブロックが位置するX軸方向、Y軸方向の範囲を示すデータである。   FIG. 24 is a diagram illustrating a configuration of the shelf allocation table 320 stored in the storage unit 44 of the system management unit 40. The shelf allocation table 320 functions as an article placement position storage unit. In association with the block area 321, a range area 322 for storing range data (article position information) indicating a range in which each of the blocks A1 to A16 of the merchandise display shelf 1 is located, and the merchandise 2 (article) displayed in each block An identification data area 323 for storing product identification data (article identification information) is provided. The range data stored in the range area 322 is data indicating the ranges in the X-axis direction and the Y-axis direction where each block is located, with the position where the sensor unit 220 of the product display shelf 1 is installed as a reference point.

図25は、システム管理部40の記憶部44に記憶する、位置特定テーブル330の構成を示す図である。ブロックエリア331に関連付けて、商品陳列棚1のA1からA16の各ブロックに対応する有効検出領域212の対象物3の検出結果を記憶するTmエリア332、Tm−1エリア333、Tm−2エリア334、Tm−3エリア335、Tm−4エリア336・・・Tm−99エリア337が順に設けられている。   FIG. 25 is a diagram illustrating a configuration of the position specifying table 330 stored in the storage unit 44 of the system management unit 40. In association with the block area 331, a Tm area 332, a Tm-1 area 333, and a Tm-2 area 334 that store the detection results of the object 3 in the effective detection area 212 corresponding to the blocks A1 to A16 of the merchandise display shelf 1 , Tm-3 area 335, Tm-4 area 336... Tm-99 area 337 are provided in this order.

Tmエリア332〜Tm−99エリア337には、各ブロックに対応する有効検出領域212で対象物3を検出したと判断すると「1」を記憶し、検出しないと判断すると「0」を記憶する。有効情報抽出処理がされた位置データに基づいて各ブロック別に対象物3の検出結果をTmエリア332に記憶する。先にTmエリア332に記憶していた検出結果はTm−1エリア333に記憶し、Tm−1エリア333に記憶していた検出結果はTm−2エリア334に記憶し、Tm−2エリア334に記憶していた検出結果はTm−3エリア335に記憶し、というように過去の検出結果は記憶エリアを順次移動して記憶する。本実施形態では、検出結果は100回分記憶することが可能である。センサ部220の走査周期が10Hzであれば、100回分の検出結果を記憶することで、過去10秒間の検出結果を記憶することが可能となる。   In the Tm area 332 to the Tm-99 area 337, “1” is stored when it is determined that the object 3 is detected in the effective detection area 212 corresponding to each block, and “0” is stored when it is determined that it is not detected. The detection result of the object 3 is stored in the Tm area 332 for each block based on the position data on which the effective information extraction processing has been performed. The detection results previously stored in the Tm area 332 are stored in the Tm-1 area 333, the detection results stored in the Tm-1 area 333 are stored in the Tm-2 area 334, and are stored in the Tm-2 area 334. The stored detection results are stored in the Tm-3 area 335, and the past detection results are stored by sequentially moving the storage area. In the present embodiment, detection results can be stored 100 times. If the scanning period of the sensor unit 220 is 10 Hz, it is possible to store the detection results for the past 10 seconds by storing the detection results for 100 times.

図26は、システム管理部40の記憶部44に記憶する、物品特定テーブル340の構成を示した図である。ブロックエリア341に関連付けて、商品陳列棚1のA1からA16の各ブロック別に識別データエリア342、検出回数エリア343が設けられている。物品特定テーブル340を参照することで、対象物3が接近したブロックとそこに陳列される商品、接近した回数が把握可能となる。   FIG. 26 is a diagram showing the configuration of the article identification table 340 stored in the storage unit 44 of the system management unit 40. In association with the block area 341, an identification data area 342 and a detection frequency area 343 are provided for each block A1 to A16 of the commodity display shelf 1. By referring to the article identification table 340, it is possible to grasp the blocks that the object 3 has approached, the products that are displayed there, and the number of times that they have approached.

図27〜図30のフローチャートを用いて、物品管理システム80の処理について説明する。   Processing of the article management system 80 will be described using the flowcharts of FIGS.

図27は、システム管理部40の制御部であるMPU41が実行する対象物3が接近する商品陳列棚1(載置部)に陳列される商品2(物品)又は商品陳列場所8(物品載置領域)を特定する処理のフローチャートを示す図である。   FIG. 27 shows a product 2 (article) or a product display place 8 (article placement) displayed on the product display shelf 1 (placement section) to which the object 3 executed by the MPU 41 as the control unit of the system management unit 40 approaches. It is a figure which shows the flowchart of the process which pinpoints (area | region).

システム管理部40(情報処理装置)は、センサ部220(対象物検出段)よりセンサ部220が走査した1回分の位置データ(対象物位置情報)を受信し取得する(ステップS101、対象物位置取得手段)。受信した位置データは、位置データテーブル300に記憶する(ステップS102)。   The system management unit 40 (information processing apparatus) receives and acquires one position data (object position information) scanned by the sensor unit 220 from the sensor unit 220 (object detection stage) (step S101, object position). Acquisition means). The received position data is stored in the position data table 300 (step S102).

本実施の形態では、センサ部220は、角度0度から180度まで1度毎に位置データを算出し、1走査分である180度分まとめて送信するので、受信した位置データは、0度から180度までの角度に関連付けて位置データテーブル300に記憶する。位置データテーブル300に記憶した位置データと、有効領域テーブル310(有効領域記憶手段)に記憶した有効検出領域212の上限値(領域情報)とを用いて有効情報抽出処理を行う(ステップS103)。   In the present embodiment, the sensor unit 220 calculates the position data every angle from 0 degrees to 180 degrees and transmits it collectively for 180 degrees that is one scan, so the received position data is 0 degrees. And stored in the position data table 300 in association with angles from 180 degrees. Effective information extraction processing is performed using the position data stored in the position data table 300 and the upper limit value (area information) of the effective detection area 212 stored in the effective area table 310 (effective area storage means) (step S103).

図28は、システム管理部40の制御部であるMPU41が実行する、有効情報抽出処理のフローチャートを示す図である。有効情報抽出処理は有効情報抽出手段として機能する。   FIG. 28 is a diagram illustrating a flowchart of valid information extraction processing executed by the MPU 41 which is the control unit of the system management unit 40. The effective information extraction process functions as effective information extraction means.

位置データテーブル300に記憶した角度θと距離rの位置データから、検出された対象物3のX軸方向の距離であるX軸距離データrxと、Y軸方向の距離であるY軸距離データryを算出する(ステップS131)。X軸距離データrxと、Y軸距離データryは、以下の式で算出できる。   From the position data of the angle θ and the distance r stored in the position data table 300, the detected X-axis distance data rx that is the distance in the X-axis direction of the object 3 and the Y-axis distance data ry that is the distance in the Y-axis direction. Is calculated (step S131). X-axis distance data rx and Y-axis distance data ry can be calculated by the following equations.

Figure 2009126660
Figure 2009126660
Figure 2009126660
Figure 2009126660

算出したX軸距離データrxは位置データテーブル300のX軸距離エリア303に記憶し、Y軸距離データryはY軸距離エリア304に記憶する(ステップS132)。   The calculated X-axis distance data rx is stored in the X-axis distance area 303 of the position data table 300, and the Y-axis distance data ry is stored in the Y-axis distance area 304 (step S132).

次に、X軸距離エリア303に記憶したX軸距離データと、Y軸距離エリア304に記憶したY軸距離データとを、有効領域テーブル310に記憶した有効検出領域212の上限値と比較する(ステップS133)。   Next, the X-axis distance data stored in the X-axis distance area 303 and the Y-axis distance data stored in the Y-axis distance area 304 are compared with the upper limit value of the effective detection area 212 stored in the effective area table 310 ( Step S133).

対象物3が検出された位置であるX軸距離データとY軸距離データが、有効領域テーブル310に記憶した有効検出領域212の上限値以内か判断する(ステップS135)。対象物3のX軸距離データとY軸距離データが上限値以内で無い場合は(ステップS135のNO)、対象物3は商品陳列棚1の有効検出領域212より外側で検出されたことになり、位置データテーブル300の検出対象エリア305に「0」を記憶して(ステップS141)、有効情報抽出処理を終了する。   It is determined whether the X-axis distance data and the Y-axis distance data, which are the positions where the object 3 is detected, are within the upper limit value of the effective detection area 212 stored in the effective area table 310 (step S135). When the X-axis distance data and the Y-axis distance data of the target object 3 are not within the upper limit values (NO in step S135), the target object 3 is detected outside the effective detection area 212 of the commodity display shelf 1. Then, “0” is stored in the detection target area 305 of the position data table 300 (step S141), and the valid information extraction process is terminated.

対象物3のX軸距離データとY軸距離データが上限値以内である場合は(ステップS135のYES)、対象物3は商品陳列棚1の有効検出領域212の範囲内で検出されたことになり、位置データテーブル300の検出対象エリア305に「1」を記憶して(ステップS137)、有効情報抽出処理を終了する。   If the X-axis distance data and the Y-axis distance data of the target object 3 are within the upper limit values (YES in step S135), the target object 3 has been detected within the range of the effective detection area 212 of the merchandise display shelf 1. Thus, “1” is stored in the detection target area 305 of the position data table 300 (step S137), and the valid information extraction process is terminated.

有効情報抽出処理では、対象物3が検出された位置が有効検出領域212以内か判断する。これは、商品陳列棚1に陳列された商品2又は商品陳列場所8に接近する対象物3のみを検出対象として位置を特定するためである。有効情報抽出処理により、商品陳列棚1の周辺を移動する店員やお客、商品陳列棚1の周辺の床や壁、設備器具等の、商品に接近する対象物として集計するのに必要では無い背景物の位置データを、検出結果から除外することが可能となる。   In the valid information extraction process, it is determined whether the position where the object 3 is detected is within the valid detection area 212. This is because the position is specified using only the product 2 displayed on the product display shelf 1 or the object 3 approaching the product display place 8 as a detection target. Background information that is not necessary to be counted as objects approaching the product, such as shop assistants and customers moving around the product display shelf 1, floors and walls around the product display shelf 1, equipment, etc. Can be excluded from the detection result.

次に、位置データテーブル300と棚割テーブル320とを用いて、位置特定処理を行う(ステップS105)。   Next, a position specifying process is performed using the position data table 300 and the shelf allocation table 320 (step S105).

図29は、システム管理部40の制御部であるMPU41が実行する、位置特定処理のフローチャートを示す図である。   FIG. 29 is a diagram illustrating a flowchart of the position specifying process executed by the MPU 41 which is the control unit of the system management unit 40.

位置データテーブル300に記憶した位置データのうち、検出対象エリア305に「1」を記憶している位置データを検出対象とする対象物3の位置データとして抽出する(ステップS151)。   Of the position data stored in the position data table 300, the position data storing “1” in the detection target area 305 is extracted as the position data of the target object 3 to be detected (step S151).

抽出した位置データのX軸距離エリア303に記憶したX軸距離データとY軸距離エリア304に記憶したY軸距離データと、棚割テーブル320の範囲エリア322に記憶したA1からA16の各ブロックが位置する範囲を定義する範囲データとを比較する(ステップS153)。   The X-axis distance data stored in the X-axis distance area 303 of the extracted position data, the Y-axis distance data stored in the Y-axis distance area 304, and the blocks A1 to A16 stored in the range area 322 of the shelf allocation table 320 are The range data defining the range to be positioned is compared (step S153).

抽出した位置データのX軸距離データとY軸距離データが含まれる範囲データのブロック10を棚割テーブル320に記憶しているか判断する(ステップS155)。位置データが含まれるブロック10が無い場合は(ステップS155のNO)、位置特定テーブル330の全てのブロックのTmエリア332に検出結果として「0」を記憶し(ステップS161)、位置特定処理を終了する。   It is determined whether the range data block 10 including the extracted X-axis distance data and Y-axis distance data of the position data is stored in the shelf allocation table 320 (step S155). When there is no block 10 including position data (NO in step S155), “0” is stored as a detection result in the Tm area 332 of all blocks in the position specifying table 330 (step S161), and the position specifying process is ended. To do.

位置データが含まれるブロックが有る場合は(ステップS155のYES)、該当するブロックを抽出し(ステップS157)、位置特定テーブル330の該当するブロックのTmエリア332に検出結果として「1」を記憶し、該当しないブロックのTmエリア332に検出結果として「0」を記憶する(ステップS159)。   If there is a block including position data (YES in step S155), the corresponding block is extracted (step S157), and “1” is stored as a detection result in the Tm area 332 of the corresponding block in the position specifying table 330. Then, “0” is stored as the detection result in the Tm area 332 of the non-applicable block (step S159).

このとき、先にTmエリア332に記憶していた検出結果はTm−1エリア333に記憶し、Tm−1エリア333に記憶していた検出結果はTm−2エリア334に記憶し、Tm−2エリア334に記憶していた検出結果はTm−3エリア335に記憶し、Tm−3エリア335に記憶していた検出結果はTm−4エリア336に記憶し、というように過去の検出結果は、記憶エリアを順次移動して記憶する。位置特定テーブル330にA1からA16の各ブロック別に対象物3の検出結果を記憶して、位置特定処理を終了する。   At this time, the detection result previously stored in the Tm area 332 is stored in the Tm-1 area 333, the detection result stored in the Tm-1 area 333 is stored in the Tm-2 area 334, and Tm-2 The detection results stored in the area 334 are stored in the Tm-3 area 335, the detection results stored in the Tm-3 area 335 are stored in the Tm-4 area 336, and so on. The storage area is sequentially moved and stored. The detection result of the object 3 is stored for each block of A1 to A16 in the position specifying table 330, and the position specifying process is terminated.

次に、検出結果を記憶した位置特定テーブル330と棚割テーブル320とを用いて物品特定処理を行う(ステップS107)。   Next, an article specifying process is performed using the position specifying table 330 and the shelf allocation table 320 that store the detection results (step S107).

図30は、システム管理部40の制御部であるMPU41が実行する、物品特定処理のフローチャートを示す図である。物品特定処理は物品特定手段として機能する。   FIG. 30 is a diagram illustrating a flowchart of the article specifying process executed by the MPU 41 that is the control unit of the system management unit 40. The article specifying process functions as an article specifying means.

位置特定テーブル330のTmエリア332に記憶した、A1からA16のブロック別の対象物3の検出結果と、棚割テーブル320の識別データエリア323に記憶した商品識別データとを使用して、対象物3が接近する位置に陳列する商品2を特定する。   Using the detection results of the objects 3 by blocks A1 to A16 stored in the Tm area 332 of the position specification table 330 and the product identification data stored in the identification data area 323 of the shelf allocation table 320, the object A product 2 to be displayed at a position close to 3 is specified.

まず、位置特定テーブル330のTmエリア332に記憶した検出結果のうち、対象物3が有効検出領域212以内で検出された「1」を記憶したブロックを抽出する(ステップS171)。   First, out of the detection results stored in the Tm area 332 of the position specifying table 330, a block storing “1” in which the object 3 is detected within the effective detection area 212 is extracted (step S171).

抽出したブロックと同じブロックが物品特定テーブル340のブロックエリア341に記憶していないか判断する(ステップS173)。同じブロックが物品特定テーブル340のブロックエリア341に記憶している場合は(ステップS173のNO)、物品特定テーブル340の該当するブロックの検出回数エリア343のカウントに「1」を加えて(ステップS179)、物品特定処理を終了する。   It is determined whether the same block as the extracted block is stored in the block area 341 of the article identification table 340 (step S173). When the same block is stored in the block area 341 of the article identification table 340 (NO in step S173), “1” is added to the count in the detection count area 343 of the corresponding block in the article identification table 340 (step S179). ), And ends the article specifying process.

同じブロックが物品特定テーブル340のブロックエリア341に記憶されていない場合は(ステップS173のYES)、そのブロックを物品特定テーブル340のブロックエリア341に記憶する(ステップS175)。   If the same block is not stored in the block area 341 of the article specifying table 340 (YES in step S173), the block is stored in the block area 341 of the article specifying table 340 (step S175).

物品特定テーブル340のブロックエリア341に記憶したブロックと同じブロックが関連付けられた商品識別データを棚割テーブル320の識別データエリア323から選択し、物品特定テーブル340の識別データエリア342に記憶する(ステップS177)。   Product identification data associated with the same block as the block stored in the block area 341 of the article identification table 340 is selected from the identification data area 323 of the shelf allocation table 320 and stored in the identification data area 342 of the article identification table 340 (step). S177).

物品特定テーブル340の該当するブロックの検出回数エリア343のカウントに「1」を加えて(ステップS179)、物品特定処理を終了する。   “1” is added to the count in the number-of-detections area 343 of the corresponding block in the article identification table 340 (step S179), and the article identification process is terminated.

物品特定処理により、物品特定テーブル340のブロックエリア341に記憶するブロックデータと、識別データエリア342に記憶する商品識別データと、検出回数エリア343に記憶する検出回数データが関連付けて記憶される。物品特定テーブル340のブロックエリア341に記憶するブロックデータは、対象物3が接近し有効検出領域212で検出されたブロックであり、そのブロックデータに関連付けられた識別データエリア342に記憶された商品識別データを参照することで、対象物3が接近する商品2の商品識別データを特定することが可能となる。さらにブロックデータに関連付けられた検出回数エリア343に記憶された検出回数データを参照することで、対象物3が接近する商品2の検出回数を集計することが可能となる。   By the article specifying process, block data stored in the block area 341 of the article specifying table 340, product identification data stored in the identification data area 342, and detection count data stored in the detection count area 343 are stored in association with each other. The block data stored in the block area 341 of the article identification table 340 is a block detected by the effective detection area 212 when the object 3 approaches, and the product identification stored in the identification data area 342 associated with the block data. By referring to the data, it is possible to specify the product identification data of the product 2 to which the object 3 approaches. Furthermore, by referring to the detection frequency data stored in the detection frequency area 343 associated with the block data, it is possible to add up the detection frequency of the product 2 that the object 3 approaches.

本実施の形態では、商品陳列棚1に陳列された商品2又は商品陳列場所8に接近する消費者の手や腕等の対象物3を商品別に検出することで、消費者の購入の有無に関わらず、消費者が商品陳列棚より選択し手に取った商品を調査することが可能となる。よって消費者が注目している商品を商品別により詳細に調査することが可能となる。また商品陳列棚の棚割レイアウトの変更前後で本発明を実施することで、商品陳列棚の棚割レイアウトの良否を商品別により詳細に調査することが可能となる。   In the present embodiment, the product 2 displayed on the product display shelf 1 or the object 3 such as the hand or arm of the consumer approaching the product display place 8 is detected for each product, thereby determining whether or not the consumer has purchased. Regardless, it is possible to investigate the product that the consumer has selected and picked up from the product display shelf. Therefore, it becomes possible to investigate in detail the product that the consumer is paying attention to by product. Further, by implementing the present invention before and after the change of the shelf layout of the product display shelf, it is possible to investigate in detail the quality of the shelf layout of the product display shelf by product.

また対象物検出手段であるセンサ部220の光源に赤外レーザ光を用いたため、計測範囲が広く、店舗や倉庫の照明等の光学的条件の影響を軽微にすることが可能となる。またシステムの構成がシンプルで、お客の行き来が激しい24時間営業の店舗等においても、システムの設置や保守が比較的容易に行うことが可能となる。   In addition, since infrared laser light is used as the light source of the sensor unit 220 as the object detection means, the measurement range is wide, and the influence of optical conditions such as lighting in stores and warehouses can be minimized. In addition, it is possible to install and maintain the system relatively easily even in a 24-hour store or the like where the system configuration is simple and customers are coming and going.

またセンサ部220を商品陳列棚1の商品出し入れ領域6が存在する棚前面4側の開口部側に設けることにより対象物3を検出する検出領域(有効検出領域212)を開口部側に形成するこが可能となる。よって消費者が商品を手に取った際に対象物3として検出することにより、より正確に消費者が注目している商品を調査することが可能となる。   In addition, the sensor unit 220 is provided on the opening side of the shelf front surface 4 side where the product loading / unloading region 6 of the product display shelf 1 exists, thereby forming a detection region (effective detection region 212) for detecting the object 3 on the opening side. This is possible. Therefore, when the consumer picks up the product, the product 3 is detected as the object 3 so that the product that the consumer is paying attention to can be investigated more accurately.

また対象物検出手段を商品陳列棚1の上部又は下部に設けることにより対象物3を検出する検出領域(有効検出領域212)をセンサ部220から下方又は上方に向けて形成することが可能となる。よって商品陳列棚1の前に2人以上の複数の消費者が同時に商品2に接近しても消費者が他の消費者の検出の死角となることなく、複数の消費者を同時に検出することが可能となる。   Further, by providing the object detection means at the upper part or the lower part of the merchandise display shelf 1, it is possible to form a detection area (effective detection area 212) for detecting the object 3 downward or upward from the sensor unit 220. . Therefore, even if two or more consumers in front of the commodity display shelf 1 approach the commodity 2 at the same time, the consumer can detect a plurality of consumers at the same time without becoming a blind spot for detection of other consumers. Is possible.

なお、この発明は前記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化可能である。   Note that the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage.

例えば、本実施の形態では、小売店等の店舗における商品、見本品等の、物品の管理を行う物品管理システムに本発明を適用したがこれに限定する必要は無く。倉庫等の部品、部材等の物品の管理を行う物品管理システムに本発明を適用しても良い。   For example, in the present embodiment, the present invention is applied to an article management system that manages articles such as merchandise and sample products in stores such as retail stores, but the present invention is not limited to this. The present invention may be applied to an article management system for managing articles such as parts and members in a warehouse.

また、本実施形態では、商品を陳列する棚を上下に配置した縦型の商品陳列棚に本発明を適用したがこれに限定する必要は無く、略水平に複数の商品を区切って陳列する平台やワゴン等の商品陳列台に本発明を適用しても良い。   Further, in the present embodiment, the present invention is applied to a vertical product display shelf in which shelves for displaying products are arranged up and down. However, the present invention is not limited to this, and a flat table that divides and displays a plurality of products approximately horizontally. The present invention may be applied to a product display stand such as a car or a wagon.

この他、前記実施形態に開示されている複数の構成要素の適宜な組み合わせにより種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態に亘る構成要素を組み合わせてもよい。   In addition, various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the embodiment. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, the constituent elements over different embodiments may be combined.

本発明の第1の実施形態におけるシステム構成を示す図。The figure which shows the system configuration | structure in the 1st Embodiment of this invention. 同実施形態におけるシステムのハードウェア構成を示す図。The figure which shows the hardware constitutions of the system in the embodiment. 同実施形態におけるセンサ部の構成を示す図。The figure which shows the structure of the sensor part in the embodiment. 同実施形態におけるセンサ部と商品陳列棚の構成を示す図。The figure which shows the structure of the sensor part and merchandise display shelf in the embodiment. 同実施形態におけるセンサ部と商品陳列棚の構成を示す図。The figure which shows the structure of the sensor part and merchandise display shelf in the embodiment. 同実施形態における位置データテーブルのデータ構造を示す図。The figure which shows the data structure of the position data table in the embodiment. 同実施形態における有効領域テーブルのデータ構造を示す図。The figure which shows the data structure of the effective area | region table in the embodiment. 同実施形態における棚割テーブルのデータ構造を示す図。The figure which shows the data structure of the shelf allocation table in the embodiment. 同実施形態における位置特定テーブルのデータ構造を示す図。The figure which shows the data structure of the position specific table in the embodiment. 同実施形態における物品特定テーブルのデータ構造を示す図。The figure which shows the data structure of the articles | goods identification table in the embodiment. 同実施形態における物品管理システムの処理手順を示す流れ図。The flowchart which shows the process sequence of the article | item management system in the embodiment. 同実施形態における有効情報抽出処理の処理手順を示す流れ図。The flowchart which shows the process sequence of the effective information extraction process in the embodiment. 同実施形態における位置特定処理の処理手順を示す流れ図。The flowchart which shows the process sequence of the position specific process in the embodiment. 同実施形態における物品特定処理の処理手順を示す流れ図。The flowchart which shows the process sequence of the articles | goods identification process in the embodiment. 本発明の第2の実施形態におけるシステム構成を示す図。The figure which shows the system configuration | structure in the 2nd Embodiment of this invention. 同実施形態におけるシステムのハードウェア構成を示す図。The figure which shows the hardware constitutions of the system in the embodiment. 同実施形態におけるセンサ部の構成を示す図。The figure which shows the structure of the sensor part in the embodiment. 同実施形態におけるセンサ部と商品陳列棚の構成を示す図。The figure which shows the structure of the sensor part and merchandise display shelf in the embodiment. 同実施形態におけるセンサ部と商品陳列棚の構成を示す図。The figure which shows the structure of the sensor part and merchandise display shelf in the embodiment. 同実施形態におけるセンサ部と商品陳列棚の構成を示す図。The figure which shows the structure of the sensor part and merchandise display shelf in the embodiment. 同実施形態におけるセンサ部と商品陳列棚の構成を示す図。The figure which shows the structure of the sensor part and merchandise display shelf in the embodiment. 同実施形態における位置データテーブルのデータ構造を示す図。The figure which shows the data structure of the position data table in the embodiment. 同実施形態における有効領域テーブルのデータ構造を示す図。The figure which shows the data structure of the effective area | region table in the embodiment. 同実施形態における棚割テーブルのデータ構造を示す図。The figure which shows the data structure of the shelf allocation table in the embodiment. 同実施形態における位置特定テーブルのデータ構造を示す図。The figure which shows the data structure of the position specific table in the embodiment. 同実施形態における物品特定テーブルのデータ構造を示す図。The figure which shows the data structure of the articles | goods identification table in the embodiment. 同実施形態における物品管理システムの処理手順を示す流れ図。The flowchart which shows the process sequence of the article | item management system in the embodiment. 同実施形態における有効情報抽出処理の処理手順を示す流れ図。The flowchart which shows the process sequence of the effective information extraction process in the embodiment. 同実施形態における位置特定処理の処理手順を示す流れ図。The flowchart which shows the process sequence of the position specific process in the embodiment. 同実施形態における物品特定処理の処理手順を示す流れ図。The flowchart which shows the process sequence of the articles | goods identification process in the embodiment.

符号の説明Explanation of symbols

1 商品陳列棚
2 商品
3 対象物
4 棚前面
5 棚周部
6 商品出し入れ領域
7a〜7c 検出領域
8 商品陳列場所
9 柱
10 ブロック
11 基準線
12a〜12c 有効検出領域
20a〜20c センサ部
22 発光部
23 受光部
30 投射光
31 反射光
36 センサ制御部
40 システム管理部
41 MPU
44 記憶部
80 物品管理システム
100 位置データテーブル
110 有効領域テーブル
120 棚割テーブル
130 位置特定テーブル
140 物品特定テーブル
207 検出領域
209 床
212 有効検出領域
220 センサ部
222 発光部
223 受光部
224 角度検出部
230 投射光
231 反射光
233 回転体
236 センサ制御部
300 位置データテーブル
310 有効領域テーブル
320 棚割テーブル
330 位置特定テーブル
340 物品特定テーブル
DESCRIPTION OF SYMBOLS 1 Commodity display shelf 2 Commodity 3 Target object 4 Shelf front surface 5 Shelf peripheral part 6 Commodity taking-in / out area 7a-7c Detection area 8 Commodity display place 9 Pillar 10 Block 11 Reference line 12a-12c Effective detection area 20a-20c Sensor part 22 Light emission part 23 Light Receiving Unit 30 Projected Light 31 Reflected Light 36 Sensor Control Unit 40 System Management Unit 41 MPU
44 storage unit 80 article management system 100 position data table 110 effective area table 120 shelf allocation table 130 position identification table 140 article identification table 207 detection area 209 floor 212 effective detection area 220 sensor section 222 light emitting section 223 light receiving section 224 angle detection section 230 Projected light 231 Reflected light 233 Rotating body 236 Sensor control unit 300 Position data table 310 Effective area table 320 Shelf allocation table 330 Position specifying table 340 Article specifying table

Claims (9)

載置部に載置される複数の物品の物品識別情報と物品が載置される位置を示す物品位置情報を関連付けて記憶する物品載置位置記憶手段と、
前記載置部に載置される物品又は物品が載置される位置に接近する対象物を検出し、その対象物の位置を示す対象物位置情報を計測し出力する対象物検出手段と、
この対象物検出手段が出力する対象物位置情報が含まれる前記物品位置情報を判別し、判別した物品位置情報と関連付けて記憶された物品識別情報を特定する物品特定手段とを備えたことを特徴とする物品管理システム。
Article placement position storage means for associating and storing article identification information of a plurality of articles placed on the placement section and article position information indicating a position where the article is placed;
An object detection means for detecting an object placed on the placement unit or an object approaching a position on which the article is placed, and measuring and outputting object position information indicating the position of the object;
An article specifying means for determining the article position information including the object position information output by the object detecting means and specifying the article identification information stored in association with the determined article position information. Article management system.
前記対象物検出手段は
光又は音波を発する投射部と、
前記対象物で反射された光又は音波を検出する検出部と、
前記投射部が光又は音波を発する時間と前記検出部が反射された光又は音波を検出する時間との差にもとづいて前記対象物の位置を示す対象物位置情報を算出する対象物位置算出手段とを備えたことを特徴とする請求項1記載の物品管理システム。
The object detection means includes a projection unit that emits light or sound waves,
A detection unit for detecting light or sound waves reflected by the object;
Object position calculation means for calculating object position information indicating the position of the object based on the difference between the time when the projection unit emits light or sound waves and the time when the detection unit detects reflected light or sound waves The article management system according to claim 1, further comprising:
前記対象物検出手段は
投射光を発する投射部と、
前記対象物で反射された反射光を検出する検出部と、
前記投射部が投射光を発する時間と前記検出部が反射された反射光を検出する時間との差にもとづいて前記対象物の位置を示す対象物位置情報を算出する対象物位置算出手段とを備えたことを特徴とする請求項1記載の物品管理システム。
The object detection means includes a projection unit that emits projection light,
A detector for detecting reflected light reflected by the object;
Object position calculation means for calculating object position information indicating the position of the object based on a difference between a time when the projection unit emits projection light and a time when the detection unit detects reflected light reflected by the detection unit; The article management system according to claim 1, further comprising:
前記対象物検出手段が検出する有効な領域を示す領域情報を記憶する有効領域記憶手段と、
この有効領域記憶手段に記憶した領域情報にもとづいて前記対象物検出手段が出力する前記対象物位置情報が前記領域情報以内かを判断する有効情報抽出手段とを備えたことを特徴とする請求項1乃至請求項3の1に記載の物品管理システム。
Effective area storage means for storing area information indicating an effective area detected by the object detection means;
The effective information extracting means for judging whether the object position information output from the object detecting means is within the area information based on the area information stored in the effective area storing means. The article management system according to claim 1.
前記対象物検出手段は、前記載置部の開口部側に設置され、この開口部側に検出領域を形成することを特徴とする請求項1乃至請求項4の1に記載の物品管理システム。   5. The article management system according to claim 1, wherein the object detection unit is installed on an opening side of the placement unit and forms a detection area on the opening side. 前記対象物検出段は、前記載置部が備える複数の棚ごとに設置されることを特徴とする請求項1乃至請求項5の1に記載の物品管理システム。   The article management system according to claim 1, wherein the object detection stage is installed for each of a plurality of shelves provided in the placement unit. 前記対象物検出段は、前記載置部の上部に設置され、前記対象物検出手段から下方に向けて検出領域を形成することを特徴とする請求項1乃至請求項5の1に記載の物品管理システム。   The article according to any one of claims 1 to 5, wherein the object detection stage is installed in an upper portion of the placement section and forms a detection region downward from the object detection means. Management system. 前記対象物検出段は、前記載置部の下部に設置され、前記対象物検出手段から上方に向けて検出領域を形成することを特徴とする請求項1乃至請求項5の1に記載の物品管理システム。   The article according to any one of claims 1 to 5, wherein the object detection stage is installed at a lower part of the placement unit, and forms a detection region upward from the object detection means. Management system. 載置部に載置される複数の物品の物品識別情報と物品が載置される位置を示す物品位置情報を関連付けて記憶する物品載置位置記憶手段と、
対象物検出段が計測し出力する前記載置部に載置される物品又は物品が載置される位置に接近する対象物の位置を示す対象物位置情報を前記対象物検出手段から取得する対象物位置取得手段と、
この対象物位置取得手段で取得した対象物位置情報が含まれる前記物品位置情報を判別し、判別した物品位置情報と関連付けて記憶された物品識別情報を特定する物品特定手段とを備えたことを特徴とする情報処理装置。
Article placement position storage means for associating and storing article identification information of a plurality of articles placed on the placement section and article position information indicating a position where the article is placed;
The object for acquiring object position information indicating the position of the object placed on the placement unit described above and measured by the object detection stage, or the position of the object approaching the position on which the article is placed, from the object detection means. Object position acquisition means;
An article specifying means for determining the article position information including the object position information acquired by the object position acquiring means, and specifying the article identification information stored in association with the determined article position information. A characteristic information processing apparatus.
JP2007305327A 2007-11-27 2007-11-27 Article management system and information processing apparatus Abandoned JP2009126660A (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2007305327A JP2009126660A (en) 2007-11-27 2007-11-27 Article management system and information processing apparatus
US12/323,938 US20090135013A1 (en) 2007-11-27 2008-11-26 Article management system and information processing apparatus
CNA2008101774748A CN101447055A (en) 2007-11-27 2008-11-27 Article management system and information processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007305327A JP2009126660A (en) 2007-11-27 2007-11-27 Article management system and information processing apparatus

Publications (1)

Publication Number Publication Date
JP2009126660A true JP2009126660A (en) 2009-06-11

Family

ID=40669219

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007305327A Abandoned JP2009126660A (en) 2007-11-27 2007-11-27 Article management system and information processing apparatus

Country Status (3)

Country Link
US (1) US20090135013A1 (en)
JP (1) JP2009126660A (en)
CN (1) CN101447055A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013171940A1 (en) * 2012-05-17 2013-11-21 日本電気株式会社 Task assistance system, task assistance method, and program
JP2014046993A (en) * 2012-08-29 2014-03-17 Kongo Co Ltd Movable shelf device
JP2015041194A (en) * 2013-08-21 2015-03-02 株式会社Nttドコモ User observation system
JP2015511033A (en) * 2012-02-29 2015-04-13 ネステク ソシエテ アノニム Apparatus for conducting consumer surveys and method for using the same
WO2015173869A1 (en) * 2014-05-12 2015-11-19 富士通株式会社 Product-information output method, product-information output program, and control device
WO2017163879A1 (en) * 2016-03-23 2017-09-28 日本電気株式会社 Behavior analysis device, behavior analysis system, behavior analysis method, and program
JP2019219248A (en) * 2018-06-19 2019-12-26 沖電気工業株式会社 Point group processor, method for processing point group, and program
US11940562B2 (en) 2018-03-19 2024-03-26 Nec Corporation Sensor apparatus, article display shelf, and production management system

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009214949A (en) * 2008-03-07 2009-09-24 Toshiba Tec Corp Article management system and information processor
US8878673B2 (en) 2011-05-19 2014-11-04 Invue Security Products Inc. Systems and methods for protecting retail display merchandise from theft
US11263829B2 (en) 2012-01-02 2022-03-01 Digimarc Corporation Using a predicted color for both visibility evaluation and signal robustness evaluation
US9449357B1 (en) 2012-08-24 2016-09-20 Digimarc Corporation Geometric enumerated watermark embedding for spot colors
US9401001B2 (en) * 2014-01-02 2016-07-26 Digimarc Corporation Full-color visibility model using CSF which varies spatially with local luminance
WO2013114512A1 (en) * 2012-02-03 2013-08-08 Necソフト株式会社 Operation support system, operation support device, operation support method and program
US11810378B2 (en) 2012-08-24 2023-11-07 Digimarc Corporation Data hiding through optimization of color error and modulation error
US9565335B2 (en) * 2014-01-02 2017-02-07 Digimarc Corporation Full color visibility model using CSF which varies spatially with local luminance
US9580245B2 (en) * 2014-06-10 2017-02-28 Amazon Technologies, Inc. Item-detecting overhead sensor for inventory system
US9824328B2 (en) 2014-06-10 2017-11-21 Amazon Technologies, Inc. Arm-detecting overhead sensor for inventory system
US9667829B2 (en) 2014-08-12 2017-05-30 Digimarc Corporation System and methods for encoding information for printed articles
CN106156970A (en) * 2015-04-17 2016-11-23 上海通路快建网络服务外包有限公司 Kinds of goods attention rate monitoring system and monitoring method
US10517056B2 (en) * 2015-12-03 2019-12-24 Mobile Tech, Inc. Electronically connected environment
CN107798363B (en) * 2016-09-07 2021-11-02 柯尼卡美能达株式会社 Management system, management device, management method, and recording medium
US10026057B1 (en) * 2017-05-09 2018-07-17 Hussein Elsherif Retail cigarette inventory-monitoring system
CN107862360A (en) * 2017-11-01 2018-03-30 北京旷视科技有限公司 Destination object and the correlating method of merchandise news, apparatus and system
CN108154139B (en) * 2018-01-22 2021-10-01 京东数字科技控股有限公司 Commodity hot area detection system and method, electronic device and storage medium
CN108154404B (en) * 2018-01-23 2021-07-16 京东数字科技控股有限公司 Commodity hot area detection system and method, electronic device and storage medium
CN110070381A (en) * 2018-01-24 2019-07-30 北京京东金融科技控股有限公司 For detecting system, the method and device of counter condition of merchandise
CN108175227B (en) * 2018-02-26 2023-08-08 北京地平线机器人技术研发有限公司 Goods shelf control method and device and electronic equipment
CN108966139A (en) * 2018-03-28 2018-12-07 厦门上特展示系统工程有限公司 Location information acquisition and analysis device and method
CN108490394A (en) * 2018-03-28 2018-09-04 厦门上特展示系统工程有限公司 Article position acquisition and analysis device and method
CN108665305B (en) * 2018-05-04 2022-07-05 水贝文化传媒(深圳)股份有限公司 Method and system for intelligently analyzing store information
CN109001748B (en) * 2018-07-16 2021-03-23 北京旷视科技有限公司 Target object and article association method, device and system
CN109214304A (en) * 2018-08-14 2019-01-15 上海箧书网络科技有限公司 Information interacting method and system for exhibition showpiece
CN110895722B (en) * 2018-09-13 2024-04-05 阿里巴巴集团控股有限公司 Information processing method, display system and intelligent display rack

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0827352B2 (en) * 1988-02-22 1996-03-21 トヨタ自動車株式会社 Vehicle preceding vehicle identification device
US5812986A (en) * 1996-02-23 1998-09-22 Danelski; Darin L. RF light directed inventory system
US5781443A (en) * 1996-10-30 1998-07-14 Street; William L. Apparatus for use in parts assembly
US6762681B1 (en) * 2001-10-02 2004-07-13 Innovative Picking Technologies, Inc. Zoneless order fulfillment system with picker identification
US6933849B2 (en) * 2002-07-09 2005-08-23 Fred Sawyer Method and apparatus for tracking objects and people
JP4164423B2 (en) * 2003-08-29 2008-10-15 キヤノン株式会社 An apparatus including a sensing unit and a pointing device
US7463143B2 (en) * 2004-03-15 2008-12-09 Arbioran Methods and systems for gathering market research data within commercial establishments
JP2006124123A (en) * 2004-10-29 2006-05-18 Yoshiyuki Kajino Filing security system and article security system
WO2006081520A2 (en) * 2005-01-26 2006-08-03 Munroe Chirnomas Inventory monitor for an article dispenser
US20080000968A1 (en) * 2006-06-30 2008-01-03 Robert Thomas Cato Rotating Light Beam/Distance Meter Based Location Determining System
US7564349B2 (en) * 2006-07-05 2009-07-21 Bellheimer Metallwerk Gmbh Position indicator apparatus and method
KR100863245B1 (en) * 2006-07-18 2008-10-15 삼성전자주식회사 Beacon capable of detecting distance, position recognition system using the beacon and position recognition method thereof
JP5466808B2 (en) * 2006-09-29 2014-04-09 株式会社トプコン Optical distance measurement method, distance measurement program, and distance measurement system
US20080111704A1 (en) * 2006-11-12 2008-05-15 Lieberman Klony S Apparatus and method for monitoring hand propinquity to plural adjacent item locations
US8073562B2 (en) * 2007-01-26 2011-12-06 Innovative Picking Technologies, Inc. Picking system with pick verification

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015511033A (en) * 2012-02-29 2015-04-13 ネステク ソシエテ アノニム Apparatus for conducting consumer surveys and method for using the same
WO2013171940A1 (en) * 2012-05-17 2013-11-21 日本電気株式会社 Task assistance system, task assistance method, and program
US9690983B2 (en) 2012-05-17 2017-06-27 Nec Corporation Task assistance system, task assistance method, and program
JPWO2013171940A1 (en) * 2012-05-17 2016-01-07 日本電気株式会社 Work support system, work support method and program
JP2014046993A (en) * 2012-08-29 2014-03-17 Kongo Co Ltd Movable shelf device
JP2015041194A (en) * 2013-08-21 2015-03-02 株式会社Nttドコモ User observation system
JPWO2015173869A1 (en) * 2014-05-12 2017-04-20 富士通株式会社 Product information output method, product information output program and control device
WO2015173869A1 (en) * 2014-05-12 2015-11-19 富士通株式会社 Product-information output method, product-information output program, and control device
US10354131B2 (en) 2014-05-12 2019-07-16 Fujitsu Limited Product information outputting method, control device, and computer-readable recording medium
WO2017163879A1 (en) * 2016-03-23 2017-09-28 日本電気株式会社 Behavior analysis device, behavior analysis system, behavior analysis method, and program
JPWO2017163879A1 (en) * 2016-03-23 2018-12-20 日本電気株式会社 Behavior analysis apparatus, behavior analysis system, behavior analysis method, and program
US11461733B2 (en) 2016-03-23 2022-10-04 Nec Corporation Behavior analysis device, behavior analysis system, behavior analysis method, and program
US11940562B2 (en) 2018-03-19 2024-03-26 Nec Corporation Sensor apparatus, article display shelf, and production management system
JP2019219248A (en) * 2018-06-19 2019-12-26 沖電気工業株式会社 Point group processor, method for processing point group, and program
JP7107015B2 (en) 2018-06-19 2022-07-27 沖電気工業株式会社 Point cloud processing device, point cloud processing method and program

Also Published As

Publication number Publication date
CN101447055A (en) 2009-06-03
US20090135013A1 (en) 2009-05-28

Similar Documents

Publication Publication Date Title
JP2009126660A (en) Article management system and information processing apparatus
RU2729789C1 (en) Fiber-optic rack system
US20190130377A1 (en) Automatic billing system, automatic billing method and non-transitory recording medium
US9406041B2 (en) Methods and systems for automated monitoring and managing of inventory
US7219838B2 (en) System and method for notifying a cashier of the presence of an item in an obscured area of a shopping cart
JP2009214949A (en) Article management system and information processor
WO2015140853A1 (en) Pos terminal device, pos system, product recognition method, and non-transient computer-readable medium having program stored thereon
JP2009190881A (en) Goods control system and information processor
US10565552B2 (en) Systems and methods for locating containers with low inventory
CA3019021C (en) A point of sale terminal
JP2010058908A (en) Article management system
KR20190093733A (en) Items recognition system in unmanned store and the method thereof
AU2016277613A1 (en) Apparatus and methods for dimensioning an object carried by a vehicle moving in a field of measurement
JP2010006557A (en) Article management system
JP6731033B2 (en) Method, apparatus, and system for identifying article position
JP2013238973A (en) Purchase information management system, merchandise movement detection device and purchase information management method
US11276053B2 (en) Information processing system, method, and storage medium for detecting a position of a customer, product or carrier used for carrying the product when the customer approaches a payment lane and determining whether the detected position enables acquisition of identification information from the product
JPWO2020027034A1 (en) Reading system, shopping support system, reading method and program
US12020264B2 (en) Item level 3D localization and imaging using radio frequency waves
CN111507792A (en) Self-service shopping method, computer readable storage medium and system
RU2652972C2 (en) Methods, systems, and computer readable media for tracking consumer interactions with products using electromagnetic beam sensors
KR102588267B1 (en) Logistics management system
CA2985467A1 (en) Measurement system and method
US11755989B2 (en) Preventing theft at retail stores
US20210012300A1 (en) Information processing system, information processing method, and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090319

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20091016

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091027

A762 Written abandonment of application

Free format text: JAPANESE INTERMEDIATE CODE: A762

Effective date: 20091209