JP2013054598A - Image display device and program - Google Patents
Image display device and program Download PDFInfo
- Publication number
- JP2013054598A JP2013054598A JP2011193249A JP2011193249A JP2013054598A JP 2013054598 A JP2013054598 A JP 2013054598A JP 2011193249 A JP2011193249 A JP 2011193249A JP 2011193249 A JP2011193249 A JP 2011193249A JP 2013054598 A JP2013054598 A JP 2013054598A
- Authority
- JP
- Japan
- Prior art keywords
- image
- product
- moving image
- fitting room
- identified
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 239000002131 composite material Substances 0.000 claims abstract description 36
- 238000003384 imaging method Methods 0.000 claims abstract description 18
- 238000004891 communication Methods 0.000 claims description 25
- 238000000034 method Methods 0.000 claims description 18
- 230000002194 synthesizing effect Effects 0.000 claims description 2
- 230000003190 augmentative effect Effects 0.000 abstract description 29
- 238000010586 diagram Methods 0.000 description 18
- 230000008569 process Effects 0.000 description 10
- 238000004590 computer program Methods 0.000 description 8
- 230000005540 biological transmission Effects 0.000 description 5
- 238000001514 detection method Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 230000010365 information processing Effects 0.000 description 2
- 238000003909 pattern recognition Methods 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000005674 electromagnetic induction Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000004744 fabric Substances 0.000 description 1
- 230000004907 flux Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012015 optical character recognition Methods 0.000 description 1
- 230000003746 surface roughness Effects 0.000 description 1
Images
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明の実施形態は、映像表示装置およびプログラムに関する。 Embodiments described herein relate generally to a video display device and a program.
近年、コンピュータ等を用いて、撮像装置で撮像された画像などの現実の情報に、付加情報としてバーチャルな物体を電子情報として合成して提示する拡張現実という技術が様々な場面で用いられている。 In recent years, a technique called augmented reality that uses a computer or the like to synthesize a virtual object as electronic information and present it with real information such as an image captured by an imaging device has been used in various situations. .
ところで、従来技術においては、拡張現実による提示を受ける際、現実の情報として撮像された画像に付加情報として合成するバーチャルな物体を、ユーザが自ら選択しなければならなかった。そのため、より簡単に拡張現実による提示を受けることができる技術が求められている。 By the way, in the prior art, when receiving presentation by augmented reality, the user has to select a virtual object to be combined as additional information with an image captured as actual information. Therefore, there is a need for a technology that can more easily receive presentations in augmented reality.
実施形態の映像表示装置は、撮像手段と、識別手段と、生成手段と、表示制御手段と、を備える。前記撮像手段は、動画像を撮像する。前記識別手段は、前記撮像された動画像に含まれる物体を識別する。前記生成手段は、前記識別された物体に対応する画像と前記撮像された動画像とを合成した合成画像を生成する。前記表示制御手段は、前記生成した合成画像を表示部に表示する。 The video display apparatus according to the embodiment includes an imaging unit, an identification unit, a generation unit, and a display control unit. The imaging means captures a moving image. The identification means identifies an object included in the captured moving image. The generation unit generates a composite image obtained by combining an image corresponding to the identified object and the captured moving image. The display control means displays the generated composite image on a display unit.
(第1の実施形態)
図1は、第1の実施形態にかかる拡張現実システムの構成を示すブロック図である。なお、本実施形態では、衣料品等の商品を販売する店舗に拡張現実システム1を適用した例について説明する。
(First embodiment)
FIG. 1 is a block diagram illustrating a configuration of an augmented reality system according to the first embodiment. In the present embodiment, an example in which the augmented reality system 1 is applied to a store that sells merchandise such as clothing will be described.
本実施形態にかかる拡張現実システム1は、有線または無線の通信回線(例えば、インターネット等)300等を介して相互に電気的に接続されたコンピュータ301や、POS(Point Of Sale)端末501、試着室端末101、クライアント端末401、ハンディーターミナル200等を備えている。
The augmented reality system 1 according to the present embodiment includes a
本実施形態にかかる拡張現実システム1では、1つまたは複数のコンピュータ301が、所定のサービスを提供するサーバとして機能することができる。この拡張現実システム1では、例えばSaaS(Software as a Service)の形態で、サービスが提供されうる。
In the augmented reality system 1 according to the present embodiment, one or a plurality of
POS端末501は、店舗の出口付近に設けられたレジカウンタ(図示せず)に設置されている。POS端末501は、商品毎に固有の商品IDを読み取って出力するスキャナ502を備えている。商品IDは、商品に付されているRFID(Radio Frequency Identification)タグ111(図2参照)にバーコードや2次元コード等のコードシンボルの形態で印刷されている。そして、POS端末501は、読み取られた情報に基づいて、商品販売データ処理を実行する。
The
このようなPOS端末501には、通信回線300を介して、コンピュータ301、クライアント端末401、試着室端末101、およびハンディーターミナル200が接続されている。
A
コンピュータ301には、ストレージデバイスとしてHDD(Hard Disk Drive)等の記憶装置が内蔵され、この記憶装置には各種ファイルが記憶されている。
The
クライアント端末401は、拡張現実システム1が導入された店舗を利用する顧客により所有された所謂スマートフォンであり、携帯電話と携帯情報端末機能が付いた携帯端末である。
The
ハンディーターミナル200は、店舗に来店した顧客に貸し出され、顧客により操作される携帯端末である。本実施形態では、ハンディーターミナル200は、アクセスポイント201を介して通信回線300に接続され、コンピュータ301に記憶された各種ファイルにアクセスすることにより、顧客が自ら商品の登録等を行うことができる。
The
試着室端末101は、顧客が商品である衣料品110(図2参照)を持ち込み、持ち込んだ衣料品110を試着する際に使用する試着室100に設置されている。試着室端末101は、顧客が入室した試着室100内の動画像を現実の情報として撮像し、撮像した動画像と、付加情報としての商品(顧客が試着室100内に持ち込んだ衣料品110)の画像とを合成した合成画像を表示する拡張現実提示処理を実行する。
The
衣料品店である店舗には、顧客が衣料品110(図2参照)の試着に使用する試着室100が複数台設置されている。顧客は、試着室100に試着したい衣料品110を持ち込み、試着室端末101により表示された合成画像を見たり、衣料品110を実際に試着したりすることにより、衣料品110の購入を検討する。
In a store that is a clothing store, a plurality of
図2は、試着室端末が設置されている試着室を示す斜視図である。試着室100は、図2に示すように、上面と正面の一部とが開口した直方体形状を有している。試着室100の正面の開口部分は、顧客が出入するための出入口102となっている。出入口102には、布製のカーテン103が図示しないカーテンレールによって開閉自在に取り付けられている。なお、試着室100の出入口102には、カーテン103の代わりに、例えばスライド開閉自在な扉が設けられていても良い。図2では、カーテン103を開いた状態の試着室100を示しているため、試着室100の中を視認できる。試着室100の中の背面側の壁には、試着に際して顧客を映し出すための全身鏡104が取り付けられている。また、全身鏡104の上方位置には、蛍光灯である照明105が取り付けられている。
FIG. 2 is a perspective view showing a fitting room in which a fitting room terminal is installed. As shown in FIG. 2, the
さらに、全身鏡104の上部には、顧客が入室した試着室100内の動画像(つまり、試着室100に入室した顧客および当該顧客が試着室100内に持ち込んだ衣料品110の画像を含む動画像)を撮像する撮像部であるカメラ109が取り付けられている。
Further, on the upper part of the full-
そして、試着室100内の一方の側壁には、試着室端末101が取り付けられている。試着室端末101は、試着室100の中の顧客に対して情報を表示すると共に、顧客からの操作入力を受け付けるものである。
A
また、試着室端末101は、厚みのある平板状のハウジング106を備えている。ハウジング106には、情報を表示する表示部としてのLCD(Liquid Crystal Display)107が取り付けられている。LCD107は、その表示面に積層配置され、タッチ指定することにより情報を入力可能な操作入力部としてのタッチパネル108を有する。
The
さらに、試着室端末101には、通信回線300を介してコンピュータ301等とデータ通信を実行するための通信インタフェース123(図3参照)が内蔵されている。
Further, the
また、試着室端末101の下方位置には、RFIDタグ111と無線通信を実行するためのRFIDリーダライタ114が取り付けられている。このRFIDリーダライタ114は、その上方に位置する試着室端末101との間でデータ通信可能に有線接続されている。
In addition, an RFID reader /
RFIDリーダライタ114が無線通信をするRFIDタグ111は、衣料品110に値札として付されている。衣料品110が顧客によって試着室100の中に持ち込まれた場合に、RFIDリーダライタ114は、その衣料品110に付されたRFIDタグ111と無線通信を実行する。そのため、RFIDリーダライタ114は、試着室100内をその通信可能範囲としている。
The
RFIDタグ111は、電池を内蔵しないパッシブタグであり、ICチップ112とコイル状のタグアンテナ113とが埋設されている。このICチップ112には、商品を特定する特定情報である商品IDのデータが記憶されている。
The
RFIDリーダライタ114とRFIDタグ111とは、例えば13.56MHzの周波数帯を使用する電磁誘導方式によって交信する。つまり、RFIDリーダライタ114とRFIDタグ111とは、RFIDリーダライタ114のアンテナコイル(図示せず)とタグアンテナ113との誘導磁束による誘起電圧を利用することで交信する。このような交信状態を利用して、RFIDリーダライタ114は、ICチップ112に記憶されている商品IDを読み取る。そして、RFIDリーダライタ114は、読み取った商品IDを試着室端末101のCPU119(図3参照)に出力する。
The RFID reader /
また、試着室100の背面には、細長い円柱状のポール115が立設されている。ポール115の先端部には、青色と赤色と緑色とを選択的に発光可能な報知部としての発光部116が設けられている。発光部116は、ポール115を通る図示しないケーブルによって試着室端末101と接続されており、試着室端末101のCPU119(図3参照)によって動作制御を受ける。なお、CPU119による動作制御を受けていない状態では、発光部116は発光動作をしていない。
An elongated
また、試着室100の出入口102の一方の側部には、出入口102を通過する顧客を検出する人感センサとして赤外線センサ117が取り付けられている。この赤外線センサ117は、いわゆる焦電型赤外線センサである。つまり、赤外線センサ117は、出入口102を通過する顧客の人体が発する赤外線を受光し、受光した赤外線を熱変換し、その熱を素子の焦電効果で電荷に変えて出力(検出出力)する。赤外線センサ117は、試着室端末101と図示しないケーブルによって接続されており、赤外線センサ117の検出出力は、試着室端末101のCPU119(図3参照)へと入力される。
An
また、図2では図示しないが、試着室100の床には、感圧センサ118(図3参照)が配置されている。試着室100の床は、詳細は図示しないが二枚の床板が重なって構成されており、この二枚の床板の間に挟まるようにして、複数個の感圧センサ118が配置されている。そのため、顧客が出入口102を通って試着室100の中に入り床をその足で踏むと、いずれかの感圧センサ118に圧力がかかることになる。感圧センサ118は、このような圧変化を内部の感圧素子によって電気信号に変換して出力(検出出力)する。そして、感圧センサ118は、試着室端末101と図示しないケーブルによって接続されており、感圧センサ118の検出出力は、試着室端末101のCPU119(図3参照)へと入力される。
Although not shown in FIG. 2, a pressure-sensitive sensor 118 (see FIG. 3) is disposed on the floor of the
図3は、試着室端末のハードウェア構成を示すブロック図である。試着室端末101は、各種演算処理を実行し各部を制御する情報処理部としてのCPU(Central Processing Unit)119を備えている。CPU119には、コンピュータプログラム等の固定データを固定的に記憶保存するROM(Read Only Memory)120と、可変データを書き換え自在に記憶してワークエリアとして使用されるRAM(Random Access Memory)121と、試着室端末101の電源を落としてもデータ内容を保持する不揮発性メモリであるフラッシュメモリ122とがバス接続されている。
FIG. 3 is a block diagram showing a hardware configuration of the fitting room terminal. The
また、CPU119には、LCD107、タッチパネル108、カメラ109、RFIDリーダライタ114、発光部116、赤外線センサ117、感圧センサ118、および通信インタフェース123、が、いずれも各種の入出力回路(いずれも図示せず)を介して接続され、CPU119によって動作制御される。なお、感圧センサ118は、前述したように実際には複数個設けられているが、図3中では一つの感圧センサ118のみ示している。
The
フラッシュメモリ122には、各種コンピュータプログラムおよび各種ファイルが記憶されている。このようなフラッシュメモリ122に記憶されているコンピュータプログラムやファイルは、試着室端末101の起動時に、その全部又は一部がRAM121にコピーされて使用される。
The
そして、試着室端末101のCPU119は、コンピュータプログラムに従って実行する処理中に各種のファイルにデータアクセスする。アクセスされるファイルは、コンピュータ301の図示しないHDD(Hard Disk Drive)に格納されているファイルである。コンピュータ301は、通信回線300を介して試着室端末101と接続されている。そのため、これらのファイルは、試着室端末101のCPU119によってデータアクセス可能となっている。
Then, the
ここで、図4および図5を用いて、コンピュータ301のHDD(図示しない)に格納され、試着室端末101のCPU119によりデータアクセス可能となっている各種ファイル(商品ファイルF1、商品分類ファイルF2等)について説明する。
4 and 5, various files (product file F1, product classification file F2, etc.) stored in the HDD (not shown) of the
図4は、商品ファイルのデータ構成を示す図である。商品ファイルF1は、商品を特定する特定情報である商品IDに対応付けて、当該商品IDにより特定される商品の商品名と、当該商品IDにより特定される商品が属する商品分類と、当該商品IDにより特定される商品の単価と、当該商品IDにより特定される商品に対応する画像(本実施形態では、商品画像)と、を記憶するファイルである。 FIG. 4 is a diagram showing the data structure of the product file. The product file F1 is associated with a product ID that is specification information for specifying a product, the product name of the product specified by the product ID, the product classification to which the product specified by the product ID belongs, and the product ID This is a file for storing the unit price of the product specified by the product and an image (product image in this embodiment) corresponding to the product specified by the product ID.
図5は、商品分類ファイルのデータ構成を示す図である。商品分類ファイルF2は、商品ファイルF1に記憶された商品分類に対応付けて、所定の位置と、順番と、を記憶する。ここで、所定の位置は、商品分類に応じて予め設定された位置である。例えば、商品分類:「上着」の所定の位置は、カメラ109により撮像された動画像に含まれる顧客(人)のトップスの位置である。また、商品分類:「ズボン」の所定の位置は、カメラ109により撮像された動画像に含まれる顧客(人)のボトムスの位置である。
FIG. 5 is a diagram showing the data structure of the product classification file. The product classification file F2 stores a predetermined position and order in association with the product classification stored in the product file F1. Here, the predetermined position is a position set in advance according to the product classification. For example, the predetermined position of the product classification: “jacket” is the position of the tops of the customer (person) included in the moving image captured by the
また、順番は、カメラ109により撮像された動画像に複数の商品に対応する複数の画像を重ね合わせる場合に、各商品が属する商品分類に応じて予め設定された順番である。例えば、商品分類:「下着」の順番は、商品分類:「上着」よりも前の順番である。
The order is an order set in advance according to the product classification to which each product belongs when a plurality of images corresponding to a plurality of products are superimposed on the moving image captured by the
図6は、クライアント端末のハードウェア構成を示すブロック図である。クライアント端末401は、各種演算処理を実行し各部を制御する情報処理部としてのCPU402を備えている。CPU402には、コンピュータプログラム等の固定データを固定的に記憶保存するROM403と、可変データを書き換え自在に記憶してワークエリアとして使用されるRAM404と、クライアント端末401の電源を落としてもデータ内容を保持する不揮発性メモリであるフラッシュメモリ405とがバス接続されている。
FIG. 6 is a block diagram illustrating a hardware configuration of the client terminal. The
CPU402には、情報を表示するLCD406、LCD406の表示面に積層配置されてタッチ指定することにより情報を入力可能な操作入力部としてのタッチパネル408、通信回線300を介してコンピュータ301等とデータ通信を実行するための通信インタフェース407、衣料品110等の商品に付されたRFIDタグ111と無線通信を実行するRFIDリーダライタ409、および動画像を撮像する撮像部であるカメラ410が、いずれも各種の入出力回路(いずれも図示せず)を介して接続され、CPU402によって動作制御される。なお、RFIDリーダライタ409は、試着室端末101が備えるRFIDリーダライタ114と同様の構成を有しているため、ここでは説明を省略する。
The
フラッシュメモリ405には、各種コンピュータプログラムおよび各種ファイルが記憶されている。このようなフラッシュメモリ405に記憶されているコンピュータプログラムやファイルは、クライアント端末401の起動時に、その全部又は一部がRAM404にコピーされて使用される。
The
そして、クライアント端末401のCPU402は、コンピュータプログラムに従って実行する処理中に各種のファイル(例えば、商品ファイルF1、商品分類ファイルF2など)にデータアクセスする。アクセスされるファイルは、コンピュータ301の図示しないHDDに格納されているファイルである。コンピュータ301は、通信回線300を介してクライアント端末101とも接続されている。そのため、これらのファイルは、クライアント端末401のCPU402によってもデータアクセス可能となっている。
Then, the
次に、本実施形態にかかる試着室端末101が有する機能について説明する。図7は、本実施形態にかかる試着室端末の機能構成を示すブロック図である。CPU119は、RAM121に展開されたROM120が記憶するプログラムに従って動作することで、図7に示すように、識別部701、生成部702、および表示制御部703として機能する。
Next, functions of the
識別部701は、赤外線センサ117によって顧客が検出されかつ感圧センサ118により圧力の検出が出力されると、試着室100に顧客が入室したと判断して、カメラ109に撮像オン信号を出力してカメラ109に撮像動作を開始させる。そして、識別部701は、カメラ109が撮像した撮像エリアのフレーム画像(動画像)を取り込んで、RAM121に格納する。
When the customer is detected by the
また、識別部701は、RAM121に格納されたフレーム画像に含まれる物体を識別するものである。本実施形態では、識別部701は、RFIDリーダライタ114を制御して、衣料品110に付されたRFIDタグ111と無線通信を実行して、RFIDタグ111に記憶された商品IDのデータを読み取る。そして、識別部701は、読み取った商品IDにより特定される衣料品110を、RAM121に格納されたフレーム画像に含まれる物体として識別する。
The
なお、本実施形態では、識別部701は、RFIDリーダライタ114により読み取った商品IDにより特定される衣料品110を、RAM121に格納されたフレーム画像に含まれる物体として識別しているが、これに限定するものではない。例えば、識別部701は、商品ファイルF1に記憶された商品画像を参照して、RAM121に格納されたフレーム画像から、特徴量として色合いや表面の凹凸状況等の表面の状態を読み取ることによって特定の物体として商品を認識(識別)する。なお、識別部701は、処理時間の短縮を図るため、商品の輪郭や大きさは考慮しないものとする。
In this embodiment, the
このように画像中に含まれる物体を認識することは一般物体認識(generic object recognition)と呼ばれている。このような一般物体認識については、下記の文献において各種認識技術が解説されている。
柳井 啓司,“一般物体認識の現状と今後”,情報処理学会論文誌,Vol.48,No.SIG16 [平成22年8月10日検索],インターネット<URL: https://mm.cs.uec.ac.jp/IPSJ-TCVIM-Yanai.pdf >
Recognizing an object contained in an image in this way is called generic object recognition. Regarding such general object recognition, various recognition techniques are described in the following documents.
Keiji Yanai, “Current Status and Future of General Object Recognition”, IPSJ Journal, Vol. 48, no. SIG16 [Search August 10, 2010], Internet <URL: https://mm.cs.uec.ac.jp/IPSJ-TCVIM-Yanai.pdf>
また、画像をオブジェクトごとに領域分割することによって一般物体認識を行う技術が、下記の文献において解説されている。
Jamie Shottonら,“Semantic Texton Forests for Image Categorization and Segmentation”,[平成22年8月10日検索],インターネット<URL: https://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.145.3036&rep=rep1&type=pdf >
Further, techniques for performing general object recognition by dividing an image into regions for each object are described in the following documents.
Jamie Shotton et al., “Semantic Texton Forests for Image Categorization and Segmentation”, [August 10, 2010 search], Internet <URL: https://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1. 1.145.3036 & rep = rep1 & type = pdf>
または、識別部701は、パターン認識やOCR(Optical Character Reader)文字認識により、RAM121に格納されたフレーム画像から文字や絵やシンボル等の特徴を抽出する。そして、識別部701は、抽出した特徴から、フレーム画像に含まれる物体を識別しても良い。
Alternatively, the
生成部702は、RAM121に格納されたフレーム画像と、識別部701により識別された物体に対応する画像と、を合成した合成画像を生成する。本実施形態では、生成部702は、商品ファイルF1から、RFIDリーダライタ114により読み取った商品IDと対応付けられた画像を、識別部701により識別された物体に対応する画像として読み出す。さらに、生成部702は、商品ファイルF1から、RFIDリーダライタ114により読み取った商品IDと対応付けられた商品分類を読み出す。
The
次いで、生成部702は、商品分類ファイルF2から、読み出した商品分類と対応付けられた所定の位置を読み出す。そして、生成部702は、RAM121に格納されたフレーム画像のうち、読み出した所定の位置に当該所定の位置の表示と異なる透過処理を施す。さらに、生成部702は、透過処理を施した部分に、商品ファイルF1から読み出した画像を重ね合わせることにより、合成画像を生成する。
Next, the
また、生成部702は、RFIDリーダライタ114により複数の商品IDが読み取られた場合(つまり、識別部701により複数の物体が識別された場合)、商品ファイルF1から、RFIDリーダライタ114により読み取られた複数の商品IDと対応付けられた商品分類および画像を読み出す。さらに、生成部702は、商品分類ファイルF2から、読み出した商品分類と対応付けられた順番を読み出す。そして、生成部702は、読み出した画像を、読み出した順番に従って、RAM121に格納されたフレーム画像に重ね合わせることにより、合成画像を生成する。
In addition, when a plurality of product IDs are read by the RFID reader / writer 114 (that is, when a plurality of objects are identified by the identification unit 701), the
表示制御部703は、生成部702により生成された合成画像を、LCD107に表示する。これにより、試着室100に入室した顧客は、試着室100に持ち込んだ衣料品110を実際に試着しなくても、当該衣料品110を自身が試着したイメージを確認することができる。また、合成画像をLCD107に表示させる際(つまり、拡張現実の提示を受ける際)、現実の情報(RAM121に格納されたフレーム画像)に重ね合わせる付加情報(商品画像)を顧客が選択する必要がないので、より簡単に拡張現実の提示を受けることができる。
The
次に、図8を用いて、試着室端末101が行う拡張現実提示処理について説明する。図8は、試着室端末が行う拡張現実提示処理の手順を示したフローチャートである。
Next, the augmented reality presentation process performed by the
識別部701は、試着室100に顧客が入室するのを待つ(ステップS801:No)。赤外線センサ117によって顧客が検出されかつ感圧センサ118により圧力の検出が出力されると、識別部701は、試着室100に顧客が入室したと判断して(ステップS801:Yes)、カメラ109に撮像オン信号を出力してカメラ109に撮像動作を開始させる(ステップS802)。そして、識別部701は、カメラ109により撮像された動画像を構成するフレーム画像を取り込んで、RAM121に格納する。
The
次いで、識別部701は、RFIDリーダライタ114を制御して、顧客が試着室100内に持ち込んだ衣料品110に付されたRFIDタグ111と無線通信を実行して、RFIDタグ111に記憶された商品IDを読み取る(ステップS803)。
Next, the
次に、生成部702は、商品ファイルF1から、読み取った商品IDと対応付けて記憶された画像を読み出す。そして、生成部702は、読み出した画像と、RAM121に格納されたフレーム画像とを合成した合成画像を生成する(ステップS804)。
Next, the
ここで、図9を用いて、顧客が試着室100内に持ち込んだ複数の衣料品110(例えば、ジャケット、ワイシャツ、スラックス)に付されたRFIDタグ111から、複数の商品IDが読み取られた場合における合成画像の生成処理について説明する。図9は、複数の画像とカメラにより撮像されたフレーム画像とを重ね合わせた合成画像を生成する処理を説明するための図である。
Here, referring to FIG. 9, when a plurality of product IDs are read from
生成部702は、商品ファイルF1から、識別部701により読み取った複数の商品IDと対応付けて記憶された画像(ジャケットの画像、ワイシャツの画像、スラックスの画像)および商品分類(ジャケットの商品分類:「上着」、ワイシャツの商品分類:「下着」、スラックスの商品分類:「パンツ」)を読み出す。次いで、生成部702は、商品分類ファイルF2から、読み出した商品分類(ジャケットの商品分類:「上着」、ワイシャツの商品分類:「下着」、スラックスの商品分類:「パンツ」)と対応付けられた所定の位置(商品分類:「上着」,「下着」と対応付けられた所定の位置:「トップス」、商品分類:「パンツ」と対応付けられた所定の位置:「ボトムス」)を読み出す。
The
さらに、生成部702は、商品分類ファイルF2から、(ジャケットの商品分類:「上着」、ワイシャツの商品分類:「下着」、スラックスの商品分類:「パンツ」)と対応付けられた順番(商品分類:「上着」と対応付けられた順番:「3」、商品分類:「パンツ」と対応付けられた順番:「2」、商品分類:「下着」と対応付けられた順番:「1」)を読み出す。 Further, the generation unit 702 (from the product classification file F2), the order (product) corresponding to (product category of jacket: “upper”, product category of shirt: “underwear”, product category of slacks: “pants”). Classification: Order associated with “outerwear”: “3”, Product classification: Order associated with “pants”: “2”, Product classification: Order associated with “underwear”: “1” ).
次に、生成部702は、RAM121に記憶されたフレーム画像901のうち、商品分類ファイルF2から読み出した所定の位置903:「フレーム画像901に含まれる顧客のトップスの位置」および所定の位置904:「フレーム画像901に含まれる顧客のボトムスの位置」に透過処理を施す。より具体的には、生成部702は、フレーム画像901に対して物体認識やパターン認識等を行うことにより、当該フレーム画像901における所定の位置903:「フレーム画像901に含まれる顧客のトップスの位置」および所定の位置904:「フレーム画像901に含まれる顧客のボトムスの位置」を抽出する。そして、生成部702は、抽出した所定の位置903,904に対して透過処理を施すものとする。次いで、生成部702は、フレーム画像901において透過処理を施した部分(所定の位置903,904)に、商品ファイルF1から読み出した画像(ジャケットの画像、ワイシャツの画像、およびスラックスの画像)を、商品分類ファイルF2から読み出した順番(商品分類:「上着」と対応付けられた順番:「3」、商品分類:「パンツ」と対応付けられた順番:「2」、商品分類:「下着」と対応付けられた順番:「1」)に重ね合わせた合成画像905を生成する。つまり、生成部702は、フレーム画像901において透過処理を施した部分(所定の位置903,904)に、ワイシャツの画像906、スラックスの画907像、ジャケットの画像908の順に重ね合わせた合成画像905を生成する。
Next, the
図8に戻り、生成部702により合成画像が生成されると、表示制御部703は、生成された合成画像を、LCD107に表示させる(ステップS805)。
Returning to FIG. 8, when a composite image is generated by the
このように本実施形態にかかる試着室端末101によれば、試着室100内の動画像を撮像するカメラ109と、カメラ109により撮像された動画像を構成するフレーム画像に含まれる物体を識別する識別部701と、カメラ109により撮像された動画像を構成するフレーム画像と、識別部701により識別された物体に対応する画像と、を合成した合成画像を生成する生成部702と、生成部702により生成された合成画像をLCD107に表示する表示制御部703と、を備えることにより、合成画像をLCD107に表示させる際、カメラ109に撮像された動画像を構成するフレーム画像に合成する画像を顧客が選択する必要がなくなるので、より簡単に拡張現実(合成画像)の提示を受けることができる。
As described above, according to the
(第2の実施形態)
本実施形態は、第1の実施形態における拡張現実提示処理をクライアント端末において実行する例である。なお、クライアント端末のハードウェア構成は、第1の実施形態と同様であるため、ここでは説明を省略する。
(Second Embodiment)
The present embodiment is an example in which the augmented reality presentation process in the first embodiment is executed in a client terminal. Note that the hardware configuration of the client terminal is the same as that of the first embodiment, and a description thereof will be omitted here.
図10は、本実施形態にかかるクライアント端末の機能構成を示すブロック図である。CPU402は、RAM404に展開されたROM403に記憶するプログラムに従って動作することで、図10に示すように、識別部1001、生成部1002、および表示制御部1003として機能する。
FIG. 10 is a block diagram illustrating a functional configuration of the client terminal according to the present embodiment. The
識別部1001は、クライアント端末401を操作する顧客によってタッチパネル408が操作されて拡張現実の提示が要求されると、カメラ410に撮像オン信号を出力してカメラ410の撮像動作を開始させる。そして、識別部1001は、カメラ410が撮像した撮像エリアのフレーム画像(動画像)を取り込んでRAM404に格納する。
When the customer who operates the
また、識別部1001は、RAM404に格納されたフレーム画像に含まれる物体を識別するものである。本実施形態では、識別部1001は、RFIDリーダライタ409を制御して、商品(例えば、ショールーム等に展示された車など)に付されたRFIDタグ111と無線通信を実行して、RFIDタグ111に記憶された商品IDを読み取る。そして、識別部1001は、読み取った商品IDにより特定される商品を、RAM404に格納されたフレーム画像に含まれる物体として識別する。なお、識別部1001は、第1の実施形態にかかる識別部701と同様に、一般物体認識やパターン認識やOCR文字認識等を用いて、フレーム画像に含まれる物体を認識することができる。
The
生成部1002は、RAM404に格納されたフレーム画像と、識別部1001により識別された物体に対応する画像と、を合成した合成画像を生成する。本実施形態では、生成部1001は、商品ファイルF1から、RFIDリーダライタ409により読み取った商品IDと対応付けられた商品分類および画像を読み出す。次いで、生成部1002は、商品分類ファイルF2から、読み出した商品分類と対応付けられた所定の位置(例えば、RAM403に格納されたフレーム画像における背景部分)を読み出す。そして、生成部1002は、RAM404に格納されたフレーム画像のうち、読み出した所定の位置に当該所定の位置の表示と異なる透過処理を施す。さらに、生成部1002は、透過処理を施した部分に、識別部1001により識別された物体に対応する画像(商品ファイルF1から読み出した画像、例えば、背景の動画像など)を重ね合わせた合成画像を生成する。
The
表示制御部1003は、生成部1002により生成された合成画像を、LCD406に表示する。これにより、車のショールーム等を訪れた顧客は、車が実際に公道を走っている様子を見なくても、車が公道を走っているイメージを確認することができる。また、合成画像をLCD406に表示させる際、現実の情報(RAM404に格納されたフレーム画像)に合成する付加情報(背景の画像)を顧客が選択する必要がないので、より簡単に拡張現実の提示を受けることができる。
The
次に、図11を用いて、クライアント端末101が行う拡張現実提示処理について説明する。図11は、クライアント端末が行う拡張現実提示処理の手順を示したフローチャートである。
Next, an augmented reality presentation process performed by the
識別部1001は、クライアント端末401を操作する顧客によってタッチパネル408が操作されて拡張現実の提示が要求されるのを待つ(ステップS1101:No)。タッチパネル408が操作されて拡張現実の提示が要求されると(ステップS1101:Yes)、識別部1001は、カメラ410に撮像オン信号を出力してカメラ410に撮像動作を開始させる(ステップS1102)。そして、識別部1001は、カメラ410により撮像された動画像を構成するフレーム画像を取り込んで、RAM404に格納する。
The
次いで、識別部1001は、RFIDリーダライタ409を制御して、ショールーム等の店舗に展示されている車等の商品に付されたRFIDタグ111と無線通信を実行して、RFIDタグ111に記憶された商品IDを読み取る(ステップS1103)。
Next, the
次に、生成部1002は、商品ファイルF1から、読み取った商品IDと対応付けて記憶された画像を読み出す。そして、生成部1002は、読み出した画像を、RAM404に格納されたフレーム画像に合成した合成画像を生成する(ステップS1104)。
Next, the
ここで、図12を用いて、ショールームに展示されている商品(例えば、車)に付されたRFIDタグ111から、商品IDが読み取られた場合における合成画像の生成処理について説明する。図12は、背景の画像とカメラにより撮像されたフレーム画像とを重ね合わせた合成画像を生成する処理を説明するための図である。
Here, a composite image generation process in the case where a product ID is read from an
生成部1002は、商品ファイルF1から、RFIDリーダライタ409により読み取った商品IDと対応付けて記憶された画像(背景の画像)および商品分類(車の商品分類:「オンロード」)を読み出す。次いで、生成部1002は、商品分類ファイルF2から、読み出した商品分類(車の商品分類:「オンロード」)と対応付けられた所定の位置(所定の位置:背景)を読み出す。
The
次に、生成部1002は、RAM404に記憶されたフレーム画像1201に含まれる車の画像1202を除く背景の画像1203に透過処理を施す。次いで、生成部1002は、フレーム画像1201において透過処理を施した部分に、商品ファイルF1から読み出した背景の画像1205を重ね合わせた合成画像1204を生成する。
Next, the
図11に戻り、生成部1002により合成画像が生成されると、表示制御部1003は、生成された合成画像を、LCD406に表示させる(ステップS1105)。
Returning to FIG. 11, when a composite image is generated by the
このように本実施形態にかかるクライアント端末401によれば、ショールーム内の動画像を撮像するカメラ410と、カメラ410により撮像された動画像を構成するフレーム画像に含まれる物体を識別する識別部1001と、カメラ401により撮像された動画像を構成するフレーム画像と、識別部1001により識別された物体に対応する画像と、を合成した合成画像を生成する生成部1002と、生成部1002により生成された合成画像をLCD406に表示する表示制御部1003と、を備えることにより、合成画像をLCD406に表示させる際に、カメラ410に撮像された動画像を構成するフレーム画像に合成する画像を顧客が選択する必要がなくなるので、より簡単に拡張現実(合成画像)の提示を受けることができる。
As described above, according to the
以上説明したとおり、第1から第2の実施形態によれば、より簡単に拡張現実の提示を受けることができる。 As described above, according to the first and second embodiments, it is possible to receive an augmented reality presentation more easily.
なお、本実施形態の試着室端末101およびクライアント端末401で実行されるプログラムは、ROM等に予め組み込まれて提供されるが、これに限定するものではない。例えば、本実施形態の試着室端末101およびクライアント端末401で実行されるプログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録して提供するように構成してもよい。
Note that the program executed in the
さらに、本実施形態の試着室端末101およびクライアント端末401で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成しても良い。また、本実施形態の試着室端末101およびクライアント端末401で実行されるプログラムをインターネット等のネットワーク経由で提供または配布するように構成しても良い。
Furthermore, the program executed in the
本実施形態の試着室端末101およびクライアント端末401で実行されるプログラムは、上述した各部(識別部701,1001、生成部702,1002、表示制御部703,1003)を含むモジュール構成となっており、実際のハードウェアとしてはCPU(プロセッサ)が上記ROMからプログラムを読み出して実行することにより上記各部が主記憶装置上にロードされ、識別部701,1001、生成部702,1002、表示制御部703,1003が主記憶装置上に生成されるようになっている。
The program executed in the
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 Although several embodiments of the present invention have been described, these embodiments are presented by way of example and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the invention described in the claims and the equivalents thereof.
1 拡張現実システム
101 試着室端末
107,406 LCD
109,410 カメラ
110 衣料品
111 RFIDタグ
112 ICチップ
113 タグアンテナ
114,409 RFIDリーダライタ
119,402 CPU
120,403 ROM
121,404 RAM
123,407 通信インタフェース
300 通信回線
301 コンピュータ
401 クライアント端末
701,1001 識別部
702,1002 生成部
703,1003 表示制御部
F1 商品ファイル
F2 商品分類ファイル
1
109,410
120,403 ROM
121,404 RAM
123,407
Claims (6)
前記撮像された動画像に含まれる物体を識別する識別手段と、
前記識別された物体に対応する画像と前記撮像された動画像とを合成した合成画像を生成する生成手段と、
前記生成した合成画像を表示部に表示する表示制御手段と、
を備えた映像表示装置。 An imaging means for capturing a moving image;
Identification means for identifying an object included in the captured moving image;
Generating means for generating a composite image obtained by combining the image corresponding to the identified object and the captured moving image;
Display control means for displaying the generated composite image on a display unit;
A video display device comprising:
撮像部により撮像された動画像に含まれる物体を識別する識別手段と、
前記識別された物体に対応する画像と前記撮像された動画像とを合成した合成画像を生成する生成手段と、
前記生成した合成画像を表示部に表示する表示制御手段と、
として機能させるためのプログラム。
Computer
Identification means for identifying an object included in the moving image captured by the imaging unit;
Generating means for generating a composite image obtained by combining the image corresponding to the identified object and the captured moving image;
Display control means for displaying the generated composite image on a display unit;
Program to function as.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011193249A JP2013054598A (en) | 2011-09-05 | 2011-09-05 | Image display device and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011193249A JP2013054598A (en) | 2011-09-05 | 2011-09-05 | Image display device and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013054598A true JP2013054598A (en) | 2013-03-21 |
Family
ID=48131513
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011193249A Pending JP2013054598A (en) | 2011-09-05 | 2011-09-05 | Image display device and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2013054598A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016149022A (en) * | 2015-02-12 | 2016-08-18 | 株式会社キヌガワ京都 | Sales support program and sales support device |
CN107111923A (en) * | 2014-11-07 | 2017-08-29 | 马里利亚标签公司 | Apparatus and method for fitting room |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003186965A (en) * | 2001-12-19 | 2003-07-04 | Hitachi Ltd | Apparel selection supporting system and method |
JP2004003058A (en) * | 2002-05-31 | 2004-01-08 | Casio Comput Co Ltd | Electronic equipment, and fitting management program |
JP2005174204A (en) * | 2003-12-15 | 2005-06-30 | Fuji Xerox Co Ltd | Catalog-preparing system, image processor, image processing method and its program |
JP2009282676A (en) * | 2008-05-21 | 2009-12-03 | Toshiba Tec Corp | Fitting room terminal |
-
2011
- 2011-09-05 JP JP2011193249A patent/JP2013054598A/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003186965A (en) * | 2001-12-19 | 2003-07-04 | Hitachi Ltd | Apparel selection supporting system and method |
JP2004003058A (en) * | 2002-05-31 | 2004-01-08 | Casio Comput Co Ltd | Electronic equipment, and fitting management program |
JP2005174204A (en) * | 2003-12-15 | 2005-06-30 | Fuji Xerox Co Ltd | Catalog-preparing system, image processor, image processing method and its program |
JP2009282676A (en) * | 2008-05-21 | 2009-12-03 | Toshiba Tec Corp | Fitting room terminal |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107111923A (en) * | 2014-11-07 | 2017-08-29 | 马里利亚标签公司 | Apparatus and method for fitting room |
JP2018502361A (en) * | 2014-11-07 | 2018-01-25 | マリエラ ラベルズ オーワイ | Fitting room configuration and method |
JP2016149022A (en) * | 2015-02-12 | 2016-08-18 | 株式会社キヌガワ京都 | Sales support program and sales support device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11514497B2 (en) | Method of using, apparatus, product, and system for a no touch point-of-sale self-checkout | |
US20160140534A1 (en) | Information processing apparatus, store system and method | |
US10803438B2 (en) | Reading apparatus | |
JP2014170314A (en) | Information processing system, information processing method, and program | |
JP2013210971A (en) | Information processing apparatus and program | |
JP6208091B2 (en) | Information processing apparatus and program | |
JP5511864B2 (en) | Store accounting system and store accounting program | |
JP2020064331A (en) | Reader and program | |
JP2013084182A (en) | Information processor and program | |
JP2014052800A (en) | Information processing apparatus and program | |
JP7289613B2 (en) | Merchandise management system and merchandise management method | |
JP5551140B2 (en) | Information processing apparatus and program | |
JP6886906B2 (en) | Readers and programs | |
JP5622756B2 (en) | Product reading apparatus and product reading program | |
US20160171581A1 (en) | Apparatus and method for locating products in a retail store using a mobile device | |
JPWO2013147003A1 (en) | Digital signage system, digital signage, article information presentation method and program | |
US20180005214A1 (en) | Check-out system with merchandise reading apparatus and pos terminal | |
JP2012108805A (en) | Try-on system | |
JP2018160108A (en) | Settlement processor, method and program | |
US20170076270A1 (en) | Image recognition system that performs code detection and image recognition concurrently | |
JP2013054598A (en) | Image display device and program | |
US9355395B2 (en) | POS terminal apparatus and commodity specification method | |
JP2014052806A (en) | Information processor and program | |
US20150058170A1 (en) | Digital signage system, digital signage, article information presenting method and program | |
JP2016024601A (en) | Information processing apparatus, information processing system, information processing method, commodity recommendation method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130624 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130702 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130828 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20131119 |