JP2021176110A - Display control device, display control method, and display control program - Google Patents

Display control device, display control method, and display control program Download PDF

Info

Publication number
JP2021176110A
JP2021176110A JP2021131445A JP2021131445A JP2021176110A JP 2021176110 A JP2021176110 A JP 2021176110A JP 2021131445 A JP2021131445 A JP 2021131445A JP 2021131445 A JP2021131445 A JP 2021131445A JP 2021176110 A JP2021176110 A JP 2021176110A
Authority
JP
Japan
Prior art keywords
user
article
display control
information
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021131445A
Other languages
Japanese (ja)
Other versions
JP7581153B2 (en
JP2021176110A5 (en
Inventor
万理 黒岩
Mari Kuroiwa
大輔 根岸
Daisuke Negishi
広美 野島
Hiromi Nojima
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Unicharm Corp
Original Assignee
Unicharm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Unicharm Corp filed Critical Unicharm Corp
Priority to JP2021131445A priority Critical patent/JP7581153B2/en
Priority claimed from JP2021131445A external-priority patent/JP7581153B2/en
Publication of JP2021176110A publication Critical patent/JP2021176110A/en
Publication of JP2021176110A5 publication Critical patent/JP2021176110A5/ja
Priority to JP2024017257A priority patent/JP2024050844A/en
Application granted granted Critical
Publication of JP7581153B2 publication Critical patent/JP7581153B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0641Shopping interfaces
    • G06Q30/0643Graphical representation of items or shoppers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Finance (AREA)
  • Accounting & Taxation (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Economics (AREA)
  • Computer Graphics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • General Business, Economics & Management (AREA)
  • Development Economics (AREA)
  • Computer Hardware Design (AREA)
  • Marketing (AREA)
  • Strategic Management (AREA)
  • Multimedia (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

To allow for effectively recognizing whether or not a disposable wearable article is suitable for a user before purchasing.SOLUTION: A display control device according to the present application comprises: an acquisition unit for acquiring article information indicating a shape of a disposable wearable article that is identified according to information input by a user; and a display control unit for displaying an image of the disposable wearable article superimposed on an image in which the user, virtually wearing the disposable wearable article in the shape indicated by the article information, is captured.SELECTED DRAWING: Figure 6

Description

本発明は、表示制御装置、表示制御方法および表示制御プログラムに関する。 The present invention relates to a display control device, a display control method, and a display control program.

従来、情報処理の進歩に従い、様々な態様で利用者に情報を提供する技術が提案されている。例えば、商品に関する仮想的な画像を、利用者が撮影された画像に重畳させて表示させることで、商品の販売を促進させる技術が提案されている。 Conventionally, along with the progress of information processing, technologies for providing information to users in various modes have been proposed. For example, a technique has been proposed in which a virtual image of a product is superimposed on an image taken by a user and displayed to promote sales of the product.

特開2012−181688号公報Japanese Unexamined Patent Publication No. 2012-181688

しかしながら、上記の従来技術では、使い捨て着用物品が利用者に適した商品であるか否かを購入前に効果的に認識させることができるとは限らない。例えば、上記の従来技術では、撮像部から順次取得した画像内の顔パーツを認識し、認識結果に含まれる顔パーツの位置に基づいて、画像内の顔にトラッキングする仮想的な化粧画像をこの画像に重畳させて表示させる。 However, in the above-mentioned conventional technique, it is not always possible to effectively recognize whether or not the disposable wear item is a product suitable for the user before purchase. For example, in the above-mentioned conventional technique, a virtual makeup image that recognizes face parts in an image sequentially acquired from an imaging unit and tracks the face in the image based on the position of the face parts included in the recognition result is obtained. It is superimposed on the image and displayed.

このように、上記の従来技術は、化粧支援に特化した技術あり、マスクなどの使い捨て着用物品については、画像に重畳させて表示させる表示対象となっていないため、使い捨て着用物品が利用者に適した商品であるか否かを購入前に効果的に認識させることができるとは限らない。 As described above, the above-mentioned conventional technique is a technique specialized in cosmetic support, and the disposable wear item such as a mask is not a display target to be displayed by superimposing it on the image. Therefore, the disposable wear item is displayed to the user. It is not always possible to effectively recognize whether or not a product is suitable before purchasing.

本願は、上記に鑑みてなされたものであって、使い捨て着用物品が利用者に適した商品であるか否かを購入前に効果的に認識させることを目的とする。 The present application has been made in view of the above, and an object of the present application is to effectively recognize whether or not a disposable wearable product is a product suitable for a user before purchase.

本願に係る表示制御装置は、利用者による入力情報に応じて特定された使い捨て着用物品の形状を示す物品情報を取得する取得部と、前記物品情報が示す形状の使い捨て着用物品を前記利用者が仮想的に装着した態様で、前記利用者が撮影された撮影画像に当該使い捨て着用物品の画像を重畳した状態で表示させる表示制御部とを有することを特徴とする。 In the display control device according to the present application, the user obtains an article information indicating the shape of the disposable wear article specified according to the input information by the user, and the user obtains the disposable wear article having the shape indicated by the article information. It is characterized by having a display control unit that displays an image of the disposable worn article superimposed on the photographed image taken by the user in a virtually mounted manner.

実施形態の一態様によれば、使い捨て着用物品が利用者に適した商品であるか否かを購入前に効果的に認識させることができる。 According to one aspect of the embodiment, it is possible to effectively recognize whether or not the disposable wearable product is a product suitable for the user before purchase.

図1は、陳列コーナーを概念的に説明する説明図である。FIG. 1 is an explanatory diagram for conceptually explaining a display corner. 図2は、実施形態に係る表示制御処理の一例(1)を示す図である。FIG. 2 is a diagram showing an example (1) of the display control process according to the embodiment. 図3は、実施形態に係る表示制御処理の一例(2)を示す図である。FIG. 3 is a diagram showing an example (2) of the display control process according to the embodiment. 図4は、実施形態に係る表示制御処理の一例(3)を示す図である。FIG. 4 is a diagram showing an example (3) of the display control process according to the embodiment. 図5は、実施形態に係る画像比較の一例を示す図である。FIG. 5 is a diagram showing an example of image comparison according to the embodiment. 図6は、実施形態に係る情報処理装置の構成例を示す図である。FIG. 6 is a diagram showing a configuration example of the information processing device according to the embodiment. 図7は、実施形態に係る表示制御処理のうち、前半の表示制御処理手順を示すフローチャートである。FIG. 7 is a flowchart showing the display control processing procedure of the first half of the display control processing according to the embodiment. 図8は、実施形態に係る表示制御処理のうち、後半の表示制御処理手順を示すフローチャートである。FIG. 8 is a flowchart showing a display control processing procedure in the latter half of the display control processing according to the embodiment. 図9は、ハードウェア構成の一例を示す図である。FIG. 9 is a diagram showing an example of a hardware configuration.

本明細書及び添付図面の記載により、少なくとも以下の事項が明らかとなる。 The description of this specification and the accompanying drawings will clarify at least the following matters.

利用者による入力情報に応じて特定された使い捨て着用物品の形状を示す物品情報を取得する取得部と、前記物品情報が示す形状の使い捨て着用物品を前記利用者が仮想的に装着した態様で、前記利用者が撮影された撮影画像に当該使い捨て着用物品の画像を重畳した状態で表示させる表示制御部とを有することを特徴とする表示制御装置。 An acquisition unit that acquires article information indicating the shape of the disposable wear article specified in response to input information by the user, and a form in which the user virtually wears the disposable wear article having the shape indicated by the article information. A display control device including a display control unit that displays an image of the disposable worn article superimposed on a photographed image taken by the user.

このような表示制御装置によれば、利用者による入力情報に応じて特定された使い捨て着用物品の形状を示す物品情報を取得し、取得した物品情報が示す形状の使い捨て着用物品を利用者が仮想的に装着した態様で、利用者が撮影された撮影画像に当該使い捨て着用物品の画像を重畳した状態で表示させるため、使い捨て着用物品が利用者に適した商品であるか否かを購入前に効果的に認識させることができる。 According to such a display control device, the article information indicating the shape of the disposable wear article specified according to the input information by the user is acquired, and the user virtualizes the disposable wear article having the shape indicated by the acquired article information. In order to display the image of the disposable wear item superimposed on the photographed image taken by the user in the form of wearing the disposable item, it is necessary to determine whether or not the disposable wear item is a product suitable for the user before purchase. It can be effectively recognized.

また、表示制御装置は、前記使い捨て着用物品として、不織布で構成された使い捨てマスクの形状を示す前記物品情報を取得する。 In addition, the display control device acquires the article information indicating the shape of the disposable mask made of the non-woven fabric as the disposable wear article.

このような表示制御装置によれば、使い捨て着用物品として、不織布で構成された使い捨てマスクの形状を示す物品情報を取得するため、使い捨てマスクが利用者に適したマスク商品であるか否かを購入前に効果的に認識させることができる。 According to such a display control device, in order to acquire article information indicating the shape of a disposable mask made of non-woven fabric as a disposable wearable article, it is purchased whether or not the disposable mask is a mask product suitable for the user. It can be effectively recognized before.

また、表示制御装置は、前記入力情報として、前記使い捨て着用物品が商品として陳列されている陳列棚に付された識別情報に応じて特定された使い捨て着用物品の形状を示す前記物品情報を取得する。 Further, the display control device acquires, as the input information, the article information indicating the shape of the disposable wear article specified according to the identification information attached to the display shelf on which the disposable wear article is displayed as a product. ..

このような表示制御装置によれば、入力情報として、使い捨て着用物品が商品として陳列されている陳列棚に付された識別情報に応じて特定された使い捨て着用物品の形状を示す物品情報を取得するため、使い捨て着用物品の装着体験ができる機会を効果的に増やすことができる。 According to such a display control device, as input information, article information indicating the shape of the disposable wear article specified according to the identification information attached to the display shelf on which the disposable wear article is displayed as a product is acquired. Therefore, it is possible to effectively increase the chances of experiencing wearing disposable items.

また、表示制御装置は、前記識別情報に応じて特定された使い捨て着用物品として、前記識別情報で識別される使い捨て着用物品であって、前記陳列棚に現在陳列されている使い捨て着用物品の形状を示す前記物品情報を取得する。 Further, the display control device determines the shape of the disposable wear article currently displayed on the display shelf, which is the disposable wear article identified by the identification information as the disposable wear article specified according to the identification information. Acquire the above-mentioned article information to be shown.

このような表示制御装置によれば、識別情報に応じて特定された使い捨て着用物品として、識別情報で識別される使い捨て着用物品であって、陳列棚に現在陳列されている使い捨て着用物品の形状を示す物品情報を取得するため、現在、利用者が注目している着用物品そのものの画像を表示することができる。 According to such a display control device, as a disposable wear article specified according to the identification information, the shape of the disposable wear article identified by the identification information and currently displayed on the display shelf is determined. In order to acquire the indicated article information, it is possible to display an image of the worn article itself that the user is currently paying attention to.

また、表示制御装置は、前記識別情報に応じて特定された使い捨て着用物品として、前記識別情報で識別される着用物品、および、前記識別情報で識別される着用物品に関連する着用物品である表示候補の使い捨て着用物品のうち、前記利用者により選択されたカテゴリに対応する使い捨て着用物品の形状を示す前記物品情報を取得する。 Further, the display control device is a display which is a disposable wear article specified according to the identification information, a wear article identified by the identification information, and a wear article related to the wear article identified by the identification information. Among the candidate disposable wear articles, the article information indicating the shape of the disposable wear article corresponding to the category selected by the user is acquired.

このような表示制御装置によれば、識別情報に応じて特定された使い捨て着用物品として、識別情報で識別される着用物品、および、識別情報で識別される着用物品に関連する着用物品である表示候補の使い捨て着用物品のうち、利用者により選択されたカテゴリに対応する使い捨て着用物品の形状を示す物品情報を取得するため、装着体験したい使い捨て着用物品がより簡単に見付けられるよう効果的に支援することができる。 According to such a display control device, as disposable wear articles specified according to the identification information, the wear articles identified by the identification information and the wear articles related to the wear articles identified by the identification information are displayed. In order to acquire article information indicating the shape of the disposable wear article corresponding to the category selected by the user among the candidate disposable wear articles, it is effective to effectively support the easy finding of the disposable wear article to be worn. be able to.

また、表示制御装置は、前記利用者により選択された第1のカテゴリに属する表示候補の使い捨て着用物品のうち、前記利用者によりさらに選択された第2のカテゴリであって、前記第1のカテゴリに対する下位のカテゴリである第2のカテゴリに属する着用物品の形状を示す前記物品情報を取得する。 Further, the display control device is a second category further selected by the user among the display candidate disposable wear articles belonging to the first category selected by the user, and is the first category. The article information indicating the shape of the worn article belonging to the second category, which is a subcategory with respect to the above, is acquired.

このような表示制御装置によれば、利用者により選択された第1のカテゴリに属する表示候補の使い捨て着用物品のうち、利用者によりさらに選択された第2のカテゴリであって、第1のカテゴリに対する下位のカテゴリである第2のカテゴリに属する着用物品の形状を示す物品情報を取得するため、装着体験したい使い捨て着用物品がより簡単に見付けられるよう効果的に支援することができる。 According to such a display control device, among the disposable wearable articles of the display candidates belonging to the first category selected by the user, the second category further selected by the user, the first category. In order to acquire the article information indicating the shape of the worn article belonging to the second category, which is a subcategory with respect to the above, it is possible to effectively support the disposable worn article to be worn and experienced to be found more easily.

また、表示制御装置は、前記表示候補の使い捨て着用物品のうち、前記利用者により選択された使い捨て着用物品の形状を示す前記物品情報を取得する。 In addition, the display control device acquires the article information indicating the shape of the disposable wear article selected by the user among the disposable wear articles of the display candidates.

このような表示制御装置によれば、表示候補の使い捨て着用物品のうち、利用者により選択された使い捨て着用物品の形状を示す物品情報を取得するため、利用者側の要望に合った使い捨て着用物品の装着体験を簡単に行わせることができる。 According to such a display control device, among the disposable wear articles of the display candidates, the disposable wear articles that meet the user's request in order to acquire the article information indicating the shape of the disposable wear articles selected by the user. You can easily make the wearing experience of.

また、表示制御装置は、前記利用者の属性情報または嗜好性に応じて特定された前記表示候補の使い捨て着用物品のうち、前記利用者により選択された使い捨て着用物品の形状を示す前記物品情報を取得する。 In addition, the display control device provides the article information indicating the shape of the disposable wear article selected by the user among the disposable wear articles of the display candidates specified according to the attribute information or preference of the user. get.

このような示制御装置によれば、利用者の属性情報または嗜好性に応じて特定された表示候補の使い捨て着用物品のうち、利用者により選択された使い捨て着用物品の形状を示す物品情報を取得するため、利用者側の好みに合った使い捨て着用物品の装着体験を簡単に行わせることができる。 According to such a display control device, among the display candidate disposable wear articles specified according to the user's attribute information or preference, the article information indicating the shape of the disposable wear article selected by the user is acquired. Therefore, it is possible to easily experience wearing disposable items that suit the user's preference.

また、表示制御装置は、前記入力情報として、前記利用者が撮影された撮影画像に応じて特定された使い捨て着用物品の形状を示す前記物品情報を取得する。 In addition, the display control device acquires the article information indicating the shape of the disposable wear article specified according to the photographed image taken by the user as the input information.

このような示制御装置によれば、入力情報として、利用者が撮影された撮影画像に応じて特定された使い捨て着用物品の形状を示す物品情報を取得するため、利用者の興味を高め、使い捨て着用物品が販売される店舗へと利用者を効果的に誘導することができるようになる。 According to such a display control device, as input information, article information indicating the shape of the disposable wear article specified by the user according to the photographed image is acquired, so that the user's interest is raised and the disposable article is disposable. It will be possible to effectively guide the user to the store where the worn goods are sold.

また、表示制御装置は、前記利用者が撮影された撮影画像から検出された前記利用者の身体のパーツに基づいて、使い捨て着用物品の利用用途に応じた適切な身体の位置に対して前記物品情報が示す形状の使い捨て着用物品が位置するよう、前記撮影画像に前記使い捨て着用物品の画像を重畳した状態で表示させる。 Further, the display control device is based on the parts of the user's body detected from the photographed image taken by the user, and the display control device refers to the article with respect to an appropriate body position according to the intended use of the disposable wear article. The image of the disposable wear article is superimposed on the photographed image so that the disposable wear article having the shape indicated by the information is positioned.

このような表示制御装置によれば、利用者が撮影された撮影画像から検出された利用者の身体のパーツに基づいて、使い捨て着用物品の利用用途に応じた適切な身体の位置に対して物品情報が示す形状の使い捨て着用物品が位置するよう、撮影画像に使い捨て着用物品の画像を重畳した状態で表示させるため、使い捨て着用物品の装着体験を違和感なく行わせることができる。 According to such a display control device, the article is based on the part of the user's body detected from the photographed image taken by the user, with respect to the appropriate body position according to the intended use of the disposable wear article. Since the image of the disposable wear article is superimposed on the photographed image so that the disposable wear article having the shape indicated by the information is positioned, the experience of wearing the disposable wear article can be performed without discomfort.

また、表示制御装置は、前記撮影画像で示される前記利用者の顔の向きであって、前記利用者を撮影する撮影手段に対する顔の向きに応じて、前記物品情報が示す形状を制御し、制御した形状の使い捨て着用物品を前記利用者が仮想的に装着した態様で、前記撮影画像に前記使い捨て着用物品の画像を重畳した状態で表示させる。 Further, the display control device controls the shape indicated by the article information according to the orientation of the face of the user shown in the captured image and the orientation of the face with respect to the photographing means for photographing the user. The image of the disposable wear article is superimposed on the photographed image in a manner in which the user virtually wears the disposable wear article having the controlled shape.

このような表示制御装置によれば、撮影画像で示される利用者の顔の向きであって、利用者を撮影する撮影手段に対する顔の向きに応じて、物品情報が示す形状を制御し、制御した形状の使い捨て着用物品を前記利用者が仮想的に装着した態様で、撮影画像に使い捨て着用物品の画像を重畳した状態で表示させるため、使い捨て着用物品をした状態での見た目が顔の向きに応じてどのように変化するかを精度よくイメージさせることができる。 According to such a display control device, the shape indicated by the article information is controlled and controlled according to the orientation of the user's face shown in the captured image and the orientation of the face with respect to the photographing means for photographing the user. In order to display the image of the disposable wear article superimposed on the photographed image in a manner in which the user virtually wears the disposable wear article in the shape of the shape, the appearance of the disposable wear article is oriented toward the face. It is possible to accurately imagine how it changes accordingly.

また、表示制御装置は、前記利用者の顔のサイズに応じて、前記使い捨て着用物品の画像のサイズを制御し、制御したサイズの画像を前記撮影画像に重畳させる。 Further, the display control device controls the size of the image of the disposable wearable article according to the size of the face of the user, and superimposes the image of the controlled size on the captured image.

このような表示制御装置によれば、利用者の顔のサイズに応じて、使い捨て着用物品の画像のサイズを制御し、制御したサイズの画像を撮影画像に重畳させるため、使い捨て着用物品の装着体験を違和感なく行わせることができる。 According to such a display control device, the size of the image of the disposable wear article is controlled according to the size of the user's face, and the image of the controlled size is superimposed on the captured image. Can be done without discomfort.

また、表示制御装置は、前記利用者により使い捨て着用物品の色または模様が指定された場合には、前記使い捨て着用物品の画像として、指定された色または模様の使い捨て着用物品の画像を前記撮影画像に重畳させる。 In addition, when the color or pattern of the disposable wear article is specified by the user, the display control device takes an image of the disposable wear article of the specified color or pattern as the image of the disposable wear article. Superimpose on.

このような表示制御装置によれば、利用者により使い捨て着用物品の色または模様が指定された場合には、使い捨て着用物品の画像として、指定された色または模様の使い捨て着用物品の画像を撮影画像に重畳させるため、どのような色や模様の使い捨て着用物品が利用者に適した商品であるか否かを購入前に効果的に認識させることができる。 According to such a display control device, when the color or pattern of the disposable wear article is specified by the user, an image of the disposable wear article of the specified color or pattern is taken as an image of the disposable wear article. Since it is superimposed on the product, it is possible to effectively recognize what kind of color or pattern the disposable wear item is suitable for the user before purchasing.

また、表示制御装置は、前記利用者により使い捨て着用物品のサイズが指定された場合には、前記使い捨て着用物品の画像として、指定されたサイズに応じたサイズの画像を前記撮影画像に重畳させる。 Further, when the size of the disposable wear article is specified by the user, the display control device superimposes an image of a size corresponding to the designated size on the photographed image as an image of the disposable wear article.

このような表示制御装置によれば、利用者により使い捨て着用物品のサイズが指定された場合には、使い捨て着用物品の画像として、指定されたサイズに応じたサイズの画像を撮影画像に重畳させるため、どのようなサイズの使い捨て着用物品が利用者に適した商品であるか否かを購入前に効果的に認識させることができる。 According to such a display control device, when the size of the disposable wear article is specified by the user, an image of a size corresponding to the specified size is superimposed on the captured image as an image of the disposable wear article. , It is possible to effectively recognize before purchase whether or not what size of disposable wear item is suitable for the user.

また、表示制御装置は、利用者に関する利用者情報に基づき特定された利用者であって、前記撮影画像に使い捨て着用物品の画像を重畳した状態で表示させるアプリケーションを導入していない利用者の端末装置に対して、当該アプリケーションを導入するよう案内する案内情報を表示させる。 Further, the display control device is a terminal of a user who is specified based on user information about the user and who has not introduced an application for displaying an image of a disposable wear item superimposed on the photographed image. Display guidance information that guides the device to install the application.

このような表示制御装置によれば、利用者に関する利用者情報に基づき特定された利用者であって、撮影画像に使い捨て着用物品の画像を重畳した状態で表示させるアプリケーションを導入していない利用者の端末装置に対して、当該アプリケーションを導入するよう案内する案内情報を表示させるため、使い捨て着用物品の装着体験を店頭で行わすための敷居を効果的に下げることができるようになる。 According to such a display control device, a user who is specified based on user information about the user and has not introduced an application for displaying an image of a disposable wear item superimposed on a photographed image. Since the guidance information for guiding the introduction of the application is displayed on the terminal device of the above, it becomes possible to effectively lower the threshold for the experience of wearing the disposable wear item at the store.

また、表示制御装置は、前記入力情報が入力された後において、前記使い捨て着用物品を仮想的に装着させるパーツであって、前記利用者の身体のパーツが、前記利用者が撮影された撮影画像に含まれないと判定された場合には、当該部位を含むように撮影するよう案内情報を表示させる。 Further, the display control device is a part for virtually mounting the disposable wearable article after the input information is input, and the body part of the user is a photographed image taken by the user. If it is determined that the image is not included in the image, guidance information is displayed so that the image is taken so as to include the relevant part.

このような表示制御装置によれば、入力情報が入力された後において、使い捨て着用物品を仮想的に装着させるパーツであって、利用者の身体のパーツが、利用者が撮影された撮影画像に含まれないと判定された場合には、当該パーツを含むように撮影するよう案内情報を表示させるため、使い捨て着用物品の画像が、使い捨て着用物品の利用用途に応じた正しい態様で表示されるよう制御することができる。 According to such a display control device, after the input information is input, the parts of the user's body, which are the parts for virtually attaching the disposable wear item, are the photographed images taken by the user. If it is determined that the product is not included, the guidance information is displayed so that the part is included in the image, so that the image of the disposable product is displayed in the correct manner according to the intended use of the disposable product. Can be controlled.

また、表示制御装置は、前記利用者が撮影された撮影画像であって、前記使い捨て着用物品の画像が重畳された撮影画像のうち、これまでに撮影された撮影画像を比較可能なように表示させる。 In addition, the display control device displays the captured images taken by the user so that the captured images taken so far can be compared among the captured images on which the images of the disposable wearable articles are superimposed. Let me.

このような表示制御装置によれば、利用者が撮影された撮影画像であって、使い捨て着用物品の画像が重畳された撮影画像のうち、これまでに撮影された撮影画像を比較可能なように表示させるため、利用者に対して、どの使い捨て着用物品が似合っているかを容易に比較させることができる。 According to such a display control device, it is possible to compare the photographed images taken by the user and the photographed images taken so far among the photographed images on which the images of the disposable wear items are superimposed. Since the display is displayed, the user can easily compare which disposable wear item suits him / her.

また、表示制御装置は、前記利用者が撮影された撮影画像であって、前記使い捨て着用物品の画像が重畳された撮影画像のうち、過去に撮影された撮影画像を、現在撮影されている撮影画像であって、前記使い捨て着用物品の画像が重畳された撮影画像とともに表示させる。 Further, the display control device is a photographed image taken by the user, and among the photographed images on which the image of the disposable wearable article is superimposed, the photographed image taken in the past is photographed at present. It is an image and is displayed together with a photographed image on which the image of the disposable worn article is superimposed.

このような表示制御装置によれば、利用者が撮影された撮影画像であって、使い捨て着用物品の画像が重畳された撮影画像のうち、過去に撮影された撮影画像を、現在撮影されている撮影画像であって、使い捨て着用物品の画像が重畳された撮影画像とともに表示させるため、利用者に対して、どの使い捨て着用物品が似合っているかを容易に比較させることができる。 According to such a display control device, among the captured images taken by the user and the captured images on which the images of the disposable wearable articles are superimposed, the captured images taken in the past are currently captured. Since the photographed image is displayed together with the photographed image in which the image of the disposable wear article is superimposed, the user can easily compare which disposable wear article is suitable.

また、表示制御装置は、前記利用者が撮影された撮影画像であって、前記使い捨て着用物品の画像が重畳された撮影画像に対して、所定の情報共有サービスへの投稿に応じた所定の情報を表示させる。 Further, the display control device is a photographed image taken by the user, and the photographed image on which the image of the disposable wearable article is superimposed is given predetermined information according to posting to a predetermined information sharing service. Is displayed.

このような表示制御装置によれば、利用者が撮影された撮影画像であって、使い捨て着用物品の画像が重畳された撮影画像に対して、所定の情報共有サービスへの投稿に応じた所定の情報を表示させるため、使い捨て着用物品や、使い捨て着用物品の事業者について効果的に宣伝することができるようになる。 According to such a display control device, a predetermined image taken by the user, which is a superimposed image of the disposable worn item, is posted to a predetermined information sharing service. Since the information is displayed, it becomes possible to effectively advertise the disposable wear article and the business operator of the disposable wear article.

また、表示制御装置は、前記所定の情報として、前記使い捨て着用物品に関する情報を表示させる。 In addition, the display control device displays information about the disposable wearable article as the predetermined information.

このような表示制御装置によれば、所定の情報として、使い捨て着用物品に関する情報を表示させるため、使い捨て着用物品や、使い捨て着用物品の事業者について効果的に宣伝することができるようになる。 According to such a display control device, since the information about the disposable wear article is displayed as predetermined information, it becomes possible to effectively advertise the disposable wear article and the business operator of the disposable wear article.

[実施形態]
以下に、表示制御装置、表示制御方法および表示制御プログラムを実施するための形態(以下、「実施形態」と記載する)の一例について図面を参照しつつ詳細に説明する。なお、この実施形態により表示制御装置、表示制御方法および表示制御プログラムが限定されるものではない。また、以下の実施形態において同一の部位には同一の符号を付し、重複する説明は省略する。
[Embodiment]
Hereinafter, an example of a display control device, a display control method, and a mode for implementing the display control program (hereinafter, referred to as “the embodiment”) will be described in detail with reference to the drawings. The display control device, the display control method, and the display control program are not limited by this embodiment. Further, in the following embodiments, the same parts are designated by the same reference numerals, and duplicate description will be omitted.

〔1.実施形態に係る表示制御処理の概要〕
まず、前提に沿って実施形態に係る表示制御処理の概要について説明する。使い捨て着用物品の一例としては、マスクが挙げられるが、近年マスクの需要は高まっている。また、マスクは、通年で使用されることも多いため、着用した際の見た目を気にしたり、なるべくファッショナブルに着用したという人も多くなってきている。このため、購入前にマスクを試着することが出来れば便利であるが、マスクは、衛生商品であり、また、その多くが使い捨て商品であるため、購入前に試着させることは難しい。
[1. Outline of display control processing according to the embodiment]
First, an outline of the display control process according to the embodiment will be described according to the premise. Masks are an example of disposable items, but the demand for masks has been increasing in recent years. In addition, since masks are often used throughout the year, many people are concerned about their appearance when they are worn and are wearing them as fashionably as possible. For this reason, it is convenient to be able to try on the mask before purchase, but since the mask is a hygienic product and most of them are disposable products, it is difficult to try on the mask before purchase.

そこで、実施形態に係る表示制御処理は、このような問題点を解決するための着想であり、利用者が有する端末装置(例えば、スマートフォンなど)、あるいは、店頭に置かれた端末装置(例えば、タブレット端末やデジタルサイネ−ジなど)を介して、利用者に対して、仮想的にマスクの画像を装着させることで、マスクを着用した際の見た目をシミュレーションさせるというものである。 Therefore, the display control process according to the embodiment is an idea for solving such a problem, and is a terminal device owned by the user (for example, a smartphone) or a terminal device placed in a store (for example, for example). By having the user virtually wear the image of the mask via a tablet terminal, digital signage, etc.), the appearance when the mask is worn is simulated.

具体的には、実施形態に係る表示制御処理は、利用者による入力情報に応じて特定された使い捨て着用物品の形状を示す物品情報を取得し、取得した物品情報が示す形状の使い捨て着用物品を利用者が仮想的に装着した態様で、利用者が撮影された撮影画像に当該使い捨て着用物品の画像を重畳した状態で表示させる、というものである。 Specifically, the display control process according to the embodiment acquires the article information indicating the shape of the disposable wear article specified according to the input information by the user, and obtains the disposable wear article having the shape indicated by the acquired article information. In a manner in which the user virtually wears the product, the image of the disposable wear item is superimposed on the photographed image taken by the user and displayed.

そして、このような表示制御処理によれば、使い捨て着用物品(例えば、マスク)が利用者に適した商品であるか否かを購入前に効果的に認識させることができるようになる。 Then, according to such a display control process, it becomes possible to effectively recognize whether or not the disposable wearable article (for example, a mask) is a product suitable for the user before purchase.

また、上記の通り、実施形態に係る表示制御処理は、端末装置を介して、利用者に対して仮想的にマスクの画像を装着させるものであるため、利用者は店頭などで簡単にマスクの装着体験ができるようになる。このことを「売り」として、例えば、「スマホで簡単に装着体験!」といった店頭ポップとともに、自社製品(例えば、事業者T)のマスクを陳列すれば、自社製品の訴求力を高めることができる。後に図1を用いて、店頭ポップが付された状態でマスクが陳列される陳列コーナーのイメージを示す。 Further, as described above, since the display control process according to the embodiment virtually causes the user to wear the mask image via the terminal device, the user can easily wear the mask at the store or the like. You will be able to experience wearing it. With this as a "sale", for example, by displaying the mask of the company's product (for example, business operator T) along with the store pop such as "Easy wearing experience with a smartphone!", The appeal of the company's product can be enhanced. .. Later, FIG. 1 will be used to show an image of a display corner where masks are displayed with store pops attached.

〔2.表示制御処理に対応するプログラムについて〕
次に、実施形態に係る表示制御処理に対応するプログラムについて説明する。係るプログラムは、利用者による入力情報に応じて特定された使い捨て着用物品の形状を示す物品情報を取得する取得手順と、取得手順により取得された物品情報が示す形状の使い捨て着用物品を前記利用者が仮想的に装着した態様で、利用者が撮影された撮影画像に当該使い捨て着用物品の画像を重畳した状態で表示させる表示制御手順とをコンピュータに実行させるためのプログラムである。
[2. About programs that support display control processing]
Next, a program corresponding to the display control process according to the embodiment will be described. Such a program includes an acquisition procedure for acquiring article information indicating the shape of a disposable wear article specified according to input information by the user, and a disposable wear article having a shape indicated by the article information acquired by the acquisition procedure. Is a program for causing a computer to execute a display control procedure for displaying an image of the disposable worn article superimposed on a photographed image taken by the user in a virtual wearing mode.

そして、このようなプログラムである実施形態に係るアプリケーションは、例えば、利用者が有する端末装置(例えば、スマートフォンなど)、店頭に置かれた端末装置(例えば、タブレット端末やデジタルサイネ−ジなど)といった、所謂、エンドユーザ用の端末装置、あるいは、係る端末装置と通信を行うサーバ装置に対して導入(インストール)される。 The application according to the embodiment of such a program is, for example, a terminal device owned by a user (for example, a smartphone), a terminal device placed in a store (for example, a tablet terminal, a digital signage, etc.). , So-called terminal device for end users, or server device that communicates with the terminal device.

以下の実施形態では、このような端末装置の一例として端末装置10を例示し、また、このようなサーバ装置の一例としてサーバ装置100を例示する。また、端末装置10およびサーバ装置100は、ともに表示制御装置の一例といえる装置である。 In the following embodiments, the terminal device 10 is exemplified as an example of such a terminal device, and the server device 100 is exemplified as an example of such a server device. Further, the terminal device 10 and the server device 100 are both devices that can be said to be examples of display control devices.

また、実施形態に係るアプリケーションは、端末装置10とサーバ装置100を連携させるために端末装置10にインストールされる専用のアプリケーション(以下「アプリAP11」とする)であってもよい。一方で、実施形態に係るアプリケーションは、端末装置10にインストールされる汎用的なアプリケーション(「アプリAP12」)であってもよい。例えば、アプリAP12は、端末装置10の有するブラウザ上で動作するウェブアプリ(ウェブコンテンツを表示させるためのアプリケーション)あってもよい。 Further, the application according to the embodiment may be a dedicated application (hereinafter referred to as “application AP11”) installed in the terminal device 10 in order to link the terminal device 10 and the server device 100. On the other hand, the application according to the embodiment may be a general-purpose application (“App AP12”) installed in the terminal device 10. For example, the application AP12 may be a web application (application for displaying web contents) that operates on the browser of the terminal device 10.

また、アプリAP11およびアプリAP12は、実施形態に係る表示制御処理を端末装置10またはサーバ装置100の少なくともいずれか一方に対して実行させるためのアプリケーションといえる。本実施形態では、アプリAP11またはアプリAP12の制御に従って、端末装置10とサーバ装置100とが協働して実施形態に係る表示制御処理を行うものとして説明するが、例えば、端末装置10がアプリAP11またはアプリAP12の制御に従って、単独で実施形態に係る表示制御処理を行ってもよい。 Further, the application AP11 and the application AP12 can be said to be applications for causing at least one of the terminal device 10 and the server device 100 to execute the display control process according to the embodiment. In the present embodiment, the terminal device 10 and the server device 100 cooperate with each other to perform the display control process according to the embodiment according to the control of the application AP11 or the application AP12. For example, the terminal device 10 is the application AP11. Alternatively, the display control process according to the embodiment may be independently performed according to the control of the application AP12.

また、アプリAP11がインストールされている場合における、端末装置10およびサーバ装置100との間で行われる実施形態に係る表示制御処理と、アプリAP12がインストールされている場合における、端末装置10およびサーバ装置100との間で行われる実施形態に係る表示制御処理とを、それぞれ分けて説明する。前者については、主に図3で説明し、後者については主に図4で説明する。一方で、アプリAP11がインストールされている場合での表示制御処理は、アプリAP12の制御によって行われてもよい。また、アプリAP12がインストールされている場合での表示制御処理は、アプリAP11の制御によって行われてもよい。 Further, the display control process according to the embodiment performed between the terminal device 10 and the server device 100 when the application AP11 is installed, and the terminal device 10 and the server device when the application AP12 is installed. The display control process according to the embodiment performed with and from 100 will be described separately. The former will be mainly described with reference to FIG. 3, and the latter will be mainly described with reference to FIG. On the other hand, the display control process when the application AP11 is installed may be performed by the control of the application AP12. Further, the display control process when the application AP12 is installed may be performed by the control of the application AP11.

〔3.使い捨て着用物品について〕
次に、使い捨て着用物品について説明する。本実施形態では、実施形態に係る使い捨て着用物品は、マスクであるものとする。具体的には、実施形態に係る使い捨て着用物品は、不織布で構成された使い捨てマスクであるものとする。一方で、使い捨て着用物品は、必ずしもマスクである必要はなく、例えば、大人用の吸収性物品(大人用おむつ)であってもよい。
[3. Disposable items]
Next, the disposable wear article will be described. In the present embodiment, the disposable wearable article according to the embodiment is a mask. Specifically, the disposable wearable article according to the embodiment is a disposable mask made of a non-woven fabric. On the other hand, the disposable wear article does not necessarily have to be a mask, and may be, for example, an adult absorbent article (adult diaper).

〔4.記憶部と店頭での陳列について〕
次に、図1を用いて、サーバ装置100が有する記憶部と、店頭ポップが付された状態でマスクが陳列される陳列コーナーについて説明する。図1は、陳列コーナーを概念的に説明する説明図である。
[4. About display in memory and store]
Next, with reference to FIG. 1, a storage unit included in the server device 100 and a display corner in which masks are displayed with a store pop attached will be described. FIG. 1 is an explanatory diagram for conceptually explaining a display corner.

図1の左側には、表示制御装置の一例であるサーバ装置100が有する記憶部のうち、商品としてのマスクに関する各種情報を記憶する商品情報記憶部121の一例が示されている。図1に示す商品情報記憶部121は、「シリーズ情報」、「第1タイプ」、「第2タイプ」、「商品ID」、「AR情報」、「取扱店舗」といった項目を有する。 On the left side of FIG. 1, among the storage units included in the server device 100, which is an example of the display control device, an example of the product information storage unit 121 that stores various information regarding the mask as a product is shown. The product information storage unit 121 shown in FIG. 1 has items such as "series information", "first type", "second type", "product ID", "AR information", and "handling store".

「シリーズ情報」は、サーバ装置100に対応する事業者(マスク販売メーカー)である事業者Tによるマスク商品に関するシリーズ情報を示す。「シリーズ情報」に対応付けられる商品(「商品ID」で識別される商品)は、「シリーズ情報」が示す商品シリーズに対応する。図1の例では、シリーズ情報「今春発売新商品」に対して、商品ID「PD11」で識別されるマスク商品(マスクPD11)が対応付けられている。係る例は、マスクPD11は、事業者Tにより今春発売された新商品シリーズ(ラインナップ)のうちの1つである例を示す。 “Series information” indicates series information regarding mask products by business operator T, which is a business operator (mask sales maker) corresponding to the server device 100. The product associated with the "series information" (the product identified by the "product ID") corresponds to the product series indicated by the "series information". In the example of FIG. 1, a mask product (mask PD11) identified by the product ID “PD11” is associated with the series information “new product released this spring”. In such an example, the mask PD11 shows an example in which the mask PD11 is one of the new product series (lineup) released by the business operator T this spring.

「第1タイプ」および「第2タイプ」は、マスクを用途(例えば、女性用、子供用など)、形状(プリーツ型、立体型など)、各種スペック(着用した際の付け心地、マスクを介して発散される息の状況など)などで分類するための分類情報、すなわち、マスクのカテゴリに対応し、「第1タイプ」および「第2タイプ」は、それぞれカバーする範囲(粒度)が異なる。具体的には、「第2タイプ」は、「第1タイプ」よりも粒度の狭いカテゴリである。換言すると、「第2タイプ」は、「第1タイプ」に対して下位のカテゴリに相当する。また、このようなことから、「第1タイプ」および「第2タイプ」は、階層構造の関係性にある。 The "first type" and "second type" use masks (for example, for women, children, etc.), shapes (pleated type, three-dimensional type, etc.), and various specifications (comfort when worn, through masks). It corresponds to the classification information for classifying by the situation of breath emitted, that is, the mask category, and the range (particle size) covered by the "first type" and the "second type" is different. Specifically, the "second type" is a category having a narrower particle size than the "first type". In other words, the "second type" corresponds to a lower category than the "first type". Further, for this reason, the "first type" and the "second type" are in a hierarchical relationship.

図1に示す商品情報記憶部121の例では、第1タイプとして、「TY11」・「TY12」・「TY13」・「TY14」が示されている。また、図1に示す商品情報記憶部121の例では、第1タイプ「TY11」には、第2タイプとして、「TY11−1」および「TY11−2」が対応付けられている。また、図1に示す商品情報記憶部121の例では、第1タイプ「TY12」には、第2タイプとして、「TY12−1」および「TY12−2」が対応付けられている。また、図1に示す商品情報記憶部121の例では、第1タイプ「TY13」には、第2タイプとして、「TY13−1」および「TY13−2」が対応付けられている。また、図1に示す商品情報記憶部121の例では、第1タイプ「TY14」には、第2タイプとして、「TY14−1」および「TY14−2」が対応付けられている。 In the example of the product information storage unit 121 shown in FIG. 1, "TY11", "TY12", "TY13", and "TY14" are shown as the first type. Further, in the example of the product information storage unit 121 shown in FIG. 1, the first type "TY11" is associated with "TY11-1" and "TY11-2" as the second type. Further, in the example of the product information storage unit 121 shown in FIG. 1, the first type "TY12" is associated with "TY12-1" and "TY12-2" as the second type. Further, in the example of the product information storage unit 121 shown in FIG. 1, the first type "TY13" is associated with "TY13-1" and "TY13-2" as the second type. Further, in the example of the product information storage unit 121 shown in FIG. 1, the first type "TY14" is associated with "TY14-1" and "TY14-2" as the second type.

「商品ID」は、マスク商品を識別する識別情報を示す。「商品ID」は、マスク商品を識別可能な情報であればいかなる情報であってもよく、「商品ID」としては、例えば、商品番号、商品名(ブランド名)が挙げられる。また、「商品ID」で識別される各マスク商品は、表示候補のマスク商品といえる。 The "product ID" indicates identification information for identifying the mask product. The "product ID" may be any information as long as it can identify the mask product, and examples of the "product ID" include a product number and a product name (brand name). Further, each mask product identified by the "product ID" can be said to be a display candidate mask product.

「AR情報」は、マスクの仮想的な画像(例えば、マスクを3次元的に示す仮想的な立体画像)であるAR画像を生成するための元となる情報であり、少なくともマスクの形状を示す情報が含まれる。また、「AR情報」は、マスクの形状を示す物品情報の一例である。また、「AR情報」には、マスクのデフォルトの色や模様を示す情報も含まれてよい。図1に示す商品情報記憶部121の例では、商品ID「PD11」で識別されるマスク商品であるマスクPD11に対して、AR情報「3D11」が対応付けられている。係る例では、AR情報「3D11」には、マスクPD11の特徴的な形状を示す情報が物品情報として含まれる。例えば、マスクPD11は、プリーツタイプであるとともに、事業者T特有の形状を有しているマスク商品であるとすると、AR情報「3D11」には、この特徴的な形状を示す情報が含まれる。 The "AR information" is information that is a source for generating an AR image that is a virtual image of the mask (for example, a virtual three-dimensional image that shows the mask three-dimensionally), and at least indicates the shape of the mask. Contains information. Further, "AR information" is an example of article information indicating the shape of the mask. In addition, the "AR information" may include information indicating a default color or pattern of the mask. In the example of the product information storage unit 121 shown in FIG. 1, AR information "3D11" is associated with the mask PD11, which is a mask product identified by the product ID "PD11". In such an example, the AR information "3D11" includes information indicating the characteristic shape of the mask PD11 as article information. For example, assuming that the mask PD11 is a pleated type mask product having a shape peculiar to the business operator T, the AR information "3D11" includes information indicating this characteristic shape.

「取扱店舗」は、商品IDで識別されるマスク商品を取り扱っている店舗を示す情報である。例えば、「取扱店舗」は、商品IDで識別されるマスク商品を取り扱っている店舗を識別する店舗ID、店舗名、店舗所在地などである。 The "handling store" is information indicating a store handling a mask product identified by a product ID. For example, the "handling store" is a store ID, a store name, a store location, or the like that identifies a store that handles a mask product identified by a product ID.

次に、店頭ポップについて説明する。図1の右側には、店頭ポップが付された状態でマスクが陳列される陳列コーナーの一例が示される。図1の例では、商品情報記憶部121で管理されているマスク商品のうち、マスクPD21が、店舗SH1の店頭に設置される陳列コーナーCN11に置かれた状態で販売されている様子が示されている。また、図1の例では、陳列コーナーCN11の最前部に、「スマホで簡単に装着体験!」と記載された店頭ポップP21が付されている。また、店頭ポップP21には、実施形態に係る表示制御のトリガーとなるQRコード(登録商標)として、コード情報QR21が示されている。また、コード情報QR21には、例えば、マスクPD21を識別する商品IDが含まれている。したがって、利用者は、自身の端末装置10を介して、マスクを着用した際の自身の見た目をシミュレーションしたい場合、まずは、端末装置10の撮像手段(図6に示す撮像部13)を用いて、端末装置10にコード情報QR21を入力することで、端末装置10にコード情報QR21を読み取らせる。 Next, store pop will be described. On the right side of FIG. 1, an example of a display corner where masks are displayed with a store pop attached is shown. In the example of FIG. 1, among the mask products managed by the product information storage unit 121, the mask PD21 is sold in the state of being placed in the display corner CN11 installed in the store SH1. ing. Further, in the example of FIG. 1, a store pop P21 stating "Easy wearing experience with a smartphone!" Is attached to the front part of the display corner CN11. Further, the store pop P21 shows code information QR21 as a QR code (registered trademark) that triggers display control according to the embodiment. Further, the code information QR21 includes, for example, a product ID that identifies the mask PD21. Therefore, when the user wants to simulate his / her appearance when wearing the mask through his / her own terminal device 10, he / she first uses the imaging means (imaging unit 13 shown in FIG. 6) of the terminal device 10 to simulate his / her appearance. By inputting the code information QR21 into the terminal device 10, the terminal device 10 is made to read the code information QR21.

なお、例えば、店舗SH1は、マスクPD21の他にもマスクPD22を取り扱っている場合、陳列コーナーCN11の隣の陳列コーナーCN12(付図示)においてマスクPD22が陳列され、また、陳列コーナーCN12には、マスクPD22に対応する店頭ポップP22(付図示)が付される。ここで、店頭ポップP22に示されるQRコードは、店頭ポップP21と同様のコード情報QR21であってもよいし、マスクPD22を識別する商品IDが含まれる他のQRコードであってもよい。 For example, when the store SH1 handles the mask PD22 in addition to the mask PD21, the mask PD22 is displayed in the display corner CN12 (shown) next to the display corner CN11, and the mask PD22 is displayed in the display corner CN12. A store pop P22 (shown) corresponding to the mask PD22 is attached. Here, the QR code shown in the store pop P22 may be the same code information QR21 as the store pop P21, or may be another QR code including a product ID that identifies the mask PD22.

また、異なるマスク商品それぞれのシミュレーションを行いたい場合、その都度、マスク商品毎のQRコードを入力するのは面倒な場合がある。したがって、1つの店舗が事業者Tにおける複数の異なるマスク商品を陳列している場合であっても、このうちのいずれかのマスク商品にだけQRコードが対応付けられていてもよい。また、1つの店舗が事業者Tにおける複数の異なるマスク商品を陳列しているにも拘わらず、QRコードは1つという場合であっても、表示候補のマスク商品の中から、表示を希望するマスク商品を選択させることで、利用者がシミレーションしたいと考えるマスク商品に対応するマスク画像を表示させることができるようになる。この点については、図2で詳細に説明する。 Further, when it is desired to simulate each of the different mask products, it may be troublesome to input the QR code for each mask product each time. Therefore, even when one store displays a plurality of different mask products in the business operator T, the QR code may be associated with only one of the mask products. In addition, even if one store displays a plurality of different mask products in the business operator T, even if there is only one QR code, it is desired to display the mask products among the display candidates. By selecting a mask product, it becomes possible to display a mask image corresponding to the mask product that the user wants to simulate. This point will be described in detail with reference to FIG.

〔5.表示制御処理について〕
ここからは、図2〜図4を用いて、実施形態に係る表示制御処理の一例について説明する。図2では、実施形態に係る表示制御処理のうち、利用者による入力に応じて、サーバ装置100が、入力された情報に応じたマスク商品に対応するAR情報を取得するまでの処理について説明する。また、図3では、端末装置10が、アプリAP11に従って動作する場合の表示制御処理の一例について説明する。また、図4では、端末装置10が、アプリAP12に従って動作する場合の表示制御処理の一例について説明する。
[5. Display control processing]
From here on, an example of the display control process according to the embodiment will be described with reference to FIGS. 2 to 4. FIG. 2 describes the display control process according to the embodiment until the server device 100 acquires the AR information corresponding to the mask product according to the input information in response to the input by the user. .. Further, FIG. 3 describes an example of display control processing when the terminal device 10 operates according to the application AP11. Further, FIG. 4 describes an example of display control processing when the terminal device 10 operates according to the application AP12.

また、図2〜図4では、利用者U1が自身の端末装置10を用いて、マスクを着用した際の見た目をシミュレーションしようとする場合を想定する。より具体的には、利用者U1は、店舗SH1の陳列コーナーCN11に置かれるマスクPD21を着用した際の見た目をシミュレーションするために、店頭ポップP21に示されるコード情報QR21を入力する場合を想定する。 Further, in FIGS. 2 to 4, it is assumed that the user U1 tries to simulate the appearance when wearing the mask by using his / her own terminal device 10. More specifically, it is assumed that the user U1 inputs the code information QR21 shown in the store pop P21 in order to simulate the appearance when the mask PD21 placed in the display corner CN11 of the store SH1 is worn. ..

〔5−1.表示制御処理(1)について〕
まず、図2を用いて、サーバ装置100が、利用者による入力に応じて、入力された情報に応じたマスク商品に対応するAR情報を取得するまでの処理について説明する。図2は、実施形態に係る表示制御処理の一例(1)を示す図である。
[5-1. Display control process (1)]
First, with reference to FIG. 2, the process until the server device 100 acquires the AR information corresponding to the mask product according to the input information in response to the input by the user will be described. FIG. 2 is a diagram showing an example (1) of the display control process according to the embodiment.

まず、利用者U1が、端末装置のカメラ(図6に示す撮像部13)を用いて、QRコードであるコード情報QR21を端末装置10に入力したとする。係る例では、コード情報QR21は、利用者U1による入力情報といえる。また、コード情報は、マスク商品が陳列されている陳列棚に付された識別情報ともいえる。 First, it is assumed that the user U1 inputs the code information QR21, which is a QR code, into the terminal device 10 by using the camera of the terminal device (imaging unit 13 shown in FIG. 6). In such an example, the code information QR21 can be said to be input information by the user U1. In addition, the code information can be said to be identification information attached to the display shelf on which the mask products are displayed.

そして、端末装置10は、QRコードの入力を受け付けると、QRコードを読み取ることにより、QRコードで示される商品IDを検出する(ステップS11)。具体的には、端末装置10は、コード情報QR21の入力を受け付けると、コード情報QR21を読み取ることにより、コード情報QR21で示される商品IDを検出する。図1の例では、端末装置10は、商品IDとして、マスクPD21を示す商品ID「PD21」を検出したものとする。 Then, when the terminal device 10 receives the input of the QR code, the terminal device 10 reads the QR code to detect the product ID indicated by the QR code (step S11). Specifically, when the terminal device 10 receives the input of the code information QR21, the terminal device 10 reads the code information QR21 to detect the product ID indicated by the code information QR21. In the example of FIG. 1, it is assumed that the terminal device 10 detects the product ID “PD21” indicating the mask PD21 as the product ID.

次に、端末装置10は、検出した商品IDをサーバ装置100に送信する。例えば、端末装置10は、所定のアプリケーションを介して、検出した商品IDをサーバ装置100に送信する。例えば、端末装置10にアプリAP11がインストールされている場合、端末装置10は、アプリAP11の制御に従い、検出した商品IDをサーバ装置100に送信する。また、端末装置10にはアプリAP11がインストールされていない一方で、アプリAP12がインストールされている場合(すなわち、アプリAP12に対応するウェブアプリであるブラウザがインストールされている場合)、端末装置10は、アプリAP12を介して、検出した商品IDをサーバ装置100に送信する。このような送信により、サーバ装置100は、端末装置10から商品IDを取得する(ステップS12)。具体的には、サーバ装置100は、端末装置10が商品ID「PD21」を送信したことにより、端末装置10から商品ID「PD21」を取得する。 Next, the terminal device 10 transmits the detected product ID to the server device 100. For example, the terminal device 10 transmits the detected product ID to the server device 100 via a predetermined application. For example, when the application AP11 is installed in the terminal device 10, the terminal device 10 transmits the detected product ID to the server device 100 under the control of the application AP11. Further, when the application AP11 is not installed on the terminal device 10 while the application AP12 is installed (that is, when the browser which is a web application corresponding to the application AP12 is installed), the terminal device 10 is installed. , The detected product ID is transmitted to the server device 100 via the application AP12. By such transmission, the server device 100 acquires the product ID from the terminal device 10 (step S12). Specifically, the server device 100 acquires the product ID "PD21" from the terminal device 10 when the terminal device 10 transmits the product ID "PD21".

なお、コード情報QR21に店舗SH1を識別する店舗IDが含まれている場合、端末装置10は、商品IDとともにこの店舗IDもサーバ装置100に送信してもよい。これにより、サーバ装置100は、商品情報記憶部121の「取扱店舗」と、端末装置10から取得した「店舗ID」とのマッチングにより、店舗SH1で取り扱われているマスク商品のうち、事業者Tのマスク商品を特定することが可能となる。 When the code information QR21 includes a store ID that identifies the store SH1, the terminal device 10 may transmit this store ID to the server device 100 together with the product ID. As a result, the server device 100 matches the "handling store" of the product information storage unit 121 with the "store ID" acquired from the terminal device 10, and among the mask products handled by the store SH1, the business operator T It is possible to identify the mask product of.

次に、サーバ装置100は、商品IDに基づいて、表示候補のマスク商品を特定し、特定した表示候補のマスク商品から、表示を希望するマスク商品を選択させる選択コンテンツを生成する(ステップS13)。具体的には、サーバ装置100は、商品ID「PD21」に基づいて、表示候補のマスク商品を特定し、特定した表示候補のマスク商品から、表示を希望するマスク商品を選択させる選択コンテンツを生成する。 Next, the server device 100 identifies the mask product of the display candidate based on the product ID, and generates selection content for selecting the mask product desired to be displayed from the specified display candidate mask product (step S13). .. Specifically, the server device 100 identifies a display candidate mask product based on the product ID "PD21", and generates selection content for selecting a mask product desired to be displayed from the specified display candidate mask products. do.

例えば、サーバ装置100は、商品ID「PD21」で識別されるマスクPD21、および、マスクPD21に関連するマスク商品を表示候補のマスク商品として特定する。図1に示す商品情報記憶部121の例によると、マスクPD11およびマスクPD12は、マスクPD21と同一シリーズの商品であって、また、ブランドの観点からも関連しているものとする。したがって、図2の例では、サーバ装置100は、マスクPD21に関連するマスク商品であるマスクPD11およびマスクPD12を抽出し、結果的に、マスクPD11、マスクPD12、マスクPD21を表示候補のマスク商品として特定したものとする。 For example, the server device 100 identifies the mask PD21 identified by the product ID “PD21” and the mask product related to the mask PD21 as display candidate mask products. According to the example of the product information storage unit 121 shown in FIG. 1, the mask PD11 and the mask PD12 are products of the same series as the mask PD21, and are also related from the viewpoint of the brand. Therefore, in the example of FIG. 2, the server device 100 extracts the mask PD11 and the mask PD12, which are mask products related to the mask PD21, and as a result, the mask PD11, the mask PD12, and the mask PD21 are used as display candidate mask products. It shall be specified.

また、係る例では、マスクPD11、マスクPD12、マスクPD21は、識別情報に応じて特定されたマスクの一例である。また、ステップS13の処理について、サーバ装置100は、識別情報に応じて特定された使い捨て着用物品として、識別情報で識別される着用物品、および、識別情報で識別される着用物品に関連する着用物品を、表示候補の使い捨て着用物品として特定する、と概念的に表記することができる。なお、関連商品と特定するための判断材料は、シリーズやブランドに限定される必要はない。 Further, in such an example, the mask PD11, the mask PD12, and the mask PD21 are examples of masks specified according to the identification information. Further, regarding the process of step S13, the server device 100 uses the disposable wear article specified according to the identification information as the wear article identified by the identification information and the wear article related to the wear article identified by the identification information. Can be conceptually described as specifying as a disposable wearable article as a display candidate. It should be noted that the judgment material for identifying the related product does not have to be limited to the series or brand.

ここで、選択コンテンツの生成の一例について、図1に示す商品情報記憶部121の例を用いて説明する。例えば、サーバ装置100は、マスクPD21が属するカテゴリのうち粒度のより広いカテゴリ(より上位のカテゴリ)である第1のカテゴリに対応する第1タイプ「TY12」、および、マスクPD11とマスクPD12とが属するカテゴリのうち粒度のより広いカテゴリ(より上位のカテゴリ)である第1のカテゴリに対応する第1タイプ「TY11」のうちのいずれかを選択させる選択コンテンツC111を生成する。 Here, an example of generating the selected content will be described with reference to the example of the product information storage unit 121 shown in FIG. For example, in the server device 100, the first type "TY12" corresponding to the first category, which is a category with a wider particle size (higher category) among the categories to which the mask PD21 belongs, and the mask PD11 and the mask PD12 are The selection content C111 for selecting one of the first type "TY11" corresponding to the first category, which is a category with a wider particle size (higher category) among the categories to which the particle belongs, is generated.

また、サーバ装置100は、第1のカテゴリより粒度の狭い(すなわち、第1のカテゴリに対して下位の)第2のカテゴリに対応する第2タイプであって、マスクPD21の第1タイプに対応する第2タイプ「TY12−1」および「TY12−2」のうちのいずれかを選択させる選択コンテンツC111−1を生成する。また、サーバ装置100は、第1のカテゴリより粒度の狭い(すなわち、第1のカテゴリに対して下位の)第2のカテゴリに対応する第2タイプであって、マスクPD11およびマスクPD12の第1タイプに対応する第2タイプ「TY11−1」および「TY11−2」のうちのいずれかを選択させる選択コンテンツC111−2を生成する。 Further, the server device 100 is a second type corresponding to a second category having a narrower particle size than the first category (that is, lower than the first category), and corresponds to the first type of the mask PD21. Generates selection content C111-1 that allows one of the second types "TY12-1" and "TY12-2" to be selected. Further, the server device 100 is a second type corresponding to a second category having a narrower particle size than the first category (that is, lower than the first category), and is a first type of the mask PD11 and the mask PD12. The selection content C111-2 for selecting one of the second types "TY11-1" and "TY11-2" corresponding to the type is generated.

また、サーバ装置100は、選択コンテンツC111において第1タイプ「TY11」が選択された場合には選択コンテンツC111−2に遷移され、選択コンテンツC111において第1タイプ「TY12」が選択された場合には選択コンテンツC111−1に遷移されるように選択コンテンツC11を生成する。具体的には、サーバ装置100は、上記のような遷移が実現されるよう選択コンテンツC111、選択コンテンツC111−1、選択コンテンツC111−2を組み合わせることで、選択コンテンツC11を生成する。これにより、利用者U1は、第1のカテゴリを選択し、選択した第1のカテゴリに対応する第2のカテゴリをさらに選択することで、表示を希望するマスク商品を絞り込むことができる。 Further, the server device 100 transitions to the selected content C111-2 when the first type "TY11" is selected in the selected content C111, and when the first type "TY12" is selected in the selected content C111. The selected content C11 is generated so as to transition to the selected content C111-1. Specifically, the server device 100 generates the selected content C11 by combining the selected content C111, the selected content C111-1, and the selected content C111-2 so that the above transition is realized. As a result, the user U1 can narrow down the mask products to be displayed by selecting the first category and further selecting the second category corresponding to the selected first category.

なお、サーバ装置100は、図2で示した例のように、階層構造の関係にあるカテゴリを順に選択させることで、表示を希望するマスク商品を絞り込ませるのではなく、単純に、表示候補のマスク商品それぞれを示す商品情報(例えば、商品名)が一覧表示される一覧コンテンツを生成することで、一覧の中から表示を希望するマスク商品を選択させてもよい。 As in the example shown in FIG. 2, the server device 100 does not narrow down the mask products to be displayed by sequentially selecting the categories having a hierarchical structure, but simply displays the display candidates. By generating a list content in which product information (for example, a product name) indicating each mask product is displayed in a list, the mask product to be displayed may be selected from the list.

また、サーバ装置100は、利用者U1に関する利用者情報に基づいて、表示候補のマスク商品の中から、利用者U1に応じた表示候補のマスク商品を特定する。そして、サーバ装置100は、特定した表示候補のマスク商品それぞれを示す商品情報(例えば、商品名)が一覧表示される一覧コンテンツを生成することで、一覧の中から表示を希望するマスク商品を選択させてもよい。例えば、サーバ装置100は、利用者U1にの属性情報(例えば、年齢や性別など)、あるいは、利用者U1の嗜好性(例えば、好みの形状、色、スペック)に基づいて、表示候補のマスク商品の中から、利用者U1に応じた表示候補のマスク商品を特定する。例えば、サーバ装置100は、利用者U1の行動を示す行動情報(例えば、購買履歴や閲覧履歴)に基づいて、利用者U1の嗜好性を推定することができる。 Further, the server device 100 identifies a display candidate mask product according to the user U1 from the display candidate mask products based on the user information about the user U1. Then, the server device 100 selects a mask product to be displayed from the list by generating a list content in which product information (for example, a product name) indicating each of the specified display candidate mask products is displayed in a list. You may let me. For example, the server device 100 masks display candidates based on the attribute information of the user U1 (for example, age, gender, etc.) or the preference of the user U1 (for example, favorite shape, color, specifications). From the products, a mask product that is a display candidate according to the user U1 is specified. For example, the server device 100 can estimate the preference of the user U1 based on the behavior information (for example, purchase history and browsing history) indicating the behavior of the user U1.

また、サーバ装置100は、利用者U1が現在利用している店舗(図2の例では、店舗SH1)で取り扱われている取扱商品の中から、利用者U1に応じた表示候補のマスク商品を特定してもよい。例えば、サーバ装置100は、利用者U1の位置情報から利用者U1が現在利用している店舗を特定し、特定した店舗で取り扱われている取扱商品の中から、利用者U1に応じた表示候補のマスク商品を特定してもよい。また、例えば、サーバ装置100は、ステップS12において、商品IDとともに店舗IDも取得できている場合には、取得た店舗IDで識別される店舗で取り扱われている取扱商品の中から、利用者U1に応じた表示候補のマスク商品を特定してもよい。 In addition, the server device 100 selects mask products that are display candidates according to the user U1 from the products handled at the store currently used by the user U1 (in the example of FIG. 2, the store SH1). It may be specified. For example, the server device 100 identifies the store currently used by the user U1 from the location information of the user U1, and among the products handled at the specified store, display candidates according to the user U1. Mask products may be specified. Further, for example, when the server device 100 can acquire the store ID as well as the product ID in step S12, the user U1 is selected from the products handled in the store identified by the acquired store ID. The mask product of the display candidate may be specified according to the above.

図2の説明に戻り、サーバ装置100は、ステップS13で生成した選択コンテンツを利用者U1に送信する(ステップS14)。具体的には、サーバ装置100は、選択コンテンツC11を利用者U1の端末装置10に送信する。 Returning to the description of FIG. 2, the server device 100 transmits the selected content generated in step S13 to the user U1 (step S14). Specifically, the server device 100 transmits the selected content C11 to the terminal device 10 of the user U1.

そうすると、利用者U1は、選択コンテンツC11で表示される第1タイプ(第1のカテゴリ)のうち、表示を希望するマスク商品に対応していると思われる第1タイプを選択し、また、選択に応じて遷移した選択コンテンツC11で表示される第2タイプ(第2のカテゴリ)のうち、表示を希望するマスク商品に対応していると思われる第2タイプを選択する。このような選択に応じて、端末装置10は、選択されたカテゴリを示すカテゴリ情報をサーバ装置100に送信する(ステップS15)。図2の例では、利用者U1は、選択コンテンツC111−2において第2タイプ「TY12−1」を選択したとすると、端末装置10は、第2タイプ「TY12−1」を示すカテゴリ情報をサーバ装置100に送信する。 Then, the user U1 selects and selects the first type (first category) displayed in the selected content C11, which seems to correspond to the mask product desired to be displayed. From the second type (second category) displayed in the selected content C11 transitioned according to the above, the second type that seems to correspond to the mask product desired to be displayed is selected. In response to such selection, the terminal device 10 transmits category information indicating the selected category to the server device 100 (step S15). In the example of FIG. 2, if the user U1 selects the second type "TY12-1" in the selected content C111-2, the terminal device 10 sends the category information indicating the second type "TY12-1" to the server. It is transmitted to the device 100.

サーバ装置100は、カテゴリ情報を受信すると、受信したカテゴリ情報に基づいて、選択されたカテゴリに属するマスク商品の形状を示すAR情報(物品情報の一例)を取得する(ステップS16)。例えば、サーバ装置100は、第2タイプ「TY12−1」を示すカテゴリ情報を受信したとすると、第2タイプ「TY12−1」に属するマスク商品を特定し、特定したマスク商品の形状を示すAR情報を商品情報記憶部121から取得する。図1に示す商品情報記憶部121の例では、サーバ装置100は、第2タイプ「TY12−1」に属するマスク商品としてマスクPD21を特定し、マスクPD21の形状を示すAR情報としてAR情報3D21を商品情報記憶部121から取得する。 When the server device 100 receives the category information, it acquires AR information (an example of article information) indicating the shape of the mask product belonging to the selected category based on the received category information (step S16). For example, if the server device 100 receives the category information indicating the second type "TY12-1", the server device 100 identifies the mask product belonging to the second type "TY12-1", and AR indicating the shape of the specified mask product. Information is acquired from the product information storage unit 121. In the example of the product information storage unit 121 shown in FIG. 1, the server device 100 identifies the mask PD21 as a mask product belonging to the second type “TY12-1”, and uses the AR information 3D21 as AR information indicating the shape of the mask PD21. Obtained from the product information storage unit 121.

なお、第2タイプ「TY12−1」に属するマスク商品が複数存在する場合には、サーバ装置100は、これらマスク商品を示す商品情報を利用者U1に提示することで、表示を希望するマスク商品を選択させてもよい。 When there are a plurality of mask products belonging to the second type "TY12-1", the server device 100 presents the product information indicating these mask products to the user U1 to display the mask products desired to be displayed. May be selected.

また、これまでの例では、サーバ装置100が、表示候補のマスク商品の中から、表示を希望するマスク商品を絞り込ませたり、表示候補のマスク商品の中から、表示を希望するマスク商品そのものを選択させる例を示した。しかし、サーバ装置100は、端末装置10から取得したQRコードによって、表示候補のマスク商品の中から一意にマスク商品が決まる場合には、このマスク商品のAR情報を取得してもよい。例えば、コード情報QR21で示される商品IDが商品ID「PD21」である場合には、商品ID「PD21」によってマスク商品は1つのマスクPD21に決まる。また、マスクPD21は、利用者U1が目をとめた陳列コーナーCN11において現在陳列されているマスク商品である。 Further, in the examples so far, the server device 100 narrows down the mask products to be displayed from the mask products of the display candidates, or selects the mask products themselves to be displayed from the mask products of the display candidates. An example of making a selection is shown. However, if the mask product is uniquely determined from the display candidate mask products by the QR code acquired from the terminal device 10, the server device 100 may acquire the AR information of the mask product. For example, when the product ID indicated by the code information QR21 is the product ID "PD21", the mask product is determined by the product ID "PD21" as one mask PD21. Further, the mask PD21 is a mask product currently displayed at the display corner CN11 where the user U1 has noticed.

したがって、サーバ装置100は、ステップS12で商品ID「PD21」を取得した図2の例では、ステップS13〜S16を行うことなく、マスクPD21のAR情報としてAR情報3D21を取得してもよい。また、このような処理について、サーバ装置100は、識別情報で識別される使い捨て着用物品であって、陳列棚に現在陳列されている使い捨て着用物品の形状を示す物品情報を取得する、と概念的に表記することができる。 Therefore, in the example of FIG. 2 in which the product ID “PD21” is acquired in step S12, the server device 100 may acquire AR information 3D21 as AR information of the mask PD21 without performing steps S13 to S16. Further, regarding such processing, the server device 100 conceptually acquires article information indicating the shape of the disposable wear article currently displayed on the display shelf, which is the disposable wear article identified by the identification information. Can be written in.

図2の説明に戻り、サーバ装置100は、ステップS16で取得したAR情報を利用者U1に送信する(ステップS17)。具体的には、サーバ装置100は、ステップS16で取得したAR情報3D21を利用者の端末装置10に送信する。 Returning to the description of FIG. 2, the server device 100 transmits the AR information acquired in step S16 to the user U1 (step S17). Specifically, the server device 100 transmits the AR information 3D21 acquired in step S16 to the user's terminal device 10.

〔5−2.表示制御処理(2)について〕
ここまで、図2を用いて、サーバ装置100が、利用者による入力に応じて、入力された情報に応じたマスク商品に対応するAR情報を取得するまでの処理について説明してきた。ここからは、図3を用いて、端末装置10が、アプリAP11に従って動作する場合の表示制御処理の一例について説明する。図3は、実施形態に係る表示制御処理の一例(2)を示す図である。また、以下に説明する処理は、図2のステップS17に続く処理である。
[5-2. Display control process (2)]
Up to this point, the process until the server device 100 acquires the AR information corresponding to the mask product according to the input information in response to the input by the user has been described with reference to FIG. From here on, an example of display control processing when the terminal device 10 operates according to the application AP 11 will be described with reference to FIG. FIG. 3 is a diagram showing an example (2) of the display control process according to the embodiment. Further, the process described below is a process following step S17 in FIG.

端末装置10は、サーバ装置100からAR情報を取得すると、取得したAR情報からマスク画像を生成する(ステップS21)。具体的には、端末装置10は、サーバ装置100からAR情報3D21を取得すると、AR情報3D21が示す形状であって、マスクPD21の形状に基づいて、この形状を仮想的に再現する立体画像をマスクPD21のマスク画像として生成する。図3の例では、端末装置10は、このようなマスク画像としてマスク画像GP21を生成したものとする。 When the terminal device 10 acquires AR information from the server device 100, the terminal device 10 generates a mask image from the acquired AR information (step S21). Specifically, when the terminal device 10 acquires the AR information 3D21 from the server device 100, the terminal device 10 has a shape indicated by the AR information 3D21, and based on the shape of the mask PD21, a stereoscopic image that virtually reproduces this shape is produced. It is generated as a mask image of the mask PD21. In the example of FIG. 3, it is assumed that the terminal device 10 generates the mask image GP21 as such a mask image.

また、端末装置10は、AR情報を取得したことに応じて、カメラを動的に起動するとともに、起動したカメラの撮影範囲内に顔全体が含まれるように顔を撮影するよう案内する案内情報を表示画面(図6に示す出力部14)に表示させる(ステップS22)。例えば、アプリAP11がカメラアプリとしての機能も有する場合には、端末装置10は、アプリAP11内でカメラ(図6に示す撮像部13)を動的に起動することで、表示画面にカメラによる現在の撮影画像を表示させる。一方、アプリAP11がカメラアプリとしての機能を有さない場合には、端末装置10は、予めインストールされている所定のカメラアプリを動的に起動することで、表示画面にカメラによる現在の撮影画像を表示させてもよい。なお、端末装置10は、利用者U1が自身の顔を撮影できるようインカメラを起動する。 Further, the terminal device 10 dynamically activates the camera in response to the acquisition of AR information, and guides the user to take a picture of the face so that the entire face is included in the shooting range of the activated camera. Is displayed on the display screen (output unit 14 shown in FIG. 6) (step S22). For example, when the application AP11 also has a function as a camera application, the terminal device 10 dynamically activates the camera (imaging unit 13 shown in FIG. 6) in the application AP11, so that the display screen is displayed by the camera. Display the captured image of. On the other hand, when the application AP11 does not have a function as a camera application, the terminal device 10 dynamically activates a predetermined camera application installed in advance, so that the current captured image by the camera is displayed on the display screen. May be displayed. The terminal device 10 activates the in-camera so that the user U1 can take a picture of his / her own face.

また、端末装置10は、カメラによる撮影範囲に対応する枠情報と、例えば、「この枠の中に顔が入るようにして撮影して下さい」といった文字情報から成る案内情報を表示画面に表示させる。 Further, the terminal device 10 causes the display screen to display the frame information corresponding to the shooting range by the camera and the guidance information including the character information such as "Please shoot with the face in this frame". ..

カメラは、起動されている限り連続的に撮影し続ける。したがって、端末装置10は、カメラによる撮影画像を順次取得することにより、取得した各撮影画像に基づいて、利用者U1の顔のパーツを検出する(ステップS23)。例えば、端末装置10は、撮影画像に基づいて、マスクを仮想的に装着させるパーツであって、利用者U1の顔のパーツを検出する。例えば、端末装置10は、利用者U1の目・鼻・口・耳を検出する。また、端末装置10は、利用者U1の顎のラインの形状や、利用者U1の顔の向きであって、利用者U1を撮影するカメラに対する顔の向きも検出する。また、端末装置10は、利用者U1の顔のサイズをさらに検出(推定)してもよい。 The camera keeps shooting continuously as long as it is activated. Therefore, the terminal device 10 sequentially acquires the images taken by the camera, and detects the facial parts of the user U1 based on each of the acquired images (step S23). For example, the terminal device 10 is a part for virtually wearing a mask based on a captured image, and detects a part of the face of the user U1. For example, the terminal device 10 detects the eyes, nose, mouth, and ears of the user U1. The terminal device 10 also detects the shape of the jaw line of the user U1 and the orientation of the face of the user U1 with respect to the camera for photographing the user U1. Further, the terminal device 10 may further detect (estimate) the size of the face of the user U1.

また、端末装置10は、上記のように検出した検出結果に基づいて、マスクを仮想的に装着させるパーツであって、利用者U1の顔のパーツが現在の撮影画像に含まれるか否かを判定し、含まれないと判定した場合には、顔のパーツを含むように撮影するよう案内情報を表示画面に表示させてもよい。例えば、端末装置10は、検出結果に基づいて、マスクの利用用途に応じた顔のパーツ(例えば、例えば、鼻よりも下の顔の部分)の全て/または一部を検出できない場合には、利用者U1の顔のパーツが現在の撮影画像に含まれないと判定する。そして、端末装置10は、撮影範囲に対応する枠情報と、例えば、「顔が映っていません。この枠の中に顔が入るようにして撮影して下さい」といった文字情報から成る案内情報を表示画面に表示させる。 Further, the terminal device 10 is a part for virtually wearing the mask based on the detection result detected as described above, and whether or not the face part of the user U1 is included in the current captured image is determined. If it is determined and it is determined that the image is not included, the guidance information may be displayed on the display screen so as to take a picture so as to include the facial parts. For example, when the terminal device 10 cannot detect all / or a part of the facial parts (for example, the facial part below the nose) according to the intended use of the mask based on the detection result, It is determined that the facial parts of the user U1 are not included in the currently captured image. Then, the terminal device 10 provides guidance information including frame information corresponding to the shooting range and text information such as, for example, "The face is not reflected. Please shoot with the face in this frame." Display on the display screen.

次に、端末装置10は、検出した顔のパーツに基づいて、AR情報が示す形状のマスクを利用者U1が仮想的に装着した態様で、利用者U1が撮影された現在の撮影画像に当該マスクのマスク画像を重畳した状態で表示させる(ステップS24)。具体的には、端末装置10は、検出した顔のパーツに基づいて、AR情報3D21が示す形状のマスクPD21を利用者U1が仮想的に装着した態様で、利用者U1が撮影された現在の撮影画像にマスクPD21のマスク画像GP21を重畳した状態で表示させる。例えば、端末装置10は、検出した顔のパーツに基づいて、マスクの利用用途に応じた適切な顔の位置に対してAR情報3D21が示す形状のマスクPD21が位置するよう、現在の撮影画像にマスク画像GP21を重畳した状態で表示させる。 Next, the terminal device 10 corresponds to the current captured image taken by the user U1 in a manner in which the user U1 virtually wears a mask having the shape indicated by the AR information based on the detected facial parts. The mask image of the mask is displayed in a superposed state (step S24). Specifically, the terminal device 10 is currently photographed by the user U1 in a manner in which the user U1 virtually wears the mask PD21 having the shape indicated by the AR information 3D21 based on the detected facial parts. The mask image GP21 of the mask PD21 is displayed in a superposed state on the captured image. For example, the terminal device 10 sets the mask PD21 having the shape indicated by the AR information 3D21 in the currently captured image so that the mask PD21 having the shape indicated by the AR information 3D21 is positioned with respect to the appropriate face position according to the intended use of the mask based on the detected facial parts. The mask image GP21 is displayed in a superposed state.

また、端末装置10は、利用者U1の顎のラインの形状を検出している場合には、検出した形状に合うようにマスク画像GP21の形状を制御する。また、端末装置10は、利用者U1の顔のサイズを検出している場合には、検出したサイズに合うようにマスク画像GP21の形状を制御する。また、端末装置10は、利用者U1の顔の向きであって、利用者U1を撮影するカメラに対する顔の向きを検出している場合には、検出した向きに合うようにマスク画像GP21の形状を制御する。例えば、利用者がカメラに対して右を向いている場合には、向きに合わせてAR情報3D21を回転させることで、マスク画像GP21の形状を制御する。 Further, when the terminal device 10 detects the shape of the jaw line of the user U1, the terminal device 10 controls the shape of the mask image GP 21 so as to match the detected shape. Further, when the terminal device 10 detects the size of the face of the user U1, the terminal device 10 controls the shape of the mask image GP21 so as to match the detected size. Further, when the terminal device 10 detects the orientation of the face of the user U1 and the orientation of the face with respect to the camera that captures the user U1, the shape of the mask image GP21 so as to match the detected orientation. To control. For example, when the user is facing to the right with respect to the camera, the shape of the mask image GP21 is controlled by rotating the AR information 3D21 according to the direction.

そして、端末装置10は、制御した後の形状のマスクPD21を利用者U1が仮想的に装着した態様で、利用者U1が撮影された現在の撮影画像にマスクPD21のマスク画像GP21を重畳した状態で表示させる。具体的には、端末装置10は、マスクの利用用途に応じた適切な顔の位置に対して、制御した後の形状のマスクPD21が位置するよう、現在の撮影画像にマスク画像GP21を重畳した状態で表示させる。 Then, the terminal device 10 is in a state in which the user U1 virtually wears the mask PD21 having the shape after being controlled, and the mask image GP21 of the mask PD21 is superimposed on the current captured image taken by the user U1. Display with. Specifically, the terminal device 10 superimposes the mask image GP21 on the currently captured image so that the mask PD21 having the shape after control is positioned at an appropriate face position according to the intended use of the mask. Display in the state.

また、端末装置10は、マスク画像GP21が利用者U1の顔の動きの変化に追従するよう表示させる。また、端末装置10は、マスク画像GP21が利用者U1の顔の向きの変化に応じて、マスク画像GP21の形状を制御する。 Further, the terminal device 10 displays the mask image GP21 so as to follow the change in the facial movement of the user U1. Further, the terminal device 10 controls the shape of the mask image GP 21 according to the change in the face orientation of the user U1.

〔5−3.表示制御処理(2)について〕
次に、図4を用いて、端末装置10が、アプリAP12に従って動作する場合の表示制御処理の一例について説明する。図4は、実施形態に係る表示制御処理の一例(3)を示す図である。また、以下に説明する処理は、図2のステップS16に続く処理である。
[5-3. Display control process (2)]
Next, an example of display control processing when the terminal device 10 operates according to the application AP 12 will be described with reference to FIG. FIG. 4 is a diagram showing an example (3) of the display control process according to the embodiment. Further, the process described below is a process following step S16 of FIG.

図1のステップS16で説明したように、サーバ装置100は、AR情報を商品情報記憶部121から取得すると、取得したAR情報からマスク画像を生成する(ステップS31)。具体的には、サーバ装置100は、マスクPD21の形状を示すAR情報としてAR情報3D21を商品情報記憶部121から取得すると、AR情報3D21が示す形状であって、マスクPD21に基づいて、この形状を仮想的に再現する立体画像をマスクPD21のマスク画像として生成する。図4の例では、サーバ装置100は、このようなマスク画像として、図3の例と同様にマスク画像GP21を生成したものとする。 As described in step S16 of FIG. 1, when the server device 100 acquires the AR information from the product information storage unit 121, the server device 100 generates a mask image from the acquired AR information (step S31). Specifically, when the server device 100 acquires the AR information 3D21 as the AR information indicating the shape of the mask PD21 from the product information storage unit 121, the server device 100 has the shape indicated by the AR information 3D21, and this shape is based on the mask PD21. Is generated as a mask image of the mask PD21. In the example of FIG. 4, it is assumed that the server device 100 generates the mask image GP21 as such a mask image in the same manner as in the example of FIG.

また、サーバ装置100は、カメラの撮影範囲内に顔全体が含まれるように顔を撮影するよう案内する案内情報を利用者U1の端末装置10に送信する(ステップS32)。例えば、サーバ装置100は、カメラの撮影範囲内に顔全体が含まれるように顔を撮影するよう案内する案内情報を端末装置10に送信する。 Further, the server device 100 transmits guidance information for guiding the user to shoot the face so that the entire face is included in the shooting range of the camera to the terminal device 10 of the user U1 (step S32). For example, the server device 100 transmits to the terminal device 10 guidance information for guiding the face to be photographed so that the entire face is included in the photographing range of the camera.

端末装置10は、案内情報を受信すると、案内情報を受信したことに応じて、カメラを動的に起動するとともに、受信した案内情報を表示画面(図6に示す出力部14)に表示させる(ステップS33)。例えば、アプリAP12がカメラアプリとしての機能も有する場合には、端末装置10は、アプリAP12内でカメラ(図6に示す撮像部13)を動的に起動することで、表示画面にカメラによる現在の撮影画像を表示させる。一方、アプリAP12がカメラアプリとしての機能を有さない場合には、端末装置10は、予めインストールされている所定のカメラアプリを動的に起動することで、表示画面にカメラによる現在の撮影画像を表示させてもよい。なお、端末装置10は、利用者U1が自身の顔を撮影できるようインカメラを起動する。 When the terminal device 10 receives the guidance information, the terminal device 10 dynamically activates the camera in response to the reception of the guidance information and displays the received guidance information on the display screen (output unit 14 shown in FIG. 6) ( Step S33). For example, when the application AP12 also has a function as a camera application, the terminal device 10 dynamically activates the camera (imaging unit 13 shown in FIG. 6) in the application AP12, so that the display screen is displayed by the camera. Display the captured image of. On the other hand, when the application AP12 does not have a function as a camera application, the terminal device 10 dynamically activates a predetermined camera application installed in advance, so that the current captured image by the camera is displayed on the display screen. May be displayed. The terminal device 10 activates the in-camera so that the user U1 can take a picture of his / her own face.

また、端末装置10は、カメラによる撮影範囲に対応する枠情報と、例えば、「この枠の中に顔が入るようにして撮影して下さい」といった文字情報から成る案内情報を表示画面に表示させる。 Further, the terminal device 10 causes the display screen to display the frame information corresponding to the shooting range by the camera and the guidance information including the character information such as "Please shoot with the face in this frame". ..

カメラは、起動されている限り連続的に撮影し続ける。したがって、端末装置10は、アプリAP12を介して、カメラによる撮影画像を順次サーバ装置に送信する。これにより、サーバ装置100は、端末装置10カメラによって撮影が行われている間は、アプリAPを介して、端末装置10から順次撮影画像を取得する(ステップS34)。 The camera keeps shooting continuously as long as it is activated. Therefore, the terminal device 10 sequentially transmits the images captured by the camera to the server device via the application AP12. As a result, the server device 100 sequentially acquires captured images from the terminal device 10 via the application AP while the terminal device 10 camera is performing the shooting (step S34).

次に、サーバ装置100は、取得した各撮影画像に基づいて、利用者U1の顔のパーツを検出する(ステップS35)。例えば、サーバ装置100は、撮影画像に基づいて、マスクを仮想的に装着させるパーツであって、利用者U1の顔のパーツを検出する。例えば、サーバ装置100は、利用者U1の目・鼻・口・耳を検出する。また、サーバ装置100は、利用者U1の顎のラインの形状や、利用者U1の顔の向きであって、利用者U1を撮影するカメラに対する顔の向きも検出する。また、サーバ装置100は、利用者U1の顔のサイズをさらに検出(推定)してもよい。 Next, the server device 100 detects the facial parts of the user U1 based on the acquired captured images (step S35). For example, the server device 100 is a part for virtually wearing a mask based on a captured image, and detects a part of the face of the user U1. For example, the server device 100 detects the eyes, nose, mouth, and ears of the user U1. The server device 100 also detects the shape of the jaw line of the user U1 and the orientation of the face of the user U1 with respect to the camera that captures the user U1. Further, the server device 100 may further detect (estimate) the size of the face of the user U1.

また、サーバ装置100は、上記のように検出した検出結果に基づいて、マスクを仮想的に装着させるパーツであって、利用者U1の顔のパーツが現在の撮影画像に含まれるか否かを判定する。そして、サーバ装置100は、含まれないと判定した場合には、顔のパーツを含むように撮影するよう案内情報を端末装置10に送信することで、係る案内情報を表示画面に表示させてもよい。例えば、サーバ装置100は、検出結果に基づいて、マスクの利用用途に応じた顔のパーツ(例えば、例えば、鼻よりも下の顔の部分)の全て/または一部を検出できない場合には、利用者U1の顔のパーツが現在の撮影画像に含まれないと判定する。そして、サーバ装置100は、撮影範囲に対応する枠情報と、例えば、「顔が映っていません。この枠の中に顔が入るようにして撮影して下さい」といった文字情報から成る案内情報を端末装置10に送信することによりこれを表示させる。 Further, the server device 100 is a part for virtually wearing the mask based on the detection result detected as described above, and whether or not the face part of the user U1 is included in the current captured image is determined. judge. Then, when the server device 100 determines that it is not included, the server device 100 may display the guidance information on the display screen by transmitting the guidance information to the terminal device 10 so as to take a picture so as to include the facial parts. good. For example, if the server device 100 cannot detect all / or a part of the face parts (for example, the part of the face below the nose) according to the intended use of the mask based on the detection result, It is determined that the facial parts of the user U1 are not included in the currently captured image. Then, the server device 100 provides guidance information including frame information corresponding to the shooting range and text information such as, for example, "The face is not reflected. Please shoot with the face in this frame." This is displayed by transmitting to the terminal device 10.

図4の説明に戻ると、サーバ装置100は、検出した顔のパーツに基づいて、ステップS31で生成したマスク画像を端末装置10に表示させる(ステップS36)。具体的には、サーバ装置100は、検出した顔のパーツに基づいて、マスク画像GP21を端末装置10の表示画面に表示させる。例えば、サーバ装置100は、連続的に端末装置10から撮影画像を取得することにより、撮影画像を取得するたびに、取得した撮影画像に対して顔のパーツを検出する。このため、サーバ装置100は、顔のパーツを検出する度に、検出結果を端末装置10に送信することで、端末装置10に対して、検出結果と現在の撮影画像とに基づきマスク画像GP21を表示するよう制御する。 Returning to the description of FIG. 4, the server device 100 causes the terminal device 10 to display the mask image generated in step S31 based on the detected facial parts (step S36). Specifically, the server device 100 displays the mask image GP21 on the display screen of the terminal device 10 based on the detected facial parts. For example, the server device 100 continuously acquires a photographed image from the terminal device 10, and each time the photographed image is acquired, the server device 100 detects a facial part with respect to the acquired photographed image. Therefore, each time the server device 100 detects a facial part, the server device 100 transmits the detection result to the terminal device 10, so that the terminal device 10 is provided with the mask image GP21 based on the detection result and the current captured image. Control to display.

このようなステップS36での制御により、端末装置10は、AR情報が示す形状のマスクを利用者U1が仮想的に装着した態様で、利用者U1が撮影された現在の撮影画像に当該マスクのマスク画像を重畳した状態で表示させる。具体的には、端末装置10は、検出結果と現在の撮影画像とに基づいて、AR情報3D21が示す形状のマスクPD21を利用者U1が仮想的に装着した態様で、利用者U1が撮影された現在の撮影画像にマスクPD21のマスク画像GP21を重畳した状態で表示させる。例えば、端末装置10は、検出結果と現在の撮影画像とに基づいて、マスクの利用用途に応じた適切な顔の位置に対してAR情報3D21が示す形状のマスクPD21が位置するよう、現在の撮影画像にマスク画像GP21を重畳した状態で表示させる。 By such control in step S36, the terminal device 10 virtually wears a mask having a shape indicated by AR information on the currently captured image taken by the user U1. The mask image is displayed in a superimposed state. Specifically, in the terminal device 10, the user U1 is photographed in a manner in which the user U1 virtually wears the mask PD21 having the shape indicated by the AR information 3D21 based on the detection result and the current captured image. The mask image GP21 of the mask PD21 is displayed in a superposed state on the currently captured image. For example, the terminal device 10 currently has the mask PD21 having the shape indicated by the AR information 3D21 positioned at an appropriate face position according to the intended use of the mask based on the detection result and the current captured image. The mask image GP21 is displayed in a superposed state on the captured image.

なお、図4の例では、サーバ装置100が端末装置10にマスク画像を送信することにより、端末装置10は、サーバ装置100からマスク画像を取得している。ここで、マスク画像は、AR情報から生成されたものであるため、端末装置10がサーバ装置100からマスク画像を取得することは、実質、端末装置10がサーバ装置100からAR情報を取得することに相当する。 In the example of FIG. 4, the server device 100 transmits the mask image to the terminal device 10, and the terminal device 10 acquires the mask image from the server device 100. Here, since the mask image is generated from the AR information, the terminal device 10 acquiring the mask image from the server device 100 actually means that the terminal device 10 acquires the AR information from the server device 100. Corresponds to.

さて、これまで説明してきたように、実施形態に係る表示制御装置(例えば、端末装置10)は、利用者による入力情報に応じて特定された使い捨て着用物品の形状を示す物品情報を取得し、取得した物品情報が示す形状の使い捨て着用物品を利用者が仮想的に装着した態様で、利用者が撮影された撮影画像に当該使い捨て着用物品の画像を重畳した状態で表示させる。 As described above, the display control device (for example, the terminal device 10) according to the embodiment acquires the article information indicating the shape of the disposable wear article specified in response to the input information by the user. In a manner in which the user virtually wears the disposable wear article having the shape indicated by the acquired article information, the image of the disposable wear article is superimposed on the photographed image taken by the user.

そして、表示制御装置によるこのような表示制御処理によれば、利用者は、端末装置10を介して、使い捨て着用物品(例えば、マスク)を着用した際の自身の見た目をシミュレーションすることができるようになるため、使い捨て着用物品が利用者に適した商品であるか否かを購入前に効果的に認識させることができる。 Then, according to such a display control process by the display control device, the user can simulate his / her own appearance when wearing a disposable wear item (for example, a mask) via the terminal device 10. Therefore, it is possible to effectively recognize whether or not the disposable wear item is a product suitable for the user before purchasing.

また、表示制御装置によるこのような表示制御処理によれば、商品としての使い捨て着用物品の訴求力を高めることができるため、使い捨て着用物品を取り扱う店舗の売上に貢献することができる。 Further, according to such a display control process by the display control device, the appealing power of the disposable wearable article as a product can be enhanced, so that it is possible to contribute to the sales of the store handling the disposable wearable article.

〔6.バリエーションについて〕
上記実施形態に係る表示制御装置は、上記実施形態以外にも種々の異なる形態にて実施されてよい。そこで、以下では、表示制御装置の他の実施形態について説明する。
[6. About variations]
The display control device according to the above embodiment may be implemented in various different forms other than the above embodiment. Therefore, another embodiment of the display control device will be described below.

〔6−1.端末装置について〕
これまでは、端末装置10は、利用者が有する端末装置であるものとして説明してきたが、端末装置10は、例えば、店頭に置かれた端末装置(例えば、タブレット端末やデジタルサイネ−ジなど)であってもよい。したがって、ここでは、端末装置10が、店頭に置かれた端末装置である場合における表示制御処理について説明する。端末装置10が、店頭に置かれた端末装置である場合、例えば、店頭の前を通りがかった利用者が、係る端末装置10が有するカメラの撮影範囲内に入ると、係る端末装置10の表示画面には、実施形態に係る表示制御による結果が表示されるという状況が考えられる。具体的には、店頭の前を通りがかった利用者が、係る端末装置10が有するカメラの撮影範囲内に入ると、端末装置10の表示画面には、マスクを仮想的に装着した状態で利用者が表示される。
[6-1. About terminal equipment]
So far, the terminal device 10 has been described as being a terminal device owned by the user, but the terminal device 10 is, for example, a terminal device placed in a store (for example, a tablet terminal, a digital signage, etc.). It may be. Therefore, here, the display control process when the terminal device 10 is a terminal device placed in a store will be described. When the terminal device 10 is a terminal device placed in a store, for example, when a user passing in front of the store enters the shooting range of the camera possessed by the terminal device 10, the display of the terminal device 10 is displayed. It is conceivable that the screen displays the result of the display control according to the embodiment. Specifically, when a user passing in front of the store enters the shooting range of the camera of the terminal device 10, the display screen of the terminal device 10 is used with a mask virtually attached. Is displayed.

端末装置10が、店頭に置かれた端末装置である場合(特に、デジタルサイネ−ジである場合)、利用者が端末装置10に対してQRコードを入力するのは困難である。したがって、係る例では、入力情報は、マスク商品が陳列されている陳列棚に付された識別情報(QRコード)ではなく、利用者が動的に撮影された撮影画像となる。具体的には、係る例では、利用者が端末装置10の前を通りがかることで、カメラの撮影範囲に入り、この結果動的に撮影されることになった撮影画像が、利用者による入力情報となる。また、このようなことから、端末装置10は、利用者が撮影された撮影画像を係る利用者による入力情報として、撮影画像に応じて特定されたマスクの形状を示すAR情報を取得する。 When the terminal device 10 is a terminal device placed in a store (particularly when it is a digital signage), it is difficult for the user to input the QR code to the terminal device 10. Therefore, in such an example, the input information is not the identification information (QR code) attached to the display shelf on which the mask product is displayed, but the photographed image dynamically photographed by the user. Specifically, in the above example, when the user passes in front of the terminal device 10, the photographed image enters the shooting range of the camera, and as a result, the captured image to be dynamically captured is input by the user. It becomes information. Further, for this reason, the terminal device 10 acquires AR information indicating the shape of the mask specified according to the photographed image as input information by the user regarding the photographed image photographed by the user.

そして、このように、端末装置10が、店頭に置かれた端末装置である場合、係る端末装置10が実施形態に係る表示制御処理を行うことで、利用者の興味を高め店舗へと利用者を効果的に誘導することができるようになる。 Then, in this way, when the terminal device 10 is a terminal device placed in a store, the terminal device 10 performs the display control process according to the embodiment, thereby increasing the interest of the user and moving to the store. Can be effectively induced.

〔6−2.利用者操作に応じて着用物品の態様を制御(1)〕
上記実施形態では、端末装置10が、撮影画像から利用者の顔のサイズを検出(推定)できている場合には、検出したサイズに合うようにマスク画像の形状を制御し、現在の撮影画像に制御した後のマスク画像を重畳した状態で表示させる例を示した。しかし、端末装置10は、利用者の操作に応じて、マスクの態様を制御してもよい。
[6-2. Control the mode of the worn item according to the user's operation (1)]
In the above embodiment, when the terminal device 10 can detect (estimate) the size of the user's face from the captured image, the shape of the mask image is controlled so as to match the detected size, and the current captured image. An example is shown in which the mask image after being controlled is displayed in a superimposed state. However, the terminal device 10 may control the mode of the mask according to the operation of the user.

例えば、端末装置10は、利用者によりマスクの色または模様が指定された場合には、マスク画像として、指定された色または模様のマスク画像を撮影画像に重畳させる。この点について、図3の例を用いて説明する。例えば、図3の例では、マスクPD21のカラーバリエーションとして、白、黒、ピンクがあるものとする。そうすると、端末装置10は、はじめはデフォルト色(例えば、白色)のマスクPD21を示すマスク画像GP、すなわち白色のマスク画像GP21を表示させる。 For example, when the color or pattern of the mask is specified by the user, the terminal device 10 superimposes the mask image of the specified color or pattern on the captured image as the mask image. This point will be described with reference to the example of FIG. For example, in the example of FIG. 3, it is assumed that there are white, black, and pink as color variations of the mask PD21. Then, the terminal device 10 initially displays the mask image GP showing the mask PD21 of the default color (for example, white), that is, the white mask image GP21.

このような状態において、端末装置10は、白、黒、ピンクの中から任意の色を選択可能な色選択コンテンツを表示画面に表示させる。そして、例えば、利用者U1が色選択コンテンツを介して「ピンク」を指定したとすると、現在表示されているマスク画像GP21の色を白からピンクへと制御(変更)する。また、ここでは色の指定を例に説明したが、端末装置10は、模様でも同様の処理を行うことができる。 In such a state, the terminal device 10 causes the display screen to display the color selection content in which any color can be selected from white, black, and pink. Then, for example, if the user U1 specifies "pink" via the color selection content, the color of the currently displayed mask image GP21 is controlled (changed) from white to pink. Further, although the color designation has been described here as an example, the terminal device 10 can perform the same processing on the pattern.

そして、このような表示制御処理によれば、利用者は、端末装置10を介して、使い捨て着用物品(例えば、マスク)の色や模様によって自身のイメージがどのように変化するかをシミュレーションすることができるようになるため、どのような色や模様の使い捨て着用物品が利用者に適した商品であるか否かを購入前に効果的に認識させることができる。 Then, according to such a display control process, the user simulates how his / her image changes depending on the color or pattern of the disposable wear item (for example, mask) via the terminal device 10. Therefore, it is possible to effectively recognize what kind of color or pattern the disposable wear item is suitable for the user before purchasing.

〔6−3.利用者操作に応じて着用物品の態様を制御(2)〕
また、端末装置10は、利用者によりマスクのサイズが指定された場合には、マスク画像として、指定されたサイズに応じたサイズのマスク画像を撮影画像に重畳させる。この点について、図3の例を用いて説明する。例えば、端末装置10は、小さいサイズ、普通サイズ、大きいサイズの中から任意のサイズを選択可能なサイズ選択コンテンツを表示画面に表示させる。そして、例えば、利用者U1がサイズ選択コンテンツを介して「大きいサイズ」を指定したとすると、現在表示されているマスク画像GP21のサイズを「大きいサイズ」に応じたサイズへと制御(変更)する。
[6-3. Control the mode of the worn item according to the user's operation (2)]
Further, when the size of the mask is specified by the user, the terminal device 10 superimposes a mask image having a size corresponding to the specified size on the captured image as the mask image. This point will be described with reference to the example of FIG. For example, the terminal device 10 displays on the display screen size selection content in which an arbitrary size can be selected from a small size, a normal size, and a large size. Then, for example, if the user U1 specifies a "large size" via the size selection content, the size of the currently displayed mask image GP21 is controlled (changed) to a size corresponding to the "large size". ..

そして、このような表示制御処理によれば、利用者は、端末装置10を介して、使い捨て着用物品(例えば、マスク)のサイズによって自身のイメージがどのように変化するかをシミュレーションすることができるようになるため、どのようなサイズの使い捨て着用物品が利用者に適した商品であるか否かを購入前に効果的に認識させることができる。 Then, according to such a display control process, the user can simulate how his / her image changes depending on the size of the disposable wear item (for example, a mask) via the terminal device 10. Therefore, it is possible to effectively recognize what size of disposable wear item is suitable for the user before purchase.

〔6−4.インストールの案内表示〕
また、端末装置10は、利用者に関する利用者情報に基づき特定された利用者であって、撮影画像に使い捨て着用物品の画像を重畳した状態で表示させるアプリケーションであるアプリAP11を導入していない利用者の端末装置に対して、アプリAP11をインストールするよう案内する案内情報を表示させてもよい。
[6-4. Installation guidance display]
Further, the terminal device 10 is a user specified based on user information about the user, and is used without introducing the application AP11, which is an application for displaying an image of a disposable worn article superimposed on a photographed image. The user's terminal device may be displayed with guidance information for instructing the user to install the application AP11.

例えば、サーバ装置100は、事業者Tに対して所定の登録を行っている利用者を示す情報と、アプリAP11をインストール済みの利用者を示す情報とのマッチングにより、事業者Tに対して所定の登録を行っている利用者のうち、アプリAP11を未インストールの利用者を特定する。そして、サーバ装置100は、特定した利用者の端末装置10にアプリAP11をインストールするよう案内する案内情報を送信する。これにより、端末装置10は、アプリAP11をインストールするよう案内する案内情報を表示画面に表示させる。 For example, the server device 100 is predetermined to the business operator T by matching the information indicating the user who has performed the predetermined registration to the business operator T with the information indicating the user who has installed the application AP11. Among the users who have registered, identify the users who have not installed the application AP11. Then, the server device 100 transmits guidance information for guiding the user to install the application AP11 on the terminal device 10 of the specified user. As a result, the terminal device 10 causes the display screen to display guidance information for guiding the installation of the application AP11.

なお、サーバ装置100は、事業者Tに関連するコンテンツにアクセスしたことのある利用者を示すクッキー情報と、アプリAP11をインストール済みの利用者を示す情報とのマッチングにより、事業者Tに関連するコンテンツのアクセスしたことのある利用者のうち、アプリAP11を未インストールの利用者を特定してもよい。 The server device 100 is related to the business operator T by matching the cookie information indicating the user who has accessed the content related to the business operator T with the information indicating the user who has installed the application AP11. Among the users who have accessed the content, the user who has not installed the application AP11 may be specified.

また、サーバ装置100は、利用者の位置情報に基づいて、商品情報記憶部121における「取扱店舗」で示される店舗の周辺に位置した利用者を特定する。そして、サーバ装置100は、特定した利用者に関する情報(例えば、特定した利用者の端末ID)と、アプリAP11をインストール済みの利用者を示す情報とのマッチングにより、「取扱店舗」で示される店舗の周辺に位置した利用者のうち、アプリAP11を未インストールの利用者を特定してもよい。 Further, the server device 100 identifies a user located in the vicinity of the store indicated by the "handling store" in the product information storage unit 121 based on the user's location information. Then, the server device 100 matches the information about the specified user (for example, the terminal ID of the specified user) with the information indicating the user who has installed the application AP11, and the store indicated by the "handling store". Among the users located in the vicinity of, the user who has not installed the application AP11 may be specified.

このように、利用者に関する利用者情報に基づき特定された利用者であって、撮影画像に使い捨て着用物品の画像を重畳した状態で表示させるアプリケーションを導入していない利用者の端末装置に対して、当該アプリケーションを導入するよう案内する案内情報を表示させることで、使い捨て着用物品の装着体験を店頭で行わすための敷居を効果的に下げることができるようになる。 In this way, for the terminal device of a user who is specified based on the user information about the user and has not introduced an application for displaying the image of the disposable wear item superimposed on the photographed image. By displaying the guidance information that guides the user to introduce the application, it is possible to effectively lower the threshold for the experience of wearing disposable items at the store.

〔6−5.情報共有サービスへの投稿〕
また、端末装置10は、利用者が撮影された撮影画像であって、マスク画像が重畳された撮影画像に対して、所定の情報共有サービス(SNS)への投稿に応じた所定の情報を表示させてもよい。例えば、端末装置10は、撮影画像に対してマスク画像GP21が重畳して表示されている状態で、シャッターボタンが押下された場合には、マスク画像GP21が重畳されている撮影画像から静止画像を取得するとともに、取得した静止画像に所定の情報共有サービス(SNS)への投稿に応じた所定の情報を表示させる。例えば、端末装置10は、所定の情報として、マスクPD21に関する情報(例えば、事業者Tの会社ロゴ、マスクPD21の商品、マスクPD21のブランド名など)を表示させる。また、端末装置10は、所定の情報として、所定の情報共有サービスへの投稿を案内する案内情報を表示してもよい。係る案内情報は、例えば、「写真を撮って投稿しよう!」といった文字情報から成る案内情報である。
[6-5. Posting to information sharing service]
Further, the terminal device 10 displays a predetermined information according to a posting to a predetermined information sharing service (SNS) on the photographed image captured by the user and on which the mask image is superimposed. You may let me. For example, when the shutter button is pressed while the mask image GP21 is superimposed on the captured image, the terminal device 10 displays a still image from the captured image on which the mask image GP21 is superimposed. At the same time as the acquisition, the acquired still image is displayed with the predetermined information corresponding to the posting to the predetermined information sharing service (SNS). For example, the terminal device 10 displays information about the mask PD21 (for example, the company logo of the business operator T, the product of the mask PD21, the brand name of the mask PD21, etc.) as predetermined information. Further, the terminal device 10 may display guidance information for guiding posting to a predetermined information sharing service as predetermined information. The guidance information is, for example, guidance information composed of textual information such as "Let's take a picture and post it!".

このように、利用者が撮影された撮影画像であって、使い捨て着用物品の画像が重畳された撮影画像に対して、所定の情報共有サービスへの投稿に応じた所定の情報を表示させることで、所定の情報共有サービスを介して、使い捨て着用物品や、使い捨て着用物品の事業者について効果的に宣伝することができるようになる。 In this way, by displaying the predetermined information according to the posting to the predetermined information sharing service on the photographed image taken by the user and on which the image of the disposable wear item is superimposed. , It becomes possible to effectively advertise disposable wear goods and businesses of disposable wear goods through a predetermined information sharing service.

〔6−6.比較〕
また、端末装置10は、利用者が撮影された撮影画像であって、マスク画像が重畳された撮影画像のうち、これまでに撮影された撮影画像を比較可能なように表示させてもよい。例えば、端末装置10は、利用者が撮影された撮影画像であって、マスク画像が重畳された撮影画像のうち、過去に撮影された撮影画像を、現在撮影されている撮影画像であって、マスク画像が重畳された撮影画像とともに表示させる。この点について、図5を用いて説明する。図5は、実施形態に係る画像比較の一例を示す図である。
[6-6. Comparison]
Further, the terminal device 10 may display the photographed images taken by the user and the photographed images on which the mask image is superimposed so that the photographed images taken so far can be compared. For example, the terminal device 10 is a photographed image photographed by the user, and among the photographed images on which the mask image is superimposed, the photographed image photographed in the past is the photographed image currently photographed. The mask image is displayed together with the superimposed captured image. This point will be described with reference to FIG. FIG. 5 is a diagram showing an example of image comparison according to the embodiment.

例えば、端末装置10は、選択コンテンツC11における利用者U1の1回目の選択内容に応じて、撮影画像にマスクPD31のマスク画像GP31を重畳した状態で表示させ、またこの状態でシャッターが押されたことにより、利用者U1がマスクPD31を仮想的に装着している静止画像SM3を取得しているものとする。 For example, the terminal device 10 displays the captured image with the mask image GP31 of the mask PD31 superimposed according to the first selection content of the user U1 in the selected content C11, and the shutter is pressed in this state. As a result, it is assumed that the user U1 has acquired the still image SM3 in which the mask PD31 is virtually worn.

このような状態において、今、図2〜図3にかけてステップS23まで表示制御処理が進んでいるものとする。そうすると、端末装置10は、図3のステップS24で説明したように、検出した顔のパーツに基づいて、AR情報3D21が示す形状のマスクPD21を利用者U1が仮想的に装着した態様で、利用者U1が撮影された現在の撮影画像にマスクPD21のマスク画像GP21を重畳した状態で表示させる。このとき、端末装置10は、図5に示すような形態で表示を行う。 In such a state, it is assumed that the display control process has now progressed to step S23 from FIGS. 2 to 3. Then, as described in step S24 of FIG. 3, the terminal device 10 is used in a manner in which the user U1 virtually wears the mask PD21 having the shape indicated by the AR information 3D21 based on the detected facial parts. The mask image GP21 of the mask PD21 is displayed in a state of being superimposed on the currently photographed image taken by the person U1. At this time, the terminal device 10 displays in the form shown in FIG.

例えば、端末装置10は、表示画面において撮影画像が表示される表示領域を、領域AR11および領域AR12といった2つの表示領域に分ける。そして、端末装置10は、予め取得している静止画像SM3を比較画像として領域AR11に表示させる。また、端末装置10は、このような表示とともに、領域AR12において、AR情報3D21が示す形状のマスクPD21を利用者U1が仮想的に装着した態様で、利用者U1が撮影された現在の撮影画像にマスクPD21のマスク画像GP21を重畳した状態で表示させる。 For example, the terminal device 10 divides the display area on which the captured image is displayed on the display screen into two display areas such as the area AR11 and the area AR12. Then, the terminal device 10 displays the still image SM3 acquired in advance in the area AR 11 as a comparison image. In addition to such a display, the terminal device 10 is a current captured image in which the user U1 is photographed in a manner in which the user U1 virtually wears the mask PD21 having the shape indicated by the AR information 3D21 in the area AR12. The mask image GP21 of the mask PD21 is displayed in a superimposed state on the screen.

このように、端末装置10は、過去に撮影された撮影画像を、現在撮影されている撮影画像であって、使い捨て着用物品の画像が重畳された撮影画像とともに表示させることで、利用者に対して、どの使い捨て着用物品が似合っているかを容易に比較させることができるため、使い捨て着用物品を購入後に購入した使い捨て着用物品が似合っていないことが判明してしまという状況になることを回避させることができる。 As described above, the terminal device 10 causes the user to display the photographed image photographed in the past together with the photographed image which is the photographed image currently photographed and in which the image of the disposable wear article is superimposed. Therefore, it is possible to easily compare which disposable items are suitable, so that it is possible to avoid a situation in which the disposable items purchased after purchase are found to be unsuitable. Can be done.

なお、端末装置10は、図5の例では、撮影画像が表示される表示領域を上下2つに分けているが、例えば、左右2つに分けてもよい。また、端末装置10は、撮影画像が表示される表示領域を必ず2つに分ける必要はなく、比較画像の数に応じて任意の数に分けることができる。 In the example of FIG. 5, the terminal device 10 divides the display area on which the captured image is displayed into two upper and lower parts, but may be divided into two left and right parts, for example. Further, the terminal device 10 does not necessarily have to divide the display area on which the captured image is displayed into two, and can divide the display area into an arbitrary number according to the number of comparison images.

〔7.表示制御装置の構成〕
次に、図6を用いて、実施形態に係る表示制御装置について説明する。図6は、実施形態に係る情報処理装置の構成例を示す図である。具体的には、図6は、実施形態に係る情報処理装置の一例である端末装置10およびサーバ装置100の構成例を示す図である。以下では、まず、端末装置10の構成例について説明し、次に、サーバ装置100の構成例について説明する。
[7. Display control device configuration]
Next, the display control device according to the embodiment will be described with reference to FIG. FIG. 6 is a diagram showing a configuration example of the information processing device according to the embodiment. Specifically, FIG. 6 is a diagram showing a configuration example of a terminal device 10 and a server device 100, which are examples of the information processing device according to the embodiment. Hereinafter, a configuration example of the terminal device 10 will be described first, and then a configuration example of the server device 100 will be described.

〔7−1.端末装置の構成〕
(通信部11について)
通信部11は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部11は、ネットワークNと有線または無線で接続され、例えば、サーバ装置100との間で情報の送受信を行う。
[7-1. Terminal device configuration]
(About communication unit 11)
The communication unit 11 is realized by, for example, a NIC (Network Interface Card) or the like. Then, the communication unit 11 is connected to the network N by wire or wirelessly, and transmits / receives information to / from, for example, the server device 100.

(入力部12、撮像部13、出力部14について)
入力部12は、利用者から各種操作を受け付ける入力装置である。例えば、入力部12は、キーボードやマウスや操作キー等によって実現される。出力部14は、各種情報を表示するための表示装置である。例えば、出力部14は、液晶ディスプレイ等によって実現される。なお、端末装置10にタッチパネルが採用された場合には、入力部12と出力部14とは一体化される。また、出力部14は、例えば、端末装置10の表示画面に対応する。また、撮像部13は、対象の撮像を行うカメラ機能に対応する。撮像部13は、例えば、実施形態に係る表示制御処理を行うアプリケーションによって制御される。
(About the input unit 12, the imaging unit 13, and the output unit 14)
The input unit 12 is an input device that receives various operations from the user. For example, the input unit 12 is realized by a keyboard, a mouse, operation keys, or the like. The output unit 14 is a display device for displaying various information. For example, the output unit 14 is realized by a liquid crystal display or the like. When a touch panel is adopted for the terminal device 10, the input unit 12 and the output unit 14 are integrated. Further, the output unit 14 corresponds to, for example, the display screen of the terminal device 10. In addition, the imaging unit 13 corresponds to a camera function for capturing an image of an object. The imaging unit 13 is controlled by, for example, an application that performs display control processing according to the embodiment.

(制御部15について)
制御部15は、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、端末装置10内部の記憶装置に記憶されている各種プログラム(例えば、アプリAP11またはアプリAP12)がRAMを作業領域として実行されることにより実現される。また、制御部15は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。
(About control unit 15)
In the control unit 15, various programs (for example, application AP11 or application AP12) stored in the storage device inside the terminal device 10 by the CPU (Central Processing Unit), MPU (Micro Processing Unit), or the like use the RAM as a work area. It is realized by being executed. Further, the control unit 15 is realized by, for example, an integrated circuit such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array).

(制御部15について)
図6に示すように、制御部15は、取得部15aと、生成部15bと、検出部15cと、表示制御部15dとを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部15の内部構成は、図6に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。また、制御部15が有する各処理部の接続関係は、図6に示した接続関係に限られず、他の接続関係であってもよい。
(About control unit 15)
As shown in FIG. 6, the control unit 15 includes an acquisition unit 15a, a generation unit 15b, a detection unit 15c, and a display control unit 15d, and realizes or executes an information processing function or operation described below. do. The internal configuration of the control unit 15 is not limited to the configuration shown in FIG. 6, and may be another configuration as long as it is a configuration for performing information processing described later. Further, the connection relationship of each processing unit included in the control unit 15 is not limited to the connection relationship shown in FIG. 6, and may be another connection relationship.

(取得部15aについて)
取得部15aは、利用者による入力情報に応じて特定された使い捨て着用物品の形状を示す物品情報を取得する。例えば、取得部15aは、サーバ装置100から物品情報を取得する。また、例えば、取得部15aは、使い捨て着用物品として、不織布で構成された使い捨てマスクの形状を示す物品情報(AR情報)を取得する。
(About acquisition unit 15a)
The acquisition unit 15a acquires article information indicating the shape of the disposable wear article specified according to the input information by the user. For example, the acquisition unit 15a acquires article information from the server device 100. Further, for example, the acquisition unit 15a acquires article information (AR information) indicating the shape of a disposable mask made of a non-woven fabric as a disposable wear article.

また、取得部15aは、入力情報として、使い捨て着用物品が商品として陳列されている陳列棚に付された識別情報(QRコード)に応じて特定された使い捨て着用物品の形状を示す前記物品情報を取得する。 Further, as input information, the acquisition unit 15a uses the article information indicating the shape of the disposable wear article specified according to the identification information (QR code) attached to the display shelf on which the disposable wear article is displayed as a product. get.

例えば、取得部15aは、識別情報に応じて特定された使い捨て着用物品として、識別情報で識別される使い捨て着用物品であって、陳列棚に現在陳列されている使い捨て着用物品の形状を示す物品情報を取得する。 For example, the acquisition unit 15a is a disposable wear article identified by the identification information as a disposable wear article specified according to the identification information, and indicates the shape of the disposable wear article currently displayed on the display shelf. To get.

また、例えば、取得部15aは、識別情報に応じて特定された使い捨て着用物品として、識別情報で識別される着用物品、および、識別情報で識別される着用物品に関連する着用物品である表示候補の使い捨て着用物品のうち、利用者により選択されたカテゴリに対応する使い捨て着用物品の形状を示す物品情報を取得してもよい。例えば、取得部15aは、利用者により選択された第1のカテゴリに属する表示候補の使い捨て着用物品のうち、利用者によりさらに選択された第2のカテゴリであって、第1のカテゴリに対する下位のカテゴリである第2のカテゴリに属する着用物品の形状を示す物品情報を取得する。一方で、取得部15aは、表示候補の使い捨て着用物品のうち、利用者により選択された使い捨て着用物品の形状を示す物品情報を取得してもよいし、利用者の属性情報または嗜好性に応じて特定された表示候補の使い捨て着用物品のうち、利用者により選択された使い捨て着用物品の形状を示す物品情報を取得してもよい。 Further, for example, the acquisition unit 15a is a display candidate which is a disposable wear article specified according to the identification information, a wear article identified by the identification information, and a wear article related to the wear article identified by the identification information. Among the disposable wear articles of the above, the article information indicating the shape of the disposable wear article corresponding to the category selected by the user may be acquired. For example, the acquisition unit 15a is a second category further selected by the user among the display candidate disposable wear items belonging to the first category selected by the user, and is lower than the first category. Acquires article information indicating the shape of the worn article belonging to the second category, which is a category. On the other hand, the acquisition unit 15a may acquire article information indicating the shape of the disposable wear article selected by the user among the disposable wear articles of the display candidates, or may acquire the article information indicating the shape of the disposable wear article selected by the user, depending on the attribute information or preference of the user. Among the disposable wear articles of the display candidates specified in the above, the article information indicating the shape of the disposable wear article selected by the user may be acquired.

また、取得部15aは、入力情報として、利用者が撮影された撮影画像に応じて特定された使い捨て着用物品の形状を示す物品情報を取得してもよい。 In addition, the acquisition unit 15a may acquire article information indicating the shape of the disposable wear article specified according to the photographed image taken by the user as input information.

(生成部15bについて)
生成部15bは、物品情報を取得すると、取得した物品情報から使い捨て着用物品の画像を生成する。例えば、生成部15bは、サーバ装置100から物品情報を取得すると、取得した物品情報が示す形状であって、使い捨て着用物品の形状に基づいて、この形状を仮想的に再現する立体画像を生成する。
(About the generator 15b)
When the generation unit 15b acquires the article information, the generation unit 15b generates an image of the disposable wear article from the acquired article information. For example, when the article information is acquired from the server device 100, the generation unit 15b generates a stereoscopic image that has the shape indicated by the acquired article information and virtually reproduces this shape based on the shape of the disposable wear article. ..

(検出部15cについて)
検出部15cは、利用者が撮影された撮影画像に基づいて、利用者の身体のパーツを検出する。例えば、検出部15cは、カメラ(撮像部13)による撮影画像を順次取得することにより、取得した各撮影画像に基づいて、利用者の身体のパーツを検出する。例えば、検出部15cは、撮影画像に基づいて、使い捨て着用物品を仮想的に装着させるパーツであって、利用者の身体のパーツを検出する。
(About the detection unit 15c)
The detection unit 15c detects a part of the user's body based on the captured image taken by the user. For example, the detection unit 15c sequentially acquires images taken by the camera (imaging unit 13), and detects parts of the user's body based on each of the acquired images. For example, the detection unit 15c is a part for virtually mounting a disposable wearable article based on a photographed image, and detects a part of the user's body.

例えば、検出部15cは、利用者が撮影された撮影画像に基づいて、利用者の顔のパーツを検出する。例えば、検出部15cは、利用者の目・鼻・口・耳を検出する。また、検出部15cは、利用者の顎のラインの形状や、利用者の顔の向きであって、利用者を撮影するカメラに対する顔の向きを検出する。また、検出部15cは、利用者の顔のサイズを検出する。 For example, the detection unit 15c detects a part of the user's face based on a photographed image taken by the user. For example, the detection unit 15c detects the user's eyes, nose, mouth, and ears. In addition, the detection unit 15c detects the shape of the user's chin line and the orientation of the user's face, which is the orientation of the face with respect to the camera that captures the user. In addition, the detection unit 15c detects the size of the user's face.

(表示制御部15dについて)
表示制御部15dは、物品情報が示す形状の使い捨て着用物品を利用者が仮想的に装着した態様で、利用者が撮影された撮影画像に当該使い捨て着用物品の画像を重畳した状態で表示させる。例えば、表示制御部15dは、利用者が撮影された撮影画像から検出された利用者の身体のパーツに基づいて、使い捨て着用物品の利用用途に応じた適切な身体の位置に対して物品情報が示す形状の使い捨て着用物品が位置するよう、撮影画像に使い捨て着用物品の画像を重畳した状態で表示させる。
(About display control unit 15d)
The display control unit 15d displays the image of the disposable wear article superimposed on the photographed image taken by the user in a manner in which the user virtually wears the disposable wear article having the shape indicated by the article information. For example, the display control unit 15d provides article information for an appropriate body position according to the intended use of the disposable worn article based on the user's body part detected from the photographed image taken by the user. The image of the disposable wear article is superimposed on the photographed image so that the disposable wear article of the indicated shape is positioned.

また、例えば、表示制御部15dは、撮影画像で示される利用者の顔の向きであって、利用者を撮影する撮影手段(撮像部13)に対する顔の向きに応じて、物品情報が示す形状を制御し、制御した形状の使い捨て着用物品を利用者が仮想的に装着した態様で、撮影画像に使い捨て着用物品の画像を重畳した状態で表示させる。また、例えば、表示制御部15dは、利用者の顔のサイズに応じて、使い捨て着用物品の画像のサイズを制御し、制御したサイズの画像を撮影画像に重畳させる。 Further, for example, the display control unit 15d has a shape indicated by the article information according to the orientation of the user's face shown in the captured image and the orientation of the face with respect to the photographing means (imaging unit 13) for photographing the user. Is controlled, and the disposable wear article having the controlled shape is displayed in a state in which the image of the disposable wear article is superimposed on the photographed image in a manner in which the user virtually wears the disposable wear article. Further, for example, the display control unit 15d controls the size of the image of the disposable wear article according to the size of the face of the user, and superimposes the image of the controlled size on the captured image.

また、表示制御部15dは、利用者により使い捨て着用物品の色または模様が指定された場合には、使い捨て着用物品の画像として、指定された色または模様の使い捨て着用物品の画像を撮影画像に重畳させる。例えば、表示制御部15dは、任意の色を選択可能な色選択コンテンツを表示画面に表示させる。そして、表示制御部15dは、現在表示されている使い捨て着用物品の画像の色を、色選択コンテンツにおいて指定された色へと制御(変更)する。なお、色選択コンテンツは、例えば、生成部15bによって生成される。例えば、生成部15bは、識別情報に応じて特定された使い捨て着用物品のカラーバリエーションに基づいて、色選択コンテンツを生成する。 When the color or pattern of the disposable wear article is specified by the user, the display control unit 15d superimposes an image of the disposable wear article of the specified color or pattern on the captured image as an image of the disposable wear article. Let me. For example, the display control unit 15d displays a color selection content capable of selecting an arbitrary color on the display screen. Then, the display control unit 15d controls (changes) the color of the currently displayed image of the disposable wear item to the color specified in the color selection content. The color selection content is generated by, for example, the generation unit 15b. For example, the generation unit 15b generates color selection content based on the color variation of the disposable wear article specified according to the identification information.

また、表示制御部15dは、利用者により使い捨て着用物品のサイズが指定された場合には、使い捨て着用物品の画像として、指定されたサイズに応じたサイズの画像を撮影画像に重畳させる。例えば、表示制御部15dは、小さいサイズ、普通サイズ、大きいサイズの中から任意のサイズを選択可能なサイズ選択コンテンツを表示画面に表示させる。そして、表示制御部15dは、在表示されている使い捨て着用物品の画像のサイズを、サイズ選択コンテンツにおいて指定されたサイズへと制御(変更)する。なお、サイズ選択コンテンツは、例えば、生成部15bによって生成される。例えば、生成部15bは、識別情報に応じて特定された使い捨て着用物品のサイズバリエーションに基づいて、サイズ選択コンテンツを生成する。 Further, when the size of the disposable wear article is specified by the user, the display control unit 15d superimposes an image of a size corresponding to the designated size on the captured image as an image of the disposable wear article. For example, the display control unit 15d displays on the display screen size selection content in which an arbitrary size can be selected from a small size, a normal size, and a large size. Then, the display control unit 15d controls (changes) the size of the image of the disposable wearable article currently displayed to the size specified in the size selection content. The size selection content is generated by, for example, the generation unit 15b. For example, the generation unit 15b generates size selection content based on the size variation of the disposable wear article specified according to the identification information.

また、表示制御部15dは、利用者に関する利用者情報に基づき特定された利用者であって、撮影画像に使い捨て着用物品の画像を重畳した状態で表示させるアプリケーションを導入していない利用者の端末装置に対して、当該アプリケーションを導入するよう案内する案内情報を表示させてもよい。 Further, the display control unit 15d is a terminal of a user who is specified based on user information about the user and has not introduced an application for displaying an image of a disposable worn article superimposed on a photographed image. Guidance information may be displayed on the device to guide the introduction of the application.

また、表示制御部15dは、入力情報が入力された後において、使い捨て着用物品を仮想的に装着させるパーツであって、利用者の身体のパーツが、利用者が撮影された撮影画像に含まれないと判定された場合には、当該パーツを含むように撮影するよう案内情報を表示させてもよい。 Further, the display control unit 15d is a part for virtually mounting the disposable wear item after the input information is input, and the body part of the user is included in the photographed image taken by the user. If it is determined that there is no such part, guidance information may be displayed so as to take a picture so as to include the relevant part.

また、表示制御部15dは、利用者が撮影された撮影画像であって、使い捨て着用物品の画像が重畳された撮影画像のうち、これまでに撮影された撮影画像を比較可能なように表示させてもよい。例えば、表示制御部15dは、利用者が撮影された撮影画像であって、使い捨て着用物品の画像が重畳された撮影画像のうち、過去に撮影された撮影画像を、現在撮影されている撮影画像であって、使い捨て着用物品の画像が重畳された撮影画像とともに表示させる。また、このようなことから端末装置10は、撮影画像を記憶する記憶部を有してもよい。例えば、端末装置10は、シャッター押下により撮影画像から得られた静止画像を記憶する記憶部を有してもよい。 Further, the display control unit 15d displays the photographed images taken by the user so that the photographed images taken so far can be compared among the photographed images on which the images of the disposable wear articles are superimposed. You may. For example, the display control unit 15d is a photographed image photographed by the user, and among the photographed images on which the image of the disposable worn article is superimposed, the photographed image photographed in the past is the photographed image currently photographed. Therefore, the image of the disposable worn article is displayed together with the superposed photographed image. Further, for this reason, the terminal device 10 may have a storage unit for storing captured images. For example, the terminal device 10 may have a storage unit that stores a still image obtained from a captured image by pressing the shutter.

また、表示制御部15dは、利用者が撮影された撮影画像であって、使い捨て着用物品の画像が重畳された撮影画像に対して、所定の情報共有サービスへの投稿に応じた所定の情報を表示させてもよい。例えば、表示制御部15dは、所定の情報として、使い捨て着用物品に関する情報を表示させる。例えば、表示制御部15dは、使い捨て着用物品の画像が重畳して表示されている状態で、シャッターボタンが押下された場合には、使い捨て着用物品の画像が重畳されている撮影画像から静止画像を取得する。そして、表示制御部15dは、取得した静止画像に所定の情報共有サービス(SNS)への投稿に応じた所定の情報を表示させる。例えば、表示制御部15dは、所定の情報として、使い捨て着用物品に関する情報(例えば、会社ロゴ、使い捨て着用物品の商品名、使い捨て着用物品のブランド名など)を表示させる。また、表示制御部15dは、所定の情報として、所定の情報共有サービスへの投稿を案内する案内情報を表示してもよい。 In addition, the display control unit 15d outputs predetermined information according to posting to a predetermined information sharing service with respect to the photographed image taken by the user and on which the image of the disposable worn article is superimposed. It may be displayed. For example, the display control unit 15d displays information about the disposable wear article as predetermined information. For example, when the shutter button is pressed while the image of the disposable wear article is superimposed and displayed, the display control unit 15d displays a still image from the captured image on which the image of the disposable wear article is superimposed. get. Then, the display control unit 15d causes the acquired still image to display predetermined information according to the posting to the predetermined information sharing service (SNS). For example, the display control unit 15d displays information about the disposable wear article (for example, a company logo, a product name of the disposable wear article, a brand name of the disposable wear article, etc.) as predetermined information. Further, the display control unit 15d may display guidance information for guiding posting to a predetermined information sharing service as predetermined information.

〔7−2.サーバ装置の構成〕
(通信部110について)
通信部110は、例えば、NIC等によって実現される。そして、通信部110は、ネットワークNと有線または無線で接続され、例えば、端末装置10との間で情報の送受信を行う。
[7-2. Server device configuration]
(About communication unit 110)
The communication unit 110 is realized by, for example, a NIC or the like. Then, the communication unit 110 is connected to the network N by wire or wirelessly, and transmits / receives information to / from, for example, the terminal device 10.

(記憶部120について)
記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ等の半導体メモリ素子またはハードディスク、光ディスク等の記憶装置によって実現される。記憶部120は、図1で説明した商品情報記憶部121を有する。
(About storage unit 120)
The storage unit 120 is realized by, for example, a semiconductor memory element such as a RAM (Random Access Memory) or a flash memory, or a storage device such as a hard disk or an optical disk. The storage unit 120 has the product information storage unit 121 described with reference to FIG.

(制御部130について)
制御部130は、CPUやMPU等によって、サーバ装置100内部の記憶装置に記憶されている各種プログラム(例えば、アプリAP11またはアプリAP12)がRAMを作業領域として実行されることにより実現される。また、制御部130は、例えば、ASICやFPGA等の集積回路により実現される。
(About control unit 130)
The control unit 130 is realized by executing various programs (for example, application AP11 or application AP12) stored in the storage device inside the server device 100 by the CPU, MPU, or the like using the RAM as a work area. Further, the control unit 130 is realized by, for example, an integrated circuit such as an ASIC or FPGA.

図6に示すように、制御部130は、取得部131と、特定部132と、生成部133と、送信部134とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部130の内部構成は、図6に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。また、制御部130が有する各処理部の接続関係は、図6に示した接続関係に限られず、他の接続関係であってもよい。 As shown in FIG. 6, the control unit 130 includes an acquisition unit 131, a specific unit 132, a generation unit 133, and a transmission unit 134, and realizes or executes an information processing function or operation described below. .. The internal configuration of the control unit 130 is not limited to the configuration shown in FIG. 6, and may be another configuration as long as it is a configuration for performing information processing described later. Further, the connection relationship of each processing unit included in the control unit 130 is not limited to the connection relationship shown in FIG. 6, and may be another connection relationship.

(取得部131について)
取得部131は、利用者による入力情報に応じて特定された使い捨て着用物品の形状を示す物品情報を取得する。例えば、取得部131は、商品情報記憶部121から物品情報を取得する。また、例えば、取得部131は、使い捨て着用物品として、不織布で構成された使い捨てマスクの形状を示す物品情報(AR情報)を取得する。
(About acquisition unit 131)
The acquisition unit 131 acquires article information indicating the shape of the disposable wear article specified according to the input information by the user. For example, the acquisition unit 131 acquires article information from the product information storage unit 121. Further, for example, the acquisition unit 131 acquires article information (AR information) indicating the shape of a disposable mask made of a non-woven fabric as a disposable wear article.

また、取得部131は、入力情報として、使い捨て着用物品が商品として陳列されている陳列棚に付された識別情報(QRコード)に応じて特定された使い捨て着用物品の形状を示す前記物品情報を取得する。 Further, as input information, the acquisition unit 131 receives the article information indicating the shape of the disposable wear article specified according to the identification information (QR code) attached to the display shelf on which the disposable wear article is displayed as a product. get.

例えば、取得部131は、識別情報に応じて特定された使い捨て着用物品として、識別情報で識別される使い捨て着用物品であって、陳列棚に現在陳列されている使い捨て着用物品の形状を示す物品情報を取得する。 For example, the acquisition unit 131 is the disposable wear article identified by the identification information as the disposable wear article specified according to the identification information, and the article information indicating the shape of the disposable wear article currently displayed on the display shelf. To get.

また、例えば、取得部131は、識別情報に応じて特定された使い捨て着用物品として、識別情報で識別される着用物品、および、識別情報で識別される着用物品に関連する着用物品である表示候補の使い捨て着用物品のうち、利用者により選択されたカテゴリに対応する使い捨て着用物品の形状を示す物品情報を取得してもよい。例えば、取得部131は、利用者により選択された第1のカテゴリに属する表示候補の使い捨て着用物品のうち、利用者によりさらに選択された第2のカテゴリであって、第1のカテゴリに対する下位のカテゴリである第2のカテゴリに属する着用物品の形状を示す物品情報を取得する。一方で、取得部131は、表示候補の使い捨て着用物品のうち、利用者により選択された使い捨て着用物品の形状を示す物品情報を取得してもよいし、利用者の属性情報または嗜好性に応じて特定された表示候補の使い捨て着用物品のうち、利用者により選択された使い捨て着用物品の形状を示す物品情報を取得してもよい。 Further, for example, the acquisition unit 131 is a display candidate which is a disposable wear article specified according to the identification information, a wear article identified by the identification information, and a wear article related to the wear article identified by the identification information. Among the disposable wear articles of the above, the article information indicating the shape of the disposable wear article corresponding to the category selected by the user may be acquired. For example, the acquisition unit 131 is a second category further selected by the user among the display candidate disposable wear items belonging to the first category selected by the user, and is lower than the first category. Acquires article information indicating the shape of the worn article belonging to the second category, which is a category. On the other hand, the acquisition unit 131 may acquire article information indicating the shape of the disposable wear article selected by the user among the disposable wear articles of the display candidates, or may acquire the article information indicating the shape of the disposable wear article selected by the user, depending on the attribute information or preference of the user. Among the disposable wear articles of the display candidates specified in the above, the article information indicating the shape of the disposable wear article selected by the user may be acquired.

また、取得部131は、端末装置10から撮影画像を取得する。 In addition, the acquisition unit 131 acquires a captured image from the terminal device 10.

(特定部132について)
特定部132は、利用者による入力情報(QRコード)に基づいて、表示候補の使い捨て着用物品を特定する。例えば、特定部132は、入力情報に含まれる商品IDに基づいて、表示候補の使い捨て着用物品を特定する。例えば、特定部132は、入力情報に含まれる商品IDで一意に識別される使い捨て着用物品、および、この着用物品に関連する使い捨て着用物品を、表示候補の使い捨て着用物品として特定する。
(About specific part 132)
The identification unit 132 identifies the disposable wearable article as a display candidate based on the input information (QR code) by the user. For example, the identification unit 132 identifies the disposable wearable article as a display candidate based on the product ID included in the input information. For example, the specific unit 132 identifies the disposable wear article uniquely identified by the product ID included in the input information and the disposable wear article related to the wear article as the display candidate disposable wear article.

また、特定部132は、利用者の属性情報、または、利用者の嗜好性に基づいて、表示候補の使い捨て着用物品を特定してもよい。 In addition, the specific unit 132 may specify the disposable wearable article as a display candidate based on the attribute information of the user or the preference of the user.

(生成部133について)
生成部133は、特定部132により特定された表示候補の使い捨て着用物品から、表示を希望する着用物品を選択させる選択コンテンツを生成する。例えば、生成部133は、商品情報記憶部121に基づいて、表示候補の使い捨て着用物品が属するカテゴリのうち、より上位の第1のカテゴリのいずれかを選択させ、また、選択された第1のカテゴリに対応する第2のカテゴリであって、第1のカテゴリに対する下位のカテゴリである第2のカテゴリのいずれかをさらに選択させるような選択コンテンツを生成する。図2の例では、生成部133は、選択コンテンツC11を生成している。
(About generator 133)
The generation unit 133 generates selection content for selecting a wearable item desired to be displayed from the display candidate disposable wearable items specified by the specific unit 132. For example, the generation unit 133 causes the product information storage unit 121 to select one of the higher-ranking first categories among the categories to which the display candidate disposable wear articles belong, and the selected first category. The selection content is generated so that one of the second categories, which is the second category corresponding to the category and is a lower category to the first category, is further selected. In the example of FIG. 2, the generation unit 133 generates the selected content C11.

また、生成部133は、生成部15bと同様の機能を有してよい。例えば、生成部133は、物品情報から使い捨て着用物品の画像を生成する機能を有してもよい。 Further, the generation unit 133 may have the same function as the generation unit 15b. For example, the generation unit 133 may have a function of generating an image of a disposable worn article from the article information.

(送信部134について)
送信部134は、各種情報を送信する。例えば、送信部134は、端末装置10に各種情報を送信する。例えば、送信部134は、生成部133により生成された選択コンテンツ、物品情報、案内情報、利用者から検出した身体のパーツを示す情報(検出部15cによる検出結果に対応)、物品情報から生成された使い捨て着用物品の画像を端末装置10に送信する。
(About transmitter 134)
The transmission unit 134 transmits various information. For example, the transmission unit 134 transmits various information to the terminal device 10. For example, the transmission unit 134 is generated from the selection content, the article information, the guidance information, the information indicating the body part detected by the user (corresponding to the detection result by the detection unit 15c), and the article information generated by the generation unit 133. The image of the disposable wearable article is transmitted to the terminal device 10.

(その他の処理部について)
また、サーバ装置100は、図4で説明した表示制御処理のうち、サーバ装置100が行うものとして説明した表示制御処理が行えるよう、検出部15cに対応する処理部や、表示制御部15dに対応する処理部をさらに有することができる。
(About other processing units)
Further, the server device 100 corresponds to the processing unit corresponding to the detection unit 15c and the display control unit 15d so that the display control process described as performed by the server device 100 among the display control processes described in FIG. 4 can be performed. It is possible to further have a processing unit to be processed.

〔8.処理手順〕
次に、図7および図8を用いて、実施形態に係る表示制御処理の手順について説明する。図7では、実施形態に係る表示制御処理のうち、利用者による入力情報に応じて特定された使い捨て着用物品に対応する物品情報(AR情報)を取得するまでの表示制御処理手順について説明する。図8では、実施形態に係る表示制御処理のうち、取得された物品情報が示す形状の使い捨て着用物品の画像を撮影画像に重畳させる表示制御処理手順について説明する。また、図7および図8では、使い捨て着用物品は、不織布で構成された使い捨てマスクであるものとして説明する。
[8. Processing procedure]
Next, the procedure of the display control process according to the embodiment will be described with reference to FIGS. 7 and 8. FIG. 7 describes a display control processing procedure for acquiring article information (AR information) corresponding to a disposable worn article specified according to input information by a user among the display control processes according to the embodiment. FIG. 8 describes a display control processing procedure for superimposing an image of a disposable worn article having a shape indicated by acquired article information on a captured image among the display control processes according to the embodiment. Further, in FIGS. 7 and 8, the disposable wearable article will be described as being a disposable mask made of a non-woven fabric.

〔8−1.処理手順(1)〕
まず、図7を用いて、実施形態に係る表示制御処理のうち、利用者による入力情報に応じて特定された使い捨て着用物品に対応する物品情報(AR情報)を取得するまでの表示制御処理手順について説明する。図7は、実施形態に係る表示制御処理のうち、前半の表示制御処理手順を示すフローチャートである。
[8-1. Processing procedure (1)]
First, with reference to FIG. 7, among the display control processes according to the embodiment, the display control process procedure until the article information (AR information) corresponding to the disposable wear article specified according to the input information by the user is acquired. Will be described. FIG. 7 is a flowchart showing the display control processing procedure of the first half of the display control processing according to the embodiment.

まず、取得部131は、コード情報の入力に伴う商品情報(商品ID)を取得できたか否かを判定する(ステップS101)。例えば、利用者が端末装置10にコード情報を入力したことに応じて、端末装置10が、このコード情報から検出した商品情報をサーバ装置100に送信した場合には、取得部131は、コード情報の入力に伴う商品情報を取得できたと判定する。 First, the acquisition unit 131 determines whether or not the product information (product ID) associated with the input of the code information can be acquired (step S101). For example, when the terminal device 10 transmits the product information detected from the code information to the server device 100 in response to the user inputting the code information to the terminal device 10, the acquisition unit 131 receives the code information. It is determined that the product information associated with the input of is obtained.

そして、取得部131は、コード情報の入力に伴う商品情報(商品ID)を取得できていない間は(ステップS101;No)、取得できるまで待機する。一方、特定部132は、取得部131により商品情報が取得された場合には(ステップS101;Yes)、取得された商品情報に基づいて、表示候補のマスクを特定する(ステップS102)。例えば、特定部132は、商品情報に基づいて、商品情報記憶部121に記憶される表示候補のマスクの中から、さらに商品情報に応じた表示候補のマスクを絞り込む。 Then, the acquisition unit 131 waits until the product information (product ID) associated with the input of the code information cannot be acquired (step S101; No) until it can be acquired. On the other hand, when the product information is acquired by the acquisition unit 131 (step S101; Yes), the specific unit 132 specifies the mask of the display candidate based on the acquired product information (step S102). For example, the specific unit 132 further narrows down the display candidate masks according to the product information from the display candidate masks stored in the product information storage unit 121 based on the product information.

次に、生成部133は、特定部により特定された表示候補のマスクから、希望するマスクを選択させる選択コンテンツを生成する(ステップS103)。そして、送信部134は、生成部133により生成された選択コンテンツを端末装置10に送信する(ステップS104)。係る端末装置10は、コード情報の入力を行った利用者が所有する端末装置である。 Next, the generation unit 133 generates selection content for selecting a desired mask from the display candidate masks specified by the specific unit (step S103). Then, the transmission unit 134 transmits the selected content generated by the generation unit 133 to the terminal device 10 (step S104). The terminal device 10 is a terminal device owned by the user who has input the code information.

また、このような状態において、取得部131は、選択コンテンツで示されるカテゴリ(第1のカテゴリ、第2のカテゴリ)のうちいずれかのカテゴリの選択を受け付けたか否かを判定する(ステップS105)。すなわち、取得部131は、選択コンテンツで示されるカテゴリ(第1のカテゴリ、第2のカテゴリ)のうち、選択されたカテゴリを示すカテゴリ情報を端末装置10から取得できたか否かを判定する。取得部131は、カテゴリ情報を取得できないことによりカテゴリの選択を受け付けていないと判定している間は(ステップS105;No)、カテゴリ情報を取得することによりカテゴリの選択を受け付けたと判定できるまで待機する。 Further, in such a state, the acquisition unit 131 determines whether or not the selection of any of the categories (first category, second category) indicated by the selected content has been accepted (step S105). .. That is, the acquisition unit 131 determines whether or not the category information indicating the selected category among the categories (first category, second category) indicated by the selected content can be acquired from the terminal device 10. While the acquisition unit 131 determines that the category selection is not accepted because the category information cannot be acquired (step S105; No), it waits until it can determine that the category selection has been accepted by acquiring the category information. do.

一方、取得部131は、カテゴリ情報を取得することによりカテゴリの選択を受け付けたと判定した場合には(ステップS105;Yes)、選択されたカテゴリに属するマスクの形状を示すAR情報を商品情報記憶部121から取得する(ステップS106)。そして、送信部134は、取得部により取得されたAR情報を端末装置10に送信する。 On the other hand, when the acquisition unit 131 determines that the category selection has been accepted by acquiring the category information (step S105; Yes), the product information storage unit stores AR information indicating the shape of the mask belonging to the selected category. Obtained from 121 (step S106). Then, the transmission unit 134 transmits the AR information acquired by the acquisition unit to the terminal device 10.

〔8−2.処理手順(2)〕
まず、図8を用いて、実施形態に係る表示制御処理のうち、取得された物品情報が示す形状の使い捨て着用物品の画像を撮影画像に重畳させる表示制御処理手順について説明する。図8は、実施形態に係る表示制御処理のうち、後半の表示制御処理手順を示すフローチャートである。
[8-2. Processing procedure (2)]
First, with reference to FIG. 8, among the display control processes according to the embodiment, a display control process procedure for superimposing an image of a disposable worn article having a shape indicated by the acquired article information on a captured image will be described. FIG. 8 is a flowchart showing a display control processing procedure in the latter half of the display control processing according to the embodiment.

まず、取得部15aは、サーバ装置100からAR情報を取得できたか否かを判定する(ステップS201)。取得部15aは、サーバ装置100からAR情報を取得できていない間は(ステップS201;No)、取得できるまで待機する。 First, the acquisition unit 15a determines whether or not AR information can be acquired from the server device 100 (step S201). While the AR information cannot be acquired from the server device 100 (step S201; No), the acquisition unit 15a waits until the AR information can be acquired.

一方、生成部15bは、取得部15aによりAR情報が取得された場合には(ステップS201;Yes)、AR情報からマスク画像を生成する(ステップS202)。 On the other hand, when the AR information is acquired by the acquisition unit 15a (step S201; Yes), the generation unit 15b generates a mask image from the AR information (step S202).

また、表示制御部15dは、マスク画像が生成されると、インカメラを動的に起動させるとともに、インカメラで顔を撮影するよう案内する案内情報を表示させる(ステップS203)。 Further, when the mask image is generated, the display control unit 15d dynamically activates the in-camera and displays guidance information for guiding the face to be photographed by the in-camera (step S203).

次に、検出部15cは、案内に応じて撮影された撮影画像に基づいて、利用者の顔のパーツを検出する(ステップS204)。 Next, the detection unit 15c detects the parts of the user's face based on the captured image captured in response to the guidance (step S204).

そして、表示制御部15dは、検出部15cにより検出された顔のパーツに基づいて、AR情報が示す形状のマスクを利用者が仮想的に装着した態様で、利用者が撮影された撮影画像に当該マスクのマスク画像を重畳した状態で表示させる(ステップS205)。 Then, the display control unit 15d sets the captured image taken by the user in a manner in which the user virtually wears a mask having the shape indicated by the AR information based on the facial parts detected by the detection unit 15c. The mask image of the mask is displayed in a superposed state (step S205).

〔9.その他〕
上記した各処理のうち、自動的に行われるものとして説明した処理の全部または一部は、手動的に行われてもよい。また、手動的に行われるものとして説明した処理の全部または一部は、公知の方法で自動的に行われてもよい。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られるものではない。
[9. others〕
Of each of the above-mentioned processes, all or a part of the processes described as being automatically performed may be performed manually. In addition, all or part of the processing described as being performed manually may be automatically performed by a known method. In addition, the processing procedure, specific name, and information including various data and parameters shown in the above document and drawings can be arbitrarily changed unless otherwise specified. For example, the various information shown in each figure is not limited to the illustrated information.

また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されなくともよい。すなわち、各装置の分散・統合の具体的形態は図示のものに限られない。また、各構成要素は、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成してもよい。また、上記してきた各処理は、矛盾しない範囲で適宜組み合わせて実行されてもよい。 Further, each component of each of the illustrated devices is a functional concept, and does not necessarily have to be physically configured as shown in the figure. That is, the specific form of distribution / integration of each device is not limited to the one shown in the figure. In addition, each component may be functionally or physically distributed / integrated in any unit according to various loads, usage conditions, etc., in whole or in part thereof. In addition, the above-mentioned processes may be appropriately combined and executed within a consistent range.

〔10.ハードウェア構成〕
また、上述した実施形態に係る表示制御装置は、例えば図9に示すような構成のコンピュータ1000によって実現される。図9は、ハードウェア構成の一例を示す図である。コンピュータ1000は、出力装置1010、入力装置1020と接続され、演算装置1030、キャッシュ1040、メモリ1050、出力IF(Interface)1060、入力IF1070、ネットワークIF1080がバス1090により接続される。
[10. Hardware configuration]
Further, the display control device according to the above-described embodiment is realized by, for example, a computer 1000 having a configuration as shown in FIG. FIG. 9 is a diagram showing an example of a hardware configuration. The computer 1000 is connected to the output device 1010 and the input device 1020, and the arithmetic unit 1030, the cache 1040, the memory 1050, the output IF (Interface) 1060, the input IF 1070, and the network IF 1080 are connected by the bus 1090.

演算装置1030は、キャッシュ1040やメモリ1050に格納されたプログラムや入力装置1020から読み出したプログラム等に基づいて動作し、各種の処理を実行する。キャッシュ1040は、RAM等、演算装置1030が各種の演算に用いるデータを一次的に記憶するキャッシュである。また、メモリ1050は、演算装置1030が各種の演算に用いるデータや、各種のデータベースが登録される記憶装置であり、ROM(Read Only Memory)、HDD(Hard Disk Drive)、フラッシュメモリ等により実現されるメモリである。 The arithmetic unit 1030 operates based on a program stored in the cache 1040 or the memory 1050, a program read from the input device 1020, or the like, and executes various processes. The cache 1040 is a cache that temporarily stores data used by the arithmetic unit 1030 for various operations such as RAM. Further, the memory 1050 is a storage device in which data used by the arithmetic unit 1030 for various calculations and various databases are registered, and is realized by a ROM (Read Only Memory), an HDD (Hard Disk Drive), a flash memory, or the like. Memory.

出力IF1060は、モニタやプリンタといった各種の情報を出力する出力装置1010に対し、出力対象となる情報を送信するためのインタフェースであり、例えば、USB(Universal Serial Bus)やDVI(Digital Visual Interface)、HDMI(登録商標)(High Definition Multimedia Interface)といった規格のコネクタにより実現されてよい。一方、入力IF1070は、マウス、キーボード、およびスキャナ等といった各種の入力装置1020から情報を受信するためのインタフェースであり、例えば、USB等により実現される。 The output IF 1060 is an interface for transmitting information to be output to an output device 1010 that outputs various information such as a monitor and a printer. For example, USB (Universal Serial Bus), DVI (Digital Visual Interface), and the like. It may be realized by a connector of a standard such as HDMI (registered trademark) (High Definition Multimedia Interface). On the other hand, the input IF 1070 is an interface for receiving information from various input devices 1020 such as a mouse, a keyboard, and a scanner, and is realized by, for example, USB.

例えば、入力装置1020は、CD(Compact Disc)、DVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等から情報を読み出す装置により実現されてもよい。また、入力装置1020は、USBメモリ等の外付け記憶媒体により実現されてもよい。 For example, the input device 1020 includes an optical recording medium such as a CD (Compact Disc), a DVD (Digital Versatile Disc), and a PD (Phase change rewritable Disk), a magneto-optical recording medium such as an MO (Magneto-Optical disk), and a tape medium. It may be realized by a device that reads information from a magnetic recording medium, a semiconductor memory, or the like. Further, the input device 1020 may be realized by an external storage medium such as a USB memory.

ネットワークIF1080は、ネットワークNを介して他の機器からデータを受信して演算装置1030へ送り、また、ネットワークNを介して演算装置1030が生成したデータを他の機器へ送信する機能を有する。 The network IF 1080 has a function of receiving data from another device via the network N and sending the data to the arithmetic unit 1030, and transmitting the data generated by the arithmetic unit 1030 to the other device via the network N.

ここで、演算装置1030は、出力IF1060や入力IF1070を介して、出力装置1010や入力装置1020の制御を行うこととなる。例えば、演算装置1030は、入力装置1020やメモリ1050からプログラムをキャッシュ1040上にロードし、ロードしたプログラムを実行する。例えば、コンピュータ1000が表示制御装置として機能する場合、コンピュータ1000の演算装置1030は、キャッシュ1040上にロードされたプログラムを実行することにより、制御部130の機能を実現することとなる。 Here, the arithmetic unit 1030 controls the output device 1010 and the input device 1020 via the output IF 1060 and the input IF 1070. For example, the arithmetic unit 1030 loads a program from the input device 1020 or the memory 1050 onto the cache 1040, and executes the loaded program. For example, when the computer 1000 functions as a display control device, the arithmetic unit 1030 of the computer 1000 realizes the function of the control unit 130 by executing the program loaded on the cache 1040.

10 端末装置
15 制御部
15a 取得部
15b 生成部
15c 検出部
15d 表示制御部
100 サーバ装置
121 商品情報記憶部
130 制御部
131 取得部
132 特定部
133 生成部
134 送信部


10 Terminal device 15 Control unit 15a Acquisition unit 15b Generation unit 15c Detection unit 15d Display control unit 100 Server device 121 Product information storage unit 130 Control unit 131 Acquisition unit 132 Specific unit 133 Generation unit 134 Transmission unit


Claims (22)

利用者による入力情報に応じて特定された使い捨て着用物品の形状を示す物品情報を取得する取得部と、
前記物品情報が示す形状の使い捨て着用物品を前記利用者が仮想的に装着した態様で、前記利用者が撮影された撮影画像に当該使い捨て着用物品の画像を重畳した状態で表示させる表示制御部と
を有することを特徴とする表示制御装置。
An acquisition unit that acquires article information indicating the shape of the disposable wear article specified according to the input information by the user, and the acquisition unit.
A display control unit that displays an image of the disposable wear article superimposed on a photographed image taken by the user in a manner in which the user virtually wears the disposable wear article having the shape indicated by the article information. A display control device characterized by having.
前記取得部は、前記使い捨て着用物品として、不織布で構成された使い捨てマスクの形状を示す前記物品情報を取得する
ことを特徴とする請求項1に記載の表示制御装置。
The display control device according to claim 1, wherein the acquisition unit acquires the article information indicating the shape of the disposable mask made of a non-woven fabric as the disposable wear article.
前記取得部は、前記入力情報として、前記使い捨て着用物品が商品として陳列されている陳列棚に付された識別情報に応じて特定された使い捨て着用物品の形状を示す前記物品情報を取得する
ことを特徴とする請求項1または2に記載の表示制御装置。
As the input information, the acquisition unit acquires the article information indicating the shape of the disposable wear article specified according to the identification information attached to the display shelf on which the disposable wear article is displayed as a product. The display control device according to claim 1 or 2.
前記取得部は、前記識別情報に応じて特定された使い捨て着用物品として、前記識別情報で識別される使い捨て着用物品であって、前記陳列棚に現在陳列されている使い捨て着用物品の形状を示す前記物品情報を取得する
ことを特徴とする請求項3に記載の表示制御装置。
The acquisition unit indicates the shape of the disposable wear article currently displayed on the display shelf, which is the disposable wear article identified by the identification information as the disposable wear article specified according to the identification information. The display control device according to claim 3, wherein the product information is acquired.
前記取得部は、前記識別情報に応じて特定された使い捨て着用物品として、前記識別情報で識別される着用物品、および、前記識別情報で識別される着用物品に関連する着用物品である表示候補の使い捨て着用物品のうち、前記利用者により選択されたカテゴリに対応する使い捨て着用物品の形状を示す前記物品情報を取得する
ことを特徴とする請求項3または4に記載の表示制御装置。
The acquisition unit is a display candidate that is a disposable wear article specified according to the identification information, a wear article identified by the identification information, and a wear article related to the wear article identified by the identification information. The display control device according to claim 3 or 4, wherein among the disposable wear articles, the article information indicating the shape of the disposable wear article corresponding to the category selected by the user is acquired.
前記取得部は、前記利用者により選択された第1のカテゴリに属する表示候補の使い捨て着用物品のうち、前記利用者によりさらに選択された第2のカテゴリであって、前記第1のカテゴリに対する下位のカテゴリである第2のカテゴリに属する着用物品の形状を示す前記物品情報を取得する
ことを特徴とする請求項5に記載の表示制御装置。
The acquisition unit is a second category further selected by the user among the display candidate disposable wear articles belonging to the first category selected by the user, and is lower than the first category. The display control device according to claim 5, further comprising acquiring the article information indicating the shape of the worn article belonging to the second category, which is the category of the above.
前記取得部は、前記表示候補の使い捨て着用物品のうち、前記利用者により選択された使い捨て着用物品の形状を示す前記物品情報を取得する
ことを特徴とする請求項5または6に記載の表示制御装置。
The display control according to claim 5 or 6, wherein the acquisition unit acquires the article information indicating the shape of the disposable wear article selected by the user among the disposable wear articles of the display candidates. Device.
前記取得部は、前記利用者の属性情報または嗜好性に応じて特定された前記表示候補の使い捨て着用物品のうち、前記利用者により選択された使い捨て着用物品の形状を示す前記物品情報を取得する
ことを特徴とする請求項5〜7のいずれか1つに記載の表示制御装置。
The acquisition unit acquires the article information indicating the shape of the disposable wear article selected by the user among the display candidate disposable wear articles specified according to the attribute information or preference of the user. The display control device according to any one of claims 5 to 7.
前記取得部は、前記入力情報として、前記利用者が撮影された撮影画像に応じて特定された使い捨て着用物品の形状を示す前記物品情報を取得する
ことを特徴とする請求項1または2に記載の表示制御装置。
The first or second aspect of claim 1 or 2, wherein the acquisition unit acquires, as the input information, the article information indicating the shape of the disposable wear article specified by the user according to the photographed image. Display control device.
前記表示制御部は、前記利用者が撮影された撮影画像から検出された前記利用者の身体のパーツに基づいて、使い捨て着用物品の利用用途に応じた適切な身体の位置に対して前記物品情報が示す形状の使い捨て着用物品が位置するよう、前記撮影画像に前記使い捨て着用物品の画像を重畳した状態で表示させる
ことを特徴とする請求項1〜9のいずれか1つに記載の表示制御装置。
Based on the body parts of the user detected from the photographed image taken by the user, the display control unit sets the article information with respect to an appropriate body position according to the intended use of the disposable wear article. The display control device according to any one of claims 1 to 9, wherein the image of the disposable wear article is superimposed on the photographed image so that the disposable wear article having the shape shown in the above is displayed. ..
前記表示制御部は、前記撮影画像で示される前記利用者の顔の向きであって、前記利用者を撮影する撮影手段に対する顔の向きに応じて、前記物品情報が示す形状を制御し、制御した形状の使い捨て着用物品を前記利用者が仮想的に装着した態様で、前記撮影画像に前記使い捨て着用物品の画像を重畳した状態で表示させる
ことを特徴とする請求項1〜10のいずれか1つに記載の表示制御装置。
The display control unit controls and controls the shape indicated by the article information according to the orientation of the face of the user shown in the captured image and the orientation of the face with respect to the photographing means for photographing the user. 1 The display control device described in 1.
前記表示制御部は、前記利用者の顔のサイズに応じて、前記使い捨て着用物品の画像のサイズを制御し、制御したサイズの画像を前記撮影画像に重畳させる
ことを特徴とする請求項1〜11のいずれか1つに記載の表示制御装置。
The display control unit controls the size of the image of the disposable wearable article according to the size of the face of the user, and superimposes the image of the controlled size on the captured image. 11. The display control device according to any one of 11.
前記表示制御部は、前記利用者により使い捨て着用物品の色または模様が指定された場合には、前記使い捨て着用物品の画像として、指定された色または模様の使い捨て着用物品の画像を前記撮影画像に重畳させる
ことを特徴とする請求項1〜12のいずれか1つに記載の表示制御装置。
When the color or pattern of the disposable wear article is specified by the user, the display control unit uses the image of the disposable wear article of the specified color or pattern as the image of the disposable wear article in the photographed image. The display control device according to any one of claims 1 to 12, wherein the display control device is superposed.
前記表示制御部は、前記利用者により使い捨て着用物品のサイズが指定された場合には、前記使い捨て着用物品の画像として、指定されたサイズに応じたサイズの画像を前記撮影画像に重畳させる
ことを特徴とする請求項1〜13のいずれか1つに記載の表示制御装置。
When the size of the disposable wear article is specified by the user, the display control unit superimposes an image of a size corresponding to the specified size on the captured image as an image of the disposable wear article. The display control device according to any one of claims 1 to 13.
前記表示制御部は、利用者に関する利用者情報に基づき特定された利用者であって、前記撮影画像に使い捨て着用物品の画像を重畳した状態で表示させるアプリケーションを導入していない利用者の端末装置に対して、当該アプリケーションを導入するよう案内する案内情報を表示させる
ことを特徴とする請求項1〜14のいずれか1つに記載の表示制御装置。
The display control unit is a terminal device of a user specified based on user information about the user and who has not introduced an application for displaying an image of a disposable wear item superimposed on the photographed image. The display control device according to any one of claims 1 to 14, wherein the guidance information for guiding the introduction of the application is displayed.
前記表示制御部は、前記入力情報が入力された後において、前記使い捨て着用物品を仮想的に装着させるパーツであって、前記利用者の身体のパーツが、前記利用者が撮影された撮影画像に含まれないと判定された場合には、当該パーツを含むように撮影するよう案内情報を表示させる
ことを特徴とする請求項1〜15のいずれか1つに記載の表示制御装置。
The display control unit is a part for virtually mounting the disposable wearable article after the input information is input, and the body part of the user is a photographed image taken by the user. The display control device according to any one of claims 1 to 15, wherein when it is determined that the parts are not included, guidance information is displayed so as to include the part.
前記表示制御部は、前記利用者が撮影された撮影画像であって、前記使い捨て着用物品の画像が重畳された撮影画像のうち、これまでに撮影された撮影画像を比較可能なように表示させる
ことを特徴とする請求項1〜16のいずれか1つに記載の表示制御装置。
The display control unit displays the captured images taken by the user and the captured images on which the images of the disposable wearable articles are superimposed so that the captured images taken so far can be compared. The display control device according to any one of claims 1 to 16.
前記表示制御部は、前記利用者が撮影された撮影画像であって、前記使い捨て着用物品の画像が重畳された撮影画像のうち、過去に撮影された撮影画像を、現在撮影されている撮影画像であって、前記使い捨て着用物品の画像が重畳された撮影画像とともに表示させる
ことを特徴とする請求項17に記載の表示制御装置。
The display control unit is a photographed image taken by the user, and among the photographed images on which the image of the disposable wearable article is superimposed, the photographed image photographed in the past is the photographed image currently photographed. The display control device according to claim 17, wherein an image of the disposable worn article is displayed together with a superposed photographed image.
前記表示制御部は、前記利用者が撮影された撮影画像であって、前記使い捨て着用物品の画像が重畳された撮影画像に対して、所定の情報共有サービスへの投稿に応じた所定の情報を表示させる
ことを特徴とする請求項1〜18のいずれか1つに記載の表示制御装置。
The display control unit outputs predetermined information according to posting to a predetermined information sharing service with respect to the photographed image taken by the user and on which the image of the disposable wearable article is superimposed. The display control device according to any one of claims 1 to 18, wherein the display is displayed.
前記表示制御部は、前記所定の情報として、前記使い捨て着用物品に関する情報を表示させる
ことを特徴とする請求項19に記載の表示制御装置。
The display control device according to claim 19, wherein the display control unit displays information about the disposable wearable article as the predetermined information.
表示制御装置が実行する表示制御方法であって、
利用者による入力情報に応じて特定された使い捨て着用物品の形状を示す物品情報を取得する取得工程と、
前記物品情報が示す形状の使い捨て着用物品を前記利用者が仮想的に装着した態様で、前記利用者が撮影された撮影画像に当該使い捨て着用物品の画像を重畳した状態で表示させる表示制御工程と
を含むことを特徴とする表示制御方法。
It is a display control method executed by the display control device.
The acquisition process of acquiring the article information indicating the shape of the disposable wear article specified according to the input information by the user, and the acquisition process.
A display control step of displaying an image of the disposable wear article superimposed on a photographed image taken by the user in a mode in which the user virtually wears the disposable wear article having the shape indicated by the article information. A display control method comprising.
利用者による入力情報に応じて特定された使い捨て着用物品の形状を示す物品情報を取得する取得手順と、
前記物品情報が示す形状の使い捨て着用物品を前記利用者が仮想的に装着した態様で、前記利用者が撮影された撮影画像に当該使い捨て着用物品の画像を重畳した状態で表示させる表示制御手順と
をコンピュータに実行させるための表示制御プログラム。
The acquisition procedure for acquiring the article information indicating the shape of the disposable wear article specified according to the input information by the user, and the acquisition procedure.
A display control procedure for displaying an image of the disposable wear article superimposed on a photographed image taken by the user in a mode in which the user virtually wears the disposable wear article having the shape indicated by the article information. A display control program that allows a computer to execute.
JP2021131445A 2020-01-31 2021-08-11 DISPLAY CONTROL DEVICE, DISPLAY CONTROL METHOD, AND DISPLAY CONTROL PROGRAM Active JP7581153B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021131445A JP7581153B2 (en) 2021-08-11 DISPLAY CONTROL DEVICE, DISPLAY CONTROL METHOD, AND DISPLAY CONTROL PROGRAM
JP2024017257A JP2024050844A (en) 2020-01-31 2024-02-07 Display control device, display control method, and display control program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020015419A JP6929979B2 (en) 2020-01-31 2020-01-31 Display control device, display control method and display control program
JP2021131445A JP7581153B2 (en) 2021-08-11 DISPLAY CONTROL DEVICE, DISPLAY CONTROL METHOD, AND DISPLAY CONTROL PROGRAM

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2020015419A Division JP6929979B2 (en) 2020-01-31 2020-01-31 Display control device, display control method and display control program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2024017257A Division JP2024050844A (en) 2020-01-31 2024-02-07 Display control device, display control method, and display control program

Publications (3)

Publication Number Publication Date
JP2021176110A true JP2021176110A (en) 2021-11-04
JP2021176110A5 JP2021176110A5 (en) 2021-12-16
JP7581153B2 JP7581153B2 (en) 2024-11-12

Family

ID=

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002077592A (en) * 2000-04-13 2002-03-15 Fuji Photo Film Co Ltd Image processing method
JP2012108805A (en) * 2010-11-18 2012-06-07 Toshiba Tec Corp Try-on system
JP2016001360A (en) * 2014-06-11 2016-01-07 士華 管 Method for displaying image of dressing
JP2016532197A (en) * 2013-08-04 2016-10-13 アイズマッチ エルティーディー.EyesMatch Ltd. Virtualization device, system and method in mirror
WO2016203653A1 (en) * 2015-06-19 2016-12-22 日立マクセル株式会社 Portable information terminal and application recommending method thereof
JP2017054283A (en) * 2015-09-09 2017-03-16 株式会社 アーバンリサーチ Item sales system, item selection device, and item sales method
JP2019164421A (en) * 2018-03-19 2019-09-26 株式会社リコー Image retrieval device, printed matter, image retrieval method, and image retrieval program

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002077592A (en) * 2000-04-13 2002-03-15 Fuji Photo Film Co Ltd Image processing method
JP2012108805A (en) * 2010-11-18 2012-06-07 Toshiba Tec Corp Try-on system
JP2016532197A (en) * 2013-08-04 2016-10-13 アイズマッチ エルティーディー.EyesMatch Ltd. Virtualization device, system and method in mirror
JP2016001360A (en) * 2014-06-11 2016-01-07 士華 管 Method for displaying image of dressing
WO2016203653A1 (en) * 2015-06-19 2016-12-22 日立マクセル株式会社 Portable information terminal and application recommending method thereof
JP2017054283A (en) * 2015-09-09 2017-03-16 株式会社 アーバンリサーチ Item sales system, item selection device, and item sales method
JP2019164421A (en) * 2018-03-19 2019-09-26 株式会社リコー Image retrieval device, printed matter, image retrieval method, and image retrieval program

Also Published As

Publication number Publication date
KR20210098315A (en) 2021-08-10
JP2024050844A (en) 2024-04-10
JP2021124755A (en) 2021-08-30
JP6929979B2 (en) 2021-09-01
TW202131276A (en) 2021-08-16

Similar Documents

Publication Publication Date Title
KR102506341B1 (en) Devices, systems and methods of virtualizing a mirror
US9369638B2 (en) Methods for extracting objects from digital images and for performing color change on the object
US8970569B2 (en) Devices, systems and methods of virtualizing a mirror
US8976160B2 (en) User interface and authentication for a virtual mirror
US8982110B2 (en) Method for image transformation, augmented reality, and teleperence
US9477980B2 (en) Interactive cubicle and method for determining a body shape
JP6447108B2 (en) Usability calculation device, availability calculation method, and availability calculation program
US9811762B2 (en) Clothing matching system and method
EP3243331B1 (en) Devices, systems and methods for auto-delay video presentation
JP6069565B1 (en) RECOMMENDATION DEVICE, RECOMMENDATION METHOD, AND PROGRAM
CN111681070A (en) Method, device, storage device and equipment for purchasing online commodities
JP2015149557A (en) Monitoring device, monitoring system, and monitoring method
KR20170022078A (en) Display apparatus and controlling method thereof
JP2015149559A (en) Monitoring device, monitoring system, and monitoring method
JP5707561B1 (en) MONITORING DEVICE, MONITORING SYSTEM, AND MONITORING METHOD
JP6586706B2 (en) Image analysis apparatus, image analysis method, and program
KR20200139934A (en) Clothes Wearing Service Apparatus and Method using Augmented Reality
JP2012108805A (en) Try-on system
JP6929979B2 (en) Display control device, display control method and display control program
JP2018045454A (en) Purchase support system
KR20210025399A (en) Electronic apparatus and method for recommending clothes thereof
JP7581153B2 (en) DISPLAY CONTROL DEVICE, DISPLAY CONTROL METHOD, AND DISPLAY CONTROL PROGRAM
CN114766027A (en) Information processing method, information processing apparatus, and control program
CN111754297A (en) Image sharing processing method and electronic equipment
US12094032B2 (en) Pose recommendation and real-time guidance for user-generated content

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211019

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211019

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230306

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230620

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230821

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20231107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240207

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20240219

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20240301

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20241030