JP5685958B2 - Image display system - Google Patents

Image display system Download PDF

Info

Publication number
JP5685958B2
JP5685958B2 JP2011013700A JP2011013700A JP5685958B2 JP 5685958 B2 JP5685958 B2 JP 5685958B2 JP 2011013700 A JP2011013700 A JP 2011013700A JP 2011013700 A JP2011013700 A JP 2011013700A JP 5685958 B2 JP5685958 B2 JP 5685958B2
Authority
JP
Japan
Prior art keywords
face
face detection
image
data
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011013700A
Other languages
Japanese (ja)
Other versions
JP2012094103A (en
Inventor
聡 田端
聡 田端
靖寿 松葉
靖寿 松葉
大志 瀬井
大志 瀬井
和真 小泉
和真 小泉
小野 徹太郎
徹太郎 小野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP2011013700A priority Critical patent/JP5685958B2/en
Publication of JP2012094103A publication Critical patent/JP2012094103A/en
Application granted granted Critical
Publication of JP5685958B2 publication Critical patent/JP5685958B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Studio Circuits (AREA)
  • Processing Or Creating Images (AREA)

Description

本発明は、撮影した映像を加工して表示する技術に関し、特に撮影されている閲覧者の状態に応じて加工した映像を表示する技術に関する。   The present invention relates to a technique for processing and displaying a captured video, and more particularly to a technique for displaying a processed video according to the state of a viewer who is shooting.

ディスプレイやプロジェクタなどの表示装置を用いて広告を表示する広告媒体であるデジタルサイネージ(Digital Signage)が、様々な場所に設置され始めている。デジタルサイネージを用いることで、動画や音声を用いた豊かなコンテンツの提供が可能になるばかりか、デジタルサイネージの設置場所に応じた効率的な広告配信が可能になるため、今後、デジタルサイネージのマーケット拡大が期待されている。   Digital signage, which is an advertising medium for displaying advertisements using a display device such as a display or a projector, has begun to be installed in various places. By using digital signage, not only will it be possible to provide rich content using video and audio, but it will also be possible to efficiently deliver advertisements according to the location of digital signage. Expansion is expected.

最近では、デジタルサイネージについて、様々な改良が施されており、デジタルサイネージの前に存在する閲覧者の動きに応じて表示させる画像を変化させる技術が提案されている(特許文献1参照)。   Recently, various improvements have been made on digital signage, and a technique for changing an image to be displayed in accordance with the movement of a viewer existing before digital signage has been proposed (see Patent Document 1).

上記特許文献1に記載の技術では、人の認識情報と動き情報を基に合成画像を生成するが、トラッキング処理を行っていないために、各人の閲覧時間が把握できない。そのため、閲覧時間を基にしたシナリオを実現することは不可能である。加えて、IDによる個別管理もしていないことにより、全ての閲覧者に対して一辺倒の合成しかできず、各個人にインタラクティブに対応して表示するには不十分であった。また、上記特許文献1に記載の技術のように、人の動きを検出するのは、処理負荷が高く、迅速な表示変化を行うことができないという問題もあった。   In the technique described in Patent Document 1, a composite image is generated based on human recognition information and motion information. However, since the tracking process is not performed, each person's viewing time cannot be grasped. Therefore, it is impossible to realize a scenario based on browsing time. In addition, since individual management based on IDs is not performed, it is possible to perform only one-side composition for all viewers, which is insufficient for interactive display for each individual. In addition, as in the technique described in Patent Document 1, detecting a human movement has a problem that a processing load is high and a quick display change cannot be performed.

特許第4238371号公報Japanese Patent No. 4238371

上記特許文献1に記載の技術では、人の認識情報と動き情報を基に合成画像を生成するが、トラッキング処理を行っていないために、各人の閲覧時間が把握できない。そのため、閲覧時間を基にしたシナリオを実現することは不可能である。加えて、IDによる個別管理もしていないことにより、全員に対して一辺倒の合成しかできず、各個人にインタラクティブに対応して表示するには不十分である。また、上記特許文献1に記載の技術のように、人の動きを検出するのは、処理負荷が高く、迅速な表示変化を行うことができないという問題がある。   In the technique described in Patent Document 1, a composite image is generated based on human recognition information and motion information. However, since the tracking process is not performed, each person's viewing time cannot be grasped. Therefore, it is impossible to realize a scenario based on browsing time. In addition, since individual management by ID is not performed, only one-sided composition can be performed for all members, which is insufficient for interactive display corresponding to each individual. In addition, as in the technique described in Patent Document 1, detecting a human movement has a problem that the processing load is high and a quick display change cannot be performed.

そこで、本発明は、閲覧者の閲覧時間を基にシナリオに応じて各個人にインタラクティブに対応して表示するとともに、迅速に表示変化を行うことが可能な画像表示システムを提供することを課題とする。   Accordingly, an object of the present invention is to provide an image display system that can interactively display to each individual according to a scenario based on the browsing time of the viewer and can quickly change the display. To do.

上記課題を解決するため、本発明第1の態様では、人物を撮影するカメラと、カメラから送出される撮影映像を合成処理する画像処理装置と、合成処理された合成映像を表示するディスプレイとを備えた画像表示システムであって、前記画像処理装置は、映像上の1人以上の人物とコンテンツとの合成のタイミングを定めたシナリオデータを記憶したシナリオデータ記憶手段と、合成に用いるコンテンツを記憶したコンテンツ記憶手段と、前記カメラから送出された映像の1つのフレームに撮影されている顔画像を検出し、検出した前記顔画像毎に、顔検出枠の位置・矩形サイズを顔検出枠データとして出力する顔検出手段と、前記顔検出手段から取得した前記顔検出枠データを、他のフレームの顔検出枠データと対応付けるトラッキング手段と、前記顔検出手段により検出された顔検出枠データを含む顔オブジェクトに対して、前記シナリオデータに含まれる人物との対応付けを行うシナリオデータ対応付け手段と、前記対応付けに従って、前記顔オブジェクトを前記シナリオデータの人物に割り当て、前記顔オブジェクトの顔検出枠データの位置、サイズに合わせて、前記コンテンツの位置、サイズを変更し、前記フレーム上に前記コンテンツを合成した合成画像を生成する合成画像生成手段を備えている画像表示システムを提供する。   In order to solve the above problems, in the first aspect of the present invention, there is provided a camera for photographing a person, an image processing device for synthesizing a photographed image sent from the camera, and a display for displaying the synthesized image synthesized. An image display system provided with the image processing apparatus storing scenario data storing means for storing scenario data for determining the timing of combining one or more persons on the video and the content, and the content used for the combining And a face image captured in one frame of the video sent from the camera, and the position / rectangular size of the face detection frame is detected as face detection frame data for each detected face image. The face detection means for outputting, and the tracking means for associating the face detection frame data acquired from the face detection means with the face detection frame data of other frames And a scenario data associating means for associating a face object including the face detection frame data detected by the face detecting means with a person included in the scenario data, and according to the association, the face object Is assigned to a person in the scenario data, the position and size of the content are changed in accordance with the position and size of the face detection frame data of the face object, and a composite image is generated by combining the content on the frame. An image display system provided with an image generation means is provided.

本発明第1の態様によれば、映像上の1人以上の人物とコンテンツとの合成のタイミングを定めたシナリオデータを用意しておき、撮影映像のフレームから顔検出枠を検出し、顔検出枠のトラッキングを行い、得られた顔オブジェクトをシナリオデータの人物に割り当て、顔オブジェクトの顔検出枠データの位置、サイズに合わせて、コンテンツの位置、サイズを変更し、フレーム上にコンテンツを合成するようにしたので、撮影した映像に映っている人物にリアルタイムで合成を行った映像を表示することができる。   According to the first aspect of the present invention, scenario data that determines the timing of composition of one or more persons on a video and content is prepared, a face detection frame is detected from a frame of the captured video, and face detection is performed. Perform frame tracking, assign the obtained face object to the person in the scenario data, change the position and size of the content according to the position and size of the face detection frame data of the face object, and synthesize the content on the frame Since it did in this way, the image | video which carried out the synthesis | combination in real time can be displayed on the person reflected in the image | photographed image | video.

また、本発明第2の態様では、本発明第1の態様による画像表示システムにおいて、前記シナリオデータは、コマンドを複数有しており、前記各フレームについて、フレームから人物の抽出を行い、前記顔検出枠データの部分を除去して特徴部分を特定し、当該特徴部分と事前に設定された領域との面積比が所定のしきい値より大きい状態が、所定数のフレームについて連続した場合に、閲覧者からの指示があったと判断する指示判定手段をさらに有し、前記合成画像生成手段は、前記指示判定手段により指示があったとされた場合に、前記コマンドを切り替えた後、前記シナリオデータ対応付け手段による対応付けに従って、前記顔オブジェクトを前記シナリオデータ中の前記切り替え後のコマンドの人物に割り当てるものであることを特徴とする。   According to the second aspect of the present invention, in the image display system according to the first aspect of the present invention, the scenario data includes a plurality of commands, and for each frame, a person is extracted from the frame, and the face is extracted. When the state of the area ratio between the feature portion and the preset region is larger than a predetermined threshold is removed for a predetermined number of frames by removing the detection frame data portion and identifying the feature portion, It further includes an instruction determination unit that determines that there is an instruction from a viewer, and the composite image generation unit is configured to handle the scenario data after switching the command when there is an instruction from the instruction determination unit. According to the association by the attaching means, the face object is assigned to the person of the command after the switching in the scenario data. To.

本発明第2の態様によれば、シナリオデータが、複数のコマンドを有しており、各フレームについて、フレームから人物の抽出を行い、顔検出枠データの部分を除去して特徴部分を特定し、その特徴部分と事前に設定された領域との面積比が所定のしきい値より大きい状態が、所定数のフレームについて連続した場合に、閲覧者からの指示があったと判断し、コマンドを切り替えた後、顔オブジェクトをシナリオデータ中の切り替え後のコマンドの人物に割り当てるようにしたので、撮影した映像に映っている人物の指示に従って、当該人物にリアルタイムで合成を行った映像を表示することができる。   According to the second aspect of the present invention, the scenario data has a plurality of commands, and for each frame, a person is extracted from the frame, and the face detection frame data portion is removed to identify the feature portion. If the state where the area ratio between the feature part and the preset area is larger than a predetermined threshold continues for a predetermined number of frames, it is determined that there is an instruction from the viewer and the command is switched. After that, since the face object is assigned to the person of the command after switching in the scenario data, it is possible to display the synthesized image in real time on the person according to the instruction of the person shown in the captured video it can.

また、本発明第3の態様では、本発明第2の態様による画像表示システムにおいて、前記指示判定手段は、前記人物の抽出を、前記フレームから背景を除去して得られた背景除去画像と、前記フレームにHSV変換を行って得られたHSV画像の重複部分を抽出することにより行うことを特徴とする。   According to a third aspect of the present invention, in the image display system according to the second aspect of the present invention, the instruction determination unit includes a background-removed image obtained by extracting a background from the frame, and extracting the person. This is performed by extracting an overlapping portion of the HSV image obtained by performing HSV conversion on the frame.

本発明第3の態様によれば、フレームからの人物の抽出を、前記フレームから背景を除去して得られた背景除去画像と、前記フレームにHSV変換を行って得られたHSV画像の重複部分を抽出することにより行うようにしたので、閲覧者からの指示を判定する際、人物の特徴である肌色の部分をより正確に抽出して判定することが可能となる。   According to the third aspect of the present invention, the extraction of a person from a frame is performed by overlapping a background-removed image obtained by removing the background from the frame and an HSV image obtained by performing HSV conversion on the frame. Therefore, when an instruction from the viewer is determined, it is possible to more accurately extract and determine the skin color part that is a feature of the person.

また、本発明第4の態様では、本発明第1から第3のいずれかの態様による画像表示システムにおいて、前記トラッキング手段は、前記顔検出手段から取得した前記顔検出枠データ毎に、前記顔検出手段から一つ前に処理したフレームから取得した前記顔検出枠データと今回処理したフレームにおいて検出した前記顔検出枠データとの位置・矩形サイズ差を示す評価値を算出し、前記評価値の最も小さい一つ前の前記顔検出枠データを今回の前記顔検出枠データ毎に対応付けるものであり、前記顔検出手段が新規に検出した顔画像毎に顔オブジェクトを生成し、前記トラッキング手段から得られる一つ前と今回の前記顔検出枠データの対応付け結果を参照し、事前に定めた状態遷移表に従い前記顔オブジェクトの状態を閲覧状態に遷移させる状態遷移管理手段をさらに有し、前記シナリオデータ対応付け手段は、前記状態遷移管理手段により閲覧状態または待機状態となっている顔オブジェクトを取得し、前記シナリオデータに含まれる人物との対応付けを行うものであることを特徴とする。   According to a fourth aspect of the present invention, in the image display system according to any one of the first to third aspects of the present invention, the tracking means performs the face detection for each face detection frame data acquired from the face detection means. An evaluation value indicating a position / rectangular size difference between the face detection frame data acquired from the frame processed immediately before from the detection unit and the face detection frame data detected in the currently processed frame is calculated, and the evaluation value The smallest previous face detection frame data is associated with each face detection frame data this time, and a face object is generated for each face image newly detected by the face detection unit, and is obtained from the tracking unit. The state of the face object is transitioned to the browsing state according to a predetermined state transition table with reference to the association result between the previous and current face detection frame data. A state transition management means, wherein the scenario data associating means obtains a face object that is in a browsing state or a standby state by the state transition management means, and associates with a person included in the scenario data. It is what is performed.

本発明第4の態様によれば、検出された顔検出枠データ毎に、一つ前に処理したフレームから取得した顔検出枠データと今回処理したフレームにおいて検出した顔検出枠データとの位置・矩形サイズ差を示す評価値を算出し、評価値の最も小さい一つ前の顔検出枠データを今回の顔検出枠データ毎に対応付けることによりトラッキングを行い、新規に検出された顔画像毎に顔オブジェクトを生成し、トラッキング手段から得られる一つ前と今回の顔検出枠データの対応付け結果を参照し、事前に定めた状態遷移表に従い顔オブジェクトの状態を閲覧状態に遷移させるようにし、閲覧状態または待機状態となっている顔オブジェクトをシナリオデータに含まれる人物と対応付けるようにしたので、ノイズの可能性の高い顔画像には合成を行わず、適正な顔画像のみに合成を行うことが可能となる。   According to the fourth aspect of the present invention, for each detected face detection frame data, the position of the face detection frame data acquired from the previously processed frame and the face detection frame data detected in the currently processed frame An evaluation value indicating a rectangular size difference is calculated, tracking is performed by associating the previous face detection frame data with the smallest evaluation value with each face detection frame data, and a face is detected for each newly detected face image. Create an object, refer to the result of matching the previous and current face detection frame data obtained from the tracking means, and change the state of the face object to the viewing state according to the predetermined state transition table, and browse The face object that is in the state or standby state is associated with the person included in the scenario data, so the face image with high possibility of noise is not synthesized It is possible to perform the synthesis only the proper face image.

また、本発明第5の態様では、本発明第4の態様による画像表示システムにおいて、前記合成画像生成手段が、前記状態遷移管理手段が閲覧状態を検出した顔オブジェクトから順に、前記シナリオデータの人物に割り当てることを特徴とする。   Further, according to a fifth aspect of the present invention, in the image display system according to the fourth aspect of the present invention, the composite image generating means is configured to display the person of the scenario data in order from the face object whose state transition management means has detected the browsing state. It is characterized by assigning to.

本発明第5の態様によれば、状態遷移管理手段が閲覧状態を検出した顔オブジェクトから順に、シナリオデータの人物に割り当てるようにしたので、検出された人物が複数であった場合でも、各コンテンツを対応する人物に的確に合成することが可能となる。   According to the fifth aspect of the present invention, since the state transition management means assigns to the person in the scenario data in order from the face object from which the browsing state is detected, each content can be obtained even when there are a plurality of detected persons. Can be accurately combined with the corresponding person.

また、本発明第6の態様では、本発明第1から第3のいずれかの態様による画像表示システムにおいて、前記顔検出手段は、出力した顔検出枠データを顔オブジェクトとして設定するものであり、前記トラッキング手段は、前記顔検出手段から取得した前記顔検出枠データ毎に、一つ後のフレームにおける当該顔検出枠データの追跡を行い、同一の顔オブジェクトとして設定するものであり、前記シナリオデータ対応付け手段は、前記顔検出手段により設定された顔オブジェクトを取得し、前記シナリオデータに含まれる人物との対応付けを行うものであることを特徴とする。   In the sixth aspect of the present invention, in the image display system according to any one of the first to third aspects of the present invention, the face detection means sets the output face detection frame data as a face object. The tracking unit is configured to track the face detection frame data in the next frame for each of the face detection frame data acquired from the face detection unit, and set the same face object. The associating means acquires the face object set by the face detecting means, and performs associating with a person included in the scenario data.

本発明第6の態様によれば、出力した顔検出枠データを即座に顔オブジェクトとして設定するため、顔オブジェクトを迅速に設定することができ、シナリオデータとの対応付けも迅速に行うことが可能となる。   According to the sixth aspect of the present invention, the output face detection frame data is immediately set as a face object, so that the face object can be set quickly and can be quickly associated with the scenario data. It becomes.

また、本発明第7の態様では、本発明第1から第6のいずれかの態様による画像表示システムにおいて、前記シナリオデータは、シナリオ再生開始からの経過時間に基づく人物とコンテンツとの対応関係、コンテンツと当該コンテンツの前記コンテンツ記憶手段における所在との対応関係が定義されたものであり、前記合成画像生成手段は、前記経過時間に従って、前記人物に対応するコンテンツを、前記コンテンツ記憶手段から抽出し、合成を行うことを特徴とする。   According to a seventh aspect of the present invention, in the image display system according to any one of the first to sixth aspects of the present invention, the scenario data includes a correspondence relationship between a person and content based on an elapsed time from the start of scenario reproduction, The correspondence relationship between the content and the location of the content in the content storage unit is defined, and the composite image generation unit extracts the content corresponding to the person from the content storage unit according to the elapsed time. , And performing synthesis.

本発明第7の態様によれば、シナリオデータが、シナリオ再生開始からの経過時間に基づく人物とコンテンツとの対応関係、コンテンツとそのコンテンツのコンテンツ記憶手段における所在との対応関係を定義しているので、シナリオに従い、対応するコンテンツがタイミング通り人物に合成され、円滑な合成画像の再生が可能となる。   According to the seventh aspect of the present invention, the scenario data defines the correspondence between the person and the content based on the elapsed time from the scenario playback start, and the correspondence between the content and the location of the content in the content storage means. Therefore, according to the scenario, the corresponding content is synthesized with the person according to the timing, and a smooth synthesized image can be reproduced.

本発明によれば、シナリオに従って撮影映像を合成処理した映像を、閲覧者の閲覧時間を基にシナリオに応じて各個人にインタラクティブに対応して表示するとともに、迅速に表示することが可能となるという効果を奏する。   According to the present invention, an image obtained by synthesizing captured images according to a scenario can be displayed interactively for each individual according to the scenario based on the browsing time of the viewer, and can be quickly displayed. There is an effect.

本実施形態における画像表示システム1の構成を説明する図。The figure explaining the structure of the image display system 1 in this embodiment. 画像表示システム1を構成する画像処理装置2のハードウェアブロック図。1 is a hardware block diagram of an image processing device 2 that constitutes an image display system 1. FIG. 画像処理装置2に実装されたコンピュータプログラムで実現される機能ブロック図。FIG. 3 is a functional block diagram realized by a computer program installed in the image processing apparatus 2. 画像処理装置2がフレームを解析する処理を説明するフロー図。The flowchart explaining the process which the image processing apparatus 2 analyzes a flame | frame. トラッキング処理を説明するためのフロー図。The flowchart for demonstrating a tracking process. 顔検出枠データ対応付け処理を説明するためのフロー図。The flowchart for demonstrating face detection frame data matching processing. 本実施形態における状態遷移表を説明する図。The figure explaining the state transition table in this embodiment. 人体及び顔検出結果を説明するための図。The figure for demonstrating a human body and a face detection result. 画像処理装置2が合成画像を作成する処理を説明するフロー図。The flowchart explaining the process in which the image processing apparatus 2 produces a synthesized image. ターゲットが1人の場合のXML形式のシナリオデータの一例を示す図。The figure which shows an example of the scenario data of an XML format in case a target is one person. ターゲットが2人の場合のXML形式のシナリオデータの一例を示す図。The figure which shows an example of the scenario data of the XML format in case a target is two persons. 顔検出枠を用いたコンテンツの合成の様子を示す図。The figure which shows the mode of the composition of the content using a face detection frame. ターゲットが1人の場合の合成画像の表示状態を示す図。The figure which shows the display state of a synthesized image in case a target is one person. ターゲットが2人の場合の合成画像の表示状態を示す図。The figure which shows the display state of the synthesized image in case there are two targets. タッチボタン対応の場合のXML形式のシナリオデータの一例を示す図。The figure which shows an example of the scenario data of the XML format in the case of a touch button correspondence. タッチボタン対応の場合の合成画像の表示状態を示す図。The figure which shows the display state of the synthesized image in the case of a touch button corresponding | compatible. 指示判定処理における画像処理の様子を示す図。The figure which shows the mode of the image process in an instruction | indication determination process. 画像処理装置2´に実装されたコンピュータプログラムで実現される機能ブロック図。The functional block diagram implement | achieved by the computer program mounted in image processing apparatus 2 '. 顔検出処理及びトラッキング処理を説明するためのフロー図。The flowchart for demonstrating a face detection process and a tracking process.

以下、本発明の好適な実施形態について図面を参照して詳細に説明する。図1は,本実施形態における画像表示システム1の構成を説明する図、図2は、画像表示システム1を構成する画像処理装置2のハードウェアブロック図、図3は、画像処理装置2に実装されたコンピュータプログラムで実現される機能ブロック図である。   DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, preferred embodiments of the invention will be described in detail with reference to the drawings. FIG. 1 is a diagram illustrating a configuration of an image display system 1 according to the present embodiment, FIG. 2 is a hardware block diagram of an image processing apparatus 2 that configures the image display system 1, and FIG. It is a functional block diagram implement | achieved by the performed computer program.

図1で図示したように、画像表示システム1には、液晶ディスプレイ等の表示デバイスであるディスプレイ3が含まれる。このディスプレイ3には、撮影した画像だけでなく、表示領域を分けて広告を表示するようにしても良い。   As illustrated in FIG. 1, the image display system 1 includes a display 3 that is a display device such as a liquid crystal display. The display 3 may display not only the photographed image but also the advertisement by dividing the display area.

この場合、ディスプレイ3を街頭や店舗などに設置することにより、画像表示システム1はデジタルサイネージとしても機能する。画像表示システム1をデジタルサイネージとして機能させる場合、ディスプレイ3で表示する広告映像を制御するサーバが必要となる。   In this case, the image display system 1 also functions as a digital signage by installing the display 3 in a street or a store. When the image display system 1 functions as digital signage, a server that controls advertisement video displayed on the display 3 is required.

ディスプレイ3には、ディスプレイ3で再生されている映像を見ている人物の顔が撮影されるようにアングルが設定され、ディスプレイ3で再生されている広告映像を閲覧している人物を撮影するビデオカメラ4が設置されている。   An angle is set on the display 3 so that the face of the person who is watching the video reproduced on the display 3 is photographed, and a video for photographing a person who is viewing the advertisement video reproduced on the display 3 A camera 4 is installed.

このビデオカメラ4で撮影された映像は、USBポートなどを利用して画像処理装置2に入力され、画像処理装置2は、ビデオカメラ4から送信された映像に含まれるフレームを解析し、ディスプレイ3の前にいる人物や,ディスプレイ3で再生されている映像を閲覧した人物の顔を検出し、閲覧者に関するログ(例えば、ディスプレイ3の閲覧時間)を記憶する。   The video captured by the video camera 4 is input to the image processing apparatus 2 using a USB port or the like. The image processing apparatus 2 analyzes the frame included in the video transmitted from the video camera 4 and displays the display 3. And the face of the person who browsed the video reproduced on the display 3 are detected, and a log relating to the viewer (for example, the viewing time of the display 3) is stored.

図1で図示した画像表示システム1を構成する装置において、ディスプレイ3及びビデオカメラ4は市販の装置を利用できるが、画像処理装置2は、従来技術にはない特徴を備えているため、ここから、画像処理装置2について詳細に説明する。   In the apparatus constituting the image display system 1 illustrated in FIG. 1, commercially available apparatuses can be used for the display 3 and the video camera 4, but the image processing apparatus 2 has features that are not found in the prior art. The image processing apparatus 2 will be described in detail.

画像処理装置2は汎用のコンピュータを利用して実現することができ、汎用のコンピュータと同様なハードウェアを画像処理装置2は備え、図2では、該ハードウェアとして、CPU2a(CPU: Central Processing Unit)と、BIOSが実装されるROM2b(ROM: Read-Only Memory)と、コンピュータのメインメモリであるRAM2c(RAM: Random Access Memory)と、外部記憶装置として大容量のデータ記憶装置2d(例えば,ハードディスク)と、外部デバイス(ビデオカメラ4)とデータ通信するための入出力インターフェース2eと、ネットワーク通信するためのネットワークインターフェース2fと、表示デバイス(ディスプレイ3)に情報を送出するための表示出力インターフェース2gと、文字入力デバイス2h(例えば、キーボード)と、ポインティングデバイス2i(例えば、マウス)を記載している。   The image processing apparatus 2 can be realized by using a general-purpose computer, and the image processing apparatus 2 includes hardware similar to that of the general-purpose computer. In FIG. 2, as the hardware, a CPU 2a (CPU: Central Processing Unit) is provided. ), A ROM 2b (ROM: Read-Only Memory) on which the BIOS is mounted, a RAM 2c (RAM: Random Access Memory) that is a main memory of the computer, and a large-capacity data storage device 2d (for example, a hard disk) ), An input / output interface 2e for data communication with an external device (video camera 4), a network interface 2f for network communication, and a display output interface 2g for sending information to a display device (display 3) , Character input device 2h (for example, keyboard) and poi Computing device 2i (e.g., a mouse) describes.

画像処理装置2のデータ記憶装置2dには、CPU2aを動作させるためのコンピュータプログラムが実装され、このコンピュータプログラムによって、画像処理装置2には図3で図示した手段が備えられる。また、データ記憶装置2dは、画像表示システムに必要な様々なデータを格納することが可能となっており、映像上の1人以上の人物とコンテンツとの合成のタイミングを定めたシナリオデータを記憶したシナリオデータ記憶手段、合成に用いるコンテンツを記憶したコンテンツ記憶手段としての役割も果たしている。   A computer program for operating the CPU 2a is installed in the data storage device 2d of the image processing apparatus 2, and the image processing apparatus 2 is provided with the means shown in FIG. 3 by this computer program. The data storage device 2d is capable of storing various data necessary for the image display system, and stores scenario data that determines the timing of combining one or more persons on the video with the content. It also serves as a scenario data storage means and a content storage means for storing content used for composition.

ここで、コンテンツ記憶手段に格納されているコンテンツについて説明しておく。コンテンツは、撮影された映像のフレームと合成して合成画像を得る際の素材画像である。図12(a)にコンテンツの一例を示す。コンテンツとしては、特に限定されず、様々な形態のものを用いることができるが、図12(a)の例では、コンテンツとしてカツラを用意した場合を示している。このコンテンツは矩形情報(x,y方向の位置、幅、高さ)を有しており、この矩形情報を用いて、撮影されたフレームとの位置合わせが可能になっている。   Here, the content stored in the content storage means will be described. The content is a material image when a composite image is obtained by combining with the frame of the captured video. FIG. 12A shows an example of content. The content is not particularly limited, and various forms can be used. In the example of FIG. 12A, a case where a wig is prepared as the content is shown. This content has rectangular information (position, width, and height in the x and y directions), and alignment with the captured frame is possible using this rectangular information.

図3で図示したように、画像処理装置2の入力は、ビデオカメラ4によって撮影された映像で、画像処理装置2の出力は、撮影された映像を加工した加工映像である。   As shown in FIG. 3, the input of the image processing device 2 is an image captured by the video camera 4, and the output of the image processing device 2 is a processed image obtained by processing the captured image.

画像処理装置2には、ビデオカメラ4によって撮影された映像のフレームを解析する手段として、ビデオカメラ4によって撮影された映像のフレームの背景画像を除去する背景除去手段20と、背景除去手段20によって背景画像が除去されたフレームから人物の顔を検出する顔検出手段21と、背景除去手段20によって背景画像が除去されたフレームから人体を検出する人体検出手段22と、顔検出手段21が検出した顔を前後のフレームで対応付けるトラッキング手段23と、パーティクルフィルタなどの動画解析手法を用い、指定された顔画像をフレームから検出する動画解析手段24と、顔検出手段21が新規に検出した顔画像毎に顔オブジェクトを生成し、トラッキング手段23から得られる一つ前と今回の顔検出枠データの対応付け結果を参照し、事前に定めた状態遷移表に従い顔オブジェクトの状態を遷移させ、顔オブジェクトの状態遷移に応じたログを記憶する状態遷移管理手段25と、顔検出手段21により検出され、状態遷移管理手段25により状態遷移された顔オブジェクトと、用意されたシナリオデータの対応付けを行うシナリオデータ対応付け手段83と、ビデオカメラ4によって撮影された映像の各フレームを、シナリオデータに従って加工した合成画像を作成する合成画像作成手段84と、閲覧者が所定の位置に定義されたタッチレスボタンに対して指示を行っているかどうかを判定する指示判定手段85と、指示判定手段85による判定に従ってシナリオデータ中のコマンドの切替を行うコマンド切替手段86を備え、更に、本実施形態では、ディスプレイ3を閲覧した人物の属性(年齢や性別)をログデータに含ませるために、顔検出手段21が検出した顔画像から人物の人物属性(年齢や性別)を推定する人物属性推定手段26、状態遷移管理手段25が記憶したログをファイル形式で出力するログファイル出力手段27、加工対象のターゲット(人または場所)をシナリオデータ中に定義する合成ターゲット定義手段80、加工に用いるコンテンツ(画像、音声、CG等)をシナリオデータ中に定義する合成コンテンツ定義手段81、加工内容をシナリオデータ中に定義するアニメーションシナリオ定義手段82を備えている。   The image processing apparatus 2 includes a background removing unit 20 that removes a background image of a frame of a video shot by the video camera 4 and a background removing unit 20 as means for analyzing the frame of the video shot by the video camera 4. Face detection means 21 for detecting a human face from the frame from which the background image has been removed, human body detection means 22 for detecting a human body from the frame from which the background image has been removed by the background removal means 20, and the face detection means 21 have detected. For each face image newly detected by the face detecting means 21, the tracking means 23 for associating the face with the front and back frames, the moving picture analyzing means 24 for detecting the designated face image from the frame by using a moving picture analysis method such as a particle filter. A face object is generated and a pair of the previous face detection frame data obtained from the tracking means 23 and the current face detection frame data. Referring to the attached result, the state of the face object is transitioned according to a predetermined state transition table, and the state transition management unit 25 that stores a log corresponding to the state transition of the face object and the face detection unit 21 detect the state. A composition obtained by processing each frame of a video shot by the video camera 4 according to the scenario data, the scenario data associating means 83 for associating the face object whose state has been changed by the transition management means 25 and the prepared scenario data. The composite image creating means 84 for creating an image, the instruction determining means 85 for determining whether or not the viewer is instructing the touchless button defined at a predetermined position, and the scenario according to the determination by the instruction determining means 85 Command switching means 86 for switching commands in data is provided, and in the present embodiment, Personal attribute estimation means 26 for estimating the personal attributes (age and gender) of the person from the face image detected by the face detection means 21 in order to include in the log data the attributes (age and gender) of the person who has viewed the display 3; Log file output means 27 for outputting the log stored in the state transition management means 25 in a file format, synthetic target definition means 80 for defining the target (person or place) to be processed in the scenario data, content (image, A synthesized content defining unit 81 for defining voice, CG, etc.) in the scenario data, and an animation scenario defining unit 82 for defining the processing content in the scenario data.

シナリオデータは、別のシステムで事前に作成し、シナリオデータ記憶手段としてのデータ記憶装置2dに格納しておくことができるが、合成ターゲット定義手段80、合成コンテンツ定義手段81、アニメーションシナリオ定義手段82により、作成することもできる。合成ターゲット定義手段80、合成コンテンツ定義手段81、アニメーションシナリオ定義手段82は、撮影により得られた映像の各フレームをどのように加工するかを示したシナリオデータを作成するために用いられるものである。シナリオデータの形式は特に限定されないが、本実施形態では、XML(eXtensible Markup Language)を採用している。シナリオデータとしてXMLを採用した本実施形態では、合成ターゲット定義手段80、合成コンテンツ定義手段81、アニメーションシナリオ定義手段82は、テキストエディタで実現することができる。したがって、テキストエディタを起動し、管理者が文字入力デバイスを用いて、文字入力を行うことにより、シナリオデータが作成される。   The scenario data can be created in advance by another system and stored in the data storage device 2d as the scenario data storage means, but the synthesis target definition means 80, the synthesis content definition means 81, and the animation scenario definition means 82. Can also be created. The composite target definition means 80, the composite content definition means 81, and the animation scenario definition means 82 are used to create scenario data that indicates how to process each frame of a video obtained by shooting. . The format of the scenario data is not particularly limited, but in the present embodiment, XML (eXtensible Markup Language) is adopted. In the present embodiment in which XML is used as the scenario data, the synthesis target definition unit 80, the synthesis content definition unit 81, and the animation scenario definition unit 82 can be realized by a text editor. Therefore, scenario data is created when the text editor is activated and the administrator inputs characters using the character input device.

図10は、ターゲットが1人の場合のXML形式のシナリオデータの一例を示す図である。ここからは、図10のシナリオデータを参照しながら、合成ターゲット定義手段80、合成コンテンツ定義手段81、アニメーションシナリオ定義手段82について詳細に説明する。合成ターゲット定義手段80は、ターゲットID、タイプ、絶対座標、移り変わり設定の4つの属性を設定することによりターゲットを定義する。図10の例では、3行目の<Simulation Targets>と、9行目の</Simulation Targets>の2つのタグで囲まれた範囲に対応する。タイプについては、人と場所の2種を設定可能であるが、図10の例では、<Human>タグを用いて人についてのみ設定している。移り変わり設定は、人に対してのみ設定可能となっており、対応付け済みの人が消失した場合、新たな人に対応付けるかどうかを設定するものである。図10の例では、5行目のタグで、ターゲットID、タイプ、移り変わり設定の3属性を設定しており、ターゲットIDは“0”、タイプは“human(人)”、移り変わり設定(IsTransfer)は“false(設定しない)”となっている。   FIG. 10 is a diagram illustrating an example of scenario data in the XML format when the number of targets is one. From now on, the synthetic target definition unit 80, the synthetic content definition unit 81, and the animation scenario definition unit 82 will be described in detail with reference to the scenario data of FIG. The synthetic target definition means 80 defines a target by setting four attributes of target ID, type, absolute coordinate, and transition setting. In the example of FIG. 10, it corresponds to a range surrounded by two tags, <Simulation Targets> on the third line and </ Simulation Targets> on the ninth line. Regarding the type, two types of person and place can be set, but in the example of FIG. 10, only the person is set using the <Human> tag. The transition setting can be set only for a person, and sets whether or not to associate with a new person when the associated person disappears. In the example of FIG. 10, the tag of the 5th line sets three attributes of target ID, type, and transition setting, the target ID is “0”, the type is “human”, and transition setting (IsTransfer) Is “false (not set)”.

合成コンテンツ定義手段81は、コンテンツID、コンテンツのパス、重なり設定の3つの属性を設定することによりコンテンツを定義する。図10の例では、10行目の<Simulation Contents>と、18行目の</Simulation Contents >の2つのタグで囲まれた範囲に対応する。図10の例では、コンテンツID(ContentsID)が“0”から“6”までの7つのコンテンツについて定義されている。図10に示すように、各コンテンツについて1行単位で、コンテンツのパス(ContentsPath)、重なり設定(OverlapOrder)が設定される。   The composite content definition unit 81 defines the content by setting three attributes of a content ID, a content path, and an overlap setting. In the example of FIG. 10, it corresponds to a range surrounded by two tags, <Simulation Contents> on the 10th line and </ Simulation Contents> on the 18th line. In the example of FIG. 10, the content ID (ContentsID) is defined for seven contents from “0” to “6”. As shown in FIG. 10, a content path (ContentsPath) and an overlap setting (OverlapOrder) are set in units of one line for each content.

アニメーションシナリオ定義手段82は、コマンドID、コマンドタイプ、開始キー、終了キー、キータイプ、ターゲットID、コンテンツIDの7つの属性を設定することによりアニメーションシナリオを定義する。図10の例では、19行目の<Animation Commands>と、34行目の</Animation Commands>の2つのタグで囲まれた範囲に対応する。図10の例では、コマンドID(CommandID)が“0”から“6”までの7つのコマンドについて定義されている。図10に示すように、各コマンドについて2行単位で、コマンドタイプ、開始キー、終了キー、キータイプ、ターゲットID、コンテンツIDが設定される。コマンドタイプとは、どのようなフレームを基にどのようなタイプの効果を生じさせるかを示すものであり、レイヤ合成、αブレンド合成、音声再生開始が用意されている。このうち、レイヤ合成、αブレンド合成は、画像合成のタイプを示すものであり、レイヤ合成は、コンテンツを上書き合成するものであり、αブレンド合成は、設定されたα比率に応じてコンテンツとフレームを透過させて合成するものである。図10の例では、コマンドタイプ(CommandType)として、レイヤ合成(LayerMontage)が設定されている。開始キー、終了キーは各コマンドの開始時点、終了時点を設定するものである。本実施形態では、シナリオデータの時間を、シナリオ開始時を“0.0”、シナリオ終了時を“1.0”として管理している。したがって、最初に開始するコマンドの開始キー(StartKey)は“0.0”、最後に終了するコマンドの終了キー(EndKey)は“1.0”となる。キータイプとは、開始キー、終了キーの基準とする対象を設定するものであり、own、base、globalの3つが用意されている。ownは各ターゲットIDに対応する顔オブジェクトの閲覧時間を基準とし、baseはターゲットID=0に対応する顔オブジェクトの閲覧時間を基準とし、globalは撮影映像の最初のフレームを取得した時間を基準とする。図10の例では、キータイプ(KeyType)として、ownが設定されているので、顔オブジェクトがフレームに登場した時点(顔オブジェクトが“閲覧開始”と判断された時点)を“0.0”として、開始キー、終了キーが認識されることになる。   The animation scenario definition means 82 defines an animation scenario by setting seven attributes of command ID, command type, start key, end key, key type, target ID, and content ID. In the example of FIG. 10, it corresponds to a range surrounded by two tags of <Animation Commands> on the 19th line and </ Animation Commands> on the 34th line. In the example of FIG. 10, the command ID (CommandID) is defined for seven commands from “0” to “6”. As shown in FIG. 10, for each command, a command type, a start key, an end key, a key type, a target ID, and a content ID are set in units of two lines. The command type indicates what type of effect is generated based on what frame, and layer synthesis, α blend synthesis, and audio reproduction start are prepared. Of these, layer composition and alpha blend composition indicate the type of image composition, layer composition overwrites content, and alpha blend composition is content and frame according to the set α ratio. Is synthesized through transmission. In the example of FIG. 10, layer composition (LayerMontage) is set as the command type (CommandType). The start key and end key set the start time and end time of each command. In the present embodiment, the scenario data time is managed as “0.0” at the start of the scenario and “1.0” at the end of the scenario. Therefore, the start key (StartKey) of the command that starts first is “0.0”, and the end key (EndKey) of the command that ends last is “1.0”. The key type is to set a target as a reference for the start key and the end key, and three types of own, base, and global are prepared. own is based on the browsing time of the face object corresponding to each target ID, base is based on the browsing time of the face object corresponding to target ID = 0, and global is based on the time when the first frame of the captured video is acquired. To do. In the example of FIG. 10, since “own” is set as the key type (KeyType), the time point when the face object appears in the frame (the time point when the face object is determined to be “viewing start”) is set to “0.0”. The start key and end key will be recognized.

シナリオデータの<CycleInterval>タグは、シナリオの開始から終了までの時間を秒単位で設定するものであり、図10の例では、1行目の<CycleInterval>タグにおいて“10”が設定されているので、シナリオの開始から終了まで10秒であることを示している。開始キー、終了キーの値を10倍した実時間でシナリオは管理されることになる。シナリオデータの<IsAutoLoop>タグは、ループ処理(繰り返し処理)を行うかどうかを設定するものであり、図10の例では、2行目の<IsAutoLoop>タグにおいて“true”が設定されているので、ループ処理を行うことを示している。<CycleInterval>タグおよび<IsAutoLoop>タグについても、テキストエディタにより設定が可能である。このようにして、合成ターゲット定義手段80、合成コンテンツ定義手段81、アニメーションシナリオ定義手段82により作成されたシナリオデータは、シナリオデータ記憶手段としてのデータ記憶装置2dに格納される。   The <CycleInterval> tag of the scenario data sets the time from the start to the end of the scenario in seconds. In the example of FIG. 10, “10” is set in the <CycleInterval> tag on the first line. Therefore, it is shown that it is 10 seconds from the start to the end of the scenario. The scenario is managed in real time that is 10 times the value of the start key and end key. The <IsAutoLoop> tag of the scenario data sets whether to perform loop processing (repeated processing). In the example of FIG. 10, “true” is set in the <IsAutoLoop> tag on the second line. , Loop processing is performed. The <CycleInterval> tag and <IsAutoLoop> tag can also be set using a text editor. In this way, the scenario data created by the composite target definition means 80, the composite content definition means 81, and the animation scenario definition means 82 is stored in the data storage device 2d as the scenario data storage means.

画像処理装置2が、ビデオカメラ4によって撮影された映像のフレームを時系列で解析することで、画像処理装置2のデータ記憶装置2dには、閲覧測定に利用可能なログファイルとして、ディスプレイの閲覧時間が記憶される閲覧時間ログファイルと、ディスプレイを閲覧した人物の位置が記憶される位置ログファイルと、ディスプレイを閲覧した人物の人物属性(例えば,年齢・性別)が記憶される人物属性ログファイルと、ディスプレイの前にいる人物の総人数、ディスプレイを閲覧していない人物の人数、ディスプレイを閲覧した人物の人数が記憶される人数ログファイルが記憶され、これらのログファイルを出力するログファイル出力手段27が画像処理装置2には備えられている。本発明では、ログファイルを作成することは必須ではないが、ログファイルを作成する過程における顔オブジェクト、閲覧開始時刻が、合成画像の生成に利用される。   When the image processing device 2 analyzes the frames of the video captured by the video camera 4 in time series, the data storage device 2d of the image processing device 2 can view the display as a log file that can be used for browsing measurement. A browsing time log file in which time is stored, a position log file in which the position of a person who has viewed the display is stored, and a person attribute log file in which the personal attributes (for example, age and gender) of the person who has viewed the display are stored Log file output that stores the total number of people in front of the display, the number of people who are not browsing the display, the number of people who have viewed the display, and outputs these log files Means 27 is provided in the image processing apparatus 2. In the present invention, it is not essential to create a log file, but the face object and the browsing start time in the process of creating the log file are used to generate a composite image.

まず、ビデオカメラ4から送信された映像のフレームを画像処理装置2が解析する処理を説明しながら、ビデオカメラ4によって撮影された映像のフレームを解析、加工するために備えられた各手段について説明する。   First, each means provided for analyzing and processing a frame of a video shot by the video camera 4 will be described while explaining a process in which the image processing apparatus 2 analyzes a frame of a video transmitted from the video camera 4. To do.

図4は、ビデオカメラ4から送信された映像のフレームを画像処理装置2が解析する処理を説明するフロー図である。それぞれの処理の詳細は後述するが、画像処理装置2に映像の一つのフレームが入力されると、画像処理装置2は該フレームについて背景除去処理S1を行い、背景除去処理S1した後のフレームについて、顔検出処理S2及び人体検出処理S3を行う。   FIG. 4 is a flowchart for explaining processing in which the image processing apparatus 2 analyzes a frame of a video transmitted from the video camera 4. Although details of each processing will be described later, when one frame of video is input to the image processing device 2, the image processing device 2 performs background removal processing S1 on the frame, and about the frame after the background removal processing S1. Then, face detection processing S2 and human body detection processing S3 are performed.

画像処理装置2は、背景除去処理S1した後のフレームについて、顔検出処理S2及び人体検出処理S3を行った後、顔検出処理S3の結果を利用して、今回の処理対象となるフレームであるNフレームから検出された顔と、一つ前のフレームであるN−1フレームから検出された顔を対応付けるトラッキング処理S4を行い、トラッキング処理S4の結果を踏まえて顔オブジェクトの状態を遷移させる状態遷移管理処理S5を実行する。   The image processing apparatus 2 performs the face detection process S2 and the human body detection process S3 on the frame after the background removal process S1, and then uses the result of the face detection process S3 as a frame to be processed this time. A state transition in which a tracking process S4 is performed for associating the face detected from the N frame with the face detected from the previous frame N-1 frame, and the state of the face object is changed based on the result of the tracking process S4. The management process S5 is executed.

まず、背景除去処理S1について説明する。背景除去処理S1を担う手段は、画像処理装置2の背景除去手段20である。画像処理装置2が背景除去処理S1を実行するのは、図1に図示しているように、ディスプレイ3の上部に設けられたビデオカメラ4の位置・アングルは固定であるため、ビデオカメラ4が撮影した映像には変化しない背景画像が含まれることになり、この背景画像を除去することで、精度よく人体・顔を検出できるようにするためである。   First, the background removal process S1 will be described. The means responsible for the background removal processing S1 is the background removal means 20 of the image processing apparatus 2. The image processing apparatus 2 executes the background removal process S1 because the position and angle of the video camera 4 provided at the upper part of the display 3 is fixed as shown in FIG. This is because a captured image includes a background image that does not change, and by removing this background image, a human body / face can be detected with high accuracy.

画像処理装置2の背景除去手段20が実行する背景除去処理としては既存技術を利用でき、ビデオカメラ4が撮影する映像は、例えば、朝、昼、夜で光が変化する場合があるので、背景の時間的な変化を考慮した動的背景更新法を用いることが好適である。   As the background removal process executed by the background removal unit 20 of the image processing apparatus 2, existing technology can be used, and the video captured by the video camera 4 may change in the morning, noon, and night, for example. It is preferable to use a dynamic background update method that takes into account the temporal change of.

背景の時間的な変化を考慮した動的背景更新法としては、例えば、「森田 真司, 山澤 一誠, 寺沢 征彦, 横矢 直和: "全方位画像センサを用いたネットワーク対応型遠隔監視システム", 電子情報通信学会論文誌(D-II), Vol. J88-D-II, No. 5, pp. 864-875, (2005.5)」に記載されている手法を用いることができる。   Dynamic background update methods that take into account temporal changes in the background include, for example, “Shinji Morita, Kazumasa Yamazawa, Nobuhiko Terasawa, Naokazu Yokoya:“ Network-enabled remote monitoring system using omnidirectional image sensors ”, electronic The method described in the Journal of Information and Communication Engineers (D-II), Vol. J88-D-II, No. 5, pp. 864-875, (2005.5) can be used.

次に、画像処理装置2の顔検出手段21によって実行される顔検出処理S2について説明する。顔検出処理S2で実施する顔検出方法としては、特許文献1に記載されているような顔検出方法も含め、様々な顔検出方法が開示されているが、本実施形態では、弱い識別器として白黒のHaar-Like特徴を用いたAdaboostアルゴリズムによる顔検出法を採用している。なお、弱い識別器として白黒のHaar-Like特徴を用いたAdaboostアルゴリズムによる顔検出法については、「Paul Viola and Michael J. Jones, "Rapid Object Detection using a Boosted Cascade of Simple Features", IEEE CVPR, 2001.」、「Rainer Lienhart and Jochen Maydt, "An Extended Set of Haar-like Features for Rapid Object Detection", IEEE ICIP 2002, Vol. 1, pp. 900-903, Sep. 2002.」で述べられている。   Next, the face detection process S2 executed by the face detection unit 21 of the image processing apparatus 2 will be described. Various face detection methods including the face detection method described in Patent Document 1 have been disclosed as face detection methods performed in the face detection process S2, but in this embodiment, as weak classifiers, The face detection method by Adaboost algorithm using black and white Haar-Like feature is adopted. For the face detection method by Adaboost algorithm using black and white Haar-Like features as weak classifiers, see “Paul Viola and Michael J. Jones,“ Rapid Object Detection using a Boosted Cascade of Simple Features ”, IEEE CVPR, 2001. ", Rainer Lienhart and Jochen Maydt," An Extended Set of Haar-like Features for Rapid Object Detection ", IEEE ICIP 2002, Vol. 1, pp. 900-903, Sep. 2002.

弱い識別器として白黒のHaar-Like特徴を用いたAdaboostアルゴリズムによる顔検出法を実行することで、フレームに含まれる顔画像毎に顔検出枠データが得られ、この顔検出枠データには、顔画像を検出したときに利用した顔検出枠の位置(例えば、左上隅の座標)・矩形サイズ(幅及び高さ)が含まれる。   Face detection frame data is obtained for each face image included in the frame by executing the face detection method using the Adaboost algorithm using the black and white Haar-Like feature as a weak classifier. The position of the face detection frame used when detecting the image (for example, the coordinates of the upper left corner) and the rectangular size (width and height) are included.

次に、画像処理装置2の人体検出手段22によって実行される人体検出処理S3について説明する。人体を検出する手法としては赤外線センサを用い、人物の体温を利用して人体を検出する手法が良く知られているが、本実施形態では、顔検出処理S2で実施する人体検出方法として、弱い識別器としてHOG(Histogram of Oriented Gradients)特徴を用いたAdaboostアルゴリズムによる人体検出法を採用している。なお、弱い識別器としてHOG(Histogram of Oriented Gradients)特徴を用いたAdaboostアルゴリズムによる人体検出法については、「N. Dalal and B. Triggs,"Histograms of Oriented Gradientstional Conference on Computer Vision,pp. 734-741,2003.」で述べれられている。   Next, the human body detection process S3 executed by the human body detection unit 22 of the image processing apparatus 2 will be described. As a method of detecting a human body, a method of detecting a human body using an infrared sensor and utilizing a human body temperature is well known. However, in this embodiment, the human body detection method performed in the face detection process S2 is weak. A human body detection method based on the Adaboost algorithm using HOG (Histogram of Oriented Gradients) features is adopted as a discriminator. For the human body detection method using the Adaboost algorithm using the HOG (Histogram of Oriented Gradients) feature as a weak classifier, see “N. Dalal and B. Triggs,” Histograms of Oriented Gradientstional Conference on Computer Vision, pp. 734-741. , 2003. "

弱い識別器としてHOG特徴を用いたAdaboostアルゴリズムによる人体検出法を実行することで、フレームに含まれる人体毎に人体検出枠データが得られ、この人体検出枠データには、人体画像を検出したときに利用した人体検出枠の位置(例えば、左上隅の座標)・矩形サイズ(幅及び高さ)が得られる。   By executing the human body detection method using the Adaboost algorithm using the HOG feature as a weak classifier, human body detection frame data is obtained for each human body included in the frame, and when this human body detection frame data is detected, The position (for example, the coordinates of the upper left corner) and the rectangular size (width and height) of the human body detection frame used in the above are obtained.

図8は、人体及び顔検出結果を説明するための図である。図8のフレーム7で撮影されている人物は、人物7a〜7fの合計6人が含まれ,画像処理装置2の人体検出手段22はそれぞれの人物7a〜7fを検出し、それぞれの人物7a〜7fに対応する人体検出枠データ70a〜70fを出力する。また、画像処理装置2の顔検出手段21は、両眼が撮影されている人物7a〜7cの顔を検出し、それぞれの顔に対応する顔検出枠データ71a〜71cを出力する。   FIG. 8 is a diagram for explaining the human body and face detection results. The person photographed in the frame 7 of FIG. 8 includes a total of six persons 7a to 7f, and the human body detection means 22 of the image processing apparatus 2 detects each person 7a to 7f, and each person 7a to 7f is detected. Human body detection frame data 70a to 70f corresponding to 7f are output. Further, the face detection means 21 of the image processing apparatus 2 detects the faces of the persons 7a to 7c in which both eyes are photographed, and outputs face detection frame data 71a to 71c corresponding to each face.

次に、画像処理装置2のトラッキング手段23によって実行されるトラッキング処理S4について説明する。トラッキング処理S4では、画像処理装置2のトラッキング手段23によって、顔検出手段21がN−1フレームから検出した顔検出枠データと、顔検出手段21がNフレームから検出した顔検出枠データを対応付ける処理が実行される。   Next, the tracking process S4 executed by the tracking unit 23 of the image processing apparatus 2 will be described. In the tracking process S4, a process for associating the face detection frame data detected by the face detection unit 21 from the N-1 frame with the face detection frame data detected by the face detection unit 21 from the N frame by the tracking unit 23 of the image processing apparatus 2. Is executed.

ここから,画像処理装置2のトラッキング手段23によって実行されるトラッキング処理S4について詳細に説明する。図5は、画像処理装置2のトラッキング手段23によって実行されるトラッキング処理S4を説明するためのフロー図である。   From here, the tracking process S4 performed by the tracking means 23 of the image processing apparatus 2 will be described in detail. FIG. 5 is a flowchart for explaining the tracking process S4 executed by the tracking unit 23 of the image processing apparatus 2.

画像処理装置2のトラッキング手段23は、Nフレームをトラッキング処理S4するために、まず、Nフレームから得られた顔検出枠データ及び人体検出枠データをそれぞれ顔検出手段21及び人体検出手段22から取得する(S10)。   The tracking unit 23 of the image processing apparatus 2 first acquires the face detection frame data and the human body detection frame data obtained from the N frame from the face detection unit 21 and the human body detection unit 22, respectively, in order to perform the tracking process S4 for the N frame. (S10).

なお、次回のトラッキング処理S4において、Nフレームから得られた顔検出枠データは、N−1フレームの顔検出枠データとして利用されるため、画像処理装置2のトラッキング手段23は、Nフレームから得られた顔検出枠データをRAM2cまたはデータ記憶装置2dに記憶する。   In the next tracking process S4, the face detection frame data obtained from the N frame is used as the face detection frame data of the N-1 frame. Therefore, the tracking unit 23 of the image processing apparatus 2 obtains the frame from the N frame. The face detection frame data thus obtained is stored in the RAM 2c or the data storage device 2d.

画像処理装置2のトラッキング手段23は、Nフレームの顔検出枠データ及び人体検出枠データを取得すると、Nフレームの人体検出枠データ毎に、ディスプレイの閲覧判定を行う(S11)。   When the tracking unit 23 of the image processing apparatus 2 acquires the face detection frame data and the human body detection frame data of N frames, the tracking means 23 performs display browsing determination for each human body detection frame data of N frames (S11).

上述しているように、人体検出枠データには人体検出枠の位置及び矩形サイズが含まれ、顔検出枠データには顔検出枠の位置及び矩形サイズが含まれるため、顔検出枠が含まれる人体検出枠データは、ディスプレイ3を閲覧している人物の人体検出枠データと判定でき、また、顔検出枠が含まれない人体検出枠データは、ディスプレイ3を閲覧していない人物の人体検出枠データと判定できる。   As described above, since the human body detection frame data includes the position and the rectangular size of the human body detection frame, and the face detection frame data includes the position and the rectangular size of the face detection frame, the face detection frame is included. The human body detection frame data can be determined as the human body detection frame data of the person who is browsing the display 3, and the human body detection frame data which does not include the face detection frame is the human body detection frame data of the person who is not browsing the display 3. Can be determined as data.

画像処理装置2のトラッキング手段23は、このようにして、Nフレームの人体検出枠データ毎にディスプレイの閲覧判定を行うと、Nフレームが撮影されたときの人数ログファイルとして、ディスプレイ3の前にいる人物の総人数、すなわち、人体検出手段22によって検出された人体検出枠データの数と、ディスプレイ3を閲覧していない人物の人数、すなわち、顔検出枠が含まれていない人体検出枠データの数と、ディスプレイ3を閲覧している人物の人数、すなわち、顔検出枠が含まれる人体検出枠データの数を記載した人数ログファイルを生成し、Nフレームのフレーム番号などを付与してデータ記憶装置2dに記憶する。   When the tracking means 23 of the image processing apparatus 2 makes a display browsing determination for each human body detection frame data of N frames in this way, it is displayed in front of the display 3 as a number of people log file when the N frames are captured. The total number of persons who are present, that is, the number of human body detection frame data detected by the human body detection means 22, and the number of persons who are not browsing the display 3, that is, human body detection frame data not including a face detection frame. Number of people browsing the display 3, that is, the number of human body detection frame data including the face detection frame is generated, and a data storage is performed by assigning N frame number and the like Store in device 2d.

画像処理装置2のトラッキング手段23は、Nフレームの人体検出枠データ毎に、ディスプレイの閲覧判定を行うと、顔検出手段21がN−1フレームから検出した顔検出枠データと、顔検出手段21がNフレームから検出した顔検出枠データを対応付ける顔検出枠データ対応付け処理S12を実行する。   When the tracking unit 23 of the image processing apparatus 2 performs display browsing determination for each human body detection frame data of N frames, the face detection frame data detected by the face detection unit 21 from the N−1 frame and the face detection unit 21. Executes face detection frame data association processing S12 for associating the face detection frame data detected from the N frames.

図6は、顔検出枠データ対応付け処理S12を説明するためのフロー図で、本実施形態では、図6で図示したフローにおいて、以下に記述する数式1の評価関数を用いて得られる評価値を利用して、顔検出枠データの対応付けがなされる。   FIG. 6 is a flowchart for explaining the face detection frame data association processing S12. In this embodiment, in the flow illustrated in FIG. 6, the evaluation value obtained by using the evaluation function of Equation 1 described below. Is used to associate the face detection frame data.

なお、数式1の評価関数f1()は、ニアレストネイバー法を用いた評価関数で、評価関数f1()で得られる評価値は、顔検出枠データの位置・矩形サイズの差を示した評価値になる。また、数式1の評価関数f2()で得られる評価値は、評価関数f1()から求められる評価値に、顔検出枠データで特定される顔検出枠に含まれる顔画像から得られ、顔画像の特徴を示すSURF特徴量の差が重み付けして加算された評価値になる。

Figure 0005685958
Note that the evaluation function f1 () in Equation 1 is an evaluation function using the nearest neighbor method, and the evaluation value obtained by the evaluation function f1 () is an evaluation indicating the difference between the position / rectangular size of the face detection frame data. Value. Further, the evaluation value obtained by the evaluation function f2 () of Expression 1 is obtained from the face image included in the face detection frame specified by the face detection frame data to the evaluation value obtained from the evaluation function f1 (). The difference between the SURF feature amounts indicating the features of the image becomes an evaluation value added by weighting.
Figure 0005685958

N−1フレームから検出した顔検出枠データとNフレームから検出した顔検出枠データを対応付けるために、画像処理装置2のトラッキング手段23は、まず、Nフレームから得られた顔検出枠データの数だけループ処理L1を実行する。   In order to associate the face detection frame data detected from the N-1 frame with the face detection frame data detected from the N frame, the tracking unit 23 of the image processing apparatus 2 first counts the number of face detection frame data obtained from the N frame. Only the loop processing L1 is executed.

このループ処理L1において、画像処理装置2のトラッキング手段23は、まず、N−1フレームから検出された顔検出枠データの数だけループ処理L2を実行し、このループ処理L2では、ループ処理L1の処理対象となる顔検出枠データの位置・矩形サイズと、ループ処理L2の処理対象となる顔検出枠データの位置・矩形サイズが、数式1の評価関数f1()に代入して評価値を算出し(S120)、ループ処理L1の対象となる顔検出枠データとの位置・サイズの差を示す評価値が、N−1フレームから検出された顔検出枠データ毎に算出される。   In this loop process L1, the tracking means 23 of the image processing apparatus 2 first executes the loop process L2 by the number of face detection frame data detected from the N-1 frame, and in this loop process L2, the loop process L1 The evaluation value is calculated by substituting the position / rectangular size of the face detection frame data to be processed and the position / rectangular size of the face detection frame data to be processed by the loop processing L2 into the evaluation function f1 () of Equation 1. In step S120, an evaluation value indicating a position / size difference from the face detection frame data to be subjected to the loop processing L1 is calculated for each face detection frame data detected from the N-1 frame.

画像処理装置2のトラッキング手段23は、ループ処理L1の処理対象となる顔検出枠データとの位置・サイズの差を示す評価値を、N−1フレームから検出された顔検出枠データ毎に算出すると、該評価値の最小値を検索し(S121)、該評価値の最小値と他の評価値との差分を算出した後(S122)、閾値以下の該差分値があるか判定する(S123)。   The tracking unit 23 of the image processing apparatus 2 calculates an evaluation value indicating a position / size difference from the face detection frame data to be processed by the loop processing L1 for each face detection frame data detected from the N-1 frame. Then, the minimum value of the evaluation value is searched (S121), and after calculating the difference between the minimum value of the evaluation value and another evaluation value (S122), it is determined whether there is the difference value equal to or less than the threshold value (S123). ).

そして、画像処理装置2のトラッキング手段23は、ループ処理L1の処理対象となる顔検出枠データとの位置・サイズの差を示す評価値の最小値と他の評価値との差分の中に、閾値以下の差分がある場合,画像処理装置2のトラッキング手段23は、評価値が閾値以内である顔検出枠データ数だけループ処理L3を実行する。   Then, the tracking unit 23 of the image processing apparatus 2 includes the difference between the minimum value of the evaluation value indicating the position / size difference from the face detection frame data to be processed by the loop processing L1 and the other evaluation values. When there is a difference equal to or less than the threshold, the tracking unit 23 of the image processing apparatus 2 executes the loop process L3 for the number of face detection frame data whose evaluation value is within the threshold.

このループ処理L3では、ループ処理L1の処理対象となる顔検出枠データで特定される顔検出枠内の顔画像と、ループ処理L3の処理対象となるN−1フレームの顔検出枠データで特定される顔検出枠内の顔画像とのSURF特徴量の差が求められ、SURF特徴量の差が数式1の評価関数f2()に代入され、SURF特徴量の差を加算した評価値が、N−1フレームから検出された顔検出枠データ毎に算出される(S124)。   In this loop process L3, the face image within the face detection frame specified by the face detection frame data to be processed by the loop process L1 and the N-1 frame face detection frame data to be processed by the loop process L3 are specified. The difference of the SURF feature quantity with the face image in the face detection frame to be obtained is obtained, the difference of the SURF feature quantity is substituted into the evaluation function f2 () of Formula 1, and the evaluation value obtained by adding the difference of the SURF feature quantity is It is calculated for each face detection frame data detected from the N-1 frame (S124).

数式1で示した評価関数f2()を用い、SURF特徴量の差を加算した評価値を算出するのは、ニアレストネイバー法のみを利用した評価関数f1()を用いて求められた評価値の最小値と他の評価値との差分値に閾値以下がある場合、サイズの似た顔検出枠が近接していると考えられ(例えば,図8の人物7a,b),ニアレストネイバー法の評価値からでは、Nフレームの顔検出枠データに対応付けるN−1フレームの顔検出枠データが判定できないからである。   The evaluation value obtained using the evaluation function f1 () using only the nearest neighbor method is used to calculate the evaluation value obtained by adding the difference of the SURF feature values using the evaluation function f2 () expressed by the mathematical formula 1. If the difference value between the minimum value and other evaluation values is equal to or smaller than the threshold value, it is considered that the face detection frames having similar sizes are close to each other (for example, the person 7a, b in FIG. 8), and the nearest neighbor method This is because the N-1 frame face detection frame data associated with the N frame face detection frame data cannot be determined from the above evaluation values.

数式1で示した評価関数f2()を用い、SURF特徴量の差を加算した評価値を算出することで、顔の特徴が加味された評価値が算出されるので、該評価値を用いることで、サイズの似た顔検出枠が近接している場合は、顔が似ているN−1フレームの顔検出枠データがNフレームの顔検出枠データに対応付けられることになる。   By using the evaluation function f2 () expressed by Equation 1 and calculating an evaluation value obtained by adding the difference between the SURF feature amounts, an evaluation value in which the facial features are added is calculated. When face detection frames having similar sizes are close to each other, the N-1 frame face detection frame data having a similar face is associated with the N frame face detection frame data.

そして、画像処理装置2のトラッキング手段23は、数式1の評価関数から得られた評価値が最小値であるN−1フレームの顔検出枠データを、ループ処理L1の対象となるNフレームの顔検出枠データに対応付ける処理を実行する(S125)。なお、数式1で示した評価関数f2()を用いた評価値を算出していない場合、この処理で利用される評価値は、数式1で示した評価関数f1()から求められた値になり、数式1で示した評価関数f2()を用いた評価値を算出している場合、この処理で利用される評価値は、数式1で示した評価関数f2()から求められた値になる。   Then, the tracking unit 23 of the image processing apparatus 2 uses the N-1 frame face detection frame data having the minimum evaluation value obtained from the evaluation function of Formula 1 as the N frame face to be subjected to the loop processing L1. A process of associating with the detection frame data is executed (S125). If the evaluation value using the evaluation function f2 () shown in Equation 1 is not calculated, the evaluation value used in this process is the value obtained from the evaluation function f1 () shown in Equation 1. Thus, when the evaluation value using the evaluation function f2 () shown in Equation 1 is calculated, the evaluation value used in this process is the value obtained from the evaluation function f2 () shown in Equation 1. Become.

ループ処理L1が終了し、画像処理装置2のトラッキング手段23は、Nフレームの顔検出枠データとN−1フレームの顔検出枠データを対応付けすると、N−1フレームの顔検出枠データが重複して、Nフレームの顔検出枠データに対応付けられていないか確認する(S126)。   When the loop processing L1 ends and the tracking means 23 of the image processing apparatus 2 associates the N frame face detection frame data with the N-1 frame face detection frame data, the N-1 frame face detection frame data overlaps. Then, it is confirmed whether it is associated with the face detection frame data of N frames (S126).

N−1フレームの顔検出枠データが重複して、Nフレームの顔検出枠データに対応付けられている場合、画像処理装置2のトラッキング手段23は、重複して対応付けられているN−1フレームの顔検出枠データの評価値を参照し、評価値が小さい方を該Nフレームの顔検出枠データに対応付ける処理を再帰的に実行することで、最終的に、Nフレームの顔検出枠データに対応付けるN−1フレームの顔検出枠データを決定する(S127)。   When the face detection frame data of the N-1 frame overlaps and is associated with the face detection frame data of the N frame, the tracking unit 23 of the image processing apparatus 2 overlaps the N-1 frame. By referring to the evaluation value of the face detection frame data of the frame and recursively executing the process of associating the smaller evaluation value with the face detection frame data of the N frame, finally the face detection frame data of the N frame N-1 frame face detection frame data to be associated with is determined (S127).

ここから、図4で図示したフローの説明に戻る。トラッキング処理S4が終了すると、画像処理装置2の状態遷移管理手段25によって、トラッキング処理S4から得られ、一つ前と今回の顔検出枠データの対応付け結果を参照し、事前に定めた状態遷移表に従い顔オブジェクトの状態を遷移させ、顔オブジェクトの状態遷移に応じたログを記憶する状態遷移管理処理S5が実行され、この状態遷移管理処理S5で所定の状態遷移があると、該状態遷移に対応した所定のログファイルがデータ記憶装置2dに記憶される。   From here, it returns to description of the flow illustrated in FIG. When the tracking process S4 is completed, the state transition management unit 25 of the image processing apparatus 2 obtains the state transition obtained in advance from the tracking process S4 and refers to the result of association between the previous and current face detection frame data, and is determined in advance. The state transition management process S5 is executed to change the state of the face object according to the table and store a log corresponding to the state transition of the face object. If there is a predetermined state transition in the state transition management process S5, A corresponding predetermined log file is stored in the data storage device 2d.

画像処理装置2の状態遷移管理手段25には、顔オブジェクトの状態遷移を管理するために、予め、顔オブジェクトの状態と該状態を状態遷移させるルールが定義された状態遷移表が定められており、画像処理装置2のトラッキング手段23は、この状態遷移表を参照し、顔検出枠データ対応付け処理S12の結果に基づき顔オブジェクトの状態を遷移させる。   In the state transition management unit 25 of the image processing apparatus 2, in order to manage the state transition of the face object, a state transition table in which a state of the face object and a rule for state transition are defined in advance is defined. The tracking unit 23 of the image processing device 2 refers to this state transition table and changes the state of the face object based on the result of the face detection frame data association processing S12.

ここから、状態遷移表の一例を例示し、該状態遷移表の説明をしながら、画像処理装置2の状態遷移管理手段25によって実行される状態遷移管理処理S5について説明する。   From here, an example of the state transition table is illustrated, and the state transition management process S5 executed by the state transition management unit 25 of the image processing apparatus 2 will be described while explaining the state transition table.

図7は、本実施形態における状態遷移表6を説明する図である。図7で図示した状態遷移表6によって、顔オブジェクトの状態と、N−1フレームの状態からNフレームの状態への遷移が定義され、状態遷移表6の縦軸はN−1フレームの状態で、横軸はNフレームの状態で,縦軸と横軸が交差する箇所に状態遷移する条件が記述されている。なお、状態遷移表に「―」は不正な状態遷移を示している。   FIG. 7 is a diagram illustrating the state transition table 6 in the present embodiment. The state transition table 6 illustrated in FIG. 7 defines the state of the face object and the transition from the state of the N-1 frame to the state of the N frame. The vertical axis of the state transition table 6 indicates the state of the N-1 frame. The horizontal axis indicates the state of N frames, and the condition for state transition is described at a location where the vertical axis and the horizontal axis intersect. In the state transition table, “-” indicates an illegal state transition.

図7で図示した状態遷移表6には、顔オブジェクトの状態として、None、候補Face、現在Face、待機Face、ノイズFace及び終了Faceが定義され、状態遷移表で定義された状態遷移を説明しながら、それぞれの状態について説明する。   In the state transition table 6 illustrated in FIG. 7, None, candidate face, current face, standby face, noise face, and end face are defined as face object states, and the state transition defined in the state transition table is described. However, each state will be described.

顔オブジェクトの状態の一つであるNoneとは、顔オブジェクトが存在しない状態を意味し、Nフレームの顔検出枠データに対応付けるN−1フレームの顔検出枠データが無い場合(図7の条件1)、画像処理装置2の状態遷移管理手段25は、顔オブジェクトを識別するためのID、該Nフレームの顔検出データ、顔オブジェクトに付与された状態に係わるデータなどを属性値と有する顔オブジェクトを新規に生成し、該顔オブジェクトの状態を候補Faceに設定する。   None, which is one of the face object states, means a state in which no face object exists, and there is no N-1 frame face detection frame data associated with N frame face detection frame data (condition 1 in FIG. 7). ), The state transition management unit 25 of the image processing apparatus 2 selects a face object having an attribute value such as an ID for identifying the face object, face detection data of the N frame, data related to the state assigned to the face object, and the like. A new face is generated and the state of the face object is set as a candidate Face.

顔オブジェクトの状態の一つである候補Faceとは、新規に検出した顔画像がノイズである可能性がある状態を意味し、顔オブジェクトの状態の一つに候補Faceを設けているのは、複雑な背景の場合、背景除去処理を行っても顔画像の誤検出が発生し易く、新規に検出できた顔画像がノイズの可能性があるからである。   The candidate face that is one of the face object states means a state in which the newly detected face image may be noise, and the candidate face is provided as one of the face object states. This is because in the case of a complex background, erroneous detection of a face image is likely to occur even if background removal processing is performed, and the newly detected face image may be noise.

候補Faceの状態である顔オブジェクトには、候補Faceの状態に係わるデータとして、候補Faceの状態であることを示す状態IDと、候補Faceへ状態遷移したときの日時及びカウンタが付与される。   The face object in the candidate face state is given, as data related to the candidate face state, a state ID indicating the candidate face state, the date and time when the state transition is made to the candidate face, and a counter.

候補Faceから状態遷移可能な状態は、候補Face、現在Face及びノイズFaceで、事前に定められた設定時間内において、候補Faceの状態である顔オブジェクトに対応する顔検出枠が所定の数だけ連続してトラッキングできた場合(図7の条件2−2)、該顔オブジェクトの状態は候補Faceから現在Faceに遷移する。   The states that can be changed from the candidate face are the candidate face, the current face, and the noise face, and a predetermined number of face detection frames corresponding to the face objects that are in the candidate face state are continuous within a predetermined setting time. If the tracking is successful (condition 2-2 in FIG. 7), the state of the face object changes from the candidate face to the current face.

候補Faceの状態である顔オブジェクトの属性にカウンタを設けているのは、設定時間内において、候補Faceの状態である顔オブジェクトに対応する顔検出枠を連続してトラッキングできた回数をカウントするためで、画像処理装置2の状態遷移管理手段25は、Nフレームの顔検出枠データに対応付けられたN−1フレームの顔検出データが含まれている顔オブジェクトの状態が候補Faceの場合、該顔オブジェクトに付与されている顔検出枠データをNフレームの顔検出枠データに更新すると共に、該顔オブジェクトのカウンタをインクリメントする。   The reason why a counter is provided for the attribute of the face object in the candidate face state is to count the number of times that the face detection frame corresponding to the face object in the candidate face state can be tracked continuously within the set time. Then, the state transition management unit 25 of the image processing apparatus 2 determines that when the state of the face object including the N-1 frame face detection data associated with the N frame face detection frame data is the candidate Face, The face detection frame data attached to the face object is updated to N frame face detection frame data, and the counter of the face object is incremented.

そして、画像処理装置2の状態遷移管理手段25は、状態遷移管理処理S5を実行する際、候補Faceである顔オブジェクト毎に、候補Faceへ状態遷移したときの日時を参照し、設定時間以内に該カウンタの値が事前に定めた設定値に達している場合は、顔オブジェクトの状態を現在Faceに状態遷移させる。また、画像処理装置2の状態遷移管理手段25は、この時点で設定時間が経過しているが、該カウンタが設定値に達しなかった該顔オブジェクトの状態をノイズFaceに状態遷移させ(図7の条件2−3)、該設定時間が経過していない該顔オブジェクトについては状態を状態遷移させない(図7の条件2−1)。   Then, when executing the state transition management process S5, the state transition management unit 25 of the image processing apparatus 2 refers to the date and time when the state transition is made to the candidate face for each face object that is the candidate face, and within the set time When the value of the counter has reached a predetermined setting value, the state of the face object is changed to the current Face. Further, the state transition management unit 25 of the image processing apparatus 2 causes the state of the face object that has not reached the set value at the time when the set time has elapsed to change to the noise face (FIG. 7). Condition 2-3), the face object for which the set time has not elapsed does not change state (condition 2-1 in FIG. 7).

顔オブジェクトの状態の一つであるノイズFaceとは、画像処理装置2の顔検出手段21が検出した顔画像がノイズと判定された状態で、ノイズFaceに状態遷移した顔オブジェクトは消滅したと見なされ、これ以降の状態遷移管理処理S5に利用されない。   The noise face that is one of the states of the face object is a state in which the face image detected by the face detection unit 21 of the image processing apparatus 2 is determined to be noise, and the face object that has transitioned to the noise face is considered to have disappeared. It is made and is not used for the subsequent state transition management process S5.

顔オブジェクトの状態の一つである現在Faceとは、顔オブジェクトに対応する人物がディスプレイ3を閲覧状態と判定できる状態で、現在Faceの状態にある時間が、顔オブジェクトに対応する人物がディスプレイ3を閲覧している時間となる。   The current face, which is one of the face object states, is a state in which a person corresponding to the face object can determine that the display 3 is in the browsing state. It is time to browse.

画像処理装置2の状態遷移管理手段25は、顔オブジェクトの状態を候補Faceから現在Faceに状態遷移すると、該顔オブジェクトの顔検出枠データをNフレームの顔検出枠データに更新すると共に、現在Faceに係わるデータとして、現在Faceの状態であることを示す状態IDと現在Faceに状態遷移させたときの日時を顔オブジェクトに付与する。   When the state transition management unit 25 of the image processing apparatus 2 changes the state of the face object from the candidate Face to the current Face, the face detection frame data of the face object is updated to N frame face detection frame data and the Face As the data related to the above, a face ID indicating the current face state and the date and time when the state is changed to the current face are assigned to the face object.

また、ディスプレイを閲覧している人物の人物属性(例えば、年齢・性別)をログとして記憶するために、顔オブジェクトの状態を現在Faceに状態遷移すると、画像処理装置2の状態遷移管理手段25は人物属性推定手段26を作動させ、現在Faceに状態遷移させた顔オブジェクトの顔検出枠データで特定される顔検出枠から得られる人物属性を取得し、該顔オブジェクトのオブジェクトID、人物属性が記述された属性ログファイルをデータ記憶装置2dに記憶する。   In addition, when the state of the face object is changed to “Face” in order to store the person attributes (for example, age and gender) of the person browsing the display as a log, the state transition management unit 25 of the image processing apparatus 2 The person attribute estimating means 26 is operated to acquire a person attribute obtained from the face detection frame specified by the face detection frame data of the face object whose state is currently changed to Face, and the object ID and person attribute of the face object are described. The attribute log file thus stored is stored in the data storage device 2d.

なお、画像処理装置2に備えられた人物属性推定手段26については詳細な記載はしないが、人物の顔画像から人物の人物属性(年齢・性別)を自動で識別することは、タバコの自動販売機などでも広く利用されており、例えば、特開2007―080057号公報の技術を利用できる。   The person attribute estimation means 26 provided in the image processing apparatus 2 will not be described in detail, but automatic identification of a person's attribute (age / gender) from a person's face image is an automatic cigarette sale. For example, a technique disclosed in Japanese Patent Application Laid-Open No. 2007-080057 can be used.

更に、画像処理装置2の状態遷移管理手段25は、顔オブジェクトの状態を現在Faceに状態遷移すると、ディスプレイ3を閲覧している人物の位置を時系列で記憶するための位置ログファイルをデータ記憶装置2dに新規に生成する。生成時の位置ログファイルには、現在Faceに状態遷移した顔オブジェクトのオブジェクトIDと、現在Faceに状態遷移した顔オブジェクトに含まれる顔検出枠データが付与される。   Further, the state transition management unit 25 of the image processing apparatus 2 stores a position log file for storing the position of the person who is browsing the display 3 in time series when the state of the face object is currently changed to Face. Newly generated in the device 2d. The position log file at the time of generation is given the object ID of the face object whose state has been changed to Face and the face detection frame data included in the face object whose state has been changed to Face.

現在Faceの状態から状態遷移可能な状態は、現在Face及び待機Faceである。画像処理装置2の状態遷移管理手段25は、Nフレームの顔検出枠データに対応付けられたN−1フレームの顔検出データを含む顔オブジェクトの状態が現在Faceの場合(条件3−1)、該顔オブジェクトに付与されている顔検出枠データをNフレームにおける顔検出枠データに更新すると共に、該顔検出枠データを、該顔オブジェクトのオブジェクトIDで特定される位置ログファイルに追加する。   The states that can be changed from the current face state are the current face and the standby face. The state transition management unit 25 of the image processing apparatus 2 is configured so that the state of the face object including the N-1 frame face detection data associated with the N frame face detection frame data is currently Face (condition 3-1). The face detection frame data attached to the face object is updated to face detection frame data in N frames, and the face detection frame data is added to the position log file specified by the object ID of the face object.

また、画像処理装置2の状態遷移管理手段25は、状態遷移管理処理S5を行う際、Nフレームの顔検出枠データが対応付けられなかったN−1フレームの顔検出枠データが付与されている顔オブジェクトの状態が現在Faceの場合、動画解析手段24を作動させて、動画解析手法により、該N−1フレームの顔検出枠データに対応する顔画像をNフレームから検出する処理を実施する。   Further, when the state transition management unit 25 of the image processing apparatus 2 performs the state transition management process S5, N-1 frame face detection frame data that is not associated with the N frame face detection frame data is assigned. When the state of the face object is currently “Face”, the moving image analysis unit 24 is operated to perform processing for detecting a face image corresponding to the face detection frame data of the N−1 frame from the N frame by the moving image analysis method.

本実施形態において、画像処理装置2の動画解析手段24は、まず、Nフレームの顔検出枠データが対応付けられなかったN−1フレームの顔検出枠データと既に対応付けられているNフレームの顔検出枠データの間で、オクルージョン状態の判定を行い、対象となる人物の顔が完全に隠れた状態のオクルージョンであるか確認する。   In the present embodiment, the moving image analysis unit 24 of the image processing apparatus 2 first has N frames that are already associated with N-1 frame face detection frame data that has not been associated with N frame face detection frame data. The occlusion state is determined between the face detection frame data, and it is confirmed whether the target person's face is completely occluded.

画像処理装置2の動画解析手段24は、この時点で存在し、現在Face、候補Face及び待機Faceの状態である全ての顔オブジェクトについて、数式2に従い,顔オブジェクトのオクルージョン状態を判定する処理を実行する。

Figure 0005685958
The moving image analysis means 24 of the image processing apparatus 2 executes processing for determining the occlusion state of the face object according to Equation 2 for all face objects that exist at this time and are currently in the face, candidate face, and standby face states. To do.
Figure 0005685958

画像処理装置2の動画解析手段24は、数式2に従い、顔オブジェクトのオクルージョン状態を判定する処理を実行すると、判定結果に基づき処理を分岐する。   When the moving image analysis unit 24 of the image processing apparatus 2 executes the process of determining the occlusion state of the face object according to Equation 2, the process branches based on the determination result.

トラッキング対象である人物が完全に隠れた状態のオクルージョンである可能性が高いと判断できた場合(数式2の判定基準1に該当する場合)、パーティクルフィルタによるトラッキング行い、対象となる顔オブジェクトの位置・矩形サイズを検出する。なお、パーティクルフィルタについては,「加藤丈和: 「パーティクルフィルタとその実装法」、情報処理学会研究報告, CVIM-157, pp.161-168 (2007).」など数多くの文献で述べられている。   When it is determined that there is a high possibility that the person to be tracked is an occlusion in a completely hidden state (when the criterion 1 of Expression 2 is satisfied), tracking by the particle filter is performed, and the position of the target face object・ Detect the rectangle size. The particle filter is described in many literatures such as “Takekazu Kato:“ Particle filter and its implementation ”, IPSJ Research Report, CVIM-157, pp.161-168 (2007).” .

また、トラッキング対象である人物が半分隠れた状態のオクルージョンで可能性が高いと判断できた場合(数式2の判定基準2に該当する場合)、LK法(Lucus-Kanadeアルゴリズム)によるトラッキング行い、対象となる顔オブジェクトの位置・矩形サイズを検出する。なお、LK法については、「Lucas, B.D. and Kanade, T.:" An Iterative Image Registration Technique with an Application to Stereo Vision",Proc.DARPA Image Understanding Workshop,pp.121-130,1981.」で述べられている。   Also, if it is judged that the possibility is high due to occlusion in which the person being tracked is half-hidden (corresponding to criterion 2 in Formula 2), tracking is performed using the LK method (Lucus-Kanade algorithm) The position / rectangular size of the face object is detected. The LK method is described in “Lucas, BD and Kanade, T .:“ An Iterative Image Registration Technique with an Application to Stereo Vision ”, Proc. DARPA Image Understanding Workshop, pp. 121-130, 1981.” ing.

そして、トラッキング対象である人物にオクルージョンはない可能性が高いと判定できた場合(数式3の判定基準3に該当する場合)、画像処理装置2の動画解析手段24は、CamShift手法を用いたトラッキングを行い、対象となる顔オブジェクトの位置・矩形サイズを検出する。なお、CamShift手法については、「G. R. Bradski: "Computer vision face tracking foruse in a perceptual user interface," Intel Technology Journal, Q2, 1998.」で述べられている。   When it is determined that there is a high possibility that the person to be tracked does not have occlusion (when the criterion 3 in Expression 3 is satisfied), the moving image analysis unit 24 of the image processing apparatus 2 performs tracking using the CamShift method. To detect the position / rectangular size of the target face object. The CamShift method is described in “G. R. Bradski:“ Computer vision face tracking for use in a perceptual user interface, ”Intel Technology Journal, Q2, 1998.”.

画像処理装置2の状態遷移管理手段25は、これらのいずれかの手法で対象となる顔画像がNフレームから検出できた場合、現在Faceの状態である顔オブジェクトの顔検出データを、これらの手法で検出された位置・矩形サイズに更新し、これらのいずれかの手法でも対象となる顔画像がトラッキングできなかった場合、現在Faceの状態である顔オブジェクトの状態を待機Faceに状態遷移させる(図7の条件3−2)。   When the target face image can be detected from N frames by any one of these methods, the state transition management unit 25 of the image processing apparatus 2 uses the face detection data of the face object that is currently in the face state as these methods. If the target face image cannot be tracked by any of these methods, the state of the face object that is currently in the face state is changed to the standby face (see FIG. 7 condition 3-2).

顔オブジェクトの状態の一つである待機Faceとは、画像処理装置2に備えられた動画解析手段24を用いても、顔オブジェクトに対応する顔画像を検出できなくなった状態である。   A standby face, which is one of the states of a face object, is a state in which a face image corresponding to the face object cannot be detected even using the moving image analysis means 24 provided in the image processing apparatus 2.

また、画像処理装置2の状態遷移管理手段25は、顔オブジェクトの状態を待機Faceに状態遷移する際、顔オブジェクトの顔検出枠データは更新せず、待機Faceに係わるデータとして、待機Faceの状態であることを示す状態IDと、該顔オブジェクトが現在Faceに状態遷移したときの日時と、該顔オブジェクトが待機Faceに状態遷移したときの日時を顔オブジェクトに付与する。   Further, when the state transition management unit 25 of the image processing apparatus 2 changes the state of the face object to the standby face, the face detection frame data of the face object is not updated, and the state of the standby face is used as data related to the standby face. Is given to the face object, the date and time when the face object has made a transition to the current Face, and the date and time when the face object has made a transition to the standby Face.

待機Faceから状態遷移可能な状態は、現在Faceまたは終了Faceである。画像処理装置2の状態遷移管理手段25は、待機Faceに状態遷移してからの時間が所定時間経過する前に、Nフレームの顔検出枠データを含む顔オブジェクトを検索し、該顔オブジェクトの状態が待機Faceであった場合、該顔オブジェクトの状態を待機Faceから現在Faceに状態遷移させる(図7の条件4−1)。   The state in which state transition is possible from the standby face is the current face or the end face. The state transition management unit 25 of the image processing apparatus 2 searches for a face object including face detection frame data of N frames before a predetermined time elapses after the state transition to the standby face, and the state of the face object Is a standby face, the state of the face object is changed from the standby face to the current face (condition 4-1 in FIG. 7).

なお、顔オブジェクトの状態を待機Faceから現在Faceに状態遷移させる際、画像処理装置2の状態遷移管理手段25は、該顔オブジェクトが現在Faceに状態遷移したときの日時は、待機Faceの状態のときに顔オブジェクトに付与されていた該日時を利用する。   When the state of the face object is changed from the standby face to the current face, the state transition management unit 25 of the image processing apparatus 2 indicates that the date and time when the face object has changed to the current face is the state of the standby face. Sometimes the date and time assigned to the face object is used.

また、画像処理装置2のトラッキング手段23は、顔オブジェクトの状態遷移を管理する処理を実行する際、待機Faceに状態遷移してからの時間が所定時間経過した顔オブジェクトの状態を終了Faceに状態遷移させ(図7の条件4−3)、該設定時間が経過していない該顔オブジェクトについては状態を遷移させない(図7の条件4−2)。   Further, when executing the process for managing the state transition of the face object, the tracking unit 23 of the image processing apparatus 2 changes the state of the face object that has passed a predetermined time from the state transition to the standby face to the end face. The state is changed (condition 4-3 in FIG. 7), and the state of the face object for which the set time has not elapsed is not changed (condition 4-2 in FIG. 7).

顔オブジェクトの状態の一つである終了Faceとは、画像処理装置2が検出できなくなった人物に対応する状態で、状態が終了Faceになった顔オブジェクトは消滅したと見なされ、これ以降の状態遷移管理処理S5で利用されない。   The end face, which is one of the face object states, is a state corresponding to a person who can no longer be detected by the image processing apparatus 2, and the face object whose state is the end face is considered to have disappeared. It is not used in the transition management process S5.

なお、画像処理装置2の状態遷移管理手段25は、顔オブジェクトの状態を終了Faceに状態遷移する前に、該顔オブジェクトのオブジェクトID、該顔オブジェクトが現在Faceに状態遷移したときの日時である閲覧開始時刻、該顔オブジェクトが待機Faceに状態遷移したときの日時である閲覧終了時刻を記述した閲覧時間ログファイルを生成しデータ記憶装置2dに記憶させる。   Note that the state transition management unit 25 of the image processing apparatus 2 indicates the object ID of the face object and the date and time when the face object is currently transitioned to Face before the face object is transitioned to end Face. A browsing time log file describing the browsing start time and the browsing end time, which is the date and time when the face object changes to the standby face, is generated and stored in the data storage device 2d.

以上詳しく説明したように、画像処理装置2は、顔検出手段21が検出した顔毎に生成する顔オブジェクトの状態として、None、候補Face、現在Face、待機Face、ノイズFace及び終了Faceの5つを状態遷移表6で定義し,顔オブジェクトに対応する顔のトラッキング結果に従い、顔オブジェクトの状態を遷移させることで、顔オブジェクトの状態遷移に従い、ディスプレイ3の閲覧時間をログとして記憶することが可能になる。   As described above in detail, the image processing apparatus 2 has five states of the face object generated for each face detected by the face detecting unit 21: None, candidate Face, current Face, standby Face, noise Face, and end Face. Can be stored as a log according to the state transition of the face object by changing the state of the face object according to the tracking result of the face corresponding to the face object. become.

上述した内容に従えば、顔オブジェクトの状態が現在Faceである間は、顔オブジェクトに対応する顔を連続して検出できたことになるため、現在Faceの状態にあった時間は、ディスプレイ3の閲覧時間になる。   According to the above-described contents, while the face object state is currently Face, the face corresponding to the face object can be continuously detected. It becomes browsing time.

また、顔オブジェクトの状態として候補Faceを定義しておくことで、ノイズによって顔を誤検出した場合でも、ディスプレイ3の閲覧時間への影響はなくなる。また、顔オブジェクトの状態として待機Faceを定義しておくことで、顔を見失った後に、同じ顔を検出した場合でも、同じ顔として取り扱うことができるようになる。   Further, by defining the candidate Face as the state of the face object, even when a face is erroneously detected due to noise, the influence on the browsing time of the display 3 is eliminated. Also, by defining the standby face as the state of the face object, even if the same face is detected after losing sight of the face, it can be handled as the same face.

図9は、ビデオカメラ4から送信された映像のフレームを基に、画像処理装置2が合成画像を作成する処理を説明するフロー図である。画像処理装置2を起動し、使用するシナリオデータを指定すると、まず、シナリオデータ対応付け手段83が、指定されたシナリオデータをデータ記憶装置2dから読み込む(S21)。そして、シナリオデータ対応付け手段83は、シナリオデータを解釈し、シナリオデータに従った画像の作成を開始する(S22)。   FIG. 9 is a flowchart illustrating a process in which the image processing apparatus 2 creates a composite image based on a video frame transmitted from the video camera 4. When the image processing device 2 is activated and scenario data to be used is designated, first, the scenario data association unit 83 reads the designated scenario data from the data storage device 2d (S21). Then, the scenario data association unit 83 interprets the scenario data and starts creating an image according to the scenario data (S22).

次に、シナリオデータ対応付け手段83は、状態遷移管理手段25により生成された顔オブジェクトデータを取得する(S23)。顔オブジェクトデータは、オブジェクトID、顔検出枠データ(位置、矩形サイズ)、閲覧時間で構成される。   Next, the scenario data association unit 83 acquires the face object data generated by the state transition management unit 25 (S23). The face object data includes an object ID, face detection frame data (position, rectangular size), and browsing time.

続いて、シナリオデータ対応付け手段83は、状態遷移管理手段25から取得した顔オブジェクトデータをシナリオデータに対応付ける処理を行う(S24)。具体的には、顔オブジェクトデータに含まれる顔検出枠データのオブジェクトIDとターゲットIDを対応付ける。状態遷移管理手段25から複数の顔検出枠データを取得した場合は、候補Faceへ状態遷移したときの日時が最も早いものを“0”に設定し、以降、候補Faceへ状態遷移したときの日時が早い順に“1””2” ”3”と数を1ずつ増加させながら設定していく。図10の例では、シナリオデータには、ターゲットID“0”の1つだけ設定されているので、シナリオデータ対応付け手段83は、ターゲットID“0”が対応付けられたオブジェクトIDで特定される顔検出枠データをターゲットとすることになる。   Subsequently, the scenario data association unit 83 performs a process of associating the face object data acquired from the state transition management unit 25 with the scenario data (S24). Specifically, the object ID of the face detection frame data included in the face object data is associated with the target ID. When a plurality of face detection frame data is acquired from the state transition management unit 25, the date and time when the state transition to the candidate face is the earliest date and time is set to “0”, and thereafter the date and time when the state transition to the candidate face is performed. In order from the earliest, “1”, “2” and “3” are set while increasing the number by one. In the example of FIG. 10, since only one target ID “0” is set in the scenario data, the scenario data association unit 83 is identified by the object ID associated with the target ID “0”. The face detection frame data is targeted.

次に、合成画像作成手段84が、フレーム単位で表示用の合成画像を作成する処理を行う(S25)。具体的には、まず、開始時点を時刻“0.0”と設定し、この時刻“0.0”で、シナリオデータの<Animation Commands>を参照する。すると、図10に示すように、開始キー“0.0”から終了キー“0.1”までは、キータイプ“own”、コマンドタイプ“LayerMontage(レイヤ合成)”、ターゲットID“0”、コンテンツID“0”であるので、合成画像作成手段84は、ターゲットID“0”の顔検出枠データに、コンテンツID“0”をレイヤ合成することにより、合成画像を作成することになる。   Next, the composite image creating means 84 performs processing for creating a composite image for display in units of frames (S25). Specifically, first, the start time is set to “0.0”, and the <Animation Commands> of the scenario data is referred to at this time “0.0”. Then, as shown in FIG. 10, from the start key “0.0” to the end key “0.1”, the key type “own”, the command type “LayerMontage (layer composition)”, the target ID “0”, the content Since the ID is “0”, the composite image creating unit 84 creates a composite image by layer-combining the content ID “0” with the face detection frame data with the target ID “0”.

コンテンツID“0”のコンテンツ(合成用素材)は、シナリオデータの<Simulation Contents>を参照することにより、コンテンツのパスが特定できるので、そのパスで特定されるデータ記憶装置2d内の記憶位置からコンテンツを取得する。上述のように、コンテンツには矩形情報が設定されているので、合成画像作成手段84は、この矩形情報と顔検出枠データの矩形サイズが一致するように矩形情報とコンテンツのサイズを変更し、変更したコンテンツを、変更後の矩形情報と顔検出枠データの位置が一致する位置にレイヤ合成を行う。具体的には、図12(b)に示すような顔画像に設定された顔検出枠データの矩形に合わせて、コンテンツに設定された矩形の大きさを変更し、コンテンツに設定された矩形の変更割合に合わせてコンテンツをリサイズし、2つの矩形が一致するように合成処理を行う。この結果、例えば、図12(a)のようにコンテンツがカツラである場合、人の顔に合わせてカツラを被せたような状態の合成画像(図12(c))が得られることになる。合成画像作成手段84は、得られた合成画像を、ディスプレイ3に表示させる。この結果、ディスプレイ3には、撮影映像のフレームに加工が施された合成画像が表示されることになる。   Since the content path of content ID “0” (material for composition) can be identified by referring to <Simulation Contents> of the scenario data, it can be determined from the storage location in the data storage device 2d identified by the path. Get content. As described above, since the rectangular information is set in the content, the composite image creating unit 84 changes the rectangular information and the size of the content so that the rectangular information and the rectangular size of the face detection frame data match, Layer composition of the changed content is performed at a position where the position of the rectangle information after the change and the position of the face detection frame data match. Specifically, the size of the rectangle set in the content is changed to match the rectangle of the face detection frame data set in the face image as shown in FIG. The content is resized according to the change ratio, and the composition process is performed so that the two rectangles match. As a result, for example, when the content is a wig as shown in FIG. 12A, a composite image (FIG. 12C) in a state where the wig is covered with a human face is obtained. The composite image creating unit 84 displays the obtained composite image on the display 3. As a result, a composite image in which the frame of the captured video is processed is displayed on the display 3.

1つのフレームについて合成画像の作成を終えたら、シナリオデータ対応付け手段83は、シナリオ中であるかどうかを判断する(S26)。具体的には、シナリオデータに従った画像作成開始からの経過時間でシナリオデータ内の<CycleInterval>タグを参照し、経過時間がシナリオ時間未満である場合は、シナリオ中であると判断し、経過時間がシナリオ時間以上である場合は、シナリオ終了であると判断する。シナリオ中であると判断した場合には、シナリオデータ対応付け手段83は、S23に戻って、顔オブジェクトデータを取得する。   When the creation of the composite image for one frame is completed, the scenario data association unit 83 determines whether or not the scenario is in progress (S26). Specifically, the <CycleInterval> tag in the scenario data is referenced with the elapsed time from the start of image creation according to the scenario data. If the elapsed time is less than the scenario time, it is determined that the scenario is in progress and the elapsed time If the time is longer than the scenario time, it is determined that the scenario is over. If it is determined that the scenario is in progress, the scenario data association unit 83 returns to S23 and acquires face object data.

そして、S24において、シナリオデータ対応付け手段83は、状態遷移管理手段25から取得した次の顔オブジェクトデータをシナリオデータに対応付ける処理を行う。このときも1回目のループと同様、候補Faceへ状態遷移したときの日時が最も早いものを“0”に設定し、以降、候補Faceへ状態遷移したときの日時が早い順に“1””2” ”3”と数を1ずつ増加させながら設定していく。そして、シナリオデータに従って、シナリオデータ対応付け手段83は、ターゲットID“0”が対応付けられたオブジェクトIDで特定される顔検出枠データをターゲットとする。   In S24, the scenario data association unit 83 performs processing for associating the next face object data acquired from the state transition management unit 25 with the scenario data. Also at this time, as in the first loop, the earliest date and time when the state transition to the candidate face is set to “0”, and thereafter “1” and “2” in order of the date and time when the state transition to the candidate face occurs. Set "3" while increasing the number by one. Then, according to the scenario data, the scenario data association unit 83 targets the face detection frame data specified by the object ID associated with the target ID “0”.

次に、S25において、合成画像作成手段84が、フレーム単位で合成画像を作成する処理を行う。具体的には、経過時間を取得し、取得した経過時間で、シナリオデータの<Animation Commands>を参照する。取得した経過時間が、“0.1”より小さい場合は、上述の場合と同様、図10のシナリオデータに示すように、開始キー“0.0”から終了キー“0.1”の間であるので、キータイプ“own”、コマンドタイプ“LayerMontage(レイヤ合成)”、ターゲットID“0”、コンテンツID“0”であるので、合成画像作成手段84は、ターゲットID“0”の顔検出枠データに、コンテンツID“0”をレイヤ合成することにより、合成画像を作成する。取得した経過時間が、“0.1”を超えていた場合、図10に示すように、開始キー“0.1”から終了キー“0.3”までは、キータイプ“own”、コマンドタイプ“LayerMontage(レイヤ合成)”、ターゲットID“0”、コンテンツID“1”であるので、合成画像作成手段84は、ターゲットID“0”の顔検出枠データに、コンテンツID“1”をレイヤ合成することにより、合成画像を作成することになる。このようにして、S26においてシナリオ終了であると判断されるまでは、経過時間に従い、シナリオデータを実行する処理を繰り返し行う。   Next, in S25, the composite image creating unit 84 performs a process of creating a composite image in units of frames. Specifically, the elapsed time is acquired, and the <Animation Commands> of the scenario data is referenced with the acquired elapsed time. When the acquired elapsed time is smaller than “0.1”, as shown in the scenario data of FIG. 10, between the start key “0.0” and the end key “0.1”, as in the case described above. Therefore, since the key type is “own”, the command type is “LayerMontage (layer composition)”, the target ID is “0”, and the content ID is “0”, the composite image creating unit 84 performs the face detection frame with the target ID “0”. A composite image is created by layer combining the content ID “0” with the data. When the acquired elapsed time exceeds “0.1”, the key type “own”, the command type is used from the start key “0.1” to the end key “0.3” as shown in FIG. Since “LayerMontage”, target ID “0”, and content ID “1”, the composite image creation unit 84 combines the content ID “1” with the face detection frame data of the target ID “0”. By doing so, a composite image is created. In this way, the process of executing the scenario data is repeated according to the elapsed time until it is determined in S26 that the scenario is ended.

S26において、シナリオ終了であると判断した場合には、シナリオデータ対応付け手段83は、繰り返して処理を行うかどうかを判断する(S27)。具体的には、シナリオデータ内の<IsAutoLoop>タグを参照し、“true”が設定されている場合は、繰り返して処理を行うと判断する。繰り返して処理を行うと判断した場合には、シナリオデータ対応付け手段83は、経過時間を“0”にリセットし、経過時間の計測を再び開始するとともに、S22に戻って、シナリオデータに従った画像の作成を開始する。このように、映像の各フレームから得られた合成画像を順次ディスプレイに表示することにより、加工映像として表示されることになる。   If it is determined in S26 that the scenario has been completed, the scenario data association unit 83 determines whether or not to repeat the process (S27). Specifically, the <IsAutoLoop> tag in the scenario data is referenced, and if “true” is set, it is determined that the process is repeated. If it is determined that the process is to be repeated, the scenario data association unit 83 resets the elapsed time to “0”, starts measuring the elapsed time again, returns to S22, and follows the scenario data. Start creating an image. In this manner, the composite image obtained from each frame of the video is sequentially displayed on the display, so that it is displayed as a processed video.

図13は、図10のシナリオデータに従って得られた合成画像の表示状態を示す図である。まず、フレームにフキダシ「こんにちは」が合成された合成画像が表示される(ア)。シナリオ開始時(StartKey="0.0")から経過時間1秒(EndKey="0.1")までのフレームについては、全てフキダシ「こんにちは」(ContentsID="0")が合成された合成画像が表示されることになる。この際、ContentsID="0"で<SimulationContents>を参照することにより、コンテンツのコンテンツ記憶手段内における所在“fukidashi001.jpg”を特定し、フキダシ「こんにちは」のコンテンツを取得する。   FIG. 13 is a diagram showing a display state of a composite image obtained according to the scenario data of FIG. First, the composite image balloon "Hello" has been synthesized is displayed on the frame (a). The frame at the scenario begins (StartKey = "0.0") until the elapsed time of 1 second (EndKey = "0.1"), all balloon "Hello" (ContentsID = "0") is a synthetic image synthesized is displayed It will be. At this time, by referring to <SimulationContents> in ContentsID = "0", and specifying a location "fukidashi001.jpg" in the content storage unit of the content, it acquires the content of the balloon "Hello".

次に、経過時間1秒(StartKey="0. 1")になると、フキダシ「今日の髪素敵でしょ?」(ContentsID="1")が合成された合成画像が表示される(イ)。経過時間1秒(StartKey="0. 1")から経過時間3秒(EndKey="0. 3")までのフレームについては、全てフキダシ「今日の髪素敵でしょ?」が合成された合成画像が表示されることになる。この際、ContentsID="1"で<SimulationContents>を参照することにより、コンテンツのコンテンツ記憶手段内における所在“fukidashi002.jpg”を特定し、フキダシ「今日の髪素敵でしょ?」のコンテンツを取得する。   Next, when the elapsed time is 1 second (StartKey = "0. 1"), a synthesized image in which the balloon "isn't your hair nice today?" (ContentsID = "1") is displayed (I). For frames from an elapsed time of 1 second (StartKey = "0. 1") to an elapsed time of 3 seconds (EndKey = "0.3."), A composite image in which all the balloons are nice today's hair is synthesized? Will be displayed. At this time, by referring to <SimulationContents> with ContentsID = "1", the location "fukidashi002.jpg" in the content storage means of the content is specified, and the content of the balloon "isn't your hair today nice?"

経過時間3秒(StartKey="0.3")になると、フキダシ「もう少しカジュアルにしようかな」(ContentsID="2")が合成された合成画像が表示される(ウ)。この際、ContentsID="2"で<SimulationContents>を参照することにより、コンテンツのコンテンツ記憶手段内における所在“fukidashi003.jpg”を特定し、フキダシ「もう少しカジュアルにしようかな」のコンテンツを取得する。   When the elapsed time is 3 seconds (StartKey = "0.3"), a composite image in which the balloon "Is it a little more casual" (ContentsID = "2") is combined is displayed (c). At this time, by referring to <SimulationContents> with ContentsID = "2", the location "fukidashi003.jpg" in the content storage unit of the content is specified, and the content of the balloon "Is it a little more casual" is acquired.

経過時間3秒(StartKey="0.3")から経過時間6秒(EndKey="0.6")までのフレームについては、全てフキダシ「もう少しカジュアルにしようかな」が合成された合成画像が表示されることになる。経過時間6秒(StartKey="0.6")になると、黒いカツラ(ContentsID="5")が合成された合成画像が表示される(エ)。この際、ContentsID="5"で<SimulationContents>を参照することにより、コンテンツのコンテンツ記憶手段内における所在“afro.jpg”を特定し、黒いカツラのコンテンツを取得する。経過時間6秒(StartKey="0.6")から経過時間7秒(EndKey="0.7")までのフレームについては、全て黒いカツラが合成された合成画像が表示されることになる。   For the frames from the elapsed time of 3 seconds (StartKey = "0.3") to the elapsed time of 6 seconds (EndKey = "0.6"), a composite image in which all the balloons "I want to make it a little more casual" is displayed. Become. When the elapsed time is 6 seconds (StartKey = "0.6"), a composite image in which the black wig (Contents ID = "5") is combined is displayed (D). At this time, by referring to <SimulationContents> with ContentsID = "5", the location "afro.jpg" in the content storage unit of the content is specified, and the content of the black wig is acquired. For frames from an elapsed time of 6 seconds (StartKey = "0.6") to an elapsed time of 7 seconds (EndKey = "0.7"), a composite image in which all black wigs are combined is displayed.

経過時間7秒(StartKey="0.7")になると、フキダシ「こっちがいいかな」(ContentsID="3")と、金髪のカツラ(ContentsID="6")が合成された合成画像が表示される(オ)。この際、ContentsID="6"で<SimulationContents>を参照することにより、コンテンツのコンテンツ記憶手段内における所在“blond.jpg”を特定し、金髪のカツラのコンテンツを取得する。経過時間7秒(StartKey="0.7")から経過時間9秒(EndKey="0.9")までのフレームについては、全てフキダシ「こっちがいいかな」と、金髪のカツラが合成された合成画像が表示されることになる。経過時間9秒(StartKey="0.9")になると、フキダシ「ねっどうでしょう」(ContentsID="4")と、金髪のカツラが合成された合成画像が表示される(カ)。この際、ContentsID="4"で<SimulationContents>を参照することにより、コンテンツのコンテンツ記憶手段内における所在“fukidashi005.jpg”を特定し、フキダシ「ねっどうでしょう」のコンテンツを取得する。経過時間9秒(StartKey="0.9")から経過時間10秒(EndKey="1.0")までのフレームについては、全て黒いカツラが合成された合成画像が表示されることになる。   When the elapsed time is 7 seconds (StartKey = "0.7"), a composite image in which the balloon "This is good" (ContentsID = "3") and the blond wig (ContentsID = "6") is displayed. (E). At this time, by referring to <SimulationContents> with ContentsID = "6", the location "blond.jpg" in the content storage means of the content is specified, and the content of the blond wig is acquired. For frames from an elapsed time of 7 seconds (StartKey = "0.7") to an elapsed time of 9 seconds (EndKey = "0.9"), all the balloons are “this is good” and a composite image of a blonde wig is displayed. Will be. When the elapsed time is 9 seconds (StartKey = "0.9"), a balloon "Nedou will" (ContentsID = "4") and a composite image in which a blonde wig is synthesized are displayed (F). At this time, by referring to <SimulationContents> with ContentsID = "4", the location "fukidashi005.jpg" in the content storage means of the content is specified, and the content of the balloon "Nendodo" is acquired. For frames from an elapsed time of 9 seconds (StartKey = "0.9") to an elapsed time of 10 seconds (EndKey = "1.0"), a composite image in which all black wigs are combined is displayed.

次に、ターゲットが2人の場合について説明する。図11は、ターゲットが2人の場合のXML形式のシナリオデータの一例を示す図である。図10の例と大きく異なるのは、<Simulation Targets>タグで挟まれた<Human>タグ内に、ターゲットIDが2つ設定されている点である。図11の例では、ターゲットID“0”と“1”が設定されている。<Animation Commands>タグ内では、各コマンドIDについて、1つのターゲットIDが設定される。図11の例では、コマンドID“0”“2”“3”“5”については、ターゲットID“0”が設定され、コマンドID“1”“4”“6”については、ターゲットID“1”が設定されている。   Next, a case where there are two targets will be described. FIG. 11 is a diagram illustrating an example of scenario data in XML format when there are two targets. A significant difference from the example of FIG. 10 is that two target IDs are set in a <Human> tag sandwiched between <Simulation Targets> tags. In the example of FIG. 11, target IDs “0” and “1” are set. In the <Animation Commands> tag, one target ID is set for each command ID. In the example of FIG. 11, the target ID “0” is set for the command IDs “0”, “2”, “3”, and “5”, and the target ID “1” is set for the command IDs “1”, “4”, and “6”. "Is set.

ターゲットが2人の場合も、ターゲットが1人の場合と同様に、図9のフロー図に従って実行される。ターゲットが2人の場合は、S23において、シナリオデータ対応付け手段83が、状態遷移管理手段25により生成された顔オブジェクトデータを複数取得するので、S24において、取得したそれぞれの顔オブジェクトデータをシナリオデータに対応付ける。図11の例では、シナリオデータには、ターゲットID“0”“1”の2つが設定されているので、シナリオデータ対応付け手段83は、ターゲットID“0”“1”が対応付けられたオブジェクトIDで特定される顔検出枠データをターゲットとすることになる。これにより、ターゲットとする顔オブジェクトの顔検出枠がフレームで入れ替わるように移動したとしても、合成画像作成手段84は、それぞれの顔検出枠に合わせてコンテンツを合成することができる。   When the number of targets is two, the process is executed according to the flowchart of FIG. 9 as in the case where the number of targets is one. If there are two targets, the scenario data association unit 83 acquires a plurality of pieces of face object data generated by the state transition management unit 25 in S23. Therefore, in S24, the acquired face object data is converted into scenario data. Associate with. In the example of FIG. 11, two target IDs “0” and “1” are set in the scenario data. Therefore, the scenario data associating unit 83 associates the object IDs “0” and “1” with each other. The face detection frame data specified by the ID is targeted. As a result, even if the face detection frame of the target face object is moved so as to be replaced by a frame, the composite image creating unit 84 can synthesize content in accordance with each face detection frame.

図14は、図11のシナリオデータに従って得られた合成画像の表示状態を示す図である。まず、フレームの左側にフキダシ「こんにちは」が合成された合成画像が表示され、経過時間1秒になると、フレームの右側にフキダシ「こんにちは」が合成された合成画像が表示される(ア)。経過時間3秒になると、金髪のカツラと、黒いカツラが合成された合成画像が表示される(図示省略)。経過時間4秒になると、フキダシ「今日のあなたの髪」と、金髪のカツラと、黒いカツラが合成された合成画像が表示される(イ)。経過時間6秒になると、金髪のカツラと、黒いカツラが合成された合成画像が表示される(図示省略)。経過時間7秒になると、フキダシ「今日のあなたの髪」と、金髪のカツラと、黒いカツラが合成された合成画像が表示される(ウ)。経過時間9秒になると、フキダシ「ありがとうあなたもね」と、金髪のカツラと、黒いカツラが合成された合成画像が表示される(エ)。   FIG. 14 is a diagram showing a display state of a composite image obtained according to the scenario data of FIG. First, is displayed combined image on the left side of the frame balloon "Hello" is synthesized, at the elapsed time of 1 second, the composite image in the right frame balloon "Hello" is synthesized is displayed (A). When the elapsed time reaches 3 seconds, a composite image in which a blond wig and a black wig are combined is displayed (not shown). When the elapsed time reaches 4 seconds, a composite image in which the balloon “your hair today”, the blonde wig and the black wig are combined is displayed (I). When the elapsed time reaches 6 seconds, a composite image in which a blonde wig and a black wig are combined is displayed (not shown). When the elapsed time is 7 seconds, a composite image in which the balloon “your hair today”, the blonde wig, and the black wig are combined is displayed (c). When the elapsed time is 9 seconds, a composite image in which a balloon wig and a black wig are combined is displayed ("D").

次に、仮想のタッチレスボタンを用いて対話的表示を行う場合について説明する。対話的表示を行うためには、対話的表示に対応するシナリオデータが必要となる。図15は、タッチレスボタンに対応(ターゲット1人)の場合のXML形式のシナリオデータの一例を示す図である。ここからは、図15のシナリオデータを参照しながら、合成ターゲット定義手段80、合成コンテンツ定義手段81、アニメーションシナリオ定義手段82について詳細に説明する。合成ターゲット定義手段80は、ターゲットID、タイプ、絶対座標、移り変わり設定の4つの属性を設定することによりターゲットを定義する。図15の例では、1行目の<Simulation Targets>と、7行目の</Simulation Targets>の2つのタグで囲まれた範囲に対応する。タイプについては、人と場所の2種を設定可能であるが、図15の例では、<Human>タグを用いて人についてのみ設定している。移り変わり設定は、人に対してのみ設定可能となっており、対応付け済みの人が消失した場合、新たな人に対応付けるかどうかを設定するものである。図15の例では、3行目のタグで、ターゲットID、タイプ、移り変わり設定の3属性を設定しており、ターゲットIDは“0”、タイプは“human(人)”、移り変わり設定(IsTransfer)は“false(設定しない)”となっている。   Next, a case where interactive display is performed using a virtual touchless button will be described. In order to perform interactive display, scenario data corresponding to the interactive display is required. FIG. 15 is a diagram illustrating an example of scenario data in the XML format in the case of corresponding to a touchless button (one target). From now on, the synthetic target definition unit 80, the synthetic content definition unit 81, and the animation scenario definition unit 82 will be described in detail with reference to the scenario data of FIG. The synthetic target definition means 80 defines a target by setting four attributes of target ID, type, absolute coordinate, and transition setting. In the example of FIG. 15, it corresponds to a range surrounded by two tags, <Simulation Targets> on the first line and </ Simulation Targets> on the seventh line. Regarding the type, two types of person and place can be set, but in the example of FIG. 15, only the person is set using the <Human> tag. The transition setting can be set only for a person, and sets whether or not to associate with a new person when the associated person disappears. In the example of FIG. 15, the tag in the third row sets three attributes of target ID, type, and transition setting, the target ID is “0”, the type is “human”, and transition setting (IsTransfer) Is “false (not set)”.

合成コンテンツ定義手段81は、コンテンツID、コンテンツのパス、重なり設定の3つの属性を設定することによりコンテンツを定義する。図15の例では、8行目の<Simulation Contents>と、11行目の</Simulation Contents >の2つのタグで囲まれた範囲に対応する。図15の例では、コンテンツID(ContentsID)が“0”と“1”の2つのコンテンツについて定義されている。図15に示すように、各コンテンツについて1行単位で、コンテンツのパス(ContentsPath)、重なり設定(OverlapOrder)が設定される。   The composite content definition unit 81 defines the content by setting three attributes of a content ID, a content path, and an overlap setting. In the example of FIG. 15, it corresponds to a range surrounded by two tags, <Simulation Contents> on the eighth line and </ Simulation Contents> on the eleventh line. In the example of FIG. 15, two contents whose content ID (ContentsID) is “0” and “1” are defined. As shown in FIG. 15, a content path (ContentsPath) and an overlap setting (OverlapOrder) are set for each content in units of one line.

アニメーションシナリオ定義手段82は、コマンドID、コマンドタイプ、開始キー、終了キー、キータイプ、ターゲットID、コンテンツIDの7つの属性を設定することによりアニメーションシナリオを定義する。図15の例では、12行目の<Animation Commands>と、17行目の</Animation Commands>の2つのタグで囲まれた範囲に対応する。図15の例では、コマンドID(CommandID)が“0” と“1”の2つのコマンドについて定義されている。図15に示すように、各コマンドについて2行単位で、コマンドタイプ、セレクタID(SelectorID)、開始キー、終了キー、キータイプ、ターゲットID、コンテンツIDが設定される。コマンドタイプとは、どのようなフレームを基にどのようなタイプの効果を生じさせるかを示すものであり、レイヤ合成、αブレンド合成、音声再生開始が用意されている。このうち、レイヤ合成、αブレンド合成は、画像合成のタイプを示すものであり、レイヤ合成は、コンテンツを上書き合成するものであり、αブレンド合成は、設定されたα比率に応じてコンテンツとフレームを透過させて合成するものである。図15の例では、コマンドタイプ(CommandType)として、レイヤ合成(LayerMontage)が設定されている。   The animation scenario definition means 82 defines an animation scenario by setting seven attributes of command ID, command type, start key, end key, key type, target ID, and content ID. In the example of FIG. 15, it corresponds to a range surrounded by two tags, <Animation Commands> on the 12th line and </ Animation Commands> on the 17th line. In the example of FIG. 15, two commands with command IDs (CommandID) “0” and “1” are defined. As shown in FIG. 15, for each command, a command type, a selector ID (SelectorID), a start key, an end key, a key type, a target ID, and a content ID are set in units of two lines. The command type indicates what type of effect is generated based on what frame, and layer synthesis, α blend synthesis, and audio reproduction start are prepared. Of these, layer composition and alpha blend composition indicate the type of image composition, layer composition overwrites content, and alpha blend composition is content and frame according to the set α ratio. Is synthesized through transmission. In the example of FIG. 15, layer composition (LayerMontage) is set as the command type (CommandType).

セレクタIDは、実行するコマンドを特定するための条件であり、そのセレクタIDに対応するコマンドIDのコマンドが実行される。セレクタにより特定された1以上のコマンドの集合が1つのシナリオを構成することになる。したがって、セレクタとシナリオは1対1で対応している。図15の例では、1つのシナリオが1つのコマンドで構成されており、セレクタID=0の場合に、コマンドID=0のコマンドが実行され、セレクタID=1の場合に、コマンドID=1のコマンドが実行されることを示している。開始キー、終了キーは、図10の例と同様、各コマンドの開始時点、終了時点を設定するものである。本実施形態では、シナリオデータの時間を、シナリオ開始時を“0.0”、シナリオ終了時を“1.0”として管理している。図15の例では、図10の例と異なり、全てのコマンドの開始キー(StartKey)は“0.0”、最後に終了するコマンドの終了キー(EndKey)は“1.0”となる。キータイプとは、開始キー、終了キーの基準とする対象を設定するものであり、own、base、globalの3つが用意されている。ownは各ターゲットIDに対応する顔オブジェクトの閲覧時間を基準とし、baseはターゲットID=0に対応する顔オブジェクトの閲覧時間を基準とし、globalは撮影映像の最初のフレームを取得した時間を基準とする。図10の例では、キータイプ(KeyType)として、ownが設定されているので、顔オブジェクトがフレームに登場した時点(顔オブジェクトが“閲覧開始”と判断された時点)を“0.0”として、開始キー、終了キーが認識されることになる。   The selector ID is a condition for specifying a command to be executed, and a command with a command ID corresponding to the selector ID is executed. A set of one or more commands specified by the selector constitutes one scenario. Therefore, there is a one-to-one correspondence between selectors and scenarios. In the example of FIG. 15, one scenario is composed of one command. When the selector ID = 0, the command with the command ID = 0 is executed, and when the selector ID = 1, the command ID = 1. Indicates that the command will be executed. The start key and end key are used to set the start time and end time of each command, as in the example of FIG. In the present embodiment, the scenario data time is managed as “0.0” at the start of the scenario and “1.0” at the end of the scenario. In the example of FIG. 15, unlike the example of FIG. 10, the start key (StartKey) of all commands is “0.0”, and the end key (EndKey) of the last command is “1.0”. The key type is to set a target as a reference for the start key and the end key, and three types of own, base, and global are prepared. own is based on the browsing time of the face object corresponding to each target ID, base is based on the browsing time of the face object corresponding to target ID = 0, and global is based on the time when the first frame of the captured video is acquired. To do. In the example of FIG. 10, since “own” is set as the key type (KeyType), the time point when the face object appears in the frame (the time point when the face object is determined to be “viewing start”) is set to “0.0”. The start key and end key will be recognized.

図15の例では、図10に示した<CycleInterval>タグ、<IsAutoLoop>タグが、2行目の< Human >と、4行目の</ Human >の2つのタグで囲まれた3行目のターゲットIDタグ内に含まれている。<CycleInterval>タグ、<IsAutoLoop>タグがターゲットIDタグ内に含まれている場合でも、図10の例と同様、シナリオデータの<CycleInterval>タグは、シナリオの開始から終了までの時間を秒単位で設定するものであり、シナリオデータの<IsAutoLoop>タグは、ループ処理(繰り返し処理)を行うかどうかを設定するものである。図15の例では、ターゲットIDタグ内でCycleInterval=“10”に設定されているので、シナリオの開始から終了まで10秒であることを示している。開始キー、終了キーの値を10倍した実時間でシナリオは管理されることになる。図15の例では、ターゲットIDタグ内でIsAutoLoop=“true”に設定されているので、ループ処理を行うことを示している。このようにして、合成ターゲット定義手段80、合成コンテンツ定義手段81、アニメーションシナリオ定義手段82により作成されたシナリオデータは、シナリオデータ記憶手段としてのデータ記憶装置2dに格納される。   In the example of FIG. 15, the <CycleInterval> tag and the <IsAutoLoop> tag shown in FIG. 10 are surrounded by two tags, <Human> on the second line and </ Human> on the fourth line. Are included in the target ID tag. Even when the <CycleInterval> tag and <IsAutoLoop> tag are included in the target ID tag, the <CycleInterval> tag of the scenario data is the time from the start to the end of the scenario in seconds, as in the example of FIG. The <IsAutoLoop> tag of the scenario data sets whether to perform loop processing (repetition processing). In the example of FIG. 15, since CycleInterval = “10” is set in the target ID tag, it indicates that it is 10 seconds from the start to the end of the scenario. The scenario is managed in real time that is 10 times the value of the start key and end key. In the example of FIG. 15, since IsAutoLoop = “true” is set in the target ID tag, this indicates that loop processing is performed. In this way, the scenario data created by the composite target definition means 80, the composite content definition means 81, and the animation scenario definition means 82 is stored in the data storage device 2d as the scenario data storage means.

さらに、アニメーションシナリオ定義手段82は、セレクタID、セレクトタイプ、セレクトナンバー、トリガIDの4つの属性を設定することによりアニメーションセレクタを定義する。図15の例では、18行目の<AnimationSelectors SelectorsNum = "2" InitialSerectorID="0">と、21行目の</AnimationSelectors>の2つのタグで囲まれた範囲に対応する。図15の例では、セレクタID(SelectorID)が“0” と“1”の2つのセレクタについて定義されている。図15に示すように、各セレクタについて1行単位で、セレクタID(SelectorID)、セレクトタイプ(SelectType)、セレクトナンバー(SelectNum)、トリガID(TriggerID)が設定される。セレクタIDはセレクタを特定するIDである。セレクトタイプ(SelectType)は、セレクタIDの特定方法を定めるものであり、selectnum、incrementnum、decrementnum、returnnumの4つのタイプが存在する。selectnumは、直接指定されたセレクタIDを選択する。incrementnumは、選択中のセレクタIDにセレクトナンバー(SelectNum)を加算して得られるセレクタIDを選択する。decrementnumは、選択中のセレクタIDにセレクトナンバー(SelectNum)を減算して得られるセレクタIDを選択する。returnnumは、トリガIDに対応するセレクタIDを選択する。セレクトナンバー(SelectNum)は、incrementnum、decrementnumに用いられる番号である。トリガIDは、所定のイベントが発生した場合に、そのイベントに対応して発生するIDであり、図15の例では、タッチレスボタンが指示された場合に発生する。   Furthermore, the animation scenario definition means 82 defines an animation selector by setting four attributes: selector ID, select type, select number, and trigger ID. In the example of FIG. 15, it corresponds to a range surrounded by two tags of <AnimationSelectors SelectorsNum = “2” InitialSerectorID = “0”> on the 18th line and </ AnimationSelectors> on the 21st line. In the example of FIG. 15, two selectors having selector IDs (Selector ID) “0” and “1” are defined. As shown in FIG. 15, a selector ID (SelectorID), a select type (SelectType), a select number (SelectNum), and a trigger ID (TriggerID) are set for each selector in units of one line. The selector ID is an ID that identifies the selector. The select type (SelectType) defines a method for specifying the selector ID, and there are four types: selectnum, incrementnum, decrementnum, and returnnum. selectnum selects the directly specified selector ID. The incrementnum selects a selector ID obtained by adding a select number (SelectNum) to the currently selected selector ID. Decrementnum selects the selector ID obtained by subtracting the select number (SelectNum) from the currently selected selector ID. returnnum selects the selector ID corresponding to the trigger ID. The select number (SelectNum) is a number used for incrementnum and decrementnum. The trigger ID is an ID that is generated in response to a predetermined event. In the example of FIG. 15, the trigger ID is generated when a touchless button is designated.

さらに、アニメーションシナリオ定義手段82は、タッチレスボタンID、ボタンイメージパス、マスクファイルパス、ボタン位置、ボタンサイズ、連続時間しきい値、マスク割合しきい値の7つの属性を設定することによりアニメーショントリガを定義する。図15の例では、22行目の<AnimationTriggers >と、31行目の</AnimationTriggers >の2つのタグで囲まれた範囲に対応する。図15の例では、タッチレスボタンID(TouchlessButton ID)が“0” と“1”の2つのボタンについて定義されている。図15に示すように、各ボタンについて4行単位で、タッチレスボタンID(TouchlessButton ID)、ボタンイメージパス(ButtonImagePath)、マスクファイルパス(MaskFilePath)、ボタン位置(PositionX, PositionY)、ボタンサイズ(ButtonWidth,ButtonHeight)、連続時間しきい値(Thtime)、マスク割合しきい値(Thmask)が設定される。タッチレスボタンIDはタッチレスボタンを特定するIDである。このタッチレスボタンIDはトリガIDと一対一で対応しており、タッチレスボタンIDが決定すると、トリガIDも同じ値に設定される。ボタンイメージパスは、ディスプレイ3に表示させるタッチレスボタンの画像を記録した位置を特定するパスである。マスクファイルパスは、ボタン形状の角を丸めるためにマスクするためのマスク画像を記録した位置を特定するパスである。ボタン位置は、タッチレスボタンを表示させる画面上のxy座標である。なお、後述するボタンの指示判定において、ボタン領域を設定する場合は、画像の左右を反転させる必要があるため、それに応じてx座標を変換して用いる。ボタンサイズは、タッチレスボタンの幅と高さである。連続時間しきい値は、タッチレスボタンが押され続けたと判断するための時間のしきい値である。マスク割合しきい値は、タッチレスボタンが押されていると判断するための面積比率のしきい値である。   Furthermore, the animation scenario definition means 82 sets an animation trigger by setting seven attributes of a touchless button ID, a button image path, a mask file path, a button position, a button size, a continuous time threshold value, and a mask ratio threshold value. Define In the example of FIG. 15, it corresponds to a range surrounded by two tags of <AnimationTriggers> on the 22nd line and </ AnimationTriggers> on the 31st line. In the example of FIG. 15, two buttons having a touchless button ID (TouchlessButton ID) “0” and “1” are defined. As shown in FIG. 15, touchless button ID (TouchlessButton ID), button image path (ButtonImagePath), mask file path (MaskFilePath), button position (PositionX, PositionY), button size (ButtonWidth) in units of 4 lines for each button. , ButtonHeight), continuous time threshold (Thtime), and mask ratio threshold (Thmask). The touchless button ID is an ID that identifies the touchless button. The touchless button ID has a one-to-one correspondence with the trigger ID. When the touchless button ID is determined, the trigger ID is also set to the same value. The button image path is a path for specifying a position where an image of a touchless button to be displayed on the display 3 is recorded. The mask file path is a path for specifying a position where a mask image for masking to round the corners of the button shape is recorded. The button position is an xy coordinate on the screen on which the touchless button is displayed. In the button instruction determination described later, when a button area is set, since it is necessary to invert the left and right of the image, the x coordinate is converted and used accordingly. The button size is the width and height of the touchless button. The continuous time threshold value is a threshold value of time for determining that the touchless button is continuously pressed. The mask ratio threshold is an area ratio threshold for determining that the touchless button is pressed.

図9のフロー図を用いて、図15に示したシナリオデータを指定した場合について説明する。画像処理装置2を起動し、図15に示したシナリオデータを使用するシナリオデータとして指定すると、まず、シナリオデータ対応付け手段83が、指定されたシナリオデータをデータ記憶装置2dから読み込む(S21)。そして、シナリオデータ対応付け手段83は、シナリオデータを解釈し、シナリオデータに従った画像の作成を開始する(S22)。   The case where the scenario data shown in FIG. 15 is designated will be described using the flowchart of FIG. When the image processing device 2 is activated and designated as scenario data using the scenario data shown in FIG. 15, first, the scenario data association unit 83 reads the designated scenario data from the data storage device 2d (S21). Then, the scenario data association unit 83 interprets the scenario data and starts creating an image according to the scenario data (S22).

画像の作成を開始と同時に、画像処理装置2は、ディスプレイ3にタッチレスボタンのボタン画像を表示する。閲覧者はビデオカメラ4により撮影され、常に撮影映像が取得されており、閲覧者がボタン画像に触れようとした際にも、その映像は撮影されることになる。   Simultaneously with the start of image creation, the image processing apparatus 2 displays the button image of the touchless button on the display 3. The viewer is photographed by the video camera 4, and the photographed image is always acquired. When the viewer tries to touch the button image, the image is photographed.

画像の作成を開始したら、シナリオデータ対応付け手段83は、状態遷移管理手段25により生成された顔オブジェクトデータを取得する(S23)。顔オブジェクトデータは、オブジェクトID、顔検出枠データ(位置、矩形サイズ)、閲覧時間で構成される。   When the creation of the image is started, the scenario data association unit 83 acquires the face object data generated by the state transition management unit 25 (S23). The face object data includes an object ID, face detection frame data (position, rectangular size), and browsing time.

続いて、シナリオデータ対応付け手段83は、状態遷移管理手段25から取得した顔オブジェクトデータをシナリオデータに対応付ける処理を行う(S24)。具体的には、顔オブジェクトデータに含まれる顔検出枠データのオブジェクトIDとターゲットIDを対応付ける。状態遷移管理手段25から複数の顔検出枠データを取得した場合は、候補Faceへ状態遷移したときの日時が最も早いものを“0”に設定し、以降、候補Faceへ状態遷移したときの日時が早い順に“1””2” ”3”と数を1ずつ増加させながら設定していく。図15の例では、シナリオデータには、ターゲットID“0”の1つだけ設定されているので、シナリオデータ対応付け手段83は、ターゲットID“0”が対応付けられたオブジェクトIDで特定される顔検出枠データをターゲットとすることになる。   Subsequently, the scenario data association unit 83 performs a process of associating the face object data acquired from the state transition management unit 25 with the scenario data (S24). Specifically, the object ID of the face detection frame data included in the face object data is associated with the target ID. When a plurality of face detection frame data is acquired from the state transition management unit 25, the date and time when the state transition to the candidate face is the earliest date and time is set to “0”, and thereafter the date and time when the state transition to the candidate face is performed. In order from the earliest, “1”, “2” and “3” are set while increasing the number by one. In the example of FIG. 15, since only one target ID “0” is set in the scenario data, the scenario data association unit 83 is identified by the object ID associated with the target ID “0”. The face detection frame data is targeted.

次に、合成画像作成手段84が、フレーム単位で表示用の合成画像を作成する処理を行う(S25)。具体的には、まず、開始時点を時刻“0.0”と設定し、この時刻“0.0”で、シナリオデータの<Animation Commands>を参照する。図15に示すように、<Animation Commands>においては、コマンドIDが“0”と“1”の2つのコマンドが存在し、いずれも、開始キー“0.0”から終了キー“1.0”までは、キータイプ“own”、コマンドタイプ“LayerMontage(レイヤ合成)”、ターゲットID“0”となっており、コンテンツIDのみが“0” と“1”で異なっている。上述のように、コマンドIDは、セレクタIDにより決定されるが、図15の18行目に示すように、初期セレクタID(InitialSerectorID)は“0”に設定されているため、最初は、合成画像作成手段84は、ターゲットID“0”の顔検出枠データに、コンテンツID“0”のコンテンツをレイヤ合成することにより、合成画像を作成することになる。   Next, the composite image creating means 84 performs processing for creating a composite image for display in units of frames (S25). Specifically, first, the start time is set to “0.0”, and the <Animation Commands> of the scenario data is referred to at this time “0.0”. As shown in FIG. 15, in <Animation Commands>, there are two commands with command IDs “0” and “1”, both of which are a start key “0.0” and an end key “1.0”. Up to now, the key type is “own”, the command type is “LayerMontage (layer composition)”, and the target ID is “0”, and only the content ID is different between “0” and “1”. As described above, the command ID is determined by the selector ID. However, since the initial selector ID (InitialSerectorID) is set to “0” as shown in the 18th line in FIG. The creation unit 84 creates a composite image by layer-combining the content with the content ID “0” with the face detection frame data with the target ID “0”.

コンテンツID“0”のコンテンツ(合成用素材)は、シナリオデータの<Simulation Contents>を参照することにより、コンテンツのパスが特定できるので、そのパスで特定されるデータ記憶装置2d内の記憶位置からコンテンツを取得する。上述のように、コンテンツには矩形情報が設定されているので、合成画像作成手段84は、この矩形情報と顔検出枠データの矩形サイズが一致するように矩形情報とコンテンツのサイズを変更し、変更したコンテンツを、変更後の矩形情報と顔検出枠データの位置が一致する位置にレイヤ合成を行う。具体的には、図12(b)に示すような顔画像に設定された顔検出枠データの矩形に合わせて、コンテンツに設定された矩形の大きさを変更し、コンテンツに設定された矩形の変更割合に合わせてコンテンツをリサイズし、2つの矩形が一致するように合成処理を行う。この結果、例えば、図12(a)のようにコンテンツがカツラである場合、人の顔に合わせてカツラを被せたような状態の合成画像(図12(c))が得られることになる。合成画像作成手段84は、得られた合成画像を、ディスプレイ3に表示させる。この結果、ディスプレイ3には、撮影映像のフレームに加工が施された合成画像が表示されることになる。   Since the content path of content ID “0” (material for composition) can be identified by referring to <Simulation Contents> of the scenario data, it can be determined from the storage location in the data storage device 2d identified by the path. Get content. As described above, since the rectangular information is set in the content, the composite image creating unit 84 changes the rectangular information and the size of the content so that the rectangular information and the rectangular size of the face detection frame data match, Layer composition of the changed content is performed at a position where the position of the rectangle information after the change and the position of the face detection frame data match. Specifically, the size of the rectangle set in the content is changed to match the rectangle of the face detection frame data set in the face image as shown in FIG. The content is resized according to the change ratio, and the composition process is performed so that the two rectangles match. As a result, for example, when the content is a wig as shown in FIG. 12A, a composite image (FIG. 12C) in a state where the wig is covered with a human face is obtained. The composite image creating unit 84 displays the obtained composite image on the display 3. As a result, a composite image in which the frame of the captured video is processed is displayed on the display 3.

1つのフレームについて合成画像の作成を終えたら、シナリオデータ対応付け手段83は、シナリオ中であるかどうかを判断する(S26)。具体的には、シナリオデータに従った画像作成開始からの経過時間でシナリオデータ内の<Target ID>タグ内の“CycleInterval”を参照し、経過時間がシナリオ時間未満である場合は、シナリオ中であると判断し、経過時間がシナリオ時間以上である場合は、シナリオ終了であると判断する。シナリオ中であると判断した場合には、シナリオデータ対応付け手段83は、S23に戻って、顔オブジェクトデータを取得する。   When the creation of the composite image for one frame is completed, the scenario data association unit 83 determines whether or not the scenario is in progress (S26). Specifically, refer to “CycleInterval” in the <Target ID> tag in the scenario data with the elapsed time from the start of image creation according to the scenario data, and if the elapsed time is less than the scenario time, If the elapsed time is equal to or longer than the scenario time, it is determined that the scenario is ended. If it is determined that the scenario is in progress, the scenario data association unit 83 returns to S23 and acquires face object data.

そして、S24において、シナリオデータ対応付け手段83は、状態遷移管理手段25から取得した次の顔オブジェクトデータをシナリオデータに対応付ける処理を行う。このときも1回目のループと同様、候補Faceへ状態遷移したときの日時が最も早いものを“0”に設定し、以降、候補Faceへ状態遷移したときの日時が早い順に“1””2” ”3”と数を1ずつ増加させながら設定していく。そして、シナリオデータに従って、シナリオデータ対応付け手段83は、ターゲットID“0”が対応付けられたオブジェクトIDで特定される顔検出枠データをターゲットとする。   In S24, the scenario data association unit 83 performs processing for associating the next face object data acquired from the state transition management unit 25 with the scenario data. Also at this time, as in the first loop, the earliest date and time when the state transition to the candidate face is set to “0”, and thereafter “1” and “2” in order of the date and time when the state transition to the candidate face occurs. Set "3" while increasing the number by one. Then, according to the scenario data, the scenario data association unit 83 targets the face detection frame data specified by the object ID associated with the target ID “0”.

次に、S25において、合成画像作成手段84が、フレーム単位で合成画像を作成する処理を行う。具体的には、経過時間を取得し、取得した経過時間で、シナリオデータの<Animation Commands>を参照する。このとき、セレクタIDが“0”であれば、コンテンツID“0”のコンテンツを、セレクタIDが“1”であれば、コンテンツID“1” のコンテンツを、ターゲットID“0”の顔検出枠データにレイヤ合成することにより合成画像を作成する。このようにして、S26においてシナリオ終了であると判断されるまでは、経過時間に従い、シナリオデータを実行する処理を繰り返し行う。   Next, in S25, the composite image creating unit 84 performs a process of creating a composite image in units of frames. Specifically, the elapsed time is acquired, and the <Animation Commands> of the scenario data is referenced with the acquired elapsed time. At this time, if the selector ID is “0”, the content of the content ID “0” is selected. If the selector ID is “1”, the content of the content ID “1” is converted to the face detection frame of the target ID “0”. A composite image is created by layering the data. In this way, the process of executing the scenario data is repeated according to the elapsed time until it is determined in S26 that the scenario is ended.

S26において、シナリオ終了であると判断した場合には、シナリオデータ対応付け手段83は、繰り返して処理を行うかどうかを判断する(S27)。具体的には、シナリオデータ内の<IsAutoLoop>タグを参照し、“true”が設定されている場合は、繰り返して処理を行うと判断する。繰り返して処理を行うと判断した場合には、シナリオデータ対応付け手段83は、経過時間を“0”にリセットし、経過時間の計測を再び開始するとともに、S22に戻って、シナリオデータに従った画像の作成を開始する。このように、映像の各フレームから得られた合成画像を順次ディスプレイに表示することにより、加工映像として表示されることになる。   If it is determined in S26 that the scenario has been completed, the scenario data association unit 83 determines whether or not to repeat the process (S27). Specifically, the <IsAutoLoop> tag in the scenario data is referenced, and if “true” is set, it is determined that the process is repeated. If it is determined that the process is to be repeated, the scenario data association unit 83 resets the elapsed time to “0”, starts measuring the elapsed time again, returns to S22, and follows the scenario data. Start creating an image. In this manner, the composite image obtained from each frame of the video is sequentially displayed on the display, so that it is displayed as a processed video.

一方、S22〜S25の処理と並行して、指示判定手段85は、タッチボタンが指示されたかどうかを常に判断する(S28)。具体的には、撮影映像のフレームに対して画像処理を行うことにより、判断を行う。図17は、指示判定手段85の画像処理により得られる画像を示す図である。図17においては、白い部分が画素値“1”の画素、黒い部分が画素値“0”の画素を示している。まず、指示判定手段85は、図4のS1において、背景除去手段20により処理された背景除去画像を取得する。そして、多値である背景除去画像の各画素値を所定のしきい値で二値化する。図17(a)に、二値化された背景除去画像を示す。続いて、指示判定手段85は、入力フレーム画像に対してHSV変換を行い、所定のしきい値で二値化し、二値化されたHSV画像を得る。図17(b)に、二値化されたHSV画像を示す。このHSV変換により肌色等の色味部分を抽出する。そして、二値化された背景除去画像と二値化されたHSV画像のAnd演算処理を行う。そして、人物を抽出した人物画像を得る。図17(c)に、人物画像を示す。   On the other hand, in parallel with the processing of S22 to S25, the instruction determination unit 85 always determines whether or not the touch button has been instructed (S28). Specifically, the determination is performed by performing image processing on the frame of the captured video. FIG. 17 is a diagram showing an image obtained by the image processing of the instruction determination unit 85. In FIG. 17, a white portion indicates a pixel having a pixel value “1”, and a black portion indicates a pixel having a pixel value “0”. First, the instruction determination unit 85 acquires the background removed image processed by the background removal unit 20 in S1 of FIG. Then, each pixel value of the multi-value background removed image is binarized with a predetermined threshold value. FIG. 17A shows a binarized background removed image. Subsequently, the instruction determination unit 85 performs HSV conversion on the input frame image, binarizes it with a predetermined threshold value, and obtains a binarized HSV image. FIG. 17B shows a binarized HSV image. A color portion such as skin color is extracted by this HSV conversion. Then, an And calculation process is performed on the binarized background removed image and the binarized HSV image. And the person image which extracted the person is obtained. FIG. 17C shows a person image.

次に、指示判定手段85は、図4のS2において、顔検出手段21により取得された顔検出枠を取得する。指示判定手段85は、取得した顔検出枠をマスクした二値の顔マスク画像を生成する。図17(d)に、顔マスク画像を示す。そして、指示判定手段85は、顔マスク画像と人物画像のAnd演算処理を行う。この結果、人物から顔部分を除外した特徴画像が得られる。図17(e)に、特徴画像を示す。   Next, the instruction determination unit 85 acquires the face detection frame acquired by the face detection unit 21 in S2 of FIG. The instruction determination unit 85 generates a binary face mask image masking the acquired face detection frame. FIG. 17D shows a face mask image. Then, the instruction determination unit 85 performs an And calculation process on the face mask image and the person image. As a result, a feature image excluding the face portion from the person is obtained. FIG. 17E shows a feature image.

次に、指示判定手段85は、シナリオデータ中の<AnimationTriggers >と、</AnimationTriggers >の2つのタグで囲まれた範囲におけるタッチレスボタンのボタン位置(PositionX, PositionY)、ボタンサイズ(ButtonWidth,ButtonHeight)の情報を取得する。そして、このボタン位置とボタンサイズから、ボタンの領域、およびボタンに含まれる総画素数を求める。さらに、特徴画像のボタンの領域における画素値“1”(図面では白で表現)の画素数とボタンに含まれる総画素数の比率Rmaskを算出する。図17(f)に、特徴画像とボタン領域の関係を示す。図17(f)において、白線で囲まれた矩形領域がボタン領域である。なお、図15に示すように、タッチレスボタンが複数設定されている場合、指示判定手段85は、各ボタンについて、比率Rmaskを算出する処理を行う。   Next, the instruction determination unit 85 determines the button position (PositionX, PositionY) and button size (ButtonWidth, ButtonHeight) of the touchless button in a range surrounded by two tags <AnimationTriggers> and </ AnimationTriggers> in the scenario data. ) Information. Then, from the button position and the button size, the button area and the total number of pixels included in the button are obtained. Further, a ratio Rmask between the number of pixels of the pixel value “1” (expressed in white in the drawing) in the button area of the feature image and the total number of pixels included in the button is calculated. FIG. 17F shows the relationship between the feature image and the button area. In FIG. 17F, a rectangular area surrounded by a white line is a button area. As illustrated in FIG. 15, when a plurality of touchless buttons are set, the instruction determination unit 85 performs a process of calculating the ratio Rmask for each button.

指示判定手段85は、各フレームに対して、上述のような処理を実行し、各タッチレスボタンの比率Rmaskを算出する。そして、シナリオデータ中に設定されているマスクしきい値Thmaskと各タッチレスボタンの比率Rmaskの比較を行う。そして、比較の結果に基づいて、以下の1)〜3)のいずれの状態であるかの判断を行う。   The instruction determination unit 85 performs the processing as described above for each frame, and calculates the ratio Rmask of each touchless button. Then, the mask threshold Thmask set in the scenario data is compared with the ratio Rmask of each touchless button. Then, based on the comparison result, it is determined which of the following states 1) to 3).

(タッチレスボタン上の特徴部分の比率および継続時間による状態の判断)
1)Rmask<Thmaskの場合 通常状態
2)Rmask>ThmaskかつTime<Thtimeの場合 手が翳された状態
3)Rmask>ThmaskかつTime>Thtimeの場合 指示された状態
(Judgment of the state by the ratio and duration of the feature on the touchless button)
1) When Rmask <Thmask Normal state 2) When Rmask> Thmask and Time <Thtime Hand is defeated 3) When Rmask> Thmask and Time> Thtime Instructed state

上記2)、3)において、Timeは、フレーム数にフレームレートの逆数を乗じて算出した時間であり、Thtimeはシナリオデータ中に設定されている時間のしきい値である。上記1)の場合、タッチレスボタン上における手の面積が小さいため、タッチレスボタンに手が翳された状態でなく、通常状態であると判断する。上記2)の場合、タッチレスボタン上における手の面積が大きいため、手が翳された状態ではあるが、その時間が短いため、タッチレスボタンに対する指示とまでは判断できない。上記3)の場合、タッチレスボタン上における手の面積が大きく、その時間も長いため、タッチレスボタンに対する指示と判断する。なお、図15に示したシナリオデータ中では、2つのタッチレスボタンのいずれにおいても、Thtimeは1.0秒、Thmaskは0.1(10%)が設定されている。   In 2) and 3) above, Time is the time calculated by multiplying the number of frames by the reciprocal of the frame rate, and Thtime is a threshold of time set in the scenario data. In the case of 1), since the area of the hand on the touchless button is small, it is determined that the hand is not in a state of being touched by the touchless button but in a normal state. In the case of the above 2), since the area of the hand on the touchless button is large, the hand is in a state of being touched, but since the time is short, it is not possible to determine even the instruction for the touchless button. In the case of 3), since the area of the hand on the touchless button is large and the time is long, it is determined that the instruction is for the touchless button. In the scenario data shown in FIG. 15, in both of the two touchless buttons, Thtime is set to 1.0 second and Thmask is set to 0.1 (10%).

すなわち、S28において、指示判定手段85は、各タッチレスボタンに対する手の面積比率がしきい値以上であるかどうかを判断する処理を、各フレームについて行い、手の面積比率がしきい値以上であるタッチレスボタンが所定フレーム数以上連続した場合に、タッチレスボタンが指示されたと判断する。   That is, in S28, the instruction determination unit 85 performs processing for each frame to determine whether the hand area ratio for each touchless button is equal to or greater than the threshold value, and the hand area ratio is equal to or greater than the threshold value. When a certain touchless button continues for a predetermined number of frames or more, it is determined that the touchless button has been instructed.

S28において、指示判定手段85が、タッチレスボタンが指示されたと判断した場合、コマンド切替手段86は、コマンド切替を行う(S29)。具体的には、セレクタID(Selector ID)を変更する。図15の例では、“0”である場合は“1”に、“1”である場合は“0”に変更されることになる。セレクタIDの変更により、コマンドIDも変更され、コマンドが切り替えられることになる。   If the instruction determination unit 85 determines in S28 that the touchless button has been instructed, the command switching unit 86 performs command switching (S29). Specifically, the selector ID is changed. In the example of FIG. 15, “0” is changed to “1”, and “1” is changed to “0”. By changing the selector ID, the command ID is also changed, and the command is switched.

図16は、図15のシナリオデータに従って得られた合成画像の表示状態を示す図である。図16(a)(b)において、角の丸い矩形は、タッチレスボタンを示している。図16の例では、“金髪”、“黒髪”と記されたタッチレスボタンが表示されている。閲覧者を認識すると、まず、図15のシナリオデータ18行目に示すように、初期のセレクタIDを定めるInitialSelectorIDが“0”であるので、セレクタIDは“0”に設定され、13行目によりコマンドIDが“0”に設定される。そして、13行目、14行目の<Command ID>タグに従って、シナリオ開始時(StartKey="0.0")から経過時間10秒(EndKey="1.0")までのフレームについては、コンテンツID“0”のコンテンツがレイヤ合成される。この際、ContentsID="0"で<SimulationContents>を参照することにより、コンテンツのコンテンツ記憶手段内における所在“afro.jpg”を特定し、黒いカツラのコンテンツを取得する。そして、図16(a)に示すように、黒いカツラが閲覧者の画像に合成される。タッチレスボタンの指示によるコマンドの切替がない場合、シナリオ開始時(StartKey="0.0")から経過時間10秒(EndKey="1.0")までのフレームについては、全て黒いカツラが合成された合成画像が表示されることになる。   FIG. 16 is a diagram showing a display state of a composite image obtained according to the scenario data of FIG. In FIGS. 16A and 16B, a rectangle with rounded corners indicates a touchless button. In the example of FIG. 16, touchless buttons labeled “Blonde” and “Black hair” are displayed. When the viewer is recognized, first, as shown in the scenario data 18th line in FIG. 15, since the InitialSelectorID that defines the initial selector ID is “0”, the selector ID is set to “0”. The command ID is set to “0”. Then, according to the <Command ID> tag on the 13th and 14th lines, the content ID “0” is set for the frame from the scenario start time (StartKey = “0.0”) to the elapsed time of 10 seconds (EndKey = “1.0”). Are layered. At this time, by referring to <SimulationContents> with ContentsID = "0", the location "afro.jpg" in the content storage unit of the content is specified, and the content of the black wig is acquired. And as shown to Fig.16 (a), a black wig is synthesize | combined with a viewer's image. When there is no command switching by the instruction of the touchless button, a composite image in which all black wigs are synthesized for the frames from the start of the scenario (StartKey = "0.0") to the elapsed time 10 seconds (EndKey = "1.0"). Will be displayed.

閲覧者が“金髪”のタッチレスボタンに手を翳し、<AnimationTriggers>の条件に従って、指示判定手段85が、タッチレスボタンが指示されたと判定すると、指示判定手段85は、タッチレスボタンID(TouchlessButton ID)を“1”に設定し、コマンド切替手段86が、タッチレスボタンIDに1対1で対応するトリガID を “1” に設定し、さらに、セレクタIDを “1”、コマンドIDを“1”に切り替える。そして、13行目、14行目の<Command ID>タグに従って、シナリオ開始時(StartKey="0.0")から経過時間10秒(EndKey="1.0")までのフレームについては、コンテンツID“1”のコンテンツがレイヤ合成される。この際、ContentsID="1"で<SimulationContents>を参照することにより、コンテンツのコンテンツ記憶手段内における所在“blond.jpg”を特定し、金髪のカツラのコンテンツを取得する。そして、図16(b)に示すように、黒いカツラに代えて金髪のカツラが閲覧者の画像に合成される。この後、タッチレスボタンの指示によるコマンドの切替がない場合、シナリオ開始時(StartKey="0.0")から経過時間10秒(EndKey="1.0")までのフレームについては、全て金髪のカツラが合成された合成画像が表示されることになる。   When the viewer touches the “blonde” touchless button and the instruction determination unit 85 determines that the touchless button is instructed according to the condition of <AnimationTriggers>, the instruction determination unit 85 determines that the touchless button ID (TouchlessButton ID) is set to “1”, the command switching means 86 sets the trigger ID corresponding to the touchless button ID on a one-to-one basis to “1”, the selector ID is set to “1”, and the command ID is set to “1”. Switch to 1 ”. Then, according to the <Command ID> tag in the 13th and 14th lines, the content ID “1” is set for the frame from the scenario start time (StartKey = “0.0”) to the elapsed time of 10 seconds (EndKey = “1.0”). Are layered. At this time, by referring to <SimulationContents> with ContentsID = "1", the location "blond.jpg" in the content storage means of the content is specified, and the content of the blond wig is acquired. And as shown in FIG.16 (b), it replaces with a black wig and a blond wig is synthesize | combined with a viewer's image. After this, if there is no command switching by the instruction of the touchless button, all blonde wigs are composed for the frames from the start of the scenario (StartKey = "0.0") to the elapsed time 10 seconds (EndKey = "1.0"). The synthesized image thus displayed is displayed.

<状態遷移管理手段を用いない構成>
上記実施形態の画像表示システムは、状態遷移管理手段25を用い、検出された顔画像がノイズであったと判定される場合に、閲覧状態と判断しないようにしたが、状態遷移管理手段25を用いず、検出された顔画像を全て閲覧状態と判断するようにすることも可能である。次に、状態遷移管理手段25を用いない構成について説明する。
<Configuration not using state transition management means>
In the image display system of the above embodiment, the state transition management unit 25 is used, and when it is determined that the detected face image is noise, the browsing state is not determined, but the state transition management unit 25 is used. It is also possible to determine that all detected face images are in the browsing state. Next, a configuration not using the state transition management unit 25 will be described.

図18は、状態遷移管理手段25を用いない場合の画像処理装置2´に実装されたコンピュータプログラムで実現される機能ブロック図である。図18において、図3と同一機能を有するものについては、同一符号を付して詳細な説明を省略する。   FIG. 18 is a functional block diagram realized by a computer program installed in the image processing apparatus 2 ′ when the state transition management unit 25 is not used. 18, components having the same functions as those in FIG. 3 are denoted by the same reference numerals, and detailed description thereof is omitted.

図18に示す画像処理装置2´は、図3に示したトラッキング手段23に代えて、トラッキング手段23´を有している。このトラッキング手段23´は、図3に示した動画解析手段24に相当する機能も備えている。   An image processing apparatus 2 ′ illustrated in FIG. 18 includes a tracking unit 23 ′ instead of the tracking unit 23 illustrated in FIG. This tracking means 23 'also has a function corresponding to the moving picture analysis means 24 shown in FIG.

図18に示す画像処理装置2´は、フレームを解析するにあたり、図4に示したS1〜S5の処理のうち、S1、S3の処理は、画像処理装置2と同様にして行う。また、顔検出処理とトラッキング処理は、連携させて実行する。上述のように、S5の状態遷移管理処理は行わない。   The image processing apparatus 2 ′ illustrated in FIG. 18 performs the processes of S1 and S3 in the same manner as the image processing apparatus 2 among the processes of S1 to S5 illustrated in FIG. Further, the face detection process and the tracking process are executed in cooperation. As described above, the state transition management process in S5 is not performed.

図19は、顔検出処理とトラッキング処理を示すフロー図である。まず、背景除去処理S1を行った後、Nフレームを処理するにあたり、N−1フレームの顔検出枠の数が0より大であるかどうかの判断を行う(S31)。N−1フレームの顔検出枠の数が0より大である場合は、トラッキング手段23´がトラッキング処理を実行する(S32)。   FIG. 19 is a flowchart showing face detection processing and tracking processing. First, after performing the background removal processing S1, in processing N frames, it is determined whether or not the number of face detection frames in N-1 frames is greater than 0 (S31). When the number of N-1 frame face detection frames is larger than 0, the tracking unit 23 'executes the tracking process (S32).

トラッキング手段23´は、N−1フレームにおける各顔検出枠を追跡してNフレームにおける対応する顔検出枠を特定するものである。トラッキング手段23´としては、上述の動画解析手段24が実行する“パーティクルフィルタ”、“LK法”、“CamShift手法”等の公知のトラッキング手法を採用することができる。   The tracking means 23 'tracks each face detection frame in the N-1 frame and specifies a corresponding face detection frame in the N frame. As the tracking unit 23 ′, a known tracking method such as “particle filter”, “LK method”, or “CamShift method” executed by the moving image analysis unit 24 can be employed.

N−1フレームからNフレームへの顔検出枠のトラッキング処理を終えたら、顔検出手段21がNフレームにおける顔検出処理を行う(S33)。S33における顔検出処理は、図4に示したS2の顔検出処理と同一である。また、S31において、N−1フレームの顔検出枠の数が0より大でないと判定された場合は、N−1フレームからNフレームへのトラッキング処理を行わずに、顔検出手段21がNフレームにおける顔検出処理を行う。   When the tracking process of the face detection frame from the N-1 frame to the N frame is finished, the face detection unit 21 performs the face detection process in the N frame (S33). The face detection process in S33 is the same as the face detection process in S2 shown in FIG. If it is determined in S31 that the number of face detection frames in the N-1 frame is not greater than 0, the face detection unit 21 does not perform the tracking process from the N-1 frame to the N frame and the face detection unit 21 The face detection process is performed.

続いて、顔検出処理S33において新規に検出されたNフレームの顔検出枠の数が0より大であるかどうかを判断する(S34)。新規に検出されたNフレームの顔検出枠とは、Nフレームで検出された顔検出枠のうち、N−1フレームからNフレームへトラッキングされた顔検出枠を除外したものである。   Subsequently, it is determined whether or not the number of N frame face detection frames newly detected in the face detection process S33 is greater than 0 (S34). The newly detected N frame face detection frame is obtained by excluding the face detection frame tracked from the N-1 frame to the N frame from the face detection frames detected in the N frame.

次に、顔検出手段21が、Nフレームにおいて新規に検出された各顔検出枠データに、オブジェクトIDを付与し、顔検出枠データ、オブジェクトID、トラッキング時間で構成される顔オブジェクトを設定する(S35)。顔オブジェクトは、オブジェクトIDにより特定され、トラッキングにより対応付けられた顔検出枠は、同一のオブジェクトIDで特定されることになる。また、トラッキング時間の初期値は0に設定される。   Next, the face detection means 21 assigns an object ID to each face detection frame data newly detected in the N frame, and sets a face object composed of the face detection frame data, the object ID, and the tracking time ( S35). The face object is specified by the object ID, and the face detection frames associated by tracking are specified by the same object ID. The initial value of the tracking time is set to zero.

続いて、Nフレームにおける顔検出枠の数が0より大であるかどうかの判断を行う(S36)。S36においては、Nフレームにおいて新規に検出されたかどうかを問わず、既にオブジェクトIDが発行された顔検出枠がNフレームに存在するかどうかを判断する。   Subsequently, it is determined whether or not the number of face detection frames in the N frame is greater than 0 (S36). In S36, it is determined whether or not a face detection frame in which an object ID has already been issued exists in the N frame regardless of whether or not a new detection has been performed in the N frame.

顔検出枠が存在した場合には、各顔検出枠の顔オブジェクトについて、トラッキング時間を算出する(S37)。具体的には、直前のN−1フレームまでに算出されているトラッキング時間に1フレームに相当する時間を加算することによりNフレームまでの各顔オブジェクトのトラッキング時間を算出する。トラッキング時間を算出し終えたら、Nをインクリメントして(S38)、次のNフレームについての処理に移行する。S36における判断の結果、顔検出枠が存在しなかった場合には、Nフレームには、追跡すべき対象が存在しないことになるので、トラッキング時間の算出は行わず、Nをインクリメントして(S38)、次のNフレームについての処理に移行する。   When the face detection frame exists, the tracking time is calculated for the face object of each face detection frame (S37). Specifically, the tracking time of each face object up to N frames is calculated by adding the time corresponding to one frame to the tracking time calculated up to the immediately preceding N-1 frame. When the tracking time is calculated, N is incremented (S38), and the process proceeds to the next N frame. If the result of determination in S36 is that there is no face detection frame, there is no target to be tracked in N frames, so tracking time is not calculated and N is incremented (S38). ), And shifts to processing for the next N frame.

画像処理装置2´の顔検出手段21、トラッキング手段23´は、背景除去手段20により背景処理が行われた各フレームについて、図19に示した処理を繰り返し実行する。   The face detection unit 21 and the tracking unit 23 ′ of the image processing apparatus 2 ′ repeatedly execute the process shown in FIG. 19 for each frame on which the background process has been performed by the background removal unit 20.

図19に示した処理において付与された顔オブジェクトは、図9に示したS24において、シナリオデータ対応付け手段83によりシナリオデータと対応付けられる。図19に示した処理においては、顔オブジェクトのオブジェクトIDは、顔検出枠が検出された順に、“0”“1” “2”“3”と数を1ずつ増加させながら設定される。   The face object given in the process shown in FIG. 19 is associated with the scenario data by the scenario data association unit 83 in S24 shown in FIG. In the processing shown in FIG. 19, the object ID of the face object is set in increments of “0”, “1”, “2”, and “3” in the order in which the face detection frames are detected.

以上、本発明の好適な実施形態について説明したが、本発明は上記実施形態に限定されず、種々の変形が可能である。例えば、上記実施形態では、指示判定手段が、人物の抽出を行う際、フレームから背景を除去して得られた背景除去画像と、フレームにHSV変換を行って得られたHSV画像の重複部分を抽出することにより行ったが、撮影されている人物を抽出することができれば、他の手法を用いて抽出しても良い。   The preferred embodiments of the present invention have been described above. However, the present invention is not limited to the above embodiments, and various modifications can be made. For example, in the above-described embodiment, when the instruction determination unit extracts a person, a background-removed image obtained by removing the background from the frame and an overlapping portion of the HSV image obtained by performing HSV conversion on the frame are displayed. Although extraction is performed, other methods may be used as long as the person being photographed can be extracted.

また、上記実施形態では、シナリオデータに従って合成画像を生成し、表示するようにしたが、音源データを用意しておき、シナリオデータに従って音源データを再生し、スピーカから音を出力するようにしても良い。また、滞在者が数人以上になった場合に、コンテンツを切り替えたり、性別・年代に応じてコンテンツを切り替えたりする処理を実行するようにしても良い。   In the above embodiment, a composite image is generated and displayed according to scenario data. However, sound source data is prepared, sound source data is reproduced according to scenario data, and sound is output from a speaker. good. In addition, when there are several or more visitors, processing for switching content or switching content according to gender / age may be executed.

本発明は、コンピュータを利用してディスプレイに画像を表示する産業、広告を映像として表示するデジタルサイネージの産業に利用可能である。   INDUSTRIAL APPLICABILITY The present invention is applicable to industries that display images on a display using a computer and digital signage that displays advertisements as video.

1 画像表示システム
2、2´ 画像処理装置
20 背景除去手段
21 顔検出手段
22 人体検出手段
23、23´ トラッキング手段
24 動画解析手段
25 状態遷移管理手段
26 人物属性推定手段
27 ログファイル出力手段
3 ディスプレイ
4 ビデオカメラ
6 状態遷移表
80 合成ターゲット定義手段
81 合成コンテンツ定義手段
82 アニメーションシナリオ定義手段
83 シナリオデータ対応付け手段
84 合成画像作成手段
85 指示判定手段
86 コマンド切替手段
DESCRIPTION OF SYMBOLS 1 Image display system 2, 2 'Image processing apparatus 20 Background removal means 21 Face detection means 22 Human body detection means 23, 23' Tracking means 24 Movie analysis means 25 State transition management means 26 Person attribute estimation means 27 Log file output means 3 Display 4 video camera 6 state transition table 80 composite target definition means 81 composite content definition means 82 animation scenario definition means 83 scenario data association means 84 composite image creation means 85 instruction determination means 86 command switching means

Claims (7)

人物を撮影するカメラと、カメラから送出される撮影映像を合成処理する画像処理装置と、合成処理された合成映像を表示するディスプレイとを備えた画像表示システムであって、
前記画像処理装置は、
映像上の人以上の人物それぞれについてコンテンツとの合成のタイミングを定め、対応付け済みの人が消失した場合、新たな人に対応付けるか否かを示す設定項目を備えたシナリオデータを記憶したシナリオデータ記憶手段と、
合成に用いるコンテンツを記憶したコンテンツ記憶手段と、
前記カメラから送出された映像の1つのフレームに撮影されている顔画像を検出し、検出した前記顔画像毎に、顔検出枠の位置・矩形サイズを顔検出枠データとして出力する顔検出手段と、
前記顔検出手段から取得した前記顔検出枠データを、他のフレームの顔検出枠データと対応付けるトラッキング手段と、
前記顔検出手段により検出された顔検出枠データを含む顔オブジェクトに対して、前記シナリオデータに含まれる人物との対応付けを行うとともに、前記設定項目が新たな人に対応付ける旨設定されている場合に、前記顔オブジェクトに対応付け済みの人が消失した後、新たな人に対応付けを行うシナリオデータ対応付け手段と、
前記対応付けに従って、前記顔オブジェクトを前記シナリオデータの人物に割り当て、前記顔オブジェクトの顔検出枠データの位置、サイズに合わせて、前記コンテンツの位置、サイズを変更し、前記フレーム上に前記コンテンツを合成した合成画像を生成する合成画像生成手段と、
を備えていることを特徴とする画像表示システム。
An image display system comprising a camera for photographing a person, an image processing device for synthesizing a captured video sent from the camera, and a display for displaying the synthesized video that has been synthesized,
The image processing apparatus includes:
A scenario in which scenario data including setting items indicating whether or not to associate with a new person is determined when the timing of combining with content is determined for each of two or more persons on the video and the associated person disappears Data storage means;
Content storage means for storing content used for composition;
Face detection means for detecting a face image captured in one frame of a video transmitted from the camera and outputting the position / rectangular size of the face detection frame as face detection frame data for each detected face image; ,
Tracking means for associating the face detection frame data acquired from the face detection means with face detection frame data of another frame;
When the face object including the face detection frame data detected by the face detection unit is associated with a person included in the scenario data, and the setting item is set to be associated with a new person And a scenario data associating means for associating with a new person after the person associated with the face object disappears ,
According to the association, the face object is assigned to the person of the scenario data, the position and size of the content is changed according to the position and size of the face detection frame data of the face object, and the content is placed on the frame. A composite image generating means for generating a composite image;
An image display system comprising:
前記シナリオデータは、コマンドを複数有しており、
前記各フレームについて、フレームから人物の抽出を行い、前記顔検出枠データの部分を除去して特徴部分を特定し、当該特徴部分と事前に設定された領域との面積比が所定のしきい値より大きい状態が、所定数のフレームについて連続した場合に、閲覧者からの指示があったと判断する指示判定手段をさらに有し、
前記合成画像生成手段は、前記指示判定手段により指示があったとされた場合に、前記コマンドを切り替えた後、前記シナリオデータ対応付け手段による対応付けに従って、前記顔オブジェクトを前記シナリオデータ中の前記切り替え後のコマンドの人物に割り当てるものであることを特徴とする請求項1に記載の画像表示システム。
The scenario data has a plurality of commands,
For each frame, a person is extracted from the frame, a part of the face detection frame data is removed to identify a characteristic part, and an area ratio between the characteristic part and a preset region is a predetermined threshold value When the larger state continues for a predetermined number of frames, it further includes instruction determination means for determining that there is an instruction from the viewer,
The synthetic image generation means switches the face object in the scenario data in accordance with the association by the scenario data association means after switching the command when an instruction is given by the instruction determination means. 2. The image display system according to claim 1, wherein the image display system is assigned to a person of a later command.
前記指示判定手段は、前記人物の抽出を、前記フレームから背景を除去して得られた背景除去画像と、前記フレームにHSV変換を行って得られたHSV画像の重複部分を抽出することにより行うことを特徴とする請求項2に記載の画像表示システム。   The instruction determination unit extracts the person by extracting an overlap portion between a background-removed image obtained by removing a background from the frame and an HSV image obtained by performing HSV conversion on the frame. The image display system according to claim 2. 前記トラッキング手段は、前記顔検出手段から取得した前記顔検出枠データ毎に、前記顔検出手段から一つ前に処理したフレームから取得した前記顔検出枠データと今回処理したフレームにおいて検出した前記顔検出枠データとの位置・矩形サイズ差を示す評価値を算出し、前記評価値の最も小さい一つ前の前記顔検出枠データを今回の前記顔検出枠データ毎に対応付けるものであり、
前記顔検出手段が新規に検出した顔画像毎に顔オブジェクトを生成し、
前記トラッキング手段から得られる一つ前と今回の前記顔検出枠データの対応付け結果を参照し、事前に定めた状態遷移表に従い前記顔オブジェクトの状態を閲覧状態に遷移させる状態遷移管理手段をさらに有し、
前記シナリオデータ対応付け手段は、前記状態遷移管理手段により閲覧状態または待機状態となっている顔オブジェクトを取得し、前記シナリオデータに含まれる人物との対応付けを行うものであることを特徴とする請求項1から請求項3のいずれか一項に記載の画像表示システム。
For each face detection frame data acquired from the face detection means, the tracking means detects the face detected in the face detection frame data acquired from the frame processed last from the face detection means and the currently processed frame. An evaluation value indicating a position / rectangular size difference from the detection frame data is calculated, and the previous face detection frame data having the smallest evaluation value is associated with each face detection frame data of this time,
Generating a face object for each face image newly detected by the face detection means;
A state transition management unit that refers to the result of association between the previous and current face detection frame data obtained from the tracking unit and transitions the state of the face object to a browsing state according to a predetermined state transition table; Have
The scenario data association unit acquires a face object in a browsing state or a standby state by the state transition management unit, and performs association with a person included in the scenario data. The image display system according to any one of claims 1 to 3.
前記合成画像生成手段は、前記状態遷移管理手段が閲覧状態または待機状態を検出した顔オブジェクトから順に、前記シナリオデータの人物に割り当てることを特徴とする請求項4に記載の画像表示システム。   The image display system according to claim 4, wherein the composite image generation unit assigns the scenario data to a person in order from a face object for which the state transition management unit has detected a browsing state or a standby state. 前記顔検出手段は、出力した顔検出枠データを顔オブジェクトとして設定するものであり、
前記トラッキング手段は、前記顔検出手段から取得した前記顔検出枠データ毎に、一つ後のフレームにおける当該顔検出枠データの追跡を行い、同一の顔オブジェクトとして設定するものであり、
前記シナリオデータ対応付け手段は、前記顔検出手段により設定された顔オブジェクトを取得し、前記シナリオデータに含まれる人物との対応付けを行うものであることを特徴とする請求項1から請求項3のいずれか一項に記載の画像表示システム。
The face detection means sets the output face detection frame data as a face object,
The tracking means performs tracking of the face detection frame data in the next frame for each of the face detection frame data acquired from the face detection means, and sets the same face object.
4. The scenario data associating means acquires the face object set by the face detecting means and associates with a person included in the scenario data. The image display system according to any one of the above.
前記シナリオデータは、シナリオ再生開始からの経過時間に基づく人物とコンテンツとの対応関係、コンテンツと当該コンテンツの前記コンテンツ記憶手段における所在との対応関係が定義されたものであり、前記合成画像生成手段は、前記経過時間に従って、前記人物に対応するコンテンツを、前記コンテンツ記憶手段から抽出し、合成を行うことを特徴とする請求項1から請求項6のいずれか一項に記載の画像表示システム。
The scenario data defines a correspondence relationship between a person and content based on an elapsed time from the start of scenario reproduction, and a correspondence relationship between the content and the location of the content in the content storage unit, and the composite image generation unit 7. The image display system according to claim 1, wherein content corresponding to the person is extracted from the content storage unit and synthesized according to the elapsed time.
JP2011013700A 2010-02-24 2011-01-26 Image display system Expired - Fee Related JP5685958B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011013700A JP5685958B2 (en) 2010-02-24 2011-01-26 Image display system

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP2010039211 2010-02-24
JP2010039211 2010-02-24
JP2010216943 2010-09-28
JP2010216943 2010-09-28
JP2011013700A JP5685958B2 (en) 2010-02-24 2011-01-26 Image display system

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2015011594A Division JP5850188B2 (en) 2010-02-24 2015-01-23 Image display system

Publications (2)

Publication Number Publication Date
JP2012094103A JP2012094103A (en) 2012-05-17
JP5685958B2 true JP5685958B2 (en) 2015-03-18

Family

ID=46387323

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2011013700A Expired - Fee Related JP5685958B2 (en) 2010-02-24 2011-01-26 Image display system
JP2015011594A Expired - Fee Related JP5850188B2 (en) 2010-02-24 2015-01-23 Image display system

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2015011594A Expired - Fee Related JP5850188B2 (en) 2010-02-24 2015-01-23 Image display system

Country Status (1)

Country Link
JP (2) JP5685958B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5962383B2 (en) * 2012-09-25 2016-08-03 大日本印刷株式会社 Image display system and image processing apparatus
JP2017021557A (en) * 2015-07-10 2017-01-26 ソニー株式会社 Image processor, image processing method and program
KR101970383B1 (en) * 2015-10-30 2019-04-18 주식회사 엘지유플러스 Device and method for contents production

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3810943B2 (en) * 1999-05-06 2006-08-16 株式会社東芝 Image processing apparatus, image processing method, and recording medium recording image processing program
JP2003296713A (en) * 2002-04-04 2003-10-17 Mitsubishi Electric Corp Device and method for synthesizing facial images, communication terminal provided with program for performing the method and facial image synthesizing device and communicating method by the communication terminal
JP2005018305A (en) * 2003-06-25 2005-01-20 Oki Electric Ind Co Ltd Image distributing system and information processor with image communication function
CN1748410A (en) * 2003-08-11 2006-03-15 松下电器产业株式会社 Photographing system and photographing method
JP2005063225A (en) * 2003-08-15 2005-03-10 Nippon Telegr & Teleph Corp <Ntt> Interface method, system and program using self-image display
JP2006331065A (en) * 2005-05-26 2006-12-07 Matsushita Electric Ind Co Ltd Face information transmitting device, face information transmitting method and recording medium with its program recorded
JP5228439B2 (en) * 2007-10-22 2013-07-03 三菱電機株式会社 Operation input device
JP5103287B2 (en) * 2008-06-10 2012-12-19 日本電信電話株式会社 ADVERTISEMENT EFFECT MEASUREMENT DEVICE, ADVERTISEMENT EFFECT MEASUREMENT METHOD, ADVERTISEMENT EFFECT MEASUREMENT PROGRAM, AND RECORDING MEDIUM CONTAINING THE PROGRAM

Also Published As

Publication number Publication date
JP2015099603A (en) 2015-05-28
JP5850188B2 (en) 2016-02-03
JP2012094103A (en) 2012-05-17

Similar Documents

Publication Publication Date Title
CN108965982B (en) Video recording method and device, electronic equipment and readable storage medium
US10979761B2 (en) Intelligent video interaction method
Darrell et al. Integrated person tracking using stereo, color, and pattern detection
US11676389B2 (en) Forensic video exploitation and analysis tools
CN105373768B (en) Method and apparatus for providing image content
US20110268426A1 (en) Video editing apparatus and video editing method
JPWO2006025272A1 (en) Video classification device, video classification program, video search device, and video search program
KR20170009037A (en) Method for providingimage contents and image contents providing apparatus
JP2005210573A (en) Video image display system
JP6649231B2 (en) Search device, search method and program
JP6867056B2 (en) Information processing equipment, control methods, and programs
JP5776471B2 (en) Image display system
CN110502117B (en) Screenshot method in electronic terminal and electronic terminal
JP2021509201A (en) Video preprocessing methods, equipment and computer programs
CN113709545A (en) Video processing method and device, computer equipment and storage medium
JP5850188B2 (en) Image display system
JP2011070629A (en) Advertising effect measurement system and advertising effect measurement device
JP2013195725A (en) Image display system
JP2011070629A5 (en)
JP5962383B2 (en) Image display system and image processing apparatus
JP4110323B2 (en) Information output method and apparatus, program, and computer-readable storage medium storing information output program
JP2014170979A (en) Information processing apparatus, information processing method, and information processing program
US9767564B2 (en) Monitoring of object impressions and viewing patterns
JP2004080156A (en) Image processing apparatus, image processing method, program, recording medium, and image processing system
CN113989424A (en) Three-dimensional virtual image generation method and device and electronic equipment

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20130823

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131128

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140909

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140924

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141125

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141224

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150106

R150 Certificate of patent or registration of utility model

Ref document number: 5685958

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees