JP2019121105A - Control device and control program - Google Patents
Control device and control program Download PDFInfo
- Publication number
- JP2019121105A JP2019121105A JP2017254771A JP2017254771A JP2019121105A JP 2019121105 A JP2019121105 A JP 2019121105A JP 2017254771 A JP2017254771 A JP 2017254771A JP 2017254771 A JP2017254771 A JP 2017254771A JP 2019121105 A JP2019121105 A JP 2019121105A
- Authority
- JP
- Japan
- Prior art keywords
- user
- presenter
- control device
- reaction
- control
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000005259 measurement Methods 0.000 claims abstract description 48
- 230000008859 change Effects 0.000 claims description 10
- 230000001186 cumulative effect Effects 0.000 claims description 8
- 230000004044 response Effects 0.000 claims description 4
- 238000000034 method Methods 0.000 description 25
- 238000012545 processing Methods 0.000 description 21
- 230000008569 process Effects 0.000 description 19
- 238000004891 communication Methods 0.000 description 15
- 238000003384 imaging method Methods 0.000 description 13
- 102220486681 Putative uncharacterized protein PRO1854_S10A_mutation Human genes 0.000 description 7
- 102220470087 Ribonucleoside-diphosphate reductase subunit M2_S20A_mutation Human genes 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 4
- 238000001514 detection method Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 238000013459 approach Methods 0.000 description 3
- 230000002159 abnormal effect Effects 0.000 description 2
- 230000036760 body temperature Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000008451 emotion Effects 0.000 description 2
- 210000000887 face Anatomy 0.000 description 2
- 230000008921 facial expression Effects 0.000 description 2
- 238000007689 inspection Methods 0.000 description 2
- 238000000691 measurement method Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000001364 causal effect Effects 0.000 description 1
- 238000005094 computer simulation Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000008909 emotion recognition Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000036544 posture Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Landscapes
- Circuit For Audible Band Transducer (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は、制御装置、及び制御プログラムに関する。 The present invention relates to a control device and a control program.
特許文献1には、所定の空間の天井部に設けられ前記空間を撮影する撮像部と、所定位置の温度を検出する温度センサと、前記温度センサを所定の方向に向ける駆動機構と、前記撮像部で取得される画像データ、前記温度センサで検出される検出温度が入力されると共に、前記駆動機構を制御する主制御部と、前記主制御部の制御に基づいて所定の通信を行う通信部とから、なることを特徴とする転倒検知システムが開示されている。 In Patent Document 1, an imaging unit provided on a ceiling part of a predetermined space for photographing the space, a temperature sensor for detecting a temperature at a predetermined position, a drive mechanism for turning the temperature sensor in a predetermined direction, and the imaging A main control unit that controls the drive mechanism and a communication unit that performs predetermined communication based on the control of the main control unit, while receiving image data acquired by the unit and a detected temperature detected by the temperature sensor There is disclosed a fall detection system characterized by comprising
特許文献2には、生体の身辺に生じる事象もしくは生体自身に生じる事象の状態量を検出対象とする第2のセンサと、前記事象の異常状態を誘発する原因事象の状態量を検出する第1のセンサと、前記第1のセンサが検出する事象の状態量が前記異常状態の発生とみなすための所定の条件を満たしたことをトリガとして、前記第2のセンサによる当該センサが検出対象とする事象の状態量の検出を開始させる検出開始手段とを備えることを特徴とするセンシングシステムが開示されている。 Patent Document 2 detects a second sensor for detecting an amount of state of an event generated on the side of a living body or an event generated on the living body itself, and detects a state amount of a causal event causing an abnormal state of the event. The sensor by the second sensor is a detection target, triggered by the fact that the state amount of the event detected by the first sensor and the first sensor satisfies a predetermined condition for considering the occurrence of the abnormal state as a trigger. And a detection start means for starting detection of a state quantity of an event to be detected.
従来から、画像を撮影するカメラ及び動きを検出するセンサ等の測定装置を用いて、例えば感情といった人の内面状態の測定を行う手法の開発が進められている。 2. Description of the Related Art Conventionally, development of a method for measuring an inner state of a person such as an emotion has been advanced using a measuring device such as a camera for capturing an image and a sensor for detecting motion.
しかしながら、従来の測定手法は、例えば部屋又は会場といった予め定めた範囲内に存在する全体の人々に対する内面状態の測定を行うため、測定装置の台数及び向きが予め調整されている。したがって、従来の測定手法では、部屋又は会場内の特定の方向にいる人だけの内面状態を測定したり、内面状態の測定対象者を選択するため測定装置の向きを内面状態の測定中に調整したりすることが困難である。 However, in the conventional measurement method, the number and direction of the measuring devices are adjusted in advance, in order to measure the inner surface state for all the people present in a predetermined range, for example, a room or a hall. Therefore, in the conventional measurement method, the direction of the measuring device is adjusted during the measurement of the inner surface state to measure the inner surface state of only the person in a specific direction in the room or the hall or to select the measurement target person of the inner surface state. It is difficult to do.
本発明は、利用者が注目した方向にいる人の反応を測定することができる制御装置、及び制御プログラムを提供することを目的とする。 An object of the present invention is to provide a control device and a control program capable of measuring a reaction of a person who is in a direction in which a user pays attention.
上記目的を達成するために、請求項1記載の制御装置の発明は、利用者が注目した注目方向を取得する取得手段と、前記取得手段で取得した注目方向に位置する測定対象者の前記利用者に対する反応を測定する測定装置を制御する制御手段と、を備える。 In order to achieve the above object, the invention of the control device according to claim 1 is an acquisition unit for acquiring a direction of interest focused by the user, and the use of the measurement target person located in the direction of interest acquired by the acquisition unit. Control means for controlling the measuring device for measuring the reaction to the subject.
請求項2記載の発明は、前記利用者は観衆に向かって発言する発表者であり、前記取得手段は、前記発表者が話しかけた方向を前記利用者の注目方向として取得し、前記制御手段は、前記取得手段で取得した前記発表者が話しかけた方向に位置する観衆の前記発表者の発言に対する反応を測定するように前記測定装置を制御する。 The invention according to claim 2 is that the user is a presenter who speaks to the audience, the acquisition means acquires the direction in which the presenter talks as the attention direction of the user, and the control means is Controlling the measuring device to measure a reaction of the audience located in the direction in which the presenter acquired by the acquisition means speaks to the speaker's remark.
請求項3記載の発明は、前記取得手段は、前記利用者が相対している方向を前記利用者の注目方向として取得する。 In the invention according to claim 3, the acquisition means acquires the direction in which the user is facing as the attention direction of the user.
請求項4記載の発明は、前記制御手段は、前記利用者が相対する方向の変化にあわせて、前記測定装置で反応が測定される前記測定対象者が変わるように前記測定装置を制御する。 In the invention according to claim 4, the control means controls the measuring device such that the person to be measured whose reaction is to be measured by the measuring device changes in accordance with a change in the direction in which the user faces.
請求項5記載の発明は、前記取得手段は、予め定めた期間における前記利用者が相対している方向に関する統計量から前記利用者の注目方向を取得し、前記制御手段は、前記利用者の注目方向に位置する前記測定対象者の前記利用者に対する反応を測定するように前記測定装置を制御する。 In the invention according to claim 5, the acquisition means acquires the attention direction of the user from a statistic related to the direction in which the user is facing in a predetermined period, and the control means is configured to The measuring device is controlled to measure the reaction of the person to be measured located in the direction of interest to the user.
請求項6記載の発明は、前記取得手段は、前記予め定めた期間において前記利用者が相対した累積時間が最も長い方向を前記利用者の注目方向として取得する。 In the invention according to claim 6, the acquisition means acquires, as the user's attention direction, the direction in which the cumulative time that the user has faced is the longest in the predetermined period.
請求項7記載の発明は、前記取得手段は、前記予め定めた期間において前記利用者が相対した累積回数が最も多い方向を前記利用者の注目方向として取得する。 In the invention according to claim 7, the acquisition means acquires, as the attention direction of the user, the direction in which the cumulative number of times the user has faced is the largest in the predetermined period.
請求項8記載の発明は、前記取得手段は、前記予め定めた期間において、前記利用者が相対した方向の平均を前記利用者の注目方向として取得する。 In the invention according to claim 8, the acquisition means acquires an average of directions in which the user has faced as the attention direction of the user in the predetermined period.
請求項9記載の発明は、前記取得手段は、前記利用者の顔又は体が向いている方向を、前記利用者が相対している方向として取得する。 In the invention according to claim 9, the acquisition means acquires the direction in which the face or body of the user is facing as the direction in which the user is facing.
請求項10記載の発明は、前記取得手段は、マイクで収集した前記利用者が発した音声の伝播方向を前記利用者が話しかけた方向として取得する。 In the invention according to claim 10, the acquisition means acquires the propagation direction of the voice emitted by the user collected by a microphone as the direction in which the user talks.
請求項11記載の発明は、前記マイクが複数備えられ、前記取得手段は、各々の前記マイクで収集された音声のそれぞれの強度分布から、前記利用者が発した音声の伝播方向を取得する。 In the invention according to claim 11, a plurality of the microphones are provided, and the acquisition means acquires the propagation direction of the voice emitted by the user from the intensity distribution of the voice collected by each of the microphones.
請求項12記載の発明は、前記制御手段は、前記利用者の発言に対する前記測定対象者の反応を示す反応情報が、前記利用者から見える位置に設置された表示装置に表示されるように前記表示装置を制御する。 In the invention according to claim 12, the control means causes the reaction information indicating the reaction of the person to be measured to the utterance of the user to be displayed on a display device installed at a position viewed by the user. Control the display device.
請求項13記載の発明は、前記反応情報が、前記利用者の発言に対する前記測定対象者の関心度合いを表す情報である。 In the invention according to claim 13, the reaction information is information indicating a degree of interest of the person to be measured for the utterance of the user.
請求項14記載の発明は、前記制御手段は、前記利用者の発言に対する前記測定対象者の関心度合いが、前記測定対象者の位置と対応付けられて表示されるように前記表示装置を制御する。 In the invention according to claim 14, the control means controls the display device such that the degree of interest of the person to be measured with respect to the utterance of the user is displayed in association with the position of the person to be measured. .
請求項15記載の制御プログラムの発明は、コンピュータを、請求項1〜請求項14の何れか1項に記載の制御装置の各手段として機能させる。 The invention of a control program according to claim 15 causes a computer to function as each means of the control device according to any one of claims 1 to 14.
請求項1、15記載の発明によれば、利用者が注目した方向にいる人の反応を測定することができる、という効果を有する。 According to the inventions of claims 1 and 15, it is possible to measure the reaction of the person who is in the direction in which the user pays attention.
請求項2記載の発明によれば、観衆全体の中から、利用者が話しかけた方向にいる観衆だけの反応を測定することができる、という効果を有する。 According to the second aspect of the present invention, it is possible to measure the reaction of only the audience in the direction in which the user speaks from among the entire audience.
請求項3記載の発明によれば、利用者を撮影した画像から利用者の注目方向を取得することができる、という効果を有する。 According to the third aspect of the present invention, it is possible to obtain the user's attention direction from the image obtained by photographing the user.
請求項4記載の発明によれば、各々の時点における利用者の向きにあわせて測定対象者を選択することができる、という効果を有する。 According to the fourth aspect of the present invention, it is possible to select the person to be measured according to the direction of the user at each time point.
請求項5記載の発明によれば、利用者が意図せず注目方向と異なる方向を向いた場合であっても、各々の時点における利用者の向きにあわせて測定対象者を選択する場合と比較して、測定対象者の選択範囲が変化することを抑制することができる、という効果を有する。 According to the fifth aspect of the present invention, even when the user unintentionally turns to a direction different from the direction of attention, comparison with the case where the person to be measured is selected according to the direction of the user at each time point Thus, the change of the selection range of the person to be measured can be suppressed.
請求項6記載の発明によれば、利用者が相対した方向毎の累積時間から利用者の注目方向を取得することができる、という効果を有する。 According to the sixth aspect of the present invention, it is possible to obtain the user's attention direction from the accumulated time in each direction in which the user is facing.
請求項7記載の発明によれば、利用者が相対した方向毎の累積回数から利用者の注目方向を取得することができる、という効果を有する。 According to the seventh aspect of the present invention, it is possible to acquire the user's attention direction from the cumulative number of times in each direction to which the user has faced.
請求項8記載の発明によれば、複数の方向で利用者が相対した累積回数又は累積時間が同じになった場合であっても、利用者の注目方向を取得することができる、という効果を有する。 According to the eighth aspect of the invention, even when the cumulative number or the cumulative time in which the user is facing in the plurality of directions is the same, it is possible to acquire the attention direction of the user. Have.
請求項9記載の発明によれば、利用者の顔と体の向きが異なっている場合であっても、利用者が相対している方向を取得することができる、という効果を有する。 According to the ninth aspect of the present invention, even when the direction of the user's face and body is different, it is possible to obtain the direction in which the user is facing.
請求項10記載の発明によれば、収集した音声から利用者が話しかけた方向を取得することができる、という効果を有する。 According to the tenth aspect of the present invention, it is possible to obtain the direction in which the user talks from the collected voice.
請求項11記載の発明によれば、1つのマイクを用いて利用者が話しかけた方向を取得する場合と比較して、利用者が話しかけた方向を精度よく取得することができる、という効果を有する。 According to the invention as set forth in claim 11, it is possible to obtain the direction in which the user speaks with high accuracy, as compared with the case where the direction in which the user speaks is acquired using one microphone. .
請求項12記載の発明によれば、利用者は、測定対象者の反応情報を確認しながら注目方向を選択することができる、という効果を有する。 According to the twelfth aspect of the invention, the user can select the attention direction while confirming the reaction information of the person to be measured.
請求項13記載の発明によれば、利用者は、測定対象者が関心を持つ発言を把握しながら話をすることができる、という効果を有する。 According to the invention as set forth in claim 13, the user has the effect of being able to speak while grasping the remarks of interest of the person to be measured.
請求項14記載の発明によれば、利用者は、どこにどのような発言に関心を持つ測定対象者がいるかを把握しながら話をすることができる、という効果を有する。 According to the invention of claim 14, the user has the effect of being able to speak while grasping where and what person being measured is interested in what utterance.
以下、本実施の形態について図面を参照しながら説明する。なお、機能が同じ構成要素及び処理には全図面を通して同じ符合を付与し、重複する説明を省略する。 Hereinafter, the present embodiment will be described with reference to the drawings. In addition, the same code | symbol is provided to the component and process in which the function is the same throughout all drawings, and the overlapping description is abbreviate | omitted.
<第1実施形態>
図1は、本実施の形態に係る反応測定システム1の一例を示す構成図である。反応測定システム1は、反応測定システム1を利用する利用者が注目した注目方向に位置する人(以降、「測定対象者」という)の感情といった内面状態、すなわち、反応を測定するシステムである。
First Embodiment
FIG. 1 is a block diagram showing an example of a reaction measurement system 1 according to the present embodiment. The reaction measurement system 1 is a system that measures an inner state such as an emotion of a person (hereinafter, referred to as a “measurement target person”) located in a direction of interest where a user who uses the reaction measurement system 1 pays attention.
例えば、図1に示すように、発表者2が観衆3に向かってプレゼンテーションを行う場合、発表者2は反応測定システム1を利用することで、発表者2が注目した注目方向に位置する観衆3の反応が得られる。すなわち、発表者2は、反応測定システム1を利用する利用者の一例であり、観衆3は、反応の測定対象である測定対象者の一例である。 For example, as shown in FIG. 1, when the presenter 2 gives a presentation to the audience 3, the presenter 2 uses the reaction measurement system 1 to make the audience 3 located in the attention direction the presenter 2 pays attention to Reaction is obtained. That is, the presenter 2 is an example of a user who uses the reaction measurement system 1, and the audience 3 is an example of a person to be measured whose response is to be measured.
反応測定システム1は、例えば可視カメラ4、制御装置5、赤外線カメラ6、及び表示装置7を含む。 The reaction measurement system 1 includes, for example, a visible camera 4, a control device 5, an infrared camera 6, and a display device 7.
可視カメラ4は、人の目に見える光によって表される物体の画像を撮影するカメラであり、発表者2を撮影する位置に取り付けられている。この場合、可視カメラ4で撮影された画像に観衆3も含まれてよいが、少なくとも発表者2が含まれるものとする。可視カメラ4の設置方法に制約はなく、発表者2を含む画像が得られるのであれば、取り付け金具等で予め定めた位置に固定されていても、発表者2を撮影する撮影者が手に持って撮影してもよい。可視カメラ4で撮影された画像は制御装置5に送信される。 The visible camera 4 is a camera for capturing an image of an object represented by light visible to human eyes, and is attached at a position for capturing the presenter 2. In this case, the image captured by the visible camera 4 may include the audience 3 but at least the presenter 2 is included. There is no restriction on the installation method of the visible camera 4, and if an image including the presenter 2 can be obtained, the photographer who takes a photograph of the presenter 2 takes a hand even though it is fixed at a predetermined position by a mounting bracket or the like. It may be taken with you. An image captured by the visible camera 4 is transmitted to the control device 5.
なお、複数の可視カメラ4で発表者2を撮影してもよいが、可視カメラ4の台数が増加するに従い反応測定システム1のコストが増加するため、1台の可視カメラ4で発表者2を撮影することが好ましい。 Although the presenter 2 may be photographed by a plurality of visible cameras 4, the cost of the reaction measurement system 1 increases as the number of visible cameras 4 increases. It is preferable to take a picture.
制御装置5は、可視カメラ4で撮影された画像を受信し、受信した画像から発表者2が注目している注目方向を取得する。そして、制御装置5は、取得した発表者2の注目方向に位置する観衆3の反応を測定するため、赤外線カメラ6の撮影方向が発表者2の注目方向に近づくように赤外線カメラ6の撮影方向を制御する。 The control device 5 receives an image captured by the visible camera 4 and acquires an attention direction in which the presenter 2 is focusing from the received image. Then, since the control device 5 measures the reaction of the audience 3 located in the acquired attention direction of the presenter 2, the imaging direction of the infrared camera 6 so that the imaging direction of the infrared camera 6 approaches the attention direction of the presenter 2 Control.
赤外線カメラ6は、制御装置5の制御に従って撮影方向が変えられるように、例えば壁、天井、床、又は台等の予め定めた場所に取り付けられており、制御装置5によって指示された方向に位置する観衆3の赤外線画像を撮影する。 The infrared camera 6 is attached to a predetermined place such as a wall, a ceiling, a floor or a stand so that the imaging direction can be changed according to the control of the control device 5, and the infrared camera 6 is positioned in the direction instructed by the control device 5 The infrared image of the audience 3 to be taken.
赤外線画像からは、顔といった衣服等で覆われていない観衆3の部位の温度が得られる。したがって、非特許文献1に示すような、人の内面状態を顔の温度から測定する公知の手法を用いることで、制御装置5は、赤外線カメラ6で撮影された赤外線画像から、発表者2が注目した注目方向に位置する観衆3の反応を得る。 From the infrared image, the temperature of the part of the audience 3 not covered with clothes or the like such as the face can be obtained. Therefore, using the known method of measuring the inner surface state of a person from the temperature of the face as shown in Non-Patent Document 1, the control device 5 uses the infrared image taken by the infrared camera 6 to present the presenter 2 Get the reaction of the audience 3 located in the attention direction that you noted.
[非特許文献1]:Zhilei Liu, Shangfei Wang. "Emotion Recognition Using Hidden Markov Models from Facial Temperature Sequence" Affective Computing and Intelligent Interaction(ACII), Lecture Notes in Computer Science(LNCS), vol6975, pp.240-247, 2011 [Non-patent document 1]: Zhilei Liu, Shangfei Wang. "Emotion Recognition Using Hidden Markov Models from Facial Temperature Sequence" Affective Computing and Intelligent Interaction (ACII), Lecture Notes in Computer Science (LNCS), vol 6975, pp. 240-247 , 2011
なお、反応測定システム1では、観衆3の反応を測定する測定装置の一例として赤外線カメラ6を用いているが、観衆3の反応を測定する装置であれば、赤外線カメラ6に代わってどのような装置を用いてもよい。 In the reaction measurement system 1, the infrared camera 6 is used as an example of a measurement device that measures the reaction of the audience 3. However, any device that measures the reaction of the audience 3 may be used instead of the infrared camera 6. An apparatus may be used.
人の内面状態は、例えば顔の表情、仕草、及び姿勢にも表れることが知られている。したがって、赤外線カメラ6の代わりに、観衆3の顔の表情を撮影する可視カメラや、キネクト(登録商標)のように赤外線を用いて人の動きを検知する三次元センサを用いて、観衆3の反応を測定するようにしてもよい。又は、赤外線カメラ6と、可視カメラ及び三次元センサの少なくとも1つを組み合わせて、観衆3の反応を測定するようにしてもよい。 It is known that the inner state of a person also appears in, for example, facial expressions, gestures, and postures. Therefore, in place of the infrared camera 6, a visible camera for capturing the facial expression of the audience 3, and a three-dimensional sensor for detecting human movement using infrared rays such as Kinect (registered trademark) The reaction may be measured. Alternatively, the reaction of the audience 3 may be measured by combining the infrared camera 6 and at least one of a visible camera and a three-dimensional sensor.
なお、複数の赤外線カメラ6で観衆3を撮影してもよいが、赤外線カメラ6の台数が増加するに従い反応測定システム1のコストが増加するため、1台の赤外線カメラ6で観衆3を撮影することが好ましい。 Although the audience 3 may be photographed by a plurality of infrared cameras 6, since the cost of the reaction measurement system 1 increases as the number of infrared cameras 6 increases, the audience 3 is photographed by one infrared camera 6 Is preferred.
表示装置7は制御装置5と接続され、制御装置5で測定された観衆3の反応を示す反応情報を表示する。表示装置7を発表者2の視界の範囲内に設置することで、プレゼンテーションを行う発表者2に、発表者2が注目した方向に位置する観衆3の反応が表示されることになる。 The display unit 7 is connected to the control unit 5 and displays reaction information indicating the reaction of the audience 3 measured by the control unit 5. By arranging the display device 7 within the range of the view of the presenter 2, the presenter 2 who is giving a presentation will be displayed the reaction of the audience 3 located in the direction in which the presenter 2 focused.
上述した反応測定システム1の制御装置5は、例えばコンピュータを用いて構成される。図2は、コンピュータ10を用いて構成された制御装置5における電気系統の要部構成例を示す図である。 The control device 5 of the reaction measurement system 1 described above is configured using, for example, a computer. FIG. 2 is a diagram showing an example of a main configuration of an electric system in the control device 5 configured using the computer 10. As shown in FIG.
コンピュータ10は、本実施の形態に係る取得手段及び制御手段として機能するCPU(Central Processing Unit)11、ROM(Read Only Memory)12、RAM(Random Access Memory)13、不揮発性メモリ14、及び入出力インターフェース(I/O)15を備える。そして、CPU11、ROM12、RAM13、不揮発性メモリ14、及びI/O15がバス16を介して各々接続されている。なお、コンピュータ10で用いられるオペレーションシステムに制限はない。 The computer 10 has a central processing unit (CPU) 11, a read only memory (ROM) 12, a random access memory (RAM) 13, a non-volatile memory 14, and an input / output function as acquisition means and control means according to the present embodiment. An interface (I / O) 15 is provided. The CPU 11, the ROM 12, the RAM 13, the non-volatile memory 14, and the I / O 15 are connected to one another via the bus 16. The operation system used by the computer 10 is not limited.
不揮発性メモリ14は、不揮発性メモリ14に供給される電力を遮断しても記憶した情報が維持される記憶装置の一例であり、例えば半導体メモリが用いられるがハードディスクであってもよい。 The non-volatile memory 14 is an example of a storage device in which the stored information is maintained even if the power supplied to the non-volatile memory 14 is cut off. For example, a semiconductor memory may be used but it may be a hard disk.
I/O15には、例えば可視カメラ4、赤外線カメラ6、表示装置7、及び通信装置8が接続される。 For example, the visible camera 4, the infrared camera 6, the display device 7, and the communication device 8 are connected to the I / O 15.
通信装置8は、例えばインターネット等の通信回線と制御装置5を接続する通信プロトコルを備え、通信回線に接続される他の外部装置と制御装置5との間でデータ通信を行う。 The communication device 8 includes, for example, a communication protocol for connecting a communication line such as the Internet and the control device 5, and performs data communication between the control device 5 and another external device connected to the communication line.
なお、I/O15には図2に示した装置の他、例えばユーザの指示を受け付けてCPU11に通知する入力ユニットといった他の装置が接続されてもよい。入力ユニットには、例えばボタン、タッチパネル、キーボード、及びマウス等が含まれる。また、必ずしもI/O15に可視カメラ4、赤外線カメラ6、表示装置7、及び通信装置8が接続される必要もなく、例えば表示装置7及び通信装置8は必要に応じて接続すればよい。 In addition to the device shown in FIG. 2, for example, another device such as an input unit for receiving an instruction from the user and notifying the CPU 11 may be connected to the I / O 15. The input unit includes, for example, a button, a touch panel, a keyboard, and a mouse. In addition, the visible camera 4, the infrared camera 6, the display device 7, and the communication device 8 do not necessarily have to be connected to the I / O 15. For example, the display device 7 and the communication device 8 may be connected as needed.
次に、図3を用いて、反応測定システム1における制御装置5の動作について説明する。 Next, the operation of the control device 5 in the reaction measurement system 1 will be described with reference to FIG.
図3は、制御装置5が起動した後、又は図示しない入力ユニットを介してユーザから動作開始の指示を受け付けた場合に、CPU11によって実行される制御処理の流れの一例を示すフローチャートである。 FIG. 3 is a flowchart showing an example of the flow of control processing executed by the CPU 11 after the control device 5 is activated or when an instruction to start operation is received from the user via an input unit (not shown).
制御処理を規定する制御プログラムは、例えば制御装置5のROM12に予め記憶されている。制御装置5のCPU11は、ROM12に記憶される制御プログラムを読み込み、制御処理を実行する。 A control program defining the control process is stored in advance in, for example, the ROM 12 of the control device 5. The CPU 11 of the control device 5 reads a control program stored in the ROM 12 and executes control processing.
まず、ステップS10において、CPU11は、発表者2を撮影した画像を可視カメラ4から受信したか否かを判定する。画像を受信していない場合にはステップS10の処理を繰り返し実行して、画像の受信状況を監視する。一方、可視カメラ4から画像を受信した場合にはステップS20に移行する。 First, in step S <b> 10, the CPU 11 determines whether an image obtained by photographing the presenter 2 has been received from the visible camera 4. When the image is not received, the process of step S10 is repeatedly executed to monitor the reception status of the image. On the other hand, when an image is received from the visible camera 4, the process proceeds to step S20.
ステップS20において、CPU11は、ステップS10で受信した画像から発表者2が相対している方向の方向角を取得し、取得した方向角をRAM13に記憶する。具体的には、CPU11は、例えば顔のパターン認識、又は顔の特徴ベクトルを用いた公知の画像認識手法を用いて、画像から発表者2の顔を抽出し、抽出した顔の向きと予め定めた方向(基準方向)とが成す角度(方向角)を、発表者2が相対している方向として取得し、RAM13に記憶する。 In step S20, the CPU 11 acquires the direction angle in the direction in which the presenter 2 is facing from the image received in step S10, and stores the acquired direction angle in the RAM 13. Specifically, the CPU 11 extracts the face of the presenter 2 from the image using, for example, face pattern recognition or a known image recognition method using a face feature vector, and the direction of the extracted face is determined in advance. The angle (orientation angle) that is made with the selected direction (reference direction) is acquired as the direction in which the presenter 2 is facing, and stored in the RAM 13.
発表者2が特定の位置にいる観衆3に話しかける場合、発表者2は当該観衆3の方に顔を向け発言する傾向が見られることから、抽出した顔の向きは、発表者2が相対している方向として捉えられる。 When the presenter 2 speaks to the audience 3 who is in a specific position, the presenter 2 tends to face the face of the audience 3 and thus the extracted face direction is opposite to that of the presenter 2 It can be understood as the direction in which
なお、発表者2が相対している方向は必ずしも発表者2の顔の向きで決定する必要はなく、例えば発表者2の体の向き、発表者の首の向き、又は発表者2の視線の方向で決定してもよい。ここでは一例として、発表者2の顔の向きを発表者2が相対している方向として説明を行う。 The direction in which the presenter 2 is facing does not necessarily have to be determined by the orientation of the face of the presenter 2, for example, the orientation of the body of the presenter 2, the orientation of the presenter's neck, or the line of sight of the presenter 2. It may be determined by the direction. Here, as an example, the orientation of the face of the presenter 2 is described as the direction in which the presenter 2 is facing.
ステップS30において、CPU11は、例えばステップS30の実行開始時刻から予め定めた期間(以降、「判定期間」という)だけ過去に遡った間に取得した、発表者2が相対しているそれぞれの方向に対して統計処理を行い、得られた統計量から発表者2の注目方向を取得する。 In step S30, for example, the CPU 11 is in the respective directions to which the presenter 2 is opposite, acquired while tracing back in the past by a predetermined period (hereinafter referred to as "determination period") from the execution start time of step S30. Then, statistical processing is performed, and the attention direction of the presenter 2 is acquired from the obtained statistic.
判定期間とは、当該期間に可視カメラ4から得られる画像によって取得された発表者2の注目方向の統計量が、発表者2の実際の注目方向に近づくように、反応測定システム1の実機による実験や反応測定システム1の設計仕様に基づくコンピュータシミュレーション等により予め設定された期間である。設定された判定期間の長さは、例えば不揮発性メモリ14に記憶されており、CPU11は不揮発性メモリ14を参照することで判定期間を取得する。 In the judgment period, the statistics of the attention direction of the presenter 2 acquired by the image obtained from the visible camera 4 in the corresponding period approach the actual attention direction of the presenter 2 by the actual device of the reaction measurement system 1 It is a period set in advance by computer simulation or the like based on experiments and the design specifications of the reaction measurement system 1. The length of the set determination period is stored, for example, in the non-volatile memory 14, and the CPU 11 acquires the determination period by referring to the non-volatile memory 14.
ここでは一例として、判定期間の開始時刻をステップS30の実行開始時刻としたが、例えばステップS10で可視カメラ4から画像を受信した時刻であってもよい。 Here, as an example, the start time of the determination period is set as the execution start time of step S30, but it may be the time when an image is received from the visible camera 4 in step S10, for example.
判定期間に取得された、発表者2が相対しているそれぞれの方向に対する統計量としては、例えば発表者2が相対する方向の平均が用いられる。具体的には、発表者2が相対する方向における方向角の平均値を発表者2の注目方向とする。 As a statistic for each direction in which the presenter 2 is opposite, which is acquired in the determination period, for example, an average of the directions in which the presenter 2 is opposite is used. Specifically, the average value of the direction angles in the direction in which the presenter 2 is opposite is taken as the attention direction of the presenter 2.
なお、発表者2の注目方向は発表者2が相対する方向の方向角の平均値だけでなく、他の統計量を用いて取得してもよい。例えば、CPU11は、発表者2が相対している時間を方向毎に取得し、判定期間において発表者2が相対した累積時間が最も長い方向の方向角を発表者2の注目方向としてもよい。また、CPU11は、発表者2が相対している回数を方向毎に取得し、判定期間において発表者2が相対した累積回数が最も多い方向の方向角を発表者2の注目方向としてもよい。 In addition, the attention direction of the presenter 2 may be acquired using not only the average value of the direction angle of the direction in which the presenter 2 is opposite but another statistic. For example, the CPU 11 may acquire, for each direction, the time in which the presenter 2 is facing, and may set the direction angle of the direction in which the accumulated time in which the presenter 2 is facing is the longest in the determination period. Further, the CPU 11 may acquire the number of times the presenter 2 is facing for each direction, and may set the direction angle of the direction in which the cumulative number of times the presenter 2 is facing is the largest in the determination period.
更に、判定期間において発表者2が相対した方向の方向角の平均値、発表者2が相対した累積時間が最も長い方向の方向角、及び発表者2が相対した累積回数が最も多い方向の方向角といった、複数の統計処理によって得られた少なくとも2つの方向角の平均値を、判定期間における発表者2の注目方向としてもよい。 Furthermore, in the determination period, the average value of the direction angles in the direction in which the presenter 2 made a relative direction, the direction angle in the direction in which the cumulative time that the presenter 2 made a pair is the longest, and The average value of at least two directional angles obtained by a plurality of statistical processes, such as corners, may be used as the direction of attention of the presenter 2 in the determination period.
反応測定システム1を利用する利用者は、複数用意された、判定期間における発表者2の注目方向の算出方法の中から、何れの算出方法を用いて発表者2の注目方向を取得するか予め選択する。利用者が選択した算出方法は、例えば不揮発性メモリ14に記憶される。CPU11は、不揮発性メモリ14に記憶された算出方法を参照し、判定期間における発表者2の注目方向を取得する。 The user who uses the reaction measurement system 1 selects in advance which calculation method is used to obtain the attention direction of the presenter 2 from among a plurality of prepared calculation methods of the attention direction of the presenter 2 in the determination period select. The calculation method selected by the user is stored, for example, in the non-volatile memory 14. The CPU 11 refers to the calculation method stored in the non-volatile memory 14 and acquires the attention direction of the presenter 2 in the determination period.
なお、CPU11は、ステップS20で発表者2が相対している方向の方向角を取得する度に、RAM13に記憶されている発表者2の方向角のうち、判定期間に含まれない古い方向角が存在するか否かを判定する。判定期間より古い方向角が存在する場合には、CPU11は当該方向角を消去してから、判定期間における発表者2の注目方向を算出し、RAM13の残容量が不足しないようにする。この場合、RAM13に記憶されている各々の方向角を用いれば、必然的に判定期間における発表者2の注目方向が算出されることになり、RAM13に記憶されている方向角が判定期間内の方向角か否か1つ1つ判定することなく判定期間における発表者2の注目方向が得られることになる。 In addition, whenever the CPU 11 acquires the direction angle of the direction in which the presenter 2 is facing in step S20, the old direction angle not included in the determination period among the direction angles of the presenter 2 stored in the RAM 13 It is determined whether or not exists. If there is a direction angle older than the determination period, the CPU 11 erases the direction angle, then calculates the attention direction of the presenter 2 in the determination period so that the remaining capacity of the RAM 13 does not run short. In this case, if each direction angle stored in the RAM 13 is used, the direction of attention of the presenter 2 in the determination period is inevitably calculated, and the direction angle stored in the RAM 13 is within the determination period. The direction of attention of the presenter 2 in the determination period can be obtained without determining whether it is a direction angle or not one by one.
ステップS40において、CPU11は、赤外線カメラ6がステップS30で取得した発表者2の注目方向の画像を撮影するように、赤外線カメラ6の撮影方向を制御する。 In step S40, the CPU 11 controls the imaging direction of the infrared camera 6 so that the infrared camera 6 captures an image of the attention direction of the presenter 2 acquired in step S30.
具体的には、赤外線カメラ6にパン角、チルト角、及びズーム率といった撮影方向に関する属性値を変更する機能が予め備えられている場合、CPU11は、これらの属性値の少なくとも1つを変更する変更指示を赤外線カメラ6に送信して、発表者2の注目方向の画像を撮影するように、赤外線カメラ6の撮影方向を制御する。また、赤外線カメラ6自体に撮影方向に関する属性値を変更する機能が予め備えられていない場合であっても、赤外線カメラ6がパン角及びチルト角の変更機能を有する図示しない雲台に取り付けられている場合、CPU11は、これらの属性値の少なくとも1つを変更する変更指示を図示しない雲台に送信して、発表者2の注目方向の画像を撮影するように、赤外線カメラ6の撮影方向を制御する。 Specifically, when the infrared camera 6 is provided in advance with a function of changing attribute values related to the shooting direction such as pan angle, tilt angle, and zoom ratio, the CPU 11 changes at least one of these attribute values. A change instruction is sent to the infrared camera 6, and the imaging direction of the infrared camera 6 is controlled so as to capture an image of the presenter 2's attention direction. Also, even if the infrared camera 6 itself is not provided in advance with a function to change the attribute value related to the shooting direction, the infrared camera 6 is attached to a camera platform (not shown) having a pan angle and tilt angle changing function. If so, the CPU 11 transmits a change instruction to change at least one of these attribute values to a pan head (not shown), and sets the shooting direction of the infrared camera 6 so as to shoot an image in the attention direction of the presenter 2 Control.
ステップS50において、CPU11は、ステップS40で撮影方向を制御した赤外線カメラ6に対して撮影指示を送信し、発表者2が注目する注目方向に位置する観衆3の赤外線画像を撮影する。CPU11は、撮影した観衆3の赤外線画像をRAM13に記憶する。 In step S50, the CPU 11 transmits an imaging instruction to the infrared camera 6 whose imaging direction is controlled in step S40, and captures an infrared image of the audience 3 located in the attention direction to which the presenter 2 focuses. The CPU 11 stores the captured infrared image of the audience 3 in the RAM 13.
ステップS60において、CPU11は、例えば上述した「非特許文献1」の内容に従って、観衆3の顔の温度から、発表者2が注目した観衆3の反応を測定する。CPU11は、測定した反応を反応情報として例えばRAM13に記憶する。 In step S60, the CPU 11 measures the reaction of the audience 3 to which the presenter 2 focused, from the temperature of the face of the audience 3 according to the contents of the above-mentioned "non-patent document 1", for example. The CPU 11 stores the measured reaction as, for example, the RAM 13 as reaction information.
ステップS60で測定する観衆3の反応の種類に制約はなく、制御装置5は一例として、発表者2の発言に対する興味の程度を表す関心度合いを測定する。関心度合いに関しては、関心度合いが高くなる程、観衆3の体温が上昇する現象を利用することで測定される。したがって、体温を予め複数の区分に分類しておき、CPU11は、撮影した観衆3の赤外線画像における観衆3に対応する領域毎に、観衆3の体温が属する区分を対応付ける。具体的には、例えば体温が高い方の区分から順に“A区分”、“B区分”、・・・と分類しておき、観衆3に対応する領域毎に、観衆3の体温に対応した区分を対応付ける。 There is no restriction on the type of reaction of the audience 3 measured in step S60, and the control device 5 measures the degree of interest representing the degree of interest in the speech of the presenter 2 as an example. The degree of interest is measured by using the phenomenon that the temperature of the audience 3 rises as the degree of interest increases. Therefore, the body temperature is classified into a plurality of divisions in advance, and the CPU 11 associates the division to which the body temperature of the audience 3 belongs to each region corresponding to the audience 3 in the infrared image of the audience 3 photographed. Specifically, for example, classification is performed in the order of “A division”, “B division”,... From the higher temperature division, and the division corresponding to the temperature of the audience 3 for each area corresponding to the audience 3 Correspond
観衆3に対応する領域毎に対応付けられた区分は、赤外線画像で撮影された観衆3の発表者2に対する関心度合いを示す反応情報の一例である。 The division associated with each area corresponding to the audience 3 is an example of reaction information indicating the degree of interest of the audience 3 photographed in the infrared image on the presenter 2.
反応測定システム1では、発表者2が注目した方向に位置する観衆3だけの反応を測定することから、観衆3全体の反応を測定する場合と比較して、赤外線カメラ6等の観衆3の反応を測定する測定装置の台数が減少することになる。 In the reaction measurement system 1, since the reaction of only the audience 3 located in the direction in which the presenter 2 focused is measured, the reaction of the audience 3 such as the infrared camera 6 is compared with the case where the reaction of the entire audience 3 is measured. The number of measuring devices for measuring
ステップS70において、CPU11は、発表者2に対する観衆3の反応情報が表示装置7に表示されるように表示装置7を制御する。一例として、CPU11は、どこにどの程度の関心度合いを有する観衆3がいるのかが発表者2に伝わるように、観衆3の位置と、当該観衆3における関心度合いを示す反応情報とを対応付けた画面を表示装置7に表示する。具体的には、CPU11は、例えば座席表のように観衆3の位置がわかる見取り図を観衆3の関心度合いに応じて色分けした画面を、表示装置7に表示させる。 In step S <b> 70, the CPU 11 controls the display device 7 so that the response information of the audience 3 to the presenter 2 is displayed on the display device 7. As an example, the CPU 11 is a screen in which the position of the audience 3 is associated with reaction information indicating the degree of interest in the audience 3 so that the presenter 2 can know where and how much the audience 3 has the degree of interest. Is displayed on the display unit 7. Specifically, the CPU 11 causes the display device 7 to display a screen in which a floor plan in which the position of the audience 3 is known, such as a seating chart, is color-coded according to the degree of interest of the audience 3.
したがって、発表者2は表示装置7に表示される画面を見ることで、注目した観衆3の反応を確認しながらプレゼンテーションを進められることになる。すなわち、観衆3の反応がよくなければ観衆3の反応が上昇する話に話題を変えたりする等、プレゼンテーションの質の向上に役立てられる。 Therefore, by looking at the screen displayed on the display device 7, the presenter 2 can proceed with the presentation while confirming the reaction of the noted audience 3. That is, if the reaction of the audience 3 is not good, the topic may be changed to a story in which the reaction of the audience 3 is increased, which is useful for improving the quality of the presentation.
反応測定システム1では、観衆3の反応を発表者2に通知する通知手段として表示装置7を用いたが、表示装置7以外の装置を用いて発表者2に通知してもよい。例えば、発表者2の耳に装着したイヤーモニタを通じて、発表者2に対する観衆3の反応を音声で通知してもよい。 In the reaction measurement system 1, the display device 7 is used as a notification means for notifying the presenter 2 of the reaction of the audience 3. However, the presenter 2 may be notified using a device other than the display device 7. For example, the reaction of the audience 3 to the presenter 2 may be notified by voice through an ear monitor worn on the presenter 2's ear.
ステップS80において、CPU11は、入力ユニットを介して制御処理の終了指示を受け付けたか否かを判定する。終了指示を受け付けていない場合にはステップS10に移行し、可視カメラ4からの新たな画像の受信を監視する。すなわち、終了指示を受け付けるまで、ステップS10〜S80の処理を繰り返し実行することで、発表者2が注目した方向に位置する観衆3の反応が測定される。一方、終了指示を受け付けた場合には、図3に示した制御処理を終了する。 In step S80, the CPU 11 determines whether an instruction to end the control processing has been received via the input unit. If the end instruction has not been received, the process proceeds to step S10, and reception of a new image from the visible camera 4 is monitored. That is, by repeatedly executing the processing of steps S10 to S80 until the end instruction is received, the reaction of the audience 3 located in the direction in which the presenter 2 focused is measured. On the other hand, when the end instruction is received, the control process shown in FIG. 3 is ended.
このように本実施の形態に係る反応測定システム1によれば、発表者2を撮影した画像から発表者2が相対している方向を取得し、取得した方向に位置する観衆3の反応を測定する。 As described above, according to the reaction measurement system 1 according to the present embodiment, the direction in which the presenter 2 is facing is acquired from the image of the presenter 2 and the reaction of the audience 3 located in the acquired direction is measured. Do.
なお、図3に示した制御処理では、判定期間に取得された発表者2の相対する方向の各々を統計処理して得られた方向を発表者2の注目方向としたが、各時点において発表者2が相対している方向を発表者2の注目方向としてもよい。 In the control process shown in FIG. 3, although the direction obtained by performing statistical processing on each of the opposite directions of the presenter 2 acquired in the determination period is regarded as the attention direction of the presenter 2, the presentation is made at each time point The direction in which the person 2 is facing may be taken as the attention direction of the presenter 2.
図4は、この場合にCPU11によって実行される制御処理の流れの一例を示すフローチャートである。 FIG. 4 is a flowchart showing an example of the flow of control processing executed by the CPU 11 in this case.
図4に示すフローチャートが図3に示したフローチャートと異なる点は、ステップS30が削除された点であり、他の処理は図3と同じである。 The flowchart shown in FIG. 4 differs from the flowchart shown in FIG. 3 in that step S30 is deleted, and the other processes are the same as in FIG.
図4に示すフローチャートのステップS20において、CPU11は、ステップS10で受信した画像から発表者2が相対している方向の方向角を取得すると、ステップS40を実行する。 In step S20 of the flowchart shown in FIG. 4, when the CPU 11 acquires the direction angle of the direction in which the presenter 2 is facing from the image received in step S10, the CPU 11 executes step S40.
ステップS40において、CPU11は、ステップS20で取得した発表者2が相対している方向の画像を撮影するように、赤外線カメラ6の撮影方向を制御する。すなわち、CPU11は、発表者2の過去の向きを考慮せずに、ステップS10で直前に受信した画像から得られる発表者2の向きのみを用いて発表者2の注目方向を取得し、取得した注目方向に赤外線カメラ6の撮影方向をあわせる。 In step S40, the CPU 11 controls the imaging direction of the infrared camera 6 so as to capture the image in the direction in which the presenter 2 acquired in step S20 is facing. That is, the CPU 11 acquires and obtains the attention direction of the presenter 2 using only the direction of the presenter 2 obtained from the image received immediately before in step S10 without considering the past direction of the presenter 2 The shooting direction of the infrared camera 6 is adjusted to the attention direction.
これにより赤外線カメラ6の撮影方向が、発表者2が相対している現在の方向にリアルタイムに追従することになる。 As a result, the shooting direction of the infrared camera 6 follows in real time the current direction in which the presenter 2 is facing.
したがって、図4の制御処理を実行することで、発表者2が相対する方向の変化にあわせて、反応の測定対象となる観衆3が変化する。 Therefore, by executing the control process of FIG. 4, the audience 3 to be measured for the reaction changes in accordance with the change in the direction in which the presenter 2 is opposite.
<第2実施形態>
上述した第1実施形態に係る反応測定システム1では、発表者2を撮影した画像から発表者2が相対する方向を取得した。しかしながら、発表者2が相対する方向を取得する方法はこれに限られない。
Second Embodiment
In the reaction measurement system 1 according to the first embodiment described above, the direction in which the presenter 2 faces is acquired from the image obtained by capturing the presenter 2. However, the method of acquiring the direction in which the presenter 2 is opposite is not limited to this.
第2実施形態では、発表者2が発した音声の伝播方向から発表者2が相対する方向を取得する反応測定システム1Aについて説明する。 In the second embodiment, a reaction measurement system 1A will be described which acquires the direction in which the presenter 2 is opposite from the propagation direction of the sound emitted by the presenter 2.
図5は、本実施の形態に係る反応測定システム1Aの一例を示す構成図である。図5に示すように、反応測定システム1Aは、例えばマイク9、制御装置5A、赤外線カメラ6、及び表示装置7を含む。 FIG. 5 is a block diagram showing an example of a reaction measurement system 1A according to the present embodiment. As shown in FIG. 5, the reaction measurement system 1A includes, for example, a microphone 9, a control device 5A, an infrared camera 6, and a display device 7.
反応測定システム1Aでは、図1に示した反応測定システム1の可視カメラ4の代わりにマイク9が用いられ、制御装置5が制御装置5Aに置き換えられる。 In the reaction measurement system 1A, the microphone 9 is used instead of the visible camera 4 of the reaction measurement system 1 shown in FIG. 1, and the control device 5 is replaced with the control device 5A.
マイク9は発表者2の音声を収集する装置であり、例えば取り付け金具等で予め定めた位置に固定されるが、ピンマイクのように発表者2の衣服に取り付けられたマイク9であってもよい。 The microphone 9 is a device for collecting the voice of the presenter 2. For example, the microphone 9 is fixed at a predetermined position by a mounting bracket or the like, but may be a microphone 9 attached to clothes of the presenter 2 like a pin microphone. .
また、反応測定システム1Aに含まれるマイク9の本数に制約はなく、1本であっても複数であってもよい。図5に示す例では、2本のマイク9で発表者2の音声を収集している。 Further, the number of microphones 9 included in the reaction measurement system 1A is not limited, and may be one or more. In the example shown in FIG. 5, the voices of the presenter 2 are collected by two microphones 9.
マイク9は観衆3の声を収集してもよいが、できるだけ発表者2の声のみが収集されるように、無指向性マイクよりも指向性マイクを用いる方が好ましい。 The microphone 9 may collect the voices of the audience 3, but it is preferable to use a directional microphone rather than an omnidirectional microphone so that only the voice of the presenter 2 is collected.
制御装置5Aは、各々のマイク9で収集された音声を受信し、受信した音声の伝播方向を特定し、当該音声の伝播方向を発表者2が話しかけた方向として取得する。そして、制御装置5Aは、発表者2が話しかけた方向を発表者2の注目方向として捉え、発表者2の注目方向に位置する観衆3の反応を測定するため、赤外線カメラ6の撮影方向が発表者2の注目方向に近づくように赤外線カメラ6の撮影方向を制御する。 The control device 5A receives the voice collected by each of the microphones 9, specifies the propagation direction of the received voice, and acquires the propagation direction of the voice as the direction in which the presenter 2 speaks. Then, the control device 5A recognizes the direction in which the presenter 2 speaks as the attention direction of the presenter 2 and measures the reaction of the audience 3 located in the attention direction of the presenter 2; The imaging direction of the infrared camera 6 is controlled so as to approach the attention direction of the person 2.
上述した反応測定システム1Aの制御装置5Aは、例えばコンピュータを用いて構成される。図6は、コンピュータ10を用いて構成された制御装置5Aにおける電気系統の要部構成例を示す図である。 The control device 5A of the reaction measurement system 1A described above is configured using, for example, a computer. FIG. 6 is a diagram showing an example of a main configuration of an electric system in the control device 5A configured using the computer 10.
図6に示す構成例が図2に示した制御装置5の構成例と異なる点は、可視カメラ4の代わりにマイク9がI/O15に接続された点であり、他の構成は制御装置5と同じである。制御装置5と同様に、I/O15には例えば入力ユニットのように、図6に示した装置とは異なる装置が接続されてもよい。また、必ずしもI/O15にマイク9、赤外線カメラ6、表示装置7、及び通信装置8が接続される必要もなく、例えば表示装置7及び通信装置8は必要に応じて接続すればよい。 The configuration example shown in FIG. 6 differs from the configuration example of the control device 5 shown in FIG. 2 in that the microphone 9 is connected to the I / O 15 instead of the visible camera 4, and the other configuration is the control device 5. Is the same as Similar to the control device 5, a device different from the device shown in FIG. 6, such as an input unit, may be connected to the I / O 15. Further, the microphone 9, the infrared camera 6, the display device 7, and the communication device 8 do not necessarily need to be connected to the I / O 15. For example, the display device 7 and the communication device 8 may be connected as needed.
次に、図7を用いて、反応測定システム1Aにおける制御装置5Aの動作について説明する。 Next, the operation of the control device 5A in the reaction measurement system 1A will be described using FIG.
図7は、制御装置5Aが起動した後、又は図示しない入力ユニットを介してユーザから動作開始の指示を受け付けた場合に、CPU11によって実行される制御処理の流れの一例を示すフローチャートである。 FIG. 7 is a flowchart showing an example of the flow of control processing executed by the CPU 11 when the control device 5A is activated or when an instruction to start operation is received from the user via an input unit (not shown).
制御処理を規定する制御プログラムは、例えば制御装置5AのROM12に予め記憶されている。制御装置5AのCPU11は、ROM12に記憶される制御プログラムを読み込み、制御処理を実行する。 A control program defining the control process is stored in advance in, for example, the ROM 12 of the control device 5A. The CPU 11 of the control device 5A reads a control program stored in the ROM 12 and executes control processing.
図7に示すフローチャートが、図4に示した制御装置5における制御処理のフローチャートと異なる点は、ステップS10及びS20がそれぞれステップS10A及びS20Aに置き換えられた点であり、その他の処理は図4に示したフローチャートと同じである。したがって、以降ではステップS10A及びS20Aの処理について説明する。 The flowchart shown in FIG. 7 differs from the flowchart of the control process in control device 5 shown in FIG. 4 in that steps S10 and S20 are replaced with steps S10A and S20A, respectively, and the other processes are shown in FIG. It is the same as the flowchart shown. Therefore, the processes of steps S10A and S20A will be described below.
ステップS10Aにおいて、CPU11は、各々のマイク9から音声を受信したか否かを判定する。音声を受信していない場合にはステップS10Aの処理を繰り返し実行して、音声の受信状況を監視する。一方、各々のマイク9から音声を受信した場合にはステップS20Aに移行する。 In step S10A, the CPU 11 determines whether voice has been received from each of the microphones 9 or not. When the voice is not received, the process of step S10A is repeatedly executed to monitor the voice reception state. On the other hand, when the voice is received from each of the microphones 9, the process proceeds to step S20A.
マイク9は、発表者2の音声を収集するように集音方向が設定されているため、受信した音声は発表者2が発した音声であるとみなされる。 Since the microphone 9 is set to collect the voice of the presenter 2, the received voice is considered to be the voice emitted by the presenter 2.
ステップS20Aにおいて、CPU11は、ステップS10Aで各々のマイク9から受信した発表者2が発した音声の強度分布を用いて、発表者2が発した音声の伝播方向を取得する。 In step S20A, the CPU 11 acquires the propagation direction of the voice emitted by the presenter 2 using the intensity distribution of the voice emitted by the presenter 2 received from each of the microphones 9 in step S10A.
ここで「音声の強度分布」とは、マイク9の位置から、マイク9の位置を中心にして仮想的に設定した球の表面に向かう方向毎に、マイク9が受信した音声の大きさを示す分布であり、例えば受信した音声データから得られる。すなわち、音声の強度分布は、音声の大きさを仮想的に設定した球の中心からの距離で表し、音声の方向を仮想的に設定した球の中心から球の表面に向かう線(中心線)の方向で表す。 Here, “intensity distribution of sound” indicates the size of sound received by the microphone 9 every direction from the position of the microphone 9 toward the surface of a sphere virtually set with the position of the microphone 9 as a center. It is a distribution, for example, obtained from received audio data. That is, the intensity distribution of voice represents the magnitude of voice by the distance from the center of the sphere virtually set, and a line (center line) from the center of the sphere virtually set the direction of voice toward the surface of the sphere In the direction of
CPU11は、各々のマイク9から得られた音声の強度分布毎に音声の大きさが最も大きくなる方向の中心線を特定し、発表者2の位置からそれぞれの中心線の交点に向かう方向を発表者2が発した音声の伝播方向として取得する。なお、発表者2の位置情報は、例えば発表者2が所持するGPS(Global Positioning System)ユニットから取得すればよい。また、発表者2の位置が変化しないとみなせる状況では、発表者2の位置情報を予め不揮発性メモリ14に記憶しておけばよい。 The CPU 11 identifies the center line in the direction in which the magnitude of the sound is largest for each intensity distribution of the sound obtained from each of the microphones 9, and announces the direction from the position of the presenter 2 toward the intersection of each center line It is acquired as the propagation direction of the voice emitted by person 2. The position information of the presenter 2 may be acquired from, for example, a GPS (Global Positioning System) unit possessed by the presenter 2. Further, in a situation where it can be considered that the position of the presenter 2 does not change, the position information of the presenter 2 may be stored in advance in the non-volatile memory 14.
なお、マイク9が1本の場合には、マイク9の位置から音声の大きさが最も大きくなる方向を発表者2が発した音声の伝播方向とすればよい。 When the number of the microphones 9 is one, the direction in which the magnitude of the sound is the largest from the position of the microphone 9 may be the propagation direction of the sound emitted by the presenter 2.
発表者2が発した音声の伝播方向は、発表者2が相対する方向とみなされる。 The propagation direction of the voice emitted by the presenter 2 is considered to be the opposite direction of the presenter 2.
この後、CPU11は、既に説明したステップS30以降の処理を実行して、判定期間において発表者2が注目した方向に赤外線カメラ6の撮影方向をあわせ、発表者2が注目する方向に位置する観衆3の反応を測定して、測定結果を表示装置7に表示する。 After this, the CPU 11 executes the processing after step S30 already described, aligns the shooting direction of the infrared camera 6 with the direction in which the presenter 2 focused in the determination period, and the audience located in the direction where the presenter 2 focuses The reaction of 3 is measured, and the measurement result is displayed on the display unit 7.
このように本実施の形態に係る反応測定システム1Aによれば、発表者2が発した音声から発表者2が相対している方向を取得し、取得した方向に位置する観衆3の反応を測定する。 As described above, according to the reaction measurement system 1A according to the present embodiment, the direction in which the presenter 2 is facing is acquired from the voice emitted by the presenter 2, and the reaction of the audience 3 located in the acquired direction is measured. Do.
なお、図7に示した制御処理では、判定期間に取得された発表者2の相対する方向の各々を統計処理して得られた方向を発表者2の注目方向としたが、各時点において発表者2が相対している方向を発表者2の注目方向として扱ってもよい。 In the control process shown in FIG. 7, although the direction obtained by statistically processing each of the facing directions of the presenter 2 acquired in the judgment period is set as the attention direction of the presenter 2, the presentation is made at each time point The direction in which the person 2 is facing may be treated as the attention direction of the presenter 2.
図8は、この場合にCPU11によって実行される制御処理の流れの一例を示すフローチャートである。 FIG. 8 is a flowchart showing an example of the flow of control processing executed by the CPU 11 in this case.
図8に示すフローチャートが図7に示したフローチャートと異なる点は、ステップS30が削除された点であり、他の処理は図7と同じである。 The flowchart shown in FIG. 8 differs from the flowchart shown in FIG. 7 in that step S30 is deleted, and the other processes are the same as in FIG.
図8に示すフローチャートのステップS20Aにおいて、CPU11は、ステップS10Aで受信した音声から発表者2が相対している方向の方向角を取得すると、ステップS40を実行する。 In step S20A of the flowchart shown in FIG. 8, when the CPU 11 acquires the direction angle of the direction in which the presenter 2 is facing from the voice received in step S10A, the CPU 11 executes step S40.
ステップS40において、CPU11は、ステップS20Aで取得した発表者2が相対している方向の画像を撮影するように、赤外線カメラ6の撮影方向を制御する。すなわち、CPU11は、発表者2の過去の向きを考慮せずに、ステップS10Aで直前に受信した音声から得られる発表者2の向きのみを用いて発表者2の注目方向を取得し、取得した注目方向に赤外線カメラ6の撮影方向をあわせる。 In step S40, the CPU 11 controls the imaging direction of the infrared camera 6 so as to capture the image in the direction in which the presenter 2 acquired in step S20A is facing. That is, the CPU 11 acquires and obtains the attention direction of the presenter 2 using only the direction of the presenter 2 obtained from the voice received immediately before in step S10A without considering the past direction of the presenter 2 The shooting direction of the infrared camera 6 is adjusted to the attention direction.
これにより赤外線カメラ6の撮影方向が、発表者2が相対している現在の方向にリアルタイムに追従することになる。 As a result, the shooting direction of the infrared camera 6 follows in real time the current direction in which the presenter 2 is facing.
したがって、図8の制御処理を実行することで、発表者2が相対する方向の変化にあわせて、反応の測定対象となる観衆3が変化する。 Therefore, by executing the control process of FIG. 8, the audience 3 to be measured for the reaction changes in accordance with the change in the direction in which the presenter 2 is opposite.
上述した反応測定システム1Aでは、発表者2が話しかけた方向から反応の測定対象者となる観衆3が選択されたが、反応の測定対象者となる観衆3の選択方法はこれに限られない。例えば、観衆3の声を収集するマイク9を別に設け、当該マイク9で取得した音声の強度分布から質問等を行うために声を発した観衆3の位置を特定し、特定した観衆3の方向に赤外線カメラ6の撮影方向をあわせて、当該観衆3の反応を測定してもよい。 In the reaction measurement system 1A described above, the audience 3 who is the subject of the reaction is selected from the direction in which the presenter 2 speaks, but the method of selecting the audience 3 who is the subject of the reaction is not limited thereto. For example, the microphone 9 for collecting the voice of the audience 3 is separately provided, the position of the audience 3 who has issued the voice for asking a question etc. from the intensity distribution of the voice acquired by the microphone 9 is identified, and the direction of the audience 3 identified The reaction direction of the audience 3 may be measured in accordance with the imaging direction of the infrared camera 6.
以上、各実施の形態を用いて本発明について説明したが、本発明は各実施の形態に記載の範囲には限定されない。本発明の要旨を逸脱しない範囲で各実施の形態に多様な変更又は改良を加えることができ、当該変更又は改良を加えた形態も本発明の技術的範囲に含まれる。例えば、本発明の要旨を逸脱しない範囲で処理の順序を変更してもよい。 As mentioned above, although this invention was demonstrated using each embodiment, this invention is not limited to the range as described in each embodiment. Various changes or improvements can be added to each embodiment without departing from the scope of the present invention, and a form to which the changes or improvements are added is also included in the technical scope of the present invention. For example, the order of processing may be changed without departing from the scope of the present invention.
また、各実施の形態では、反応測定システム1、1Aをプレゼンテーションにおける観衆3の反応の測定に用いたが、反応測定システム1、1Aの適用範囲はプレゼンテーションに限られない。 Moreover, in each embodiment, although reaction measurement system 1 and 1A were used for the measurement of the reaction of the audience 3 in a presentation, the application scope of reaction measurement system 1 and 1A is not restricted to a presentation.
例えば、工場又は会社の視察を行う場合に、視察メンバーが注目した方向を可視カメラ4の画像から取得し、視察メンバーが注目した方向に位置する人の反応を測定するようにしてもよい。また、学校において、先生が注目した方向に位置する生徒の反応を測定し、授業内容の理解度の把握に用いてもよい。このように、反応測定システム1、1Aは、利用者が注目した方向にいる人の反応を測定したい場面で適用される。 For example, when inspecting a factory or a company, the direction in which the inspection member paid attention may be acquired from the image of the visible camera 4 and the reaction of a person located in the direction in which the inspection member paid attention may be measured. In addition, in the school, the reaction of the students located in the direction in which the teacher pays attention may be measured and used to grasp the understanding level of the class content. Thus, the reaction measurement system 1, 1A is applied at a scene where it is desired to measure the reaction of a person who is in the direction in which the user pays attention.
また、各実施の形態では、一例として制御処理をソフトウエアで実現する形態について説明したが、図3、図4、図7、及び図8に示したフローチャートと同等の処理を、例えばASIC(Application Specific Integrated Circuit)に実装し、ハードウエアで処理させるようにしてもよい。この場合、制御処理の高速化が図られる。 In each embodiment, an embodiment in which the control processing is realized by software has been described as an example, but processing equivalent to the flowcharts shown in FIG. 3, FIG. 4, FIG. 7, and FIG. It may be implemented in a specific integrated circuit and processed by hardware. In this case, control processing can be speeded up.
また、上述した各実施の形態では、制御プログラムがROM12にインストールされている形態を説明したが、これに限定されるものではない。本発明に係る制御プログラムは、コンピュータ読み取り可能な記憶媒体に記録された形態で提供することも可能である。例えば、本発明に係る制御プログラムを、CD(Compact Disc)−ROM、又はDVD(Digital Versatile Disc)−ROM等の光ディスクに記録した形態で提供してもよい。また、本発明に係る制御プログラムを、USBメモリ及びフラッシュメモリ等の半導体メモリに記録した形態で提供してもよい。更に、制御装置5、5Aはインターネット等の通信回線を介して、通信回線に接続された外部装置から本発明に係る制御プログラムを取得するようにしてもよい。 Moreover, although the form by which the control program was installed in ROM12 was demonstrated by each embodiment mentioned above, it is not limited to this. The control program according to the present invention can also be provided in the form of being recorded on a computer readable storage medium. For example, the control program according to the present invention may be provided in the form of being recorded on an optical disc such as a CD (Compact Disc) -ROM or a DVD (Digital Versatile Disc) ROM. Furthermore, the control program according to the present invention may be provided in the form of being recorded in a semiconductor memory such as a USB memory and a flash memory. Furthermore, the control devices 5 and 5A may obtain the control program according to the present invention from an external device connected to a communication line via a communication line such as the Internet.
1(1A)・・・反応測定システム
2・・・発表者
3・・・観衆
4・・・可視カメラ
5(5A)・・・制御装置
6・・・赤外線カメラ
7・・・表示装置
8・・・通信装置
9・・・マイク
10・・・コンピュータ
11・・・CPU
12・・・ROM
13・・・RAM
14・・・不揮発性メモリ
1 (1A) ... reaction measurement system 2 ... presenter 3 ... audience 4 ... visible camera 5 (5A) ... control device 6 ... infrared camera 7 ... display device 8 ... · · Communication device 9 · · · microphone 10 · · · computer 11 · · · CPU
12 ・ ・ ・ ROM
13 ・ ・ ・ RAM
14 ・ ・ ・ nonvolatile memory
Claims (15)
前記取得手段で取得した注目方向に位置する測定対象者の前記利用者に対する反応を測定する測定装置を制御する制御手段と、
を備えた制御装置。 Acquisition means for acquiring the attention direction the user has noticed;
A control unit that controls a measurement device that measures a reaction of the person to be measured located in the direction of interest acquired by the acquisition unit with the user;
Control device equipped with
前記取得手段は、前記発表者が話しかけた方向を前記利用者の注目方向として取得し、
前記制御手段は、前記取得手段で取得した前記発表者が話しかけた方向に位置する観衆の前記発表者の発言に対する反応を測定するように前記測定装置を制御する
請求項1記載の制御装置。 The user is a presenter who speaks to the audience,
The acquisition means acquires the direction in which the presenter speaks as the attention direction of the user,
The control device according to claim 1, wherein the control means controls the measurement device to measure a reaction of the audience located in the direction in which the presenter acquired by the acquisition means speaks to the speaker's remark.
請求項2記載の制御装置。 The control device according to claim 2, wherein the acquisition unit acquires a direction in which the user is facing as the attention direction of the user.
請求項3記載の制御装置。 The control device according to claim 3, wherein the control means controls the measurement device such that the person to be measured whose response is measured by the measurement device changes in accordance with a change in the direction in which the user faces.
前記制御手段は、前記利用者の注目方向に位置する前記測定対象者の前記利用者に対する反応を測定するように前記測定装置を制御する
請求項3記載の制御装置。 The acquisition means acquires the attention direction of the user from statistics regarding the direction in which the user is facing in a predetermined period,
The control device according to claim 3, wherein the control means controls the measurement device to measure a reaction of the measurement target person located in the attention direction of the user to the user.
請求項5記載の制御装置。 The control device according to claim 5, wherein the acquiring unit acquires a direction in which the accumulated time in which the user is opposed is the longest in the predetermined period as the attention direction of the user.
請求項5記載の制御装置。 The control device according to claim 5, wherein the acquisition unit acquires a direction in which the number of times the user has made a cumulative count with respect to each other in the predetermined period is the largest as the attention direction of the user.
請求項5記載の制御装置。 The control device according to claim 5, wherein the acquisition means acquires an average of directions in which the user has made a relative direction as the attention direction of the user in the predetermined period.
請求項3〜請求項8の何れか1項に記載の制御装置。 The control device according to any one of claims 3 to 8, wherein the acquisition means acquires a direction in which the user's face or body is facing as a direction in which the user is facing.
請求項2記載の制御装置。 The control device according to claim 2, wherein the acquisition means acquires a propagation direction of the voice emitted by the user collected by a microphone as a direction in which the user speaks.
前記取得手段は、各々の前記マイクで収集された音声のそれぞれの強度分布から、前記利用者が発した音声の伝播方向を取得する
請求項10記載の制御装置。 A plurality of the microphones are provided,
The control device according to claim 10, wherein the acquisition means acquires the propagation direction of the voice emitted by the user from the intensity distribution of the voice collected by each of the microphones.
請求項2〜請求項11の何れか1項に記載の制御装置。 The control unit controls the display device such that reaction information indicating a reaction of the person to be measured to the utterance of the user is displayed on a display device installed at a position viewed by the user. The control device according to any one of the above.
請求項12記載の制御装置。 The control device according to claim 12, wherein the response information is information indicating a degree of interest of the person to be measured with respect to a statement of the user.
請求項13記載の制御装置。 The control device according to claim 13, wherein the control means controls the display device such that the degree of interest of the person to be measured with respect to the utterance of the user is displayed in association with the position of the person to be measured.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017254771A JP2019121105A (en) | 2017-12-28 | 2017-12-28 | Control device and control program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017254771A JP2019121105A (en) | 2017-12-28 | 2017-12-28 | Control device and control program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019121105A true JP2019121105A (en) | 2019-07-22 |
Family
ID=67307341
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017254771A Pending JP2019121105A (en) | 2017-12-28 | 2017-12-28 | Control device and control program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2019121105A (en) |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000350192A (en) * | 1999-04-14 | 2000-12-15 | Canon Inc | Image processing unit |
US6190314B1 (en) * | 1998-07-15 | 2001-02-20 | International Business Machines Corporation | Computer input device with biosensors for sensing user emotions |
JP2004053581A (en) * | 2002-04-17 | 2004-02-19 | Daimler Chrysler Ag | Method of detecting direction of line of sight by microphone |
US20050223237A1 (en) * | 2004-04-01 | 2005-10-06 | Antonio Barletta | Emotion controlled system for processing multimedia data |
JP2007074033A (en) * | 2005-09-02 | 2007-03-22 | Canon Inc | Imaging apparatus and control method thereof, computer program, and storage medium |
JP2007213282A (en) * | 2006-02-09 | 2007-08-23 | Seiko Epson Corp | Lecturer support device and lecturer support method |
JP2010200150A (en) * | 2009-02-26 | 2010-09-09 | Toshiba Corp | Terminal, server, conference system, conference method, and conference program |
JP2012146208A (en) * | 2011-01-13 | 2012-08-02 | Nikon Corp | Electronic device and program for controlling the same |
JP2012230535A (en) * | 2011-04-26 | 2012-11-22 | Nikon Corp | Electronic apparatus and control program for electronic apparatus |
US20130137076A1 (en) * | 2011-11-30 | 2013-05-30 | Kathryn Stone Perez | Head-mounted display based education and instruction |
JP2016151798A (en) * | 2015-02-16 | 2016-08-22 | ソニー株式会社 | Information processing device, method, and program |
JP2017097306A (en) * | 2015-11-27 | 2017-06-01 | 株式会社リコー | Head-mounted display system and display control method in the same |
-
2017
- 2017-12-28 JP JP2017254771A patent/JP2019121105A/en active Pending
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6190314B1 (en) * | 1998-07-15 | 2001-02-20 | International Business Machines Corporation | Computer input device with biosensors for sensing user emotions |
JP2000350192A (en) * | 1999-04-14 | 2000-12-15 | Canon Inc | Image processing unit |
JP2004053581A (en) * | 2002-04-17 | 2004-02-19 | Daimler Chrysler Ag | Method of detecting direction of line of sight by microphone |
US20050223237A1 (en) * | 2004-04-01 | 2005-10-06 | Antonio Barletta | Emotion controlled system for processing multimedia data |
JP2007074033A (en) * | 2005-09-02 | 2007-03-22 | Canon Inc | Imaging apparatus and control method thereof, computer program, and storage medium |
JP2007213282A (en) * | 2006-02-09 | 2007-08-23 | Seiko Epson Corp | Lecturer support device and lecturer support method |
JP2010200150A (en) * | 2009-02-26 | 2010-09-09 | Toshiba Corp | Terminal, server, conference system, conference method, and conference program |
JP2012146208A (en) * | 2011-01-13 | 2012-08-02 | Nikon Corp | Electronic device and program for controlling the same |
JP2012230535A (en) * | 2011-04-26 | 2012-11-22 | Nikon Corp | Electronic apparatus and control program for electronic apparatus |
US20130137076A1 (en) * | 2011-11-30 | 2013-05-30 | Kathryn Stone Perez | Head-mounted display based education and instruction |
JP2016151798A (en) * | 2015-02-16 | 2016-08-22 | ソニー株式会社 | Information processing device, method, and program |
JP2017097306A (en) * | 2015-11-27 | 2017-06-01 | 株式会社リコー | Head-mounted display system and display control method in the same |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101632819B1 (en) | Method and apparatus for unattended image capture | |
US10721440B2 (en) | Video conferencing apparatus and video conferencing method | |
US10264210B2 (en) | Video processing apparatus, method, and system | |
KR101825569B1 (en) | Technologies for audiovisual communication using interestingness algorithms | |
US20150146078A1 (en) | Shift camera focus based on speaker position | |
US10931919B2 (en) | Video conference system, video conference apparatus, and video conference method | |
WO2020000912A1 (en) | Behavior detection method and apparatus, and electronic device and storage medium | |
JP6112616B2 (en) | Information processing apparatus, information processing system, information processing method, and program | |
JP5477777B2 (en) | Image acquisition device | |
CN107787463B (en) | The capture of optimization focusing storehouse | |
JP2015115839A5 (en) | ||
CN102196176A (en) | Information processing apparatus, information processing method, and program | |
JP2009277097A (en) | Information processor | |
US12087090B2 (en) | Information processing system and information processing method | |
WO2016199356A1 (en) | Action analysis device, action analysis method, and action analysis program | |
JP2009177480A (en) | Imaging device | |
US20160037052A1 (en) | Depth-Segmenting Peak Tracking Autofocus | |
JP2019102941A (en) | Image processing apparatus and control method of the same | |
JP2019121105A (en) | Control device and control program | |
JP2017192114A5 (en) | ||
JP7182893B2 (en) | Image processing device, imaging device, image processing method, and program | |
JP2005295431A (en) | Program generating system, command generating apparatus, and program generating program | |
JP6631166B2 (en) | Imaging device, program, and imaging method | |
JP2014170367A (en) | Object detection device, object detection method, object detection system and program | |
CN106127752A (en) | Image quality analysis method and device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201119 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210930 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211005 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211115 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20220412 |