JP2004289850A - Control method, equipment control apparatus, and program recording medium - Google Patents
Control method, equipment control apparatus, and program recording medium Download PDFInfo
- Publication number
- JP2004289850A JP2004289850A JP2004105863A JP2004105863A JP2004289850A JP 2004289850 A JP2004289850 A JP 2004289850A JP 2004105863 A JP2004105863 A JP 2004105863A JP 2004105863 A JP2004105863 A JP 2004105863A JP 2004289850 A JP2004289850 A JP 2004289850A
- Authority
- JP
- Japan
- Prior art keywords
- control
- person
- candidate
- control target
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Selective Calling Equipment (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は、人の動き・姿勢・状態などに基づいて機器や情報の操作・環境の制御などを行う技術に関するものである。 The present invention relates to a technology for performing operations of devices and information, controlling an environment, and the like based on the movement, posture, state, and the like of a person.
従来、人の動作を検出して機器操作を行うものとして、人のジェスチャを認識し、テレビの操作を行うものがある(例えば、特許文献1、特許文献2参照。)。特許文献1においては人の手の平の位置とジェスチャをカメラで検出し、テレビの操作を行っている。
2. Description of the Related Art Conventionally, as a device that detects a human motion and operates a device, there is a device that recognizes a human gesture and operates a television (for example, see
また、特許文献2においては、カメラで検出した人の手の位置と形状とを用いて、文字を携帯用パーソナルコンピュータに入力するものである。
しかしながら、上記従来の手法では操作する人間と操作される機器とが1対1に対応づけられることが前提となっており、複数のテレビやパーソナルコンピュータが近くに存在する場合や、操作者が複数存在する場合、望ましい操作を実現することは困難であるという課題を有している。 However, in the above-described conventional method, it is assumed that the operating person and the operated device are associated with each other in a one-to-one correspondence. When present, there is a problem that it is difficult to achieve a desired operation.
一般的に、家庭やオフィス・屋外などにおいて、近隣に存在する機器や人の数は複数となることが多く、人の動きなどを用いて機器を制御する場合にも、個別の人と個別の機器とを対応付けることが必要となる。例えば、複数のテレビを同時に操作する場合、どのテレビを操作するのか又は操作しているのかという区別が従来の手法には含まれていなかった。また、部屋に複数の人が存在する場合にも、誰がテレビのチャンネルを変えているのか、また誰がチャンネルを変えることができるのかという区別が分からないという課題も有していた。 In general, in homes, offices, outdoors, etc., the number of devices and people in the vicinity is often more than one, and even when controlling devices using human movements, individual people and individual It is necessary to associate devices. For example, when a plurality of televisions are operated at the same time, a distinction as to which television is operated or operated is not included in the conventional method. Further, even when a plurality of people are present in a room, there is a problem that it is difficult to distinguish who is changing the television channel and who can change the channel.
本発明は上記従来の装置の課題を鑑み、複数の機器や複数の人間が近隣に存在する場合にも、機器と人間との対応を定めて、人の動き・姿勢・状態などを用いて円滑に機器の操作等を行えるようにする制御方法を提供することを目的とする。 The present invention has been made in consideration of the problems of the above-described conventional device, and determines the correspondence between devices and humans, and smoothly uses the motions, postures, states, and the like of humans even when a plurality of devices and a plurality of people are present nearby. It is an object of the present invention to provide a control method that allows a user to operate a device or the like.
本発明は、複数の人の属性を監視し、前記監視された複数の人の属性からあらかじめ登録した個人の属性を検出し、前記検出された個人の属性を用いて対象者を決定し、前記検出された個人に関する所定の属性を用いて、複数の機器のうち、所定の制御対象を制御する制御方法である。 The present invention monitors the attributes of a plurality of people, detects the attributes of individuals registered in advance from the attributes of the monitored plurality of people, determines the target person using the detected attributes of the individuals, This is a control method of controlling a predetermined control target among a plurality of devices using a predetermined attribute regarding a detected individual.
又、本発明は、上記本発明の制御方法における前記各ステップの全部をコンピュータに実現させるためのプログラムを担持した媒体であって、コンピュータにより処理可能なプログラム記録媒体である。 Further, the present invention is a medium holding a program for causing a computer to realize all of the above steps in the control method of the present invention, and is a program recording medium that can be processed by a computer.
又、本発明は、複数の人の属性を監視する監視部と、前記監視された複数の人の前記属性からあらかじめ登録した個人の属性を検出し、前記検出された個人の属性を用いて対象者を決定する選択部と、前記検出された個人に関する所定の属性を用いて、複数の機器のうち、所定の制御対象を制御する制御部とを有する機器制御装置である。 The present invention also provides a monitoring unit that monitors attributes of a plurality of persons, detects an attribute of an individual registered in advance from the attributes of the monitored plurality of persons, and uses the detected attribute of the individual to perform an object. A device control device comprising: a selection unit that determines a person; and a control unit that controls a predetermined control target among a plurality of devices using a predetermined attribute related to the detected individual.
又、本発明は、複数の人の属性を監視する監視部にて監視された複数の人の前記属性からあらかじめ登録した個人の属性を検出し、前記検出された個人の属性を用いて対象者を決定する選択部と、前記検出された個人に関する所定の属性を用いて、複数の機器のうち、所定の制御対象を制御する制御部とを有する機器制御装置である。 In addition, the present invention detects an attribute of an individual registered in advance from the attributes of a plurality of persons monitored by a monitoring unit that monitors the attributes of a plurality of persons, and uses the detected attribute of the individual to determine a target person. And a control unit that controls a predetermined control target among a plurality of devices by using a predetermined attribute related to the detected individual.
以上説明したところから明らかなように、本発明は、人の属性を用いて機器や情報の操作を円滑に行う最に問題となる、複数の人の存在や、複数の機器の存在や、人の動作や姿勢の曖昧さなどを考慮し、人にあらかじめ定めた複雑な動作などを強いることなく、人の日常の属性を用いることで機器の制御を円滑に行うことを可能とするという長所を有する。 As is evident from the above description, the present invention provides the most important problem in smoothly operating devices and information using the attributes of a person, the presence of a plurality of people, the presence of a plurality of devices, Considering the ambiguity of the movement and posture of the device, the advantage that it is possible to control the equipment smoothly by using the everyday attributes of the person without forcing the person to perform a complicated operation that is predetermined in advance. Have.
以下、本発明の実施の形態について図面を参照して説明する。図1は本発明の第一の実施の形態を示すブロック図である。図1において、1は監視部、2は操作者選択部、3は制御対象候補決定部、4は制御内容候補決定部、5は制御対象・制御内容決定部である。
Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing a first embodiment of the present invention. In FIG. 1,
図1において、監視部1は人の属性及び人の周囲の環境を継続的に監視する。人の属性としては、人の位置、人の姿勢、人の顔、人の表情、人の視線、人の頭の向き、人の動き、人の音声、人の生理状態、特定個人であること、人の体型、人の体重、人の性別、人の年齢、人の心身的不自由度、人の付帯物などを監視する。ここで、心身的不自由度としては、視力の不自由度、四肢の不自由度、発声の不自由度、聴覚の不自由度、言語理解の不自由度などがある。また、付帯物としては、着衣、帽子、眼鏡、かばん、履き物などがある。
In FIG. 1, a
監視する手段としてはカメラ(可視光、赤外線などに感度を持つもの)、マイク、圧力センサ、超音波センサ、振動センサ、化学センサ、光センサなどを用いる。更に他のセンサを用いてもよい。カメラを用いることで人の位置、人の姿勢、人の顔、人の表情、人の動き、人の体型、人の付帯物などを非接触で監視することが可能となる。 As a means for monitoring, a camera (one having sensitivity to visible light, infrared light, and the like), a microphone, a pressure sensor, an ultrasonic sensor, a vibration sensor, a chemical sensor, an optical sensor, and the like are used. Still other sensors may be used. By using a camera, it is possible to monitor a person's position, a person's posture, a person's face, a person's facial expression, a person's movement, a person's body type, a person's accessory, and the like without contact.
人の位置をカメラで監視する場合、画像中の肌色が存在する領域を人の存在する位置とする。また、前記の肌色の領域でかつ、画像の色や輝度に変化のある領域を人の存在する位置とすることや、赤外線の画像を併用し、人が主に発する波長3〜5μmもしくは8〜12μmの赤外線を検出した領域を、人の存在する位置としてもよい。人の姿勢や人の体型や人の動きをカメラで監視する場合、前記人の位置の検出と同様の手法を用いることで人の大まかな形状を抽出し、その形状から姿勢や体型を監視し、前記姿勢の時間的変化を監視することで動きを監視する。
When monitoring the position of a person with a camera, the area where the flesh color exists in the image is defined as the position where the person exists. In addition, the skin color region and the region where the color or brightness of the image changes may be set as the position where a person is present, or an infrared image is used in combination, and the
姿勢としては、例えば立っているか、座っているか、手をどちらの向きに伸ばしているかなどの区別は、それぞれの姿勢の代表的な形状をあらかじめ登録しておき、前記登録内容と比較することで判断することが可能である。人の顔や人の表情や人の頭の向きや人の視線をカメラで監視する場合、前記人の形状から人の体の中で一番上部に位置する頭部を検出し、顔の表情をあらかじめ登録した様々な表情を含む顔の画像とを比較することで顔や表情の監視が可能である。人の頭の向きや視線の向きは、前記手続きで検出した頭部の画像から目の位置を検出することで判断できる。両目の位置が頭部に対して左右対称であれば、カメラに対して頭部が正面を向いていることになり、左右のどちらかに目の位置が偏っていれば、頭部の向きが左または右に向いていることが判断できる。目の位置については顔の領域の中で、楕円形状または平坦な形状でかつ顔の領域中で輝度の暗い領域を検出することで検出することが可能である。更に、視線については目の中の虹彩の円領域を検出することで、前記円領域の中心と前記目全体の領域の中心とのずれによって、検出することが出来る。人の付帯物をカメラで検出する場合は、前記手続きで検出した人の領域について、着衣の無い人の状態の色と異なる色を検出した体の部分については付帯物があると判断できる。また、あらかじめ、特定の色を有する付帯物を登録しておくことで、判別することも可能である。眼鏡については、前記手続きで顔の領域及び目の位置を検出した際に、目の周囲に枠状の形状があるか否かで判断することが出来る。また、マイクを用いることで人の音声や、人の動きにより生じる音(手や指を鳴らす音や足音など)などを非接触に監視することが可能となる。また、近接または接触する位置からは心音などの生理状態を計測することも可能である。また、圧力センサを用いることで人の動きによる接触や、床面に設置した圧力センサを用いることで体重や歩行パターンを監視することが可能である。また、超音波センサを用いることで、人までの距離や、人までの距離の変化による人の動きの監視が可能である。超音波を用いる場合、照明が大きく変動する場合や無照明下でも、人の位置を監視することが可能となる。 As the posture, for example, standing, sitting, or distinguishing whether the hand is extending in which direction, a typical shape of each posture is registered in advance and compared with the registered contents. It is possible to judge. When monitoring a person's face, a person's expression, a person's head orientation, and a person's gaze with a camera, the head located at the top of a person's body is detected from the shape of the person, and the facial expression is detected. Can be monitored by comparing the image with a face image including various expressions registered in advance. The direction of the person's head and the direction of the line of sight can be determined by detecting the position of the eyes from the image of the head detected in the above procedure. If the positions of both eyes are symmetrical with respect to the head, the head is facing the front with respect to the camera. It can be determined that it is facing left or right. The position of the eyes can be detected by detecting an elliptical or flat shape in the face area and a dark area in the face area. Further, the line of sight can be detected by detecting the circular region of the iris in the eye, and by detecting the difference between the center of the circular region and the center of the entire eye region. When a person's accessory is detected by the camera, it can be determined that there is an accessory for a body part that detects a color different from the color of a person without clothes in the area of the person detected in the above procedure. Also, it is possible to make a determination by registering an accessory having a specific color in advance. Regarding the glasses, when the face area and the position of the eyes are detected in the above procedure, it can be determined whether or not there is a frame shape around the eyes. In addition, by using a microphone, it is possible to contactlessly monitor a human voice, a sound (a sound of a hand or a finger, a sound of a foot, etc.) generated by a motion of the human. Further, it is also possible to measure a physiological state such as a heart sound from the position of approach or contact. In addition, it is possible to monitor the contact due to the movement of a person by using a pressure sensor, and to monitor the weight and the walking pattern by using a pressure sensor installed on the floor. Further, by using an ultrasonic sensor, it is possible to monitor the distance to a person and the movement of the person due to a change in the distance to the person. When using ultrasonic waves, it is possible to monitor the position of a person even when the illumination fluctuates greatly or without illumination.
また、振動センサを用いることで、人の動きにより生じる振動を監視することが可能となる。また、身体からの分泌物・排泄物・体液中のイオン濃度、糖分、ホルモンなどの化学物質の量を計測する化学センサや、身体を透過した光のスペクトル分布を計測する光センサなどを用いることで生理状態を監視することが可能である。また、前記カメラで得た顔の特徴や身体の動き、前記マイクで得た音声の特徴、前記圧力センサで得た体重などの情報に基づいて特定個人であることや、人の性別、人の年齢、人の心身的不自由度などを推定することが可能である。例えば、あらかじめ特定個人の顔の特徴や、体重、体型、性別、年齢、心身的不自由度を登録しておくことで、いずれかの特徴(例えば体重)を用いて個人の特定を行うと、性別などの他の特徴も既知となる。 In addition, by using a vibration sensor, it is possible to monitor vibrations caused by human movement. In addition, use chemical sensors that measure the amount of chemical substances such as secretions, excreta, and body fluids in the body, such as sugars and hormones, and optical sensors that measure the spectral distribution of light transmitted through the body. It is possible to monitor the physiological condition with. Also, based on information such as facial features and body movements obtained by the camera, voice features obtained by the microphone, and weight obtained by the pressure sensor, being a specific individual, gender of a person, It is possible to estimate the age, the degree of mental and physical inconvenience of a person, and the like. For example, by registering in advance the facial features, weight, body type, gender, age, and mental and physical inconvenience of a specific individual, if an individual is identified using any of the characteristics (for example, weight), Other characteristics, such as gender, are also known.
また、異なる視野を持つ複数のカメラを用いることで、人の位置や姿勢・動きを3次元的に捉えることが容易となり、監視の精度も向上し、監視できる場所を広げることが可能である。同様に性質の異なる複数のセンサを組み合わせることでも人の位置や姿勢・動きの検出の精度及び信頼度を向上させることが出来る。 In addition, by using a plurality of cameras having different visual fields, it is easy to three-dimensionally capture the position, posture, and movement of a person, and the monitoring accuracy is improved, and the place where monitoring can be performed can be widened. Similarly, by combining a plurality of sensors having different properties, the accuracy and reliability of detecting the position, posture, and movement of a person can be improved.
なお、人及び周囲の環境の監視は間欠的でも良く、人の属性の変化が少ないときや高速な制御が必要でない制御対象の場合には間欠的に監視を行うことで、一連の制御処理の処理量を軽減し、計算資源の削減や消費エネルギーの削減の効果が得られる。 It should be noted that the monitoring of the human and surrounding environment may be intermittent, and when there is little change in the attributes of the human or in the case of a control object that does not require high-speed control, intermittent monitoring is performed to perform a series of control processing. The amount of processing can be reduced, and the effects of reducing computational resources and energy consumption can be obtained.
図1において、操作者選択部2は前記監視部1の監視した結果に基づき、操作者を選択する。ここで、前記監視部は3名の人を監視しているとする。操作者選択部2は監視部1の監視した所定の人の属性に基づいて前記3名のうち1名を選択する。所定の属性に基づいて人を選択する事とは、あらかじめ定めた位置(例えば部屋の中央など)に最も近い位置に存在する人や、あらかじめ定めた姿勢や動作(例えば挙手など)などを行った人や、あらかじめ定めた人の優先順位に基づく(例えば家族内であれば父親、母親、子供の順など)最も優先順位の高い人や(体重や性別、年齢、生理状態、心身的不自由度などに応じて優先順位をつけてもよい)、特定の言葉(例えば「ハイ」や機器の名称など)を発した人や、特定の付帯物(例えば赤いボールを手に持っているなど)を有した人や、特定の位置(例えば置物など)に視線または頭を向けている人などを選択することである。また、操作者選択部2は、人の属性に基づいてあらかじめ定めた評価方法に基づいて評価値を各人に対して求め、評価値がある基準値以上でかつ最も評価値の大きい人を選択するようにしてもよい。この場合、様々な人の属性を同時に考慮することが可能になる。評価方法としては例えば、「ハイ」と発声した音声の強度と挙手した動作の速さとの重み付け和を評価値として用いることなどが出来る。
In FIG. 1, an
次に操作者選択部2は選択した人についての情報を提示する。例えば、選択した人の名前が特定できる場合には、選択した人の名前をディスプレイに表示したり、名前を音声で出力したり、あらかじめ個人と対応づけた音楽や音や名称を音で出力したり、あらかじめ個人と対応づけた記号や文字をディスプレイに表示したり、あらかじめ各個人が付帯している機器に信号を送信してもよい。前記信号を受けた付帯機器は振動したり、光を出力したり、音を出力することで個人に情報を知らせることができる。また、選択した人に対して照明を向けたり、ディスプレイなどの機器を回転させて選択した人に対して向けたり、選択した人をカメラで写した映像をディスプレイに表示したりしてもよい。また、選択した人に対してのみその人の発声や動作の直後に「何ですか」という音声を出力したり、音や光を出力したりすることで、選択した人の情報を人に提示することもできる。
Next, the
なお、前記例では操作者選択部2は3名のうち1名を選択したが、複数名(2名など)を選択してもよいし、所定の属性が観察できない場合には人を選択しなくてもよい。
In the above example, the
図1において、3は制御対象候補決定部であり、前記操作者選択部2が選択した人の所定の属性や選択した人の周辺の環境に基づいて、制御対象の候補を決定する。制御対象としては機器(家庭内であれば、エアコン、テレビ、ビデオ、電灯、洗濯機、パーソナルコンピュータ、ゲーム機、ペットロボットなど。
家庭外であれば、エレベータ、車など)や、情報機器で扱われる情報や表示内容(ディスプレイ内に表示している文字や図形など)などを対象とする。選択した人の所定の属性としては、指や視線や頭による指示姿勢や、特定の言葉の発声や、手話動作や、特定の物を手に持つことなどを用いることができる。指や視線や頭による指示姿勢を用いる場合、指示された付近に存在する機器またはディスプレイの表示内容を制御対象の候補とする。人の周辺の環境としては気温、湿度、照度、音量、気流状態、空気中における特定の気体の濃度(炭酸ガス濃度など)、時刻などを用いることができる。室内の気温や湿度が高い場合には、制御対象としてエアコンや扇風機や除湿機などを制御対象の候補とする。室内の照度が低い場合や特定の時刻(日没前の時刻)になった場合には、照明を制御対象の候補とする。気流の変化が長時間無い場合や空気中の炭酸ガス濃度が基準値を上回る場合などには、換気扇や窓を制御対象とする。室外の音が基準値を上回る場合にはテレビや窓を制御対象とする。
In FIG. 1,
Outside homes, such as elevators and cars, and information and display contents (such as characters and figures displayed in the display) handled by information devices are targeted. As the predetermined attribute of the selected person, a pointing posture by a finger, a line of sight, or a head, utterance of a specific word, sign language operation, holding a specific object in a hand, and the like can be used. In the case of using a pointing posture by a finger, a line of sight, or a head, the display content of a device or a display existing in the vicinity of the pointing is set as a control target candidate. As the environment around a person, temperature, humidity, illuminance, sound volume, airflow state, concentration of a specific gas in air (such as carbon dioxide concentration), time, and the like can be used. When the indoor temperature or humidity is high, an air conditioner, a fan, a dehumidifier, or the like is set as a control target candidate as a control target. When the illuminance in the room is low or at a specific time (time before sunset), the lighting is set as a candidate for the control target. When there is no change in the airflow for a long time or when the concentration of carbon dioxide in the air exceeds a reference value, a ventilation fan or a window is set as a control target. If the sound outside the room exceeds the reference value, the TV or window is set as the control target.
なお、この候補は複数あってもよく、また1つでもよい。例えば、操作者として選択された人が指差す方向に、エアコンとテレビが存在した場合、両者を制御対象とする。言葉の発声や手話動作を所定の属性として用いる場合には、機器の名称を指示してもよいし、あらかじめ定めた言葉でもよい。例えば「テレビ」言えば、テレビ(複数存在してもよい)を制御対象の候補とし、「暑い」と言えば扇風機とエアコンを制御対象候補とする。所定の属性として特定の物を手に持つことを用いる場合、機器と物とをあらかじめ対応づけておき、赤いボールはエアコン、青いボールはテレビに対応づけておくことで、青いボールを手にしたことでテレビを制御対象の候補とする。 It should be noted that there may be a plurality of these candidates or one. For example, when the air conditioner and the television are present in the direction in which the person selected as the operator points, both are controlled. When using the utterance of a word or a sign language operation as a predetermined attribute, the name of the device may be indicated or a predetermined word may be used. For example, speaking of "television", television (or a plurality of televisions may be present) is a candidate for control, and "hot" is a fan and air conditioner as candidates for control. When using a specific object in the hand as a predetermined attribute, the device and the object are associated in advance, the red ball is associated with the air conditioner, the blue ball is associated with the TV, and the blue ball is obtained. Thus, the television is set as a candidate for the control target.
次に制御対象候補決定部3は、決定した制御対象の候補についての情報を外部に提示する。情報の提示は制御対象を表す名称を音声や音で出力してもよく、また、制御対象の表す名称をディスプレイに表示してもよい。また、制御対象の候補の機器自身に備えたライトを点灯させてもよいし、制御対象の候補の機器自身に備えたスピーカーから音や音声を出力してもよい。
Next, the control target
図1において、制御内容候補決定部4は前記操作者選択部2が選択した人の所定の属性や選択した人の周辺の環境に基づいて、制御内容の候補を決定する。制御内容としては機器のスイッチのオン・オフや、機器の動作パラメータ(音量や、風量や、風向や、チャンネルや、光量など)の変更や、ドアや窓の開閉や、情報機器のディスプレイ内のオブジェクトの移動・変形・色の変更・文書の編集などを制御対象とする。
In FIG. 1, a control content
所定の属性としては、音声や手話で制御内容を指示することや(例えばスイッチを入れる場合は「オン」、スイッチを切る場合は「オフ」と発声することや、「暑い」と発声することでスイッチを入れるなど)、あらかじめ定めた動作を制御内容と関連付けておいてもよい(手を1度叩くとスイッチを入れ、2度叩くとスイッチを切るなど)。なお、候補は複数あってもよく、また1つでもよい。例えば、操作者として選択した人が「上」と発声した場合、候補としてテレビの音量を大きくすることや、エアコンの設定温度を上げることや、情報機器のディスプレイに表示するオブジェクトを情報に移動させることなどが候補となる。 As the predetermined attribute, by instructing the control content by voice or sign language (for example, "ON" when turning on the switch, "OFF" when turning off the switch, or "Hot" A predetermined operation may be associated with the control content (for example, a switch is turned on when the hand is hit once, and a switch is turned off when the hand is hit twice). Note that there may be a plurality of candidates or one candidate. For example, when the person selected as the operator utters “up”, increasing the volume of the television, increasing the set temperature of the air conditioner, or moving an object to be displayed on the display of the information device to the information are candidates. Things are candidates.
人の周辺の環境としては気温、湿度、照度、音量、気流状態、空気中における特定の気体の濃度(炭酸ガス濃度など)、時刻などを用いることができる。室内の気温や湿度が高い場合には、制御内容としてエアコンや扇風機や除湿機などのスイッチを入れることや動作強度を強めることなどを制御内容の候補とする。 As the environment around a person, temperature, humidity, illuminance, sound volume, airflow state, concentration of a specific gas in air (such as carbon dioxide concentration), time, and the like can be used. When the indoor temperature and humidity are high, the control contents may include switching on an air conditioner, a fan, a dehumidifier, or the like, and increasing the operation intensity, and the like.
室内の照度が低い場合や特定の時刻(日没前の時刻)になった場合には照明のスイッチを入れることや光量を強めることなどを制御内容の候補とする。気流の変化が長時間無い場合や空気中の炭酸ガス濃度が基準値を上回る場合などには、換気扇のスイッチを入れることや窓を開けることを制御内容の候補とする。室外の音が基準値を上回る場合にはテレビの音量を大きくすることや窓を閉めることを制御内容の候補とする。 When the illuminance in the room is low or at a specific time (time before sunset), turning on the light or increasing the light amount are candidates for the control content. When there is no change in the airflow for a long time or when the concentration of carbon dioxide in the air exceeds the reference value, switching on the ventilation fan and opening the window are candidates for the control contents. If the outdoor sound exceeds the reference value, increasing the volume of the television and closing the window are candidates for the control content.
次に制御内容候補決定部4は決定した制御内容の候補についての情報を提示する。情報の提示は制御内容を表す名称を音声や音で出力してもよく、また、制御内容の表す名称をディスプレイに表示してもよい。
Next, the control content
図1において、制御対象・制御内容決定部5は、前記制御対象候補決定部3が決定した制御対象候補と、前記制御内容候補決定部4が決定した制御内容候補とから、制御対象と制御内容を決定し、決定した制御対象に対して決定した制御を行う。ここで、制御対象の候補と制御内容の候補から、制御対象と制御内容を、次のような候補の限定によって、特定する。候補の限定は制御対象の候補と制御内容の候補との組み合わせのうちあらかじめ定めた組み合わせのみを採用する。例えば、制御対象の候補がテレビとエアコンで、制御内容の候補が「温度を上げる」の場合にはテレビに対しては温度を上げる制御内容はなく、エアコンに対しては温度を上げる制御内容がある場合、エアコンを制御対象とし、エアコンの設定温度を上げることを制御内容とする。また、候補の限定として、人の指示動作に基づいてエアコンを制御対象候補とし、人の「上げる」の発声に基づいてエアコンの温度を上げることを制御内容の候補としたとき、前記指示動作を監視した時刻T1と前記「上げる」の発声を監視した時刻T2との時間間隔が基準値(例えば3秒)以上なら制御対象ならびに制御内容を選択しない。同様に前記時刻T2が前記時刻T1よりも先の場合にも制御対象ならびに制御内容を選択しない。このように時刻T1と時刻T2の時間間隔や順序を考慮することでも、候補を限定することができる。このことにより、偶然の指示動作と偶然の会話の中の言葉との組み合わせによる誤判断などの割合を低減することができる。また、前記指示動作の継続時間が基準(例えば1秒以上)に満たない場合にも、制御対象の選択を行わない。このことにより、日常の動作の中で偶然指示動作と同じ動作を行った場合に誤った判断の割合を低減することが可能となる。なお、限定を行う必要がない場合(例えば、候補数が1つの場合や、複数の制御対象を同時に制御する場合など)には、限定を行わなくてもよい。
In FIG. 1, a control target / control
次に、制御対象・制御内容決定部5は、決定した制御対象及び制御内容の情報を提示する。制御対象の提示ならびに制御内容の提示については、前記制御対象の候補の提示ならびに制御内容の候補の提示と同様である。
Next, the control target / control
また、制御対象・制御内容決定部5は確認の指示や、再入力の指示、候補の選択肢や、対象決定不能であることなどの情報の提示を行ってもよい。確認の指示は、前記決定した制御対象ならびに制御内容についての実行の確認を行うもので、「よろしいですか」などの発声やディスプレイ上ので表示または、あらかじめ定めた音でもよい。再入力の指示や対象決定不能の提示は、制御対象ならびに制御内容の確定が困難な場合(人の所定の属性があいまいな場合など)、再度入力を促すもので、「もう一度入力して下さい」などの発声や、ディスプレイ上での表示、またはあらかじめ定めた音を出力してもよい。候補の選択肢は、制御対象ならびに制御内容が複数存在する場合に、ディスプレイ上の表示などで選択肢を表示し、選択の行為を促す。
In addition, the control target / control
また、監視部1は、制御対象・制御内容決定部5が情報の提示を行った後の操作者の属性を監視し、制御対象・制御内容決定部5は制御対象の候補ならびに制御内容の候補の限定や、制御対象及び制御内容の決定や、再度情報の提示を行う。情報の提示と提示後の人の属性の監視に基づく制御対象ならびに制御内容に削減は繰り返し行ってもよい。繰り返し行うことで、候補数を減らすことが可能である。制御対象・制御内容決定部5が情報の提示を行った後の操作者の属性としては、実行の確認の場合には、「ハイ」などの発声を監視することで、制御対象に対する制御を実行する。候補の選択肢をディスプレイで提示する場合には、選択肢に番号を付与することで、その番号を表す、発声を監視することで制御対象に対する制御を実行する。なお、先に述べた制御対象候補決定部3や制御内容候補決定部4がその候補に対する選択を催促するようにしてもよい。この場合は、人がその候補のなかから特定の対象、内容を選択するから、制御対象、制御内容決定部5はその選択行為に基づいて、制御対象、制御内容を決定することになる。
Further, the
このように構成した本発明の第一の実施の形態について、その動作を説明する。室内にA,B,Cの3名の人がおり、エアコン、テレビ、扇風機が室内に存在するとする。監視部1は人の属性ならびに人の周辺の環境を継続的に監視している。ここで、AとBがテレビを指差した場合、操作者選択部2は時間的に先にテレビを指差したBを操作者とし、Bの名前を音声で出力する。これにより、Aは操作できずBが操作できることを知ることができ、複数人数でも、混乱すること無く機器の制御を行うことができる。
The operation of the thus configured first embodiment of the present invention will be described. It is assumed that there are three people A, B, and C in the room, and an air conditioner, a television, and a fan exist in the room. The
操作者選択部2が行う操作者の情報の提示は、Bの名前を音声で出力する以外に、選択した人の名前をディスプレイに表示したり、あらかじめ個人と対応づけた音楽や音や名称を音で出力したり、あらかじめ個人と対応づけた記号や文字をディスプレイに表示したり、あらかじめ各個人が付帯している機器に信号を送信してもよい。前記信号を受けた付帯機器は振動したり、光を出力したり、音を出力することで個人に情報を知らせることができる。また、選択した人に対して照明を向けたり、ディスプレイなどの機器を回転させて選択した人に対して向けたり、選択した人をカメラで写した映像をディスプレイに表示したりしてもよい。また、選択した人に対してのみその人の発声や動作の直後に「何ですか」という音声を出力したり、音や光を出力したりすることで、選択した人の情報を提示することもできる。このように、選択した操作者を人に知らせることで、誰が操作を行えるのかが分かり、複数の人が操作を行おうとした場合にでも混乱することを防ぐことが可能となる。
The presentation of the information of the operator performed by the
制御対象候補決定部3は前記操作者選択部2が選択した人の所定の属性や選択した人の周辺の環境に基づいて、制御対象の候補を決定する。Bが指を差した方向の付近にテレビとエアコンが存在する場合、テレビとエアコンを制御対象の候補と決定する。エアコンがBの指差した方向より多少離れている場合でも、周囲の環境として室温が高い場合には、制御対象の候補に含める。次に制御対象候補決定部3は決定した制御対象の候補についての情報を提示する。情報の提示は制御対象を表す名称を音声や音で出力してもよく、また、制御対象の表す名称をディスプレイに表示してもよい。また、制御対象の候補の機器自身に備えたライトを点灯させてもよいし、制御対象の候補の機器自身に備えたスピーカーから音や音声を出力してもよい。制御対象の候補の情報を提示することで、操作者は望みの対象が候補の中に含まれるか否かを確認する事ができる。また、候補を複数選ぶことで、本来選ぶべき制御対象をより確実に候補内に含めることが可能となる。
The control target
制御内容候補決定部4は前記操作者選択部2が選択した人の所定の属性や選択した人の周辺の環境に基づいて、制御内容の候補を決定する。Bが指を差すと同時に「強く」と発声した場合、制御の候補として、風を強くする、冷房能力を強くする、暖房能力を強くする、照明を強くするなどを制御内容の候補に決定する。
The control content
次に制御内容候補決定部4は決定した制御内容の候補についての情報を提示する。情報の提示は制御内容を表す名称を音声や音で出力してもよく、また、制御内容の表す名称をディスプレイに表示してもよい。制御内容の候補の情報を提示することで、操作者は望みの対象が候補の中に含まれるか否かを確認する事ができる。また、候補を複数選ぶことで、本来選ぶべき制御内容をより確実に候補内に含めることが可能となる。
Next, the control content
また、制御対象の候補ならびに制御内容の候補の数が多い場合には必ずしも全て情報を提示しなくてもよい。 When the number of control target candidates and control content candidates is large, it is not always necessary to present all information.
制御対象・制御内容決定部5は、前記制御対象候補決定部3が決定した制御対象候補と、前記制御内容候補決定部4が決定した制御内容候補とから、制御対象と制御内容を決定し、決定した制御対象に対して決定した制御を行う。ここで、制御対象の候補と制御内容の候補から、制御対象と制御内容を決定する方法の一つとして、次に説明する方法がある。すなわち、制御対象の候補と制御内容の候補との組み合わせのうちあらかじめ定めた組み合わせのみを採用する。上記の場合、制御対象の候補がテレビとエアコンで、制御内容の候補が風を強くする、冷房能力を強くする、暖房能力を強くする、照明を強くする、の4つの場合、テレビには制御内容の候補と組み合わせることが出来ないため、エアコンを制御対象とし、エアコンと組み合わせることの出来る制御内容として風を強くする、冷房能力を強くする、暖房能力を強くするに候補を限定する。更に人の環境のとして気温や季節を監視しておくことで、気温が摂氏30度を超えるときや夏であれば、制御内容として暖房能力を強くすることを除去する。また、あらかじめ過去の個人の制御の履歴を記録しておくことで、過去に制御していない制御対象と制御内容との組み合わせを除去することもできる。
The control target / control
このように、制御対象・制御内容決定部5は制御対象の候補ならびに制御内容の候補ならびに周辺の環境それぞれに基づいて、制御対象ならびに制御内容を決定することで、所定の人の属性のみからは、制御対象や制御内容を単独に特定しにくい場合にでも、制御対象や制御内容をより確実に特定することが出来る。特に、人の動作や姿勢などのように曖昧性を含む人の属性を利用する場合精度の高い認識を行っても判断が困難であるが、本手法を用いることで、あらかじめ定めた曖昧性の少ない動作を人に強いることなく、人の日常の動作や姿勢を用いて望ましい、制御対象や制御内容を選択することが可能となる。
As described above, the control target / control
次に、制御対象・制御内容決定部5は、決定した制御対象及び制御内容の情報を提示する。制御対象の提示ならびに制御内容の提示については、前記制御対象の候補の提示ならびに制御内容の候補の提示と同様である。制御対象及び制御内容の情報を提示することで、操作者は望みの制御対象や制御内容が選択されているか否かを確認する事ができる。
Next, the control target / control
あるいはまた、制御対象・制御内容決定部5は確認の指示や、再入力の指示、候補の選択肢や、対象決定不能であることなどの情報の提示を行う。確認の指示は、前記決定した制御対象ならびに制御内容についての実行の確認を行うもので、「よろしいですか」などの発声やディスプレイ上ので表示または、あらかじめ定めた音でもよい。確認を行うことにより誤制御を防ぐことが可能となる。また、再入力の指示や対象決定不能の提示は、制御対象ならびに制御内容の確定が困難な場合、再度入力を促すもので、「もう一度入力して下さい」などの発声や、ディスプレイ上での表示、またはあらかじめ定めた音を出力したり、ディスプレイ上の表示などで選択肢を表示し、再度選択の行為を促す。上記の場合エアコンの風を強くするか冷房能力を強くするかについて音声で再度指示を行うことを促す。そこで、監視部1は、制御対象・制御内容決定部5が情報の提示を行った後の操作者の属性を監視し、制御対象・制御内容決定部5は制御対象の候補ならびに制御内容の候補の限定や、制御対象及び制御内容の決定や、再度情報の提示を行う。上記の場合、人が「風」と発声した場合、制御対象・制御内容決定部5は制御内容をエアコンの風を強くすることに決定し、エアコンの風を強くすることを音声で提示すると同時にエアコンに制御信号を送る。情報の提示と提示後の人の属性の監視に基づく制御対象ならびに制御内容に削減は繰り返し行ってもよい。繰り返し行うことで、誤判断を行うことなく候補数を減らすことが可能である。
Alternatively, the control target / control
このように、制御対象や制御内容を確定できない場合は再度入力を行うように指示することで、強制的な判断による誤判断を防ぎ、かつ人の動作や姿勢などの属性の曖昧性を許容しながら、人の動作や姿勢などの属性を用いて機器や情報の制御を円滑に行うことが可能となる。 In this way, if the control target or control content cannot be determined, the user is instructed to input again, thereby preventing erroneous determination due to forced determination and allowing ambiguity in attributes such as human motion and posture. However, it is possible to smoothly control devices and information using attributes such as human motion and posture.
なお、上記では人からの再度入力を監視する際に音声を人の属性として用いているが、別の属性(特定の動作)及びそれらの組み合わせを用いても良い。例えば制御対象・制御内容決定部5が決定した制御対象並びに制御内容を提示し、人に確定を促す場合、人が腕や手や指で丸い形を作ったり(図9(1)〜(4)参照)、親指を立てる動作(図9(5)参照)をすると、制御対象・制御内容決定部5は提示した内容を制御対象ならびに制御内容として確定する。また、人が腕や指で×の形を作ったり(図9(6),(7)参照)、手を横に振る動作(図9(8)参照)をすると、制御対象・制御内容決定部5は提示した内容を制御対象ならびに制御内容として採用せず、人に再度の入力を促す。
In the above description, the voice is used as the attribute of the person when monitoring the input again from the person, but another attribute (specific operation) and a combination thereof may be used. For example, when the control target and the control content determined by the control target / control
なお上記では、操作者及び制御対象候補を決定する際に指差しの動作または姿勢を人の属性として用いているが、別の属性(視線や頭の向きや音声などの他の指示動作や指示動作以外の動作・姿勢)及びそれらの組み合わせを用いてもよい。例えば人の属性として人の位置を考慮すると、隣の部屋にいる人のようにテレビの操作に関係しない人を操作者に誤って選ぶことを防ぐことができる。また、人の姿勢を属性として用いることで、例えば座っている人を優先させることが出来、たまたま部屋を通りかかった人の偶然の動作を誤って判断することを防ぐことが出来る。また、人の顔・表情や特定個人であることや人の年齢を人の属性として用いることで、あらかじめテレビの使用を限定した人や、テレビの操作が不適切な人を操作者の対象から外すことも可能である(例えば子供は夜9時以降は操作できないなど)。また、人の心身的不自由度や人の性別や人の生理状態などを人の属性として用いることで、人の心身的不自由度や人の性別や人の生理状態などに基づいて優先的に操作を行わせることも可能となる。また、人の付帯物などを用いることで、通常のものをあたかもリモコンのようの意味付けることができ(例えば赤いボールを持つことがテレビを意味するなど)、使用者が使いやすい動作または使用者の好みの動作でテレビを選択できると同時に、複数の人の間でのテレビ操作の優先権(誰が赤いボールを先に手にするか)を目に見える形で提示することが出来る。 In the above description, the pointing operation or posture is used as the attribute of the person when determining the operator and the control target candidate, but another attribute (such as another instruction operation or instruction such as gaze, head direction, or voice) is used. Motion / posture other than motion) and a combination thereof. For example, considering the position of a person as the attribute of the person, it is possible to prevent a person who is not involved in the operation of the television, such as a person in the next room, from being mistakenly selected by the operator. In addition, by using the posture of a person as an attribute, for example, a person who is sitting can be prioritized, and it is possible to prevent a person who accidentally passed a room from erroneously judging an accidental movement. In addition, by using the face / expression of a person, being a specific individual, and the age of a person as attributes of the person, it is possible to restrict the use of the television in advance or the inappropriate operation of the television from the target of the operator. It is also possible to remove it (for example, children cannot operate after 9 o'clock at night). In addition, by using the degree of mental and physical inconvenience of a person, the gender of a person, and the physiological state of a person as attributes of a person, priority is given based on the degree of mental and physical inconvenience of the person, the gender of the person, and the physiological state of the person. Can be operated. In addition, by using an accessory attached to a person, a normal thing can be given a meaning like a remote control (for example, having a red ball means a television). The user can select a television with his / her favorite operation, and at the same time, can visually indicate the priority of television operation among multiple persons (who takes the red ball first).
また、複数の属性(音声と視線など)を組み合わせることで、人に特定の動作のみを強いることなく、より負担なく機器の操作を実施できる。例えば(「テレビ」の発声)と視線(テレビの方向を見る)などを同時に組み合わせることで、偶然の動作(会話中の「テレビ」という発声)への誤った反応を防ぐことが出来る。 In addition, by combining a plurality of attributes (such as voice and line of sight), it is possible to operate a device without imposing a burden on a person without forcing a specific operation. For example, by simultaneously combining (speaking “TV”) and gaze (looking at the direction of the TV), it is possible to prevent an erroneous reaction to an accidental action (speaking “TV” during a conversation).
人の属性と周辺環境との組み合わせによっても、操作者を適切に選択することができる。例えば換気扇を操作したい場合、人の周辺の環境として空気中における特定の気体の濃度(炭酸ガス濃度など)を監視する場合、あらかじめ個人の環境に対する鋭敏度(炭酸ガス濃度が高いと頭痛がする人など)を優先的に換気扇の操作者に選択することも出来る。また、エアコンの操作などの場合には、人の周辺の環境として気温、湿度、気流状態などを監視し、あらかじめ個人の環境に対する鋭敏度(暑がりの人、寒がりの人、乾燥肌の人など)を登録しておくことで、温度・湿度が高く室内気流も少ない場合には暑がりの人を優先的にエアコンの操作者に選択することも出来る。また、テレビの音量の操作を行いたい場合、人の周辺の環境として室外の音が大きい場合には、あらかじめ個人の環境に対する鋭敏度(音が聞こえにくい人など)を優先的にテレビの操作者に選択することも出来る。また、照明の明るさを変更したいとき人の周辺の環境として室内・外の照度を監視し、あらかじめ個人の環境に対する鋭敏度(暗いと文字が読みにくい人など)を優先的に照明の操作者に選択することも出来る。また、周辺の環境として時刻を監視する場合、個人に応じて使用の時間を限定することも可能である。例えば、子供には夜9時以降テレビの操作はさせないということが実現できる。 The operator can also be appropriately selected according to the combination of the attribute of the person and the surrounding environment. For example, if you want to operate a ventilation fan, or if you want to monitor the concentration of a specific gas in the air (such as carbon dioxide concentration) as the environment around a person, you need to be sensitive to the individual's environment in advance (for those who have a headache if the concentration of carbon dioxide is high). ) Can be preferentially selected as the operator of the ventilation fan. In the case of air conditioner operation, etc., the surrounding environment of the person is monitored for temperature, humidity, airflow, etc., and the sensitivity to the personal environment (hot, cold, dry skin, etc.) By registering (1), when the temperature and humidity are high and the indoor airflow is small, the person who is hot can be preferentially selected as the air conditioner operator. In addition, if the user wants to control the volume of the television or if the outdoor sound is loud as the environment around the person, the operator of the television preferentially prioritizes the sensitivity to the personal environment (such as a person who cannot easily hear the sound). Can also be selected. Also, when you want to change the brightness of the lighting, monitor the illuminance inside and outside the room as the environment around the person, and prioritize the sensitivity to the personal environment (such as people who are difficult to read characters in darkness). Can also be selected. Further, when monitoring the time as a surrounding environment, it is possible to limit the use time according to the individual. For example, it can be realized that the child is not allowed to operate the television after 9 pm.
同様に、上記では制御内容候補を決定する際に音声を人の属性として用いているが、別の属性(他の動作や姿勢)及びそれらの組み合わせを用いてもよい。例えば人の属性として動作を用いることで、人との対話のように自然な形で機器の制御ができる。人差し指を口の前に当てたり(図10(1)参照)、耳を手でふさぐ動作(図10(2),(3)参照)によってテレビなどの音量を小さくする、手を耳の側に添える動作(図10(4)参照)によってテレビなどの音量を大きくする、両手を用いて「T」の字の形を作る動作(図10(5)参照)によってビデオなどの再生を一時停止する、手を振って「ばいばい」という動作を行う(図10(6)参照)ことによって、テレビなどのスイッチを着る、などが例として挙げられる。 Similarly, in the above description, the voice is used as the attribute of the person when determining the control content candidate, but another attribute (other motion or posture) and a combination thereof may be used. For example, by using an action as an attribute of a person, the device can be controlled in a natural manner like a dialogue with a person. Put your index finger in front of your mouth (see Fig. 10 (1)) or close your ears with your hand (see Fig. 10 (2), (3)) to reduce the volume of a TV, etc. Increasing the volume of a television or the like by an attaching operation (see FIG. 10 (4)), and temporarily stopping reproduction of a video or the like by an operation of forming a “T” shape using both hands (see FIG. 10 (5)). For example, by waving a hand and performing an operation of "bye-bye" (see FIG. 10 (6)), the user wears a switch such as a television.
また、上記では制御対象候補を決定するための属性と制御内容候補を決定するための属性とが異なる例を挙げたが、1種類の属性で制御対象候補と制御内容候補との両方を決定することも可能である。例を以下に挙げる。室内に人がおり、エアコン,テレビ,扇風機,空気清浄器、電話,机,ベッドが室内に存在するとする。 In the above description, an example is given in which the attribute for determining the control target candidate and the attribute for determining the control content candidate are different. However, both the control target candidate and the control content candidate are determined using one type of attribute. It is also possible. Examples are given below. It is assumed that there is a person in the room, and an air conditioner, a television, a fan, an air purifier, a telephone, a desk, and a bed exist in the room.
ここで人が人差し指を口の前に当てたり耳を手でふさぐ動作をすると、制御対象候補決定部3は音を発する機器であるテレビを候補として決定し、制御内容候補決定部4は音量を小さくするという制御内容を候補として決定する。また、人が電話の受話器を取り上げると、制御対象候補決定部3は音を発する機器であるテレビを候補として決定し、制御内容候補決定部4は音量を小さくするという制御内容を候補として決定する。
Here, when a person puts the index finger in front of the mouth or closes his ear with his hand, the control target
また、人が顔や体を手などで扇いだり(図10(7)参照)「暑いなぁ」といった言葉を発すると、制御対象候補決定部3は空調制御に関わる機器であるエアコンや窓や扇風機の候補として決定し、制御内容候補決定部4はスイッチを入れる,設定温度を下げる,窓をあける、扇風機のスイッチを入れるもしくは風量を強くする、という制御内容を候補として決定する。また、人が鼻をつまむ動作(図10(8)参照)をすると、制御対象候補決定部3は空気清浄器や窓を候補として決定し、制御内容候補決定部4は「空気清浄器のスイッチを入れる」、「窓をあける」という制御内容を候補として決定する。また、人が通話中に「さようなら」「ばいばい」といった言葉を発すると、制御対象候補決定部3は電話を候補として決定し、制御内容候補決定部4は電話の回線を切るという制御内容を候補として決定する。また、人が机に着席して書物を開いたり筆記用具を持ったりすると、制御対象候補決定部3は部屋の照明及び机に付随する照明を候補として決定し、制御内容候補決定部4はスイッチを入れるという制御内容を候補として決定する。また、人がベッドである一定時間以上眠っていると、制御対象候補決定部3は部屋の照明を候補として決定し、制御内容候補決定部4はスイッチを切るという制御内容を候補として決定する。また、人が手や物を目の上にかざして光を遮ったり(図10(8)参照)、まぶしそうな表情をしたり、「まぶしいなあ」という言葉を発すると、制御対象候補決定部3は部屋の照明を候補として決定し、制御内容候補決定部4は「照明を暗くする」、あるいは「スイッチを切る」といった制御内容を候補として決定する。
Further, when a person fans his / her face or body with his / her hand (see FIG. 10 (7)) and utters a word such as “hot”, the control target
以上のように本発明の第一の実施の形態ではリモコン等を用いることなく、人の日常の属性を用いることで機器の制御を円滑に行うことが可能となる。また、人や制御機器が複数存在する場合にでも、誤判断を低減しかつ複雑な指示動作を行わずに制御を行うことが可能となる。 As described above, in the first embodiment of the present invention, it is possible to smoothly control devices by using daily attributes of a person without using a remote controller or the like. Further, even when there are a plurality of persons and control devices, it is possible to reduce erroneous determinations and perform control without performing complicated instruction operations.
図2は本発明の第二の実施の形態を示すブロック図である。図2において構成ならびに各部の動作は第一の実施の形態と同様である。ただし、第二の実施の形態においては監視部1、操作者選択部2、制御対象候補決定部3、制御内容候補決定部4、制御対象・制御内容決定部5が制御対象機器に付属する場合を示している。例えばテレビ自身に各部を内蔵する場合、制御対象候補決定部3はテレビが候補であるが否かのみを決定する。制御内容候補決定部4は人の所定の属性として例えば「チャンネル切り替え」の発声に基づいて、チャネルの切り替えを制御内容の候補とし、制御対象・制御内容決定部5はテレビに対する制御内容としてチャネルの切り替えは存在するため、チャネルの切り替えを実行する。
FIG. 2 is a block diagram showing a second embodiment of the present invention. In FIG. 2, the configuration and the operation of each unit are the same as in the first embodiment. However, in the second embodiment, when the
このように、本発明の第二の実施の形態では、第一の実施の形態の効果に加え、各機器は、制御対象候補決定部3がその機器が選択されているか否かのみを判断すれば良いため、第一の実施の形態に比して制御対象候補の判断の処理量を低減させることが可能となる。また、機器自身の位置を自由に移動させても、機器自身の制御対象候補の判断処理を変更する必要はないという利点もある。
As described above, in the second embodiment of the present invention, in addition to the effects of the first embodiment, each device determines that the control target
図3は本発明の第三の実施の形態を示すブロック図である。図3において制御対象機器1、2、3それぞれの構成ならびに各部の動作は第二の実施の形態の制御対象機器と同様である(制御対象1,2,3は例えばそれぞれテレビ、エアコン、扇風機などを意味する)。ただし、第三の実施の形態においては制御対象機器が複数存在し、監視部1は監視した内容を通信網に出力し、操作者選択部2は選択した人の属性の情報を通信網に出力し、制御対象候補決定部3は決定した制御対象の候補(所属する機器が候補であるか否か、また候補である度合い)の情報を通信網に出力し、制御内容候補決定部4は決定した制御内容の情報を通信網に出力し、制御対象・制御内容決定部5は制御対象・制御内容の情報を通信網に出力する。
FIG. 3 is a block diagram showing a third embodiment of the present invention. In FIG. 3, the configuration of each of the
他方、操作者選択部2は通信網から得た情報及び監視部1の情報に基づいて操作者を選択して操作者の情報を提示し、制御対象候補決定部3は通信網から得た情報及び監視部の情報に基づいて制御対象の候補を決定して制御対象の候補の情報を提示し、制御内容候補決定部4は通信網から得た情報及び監視部の情報に基づいて制御内容の候補を決定して制御内容の候補の情報を提示し、制御対象・制御内容決定部5は通信網から得た情報及び制御対象候補決定部3が決定した制御対象候補及び制御内容候補決定部4が決定した制御内容候補に基づいて、制御対象及び制御内容の情報を提示し、制御対象の制御を行う。ここで、第二の実施の形態と異なる点は複数の制御機器が存在するため、各機器が個別に制御対象と制御内容の判断を行うと操作者の意図しない制御が行われる場合がありうる点である。例えばテレビ(制御対象1)とエアコン(制御対象2)の中間方向を指差して、「スイッチを入れる」と発声した場合、たとえテレビ(制御対象1)のみを操作したい場合にでも、テレビ(制御対象1)とエアコン(制御対象2)のスイッチが共に入ってしまうことになる。
On the other hand, the
このような場合、他の制御機器について制御対象の候補及び制御内容の候補及び制御対象及び制御内容の情報を得ることで、第一の実施の形態と同様に制御対象の候補ならびに制御内容の候補を制限することが可能となる。例えば、テレビ(制御対象1)の制御対象候補決定部が制御対象の候補の情報としてテレビを通信網に出力し、エアコン(制御対象2)の制御対象候補決定部が制御対象の候補の情報としてエアコンを通信網に出力したとき、テレビ(制御対象1)の制御対象・制御内容決定部はテレビの制御対象の候補情報と通信網経由で得たエアコンの候補情報とに基づいて制御対象の決定ならびに情報提示を行う。この場合、テレビとエアコンが共に候補になるため、テレビは再度入力を促す情報を提示する。エアコン(制御対象2)の制御対象・制御内容決定部も同様の処理を行う。また、通信網に出力する情報として制御対象の候補に加え、制御対象の候補である度合いの情報を合わせて出力することで(例えばテレビが10でエアコンが5など)、制御機器1,2の制御対象・制御内容決定部は、制御対象の候補である度合いを比較して、制御対象の候補である度合いの大きい方(ここではテレビ)を制御対象と決定する。制御内容の候補についても異なる制御機器間で情報を交換することで同様の処理を行う。
In such a case, the candidate of the control target and the control content candidate and the information of the control target and the control content are obtained for the other control devices, so that the control target candidate and the control content candidate are similar to the first embodiment. Can be restricted. For example, the control target candidate determination unit of the television (control target 1) outputs the television to the communication network as information of the control target candidate, and the control target candidate determination unit of the air conditioner (control target 2) outputs the control target candidate information as the control target candidate information. When the air conditioner is output to the communication network, the control target / control content determination unit of the television (control target 1) determines the control target based on the candidate information of the control target of the television and the candidate information of the air conditioner obtained via the communication network. And present information. In this case, since the television and the air conditioner are both candidates, the television presents information prompting the user to input again. The control target / control content determination unit of the air conditioner (control target 2) performs the same processing. In addition to the control target candidate as information to be output to the communication network, information on the degree of control target candidate is output together (for example, the TV is 10 and the air conditioner is 5), so that the
また、操作者の情報を通信網から得ることで、1人の人の動作(指差し動作など)に対して同時に複数の機器が反応することなく、操作者が最も近くに存在する機器のみが反応することなどができる。例えばテレビ(制御対象1)の操作者選択部が選択した操作者と通信網から得たエアコン(制御対象2)の操作者選択部が選択した操作者とが同一であれば、前記のようの制御対象をテレビ(制御対象1)かエアコン(制御対象2)かに決定する手続きを行う。また、操作者が異なれば、テレビ(制御対象1)とエアコン(制御対象2)はそれぞれの選択した操作者の属性にのみ基づいて処理を行うことも出来る。また、テレビ(制御対象1)の監視部が出力した情報をエアコン(制御対象2)の制御対象候補決定部や制御内容候補決定部や操作者選択部が利用することもできる。この場合、エアコンのみでは監視できなかった情報(死角の情報など)が得られるという効果がある。また、エアコン(制御対象2)の制御対象・制御内容決定部が出力する情報をテレビ(制御対象1)が表示することもできる。このような場合、各制御機器が有する出力手段(画像や音声や光など)を制御機器間で共有することが可能となる。 In addition, by obtaining operator information from a communication network, a plurality of devices do not simultaneously react to one person's operation (pointing operation, etc.), and only the device closest to the operator is used. Can react. For example, if the operator selected by the operator selection unit of the television (control target 1) and the operator selected by the operator selection unit of the air conditioner (control target 2) obtained from the communication network are the same as described above. A procedure for determining whether the control target is the television (control target 1) or the air conditioner (control target 2) is performed. Further, if the operators are different, the television (control target 1) and the air conditioner (control target 2) can perform processing based only on the attributes of the respective selected operators. The information output by the monitoring unit of the television (the control target 1) can be used by the control target candidate determination unit, the control content candidate determination unit, and the operator selection unit of the air conditioner (control target 2). In this case, there is an effect that information (such as blind spot information) that could not be monitored with the air conditioner alone can be obtained. The information output by the control target / control content determination unit of the air conditioner (control target 2) can also be displayed on the television (control target 1). In such a case, the output means (image, sound, light, etc.) of each control device can be shared between the control devices.
なお、通信網としては有線(ネットワーク線、電話線、電源線を介して接続するものなど)、無線(電波、赤外線、超音波などを通信媒体とするものなど)のどちらでも良く、また混在していても良い。 Note that the communication network may be either wired (such as one connected via a network line, telephone line, or power line) or wireless (such as one that uses radio waves, infrared rays, ultrasonic waves, or the like as a communication medium), or may be mixed. May be.
このように、本発明の第三の実施の形態では、第一、第二の実施の形態の効果に加え、制御機器それぞれが操作者や制御対象や制御内容を独自に判断する機構を備えた場合にでも、全体として矛盾なく人の所定の属性に基づいて機器の制御が円滑に行うことが可能となる。 As described above, in the third embodiment of the present invention, in addition to the effects of the first and second embodiments, each control device includes a mechanism for independently determining an operator, a control target, and control contents. Even in such a case, it is possible to smoothly control the devices based on the predetermined attributes of the person without contradiction as a whole.
図4は本発明の第四の実施の形態を示すブロック図である。図4において各部の動作は第一の実施の形態と同様である。ただし、本実施の形態では操作者選択部2は存在せず、すべての人について制御対象候補と制御内容候補を決定する。例えばN人存在する場合には、制御対象の候補の決定及び制御内容の候補の決定をN回行う(並列に同時に行っても良い)。制御対象・制御内容決定部5は全ての人について決定した制御対象の候補及び制御内容の候補に基づいて制御対象及び制御内容を決定し、制御を実行する。制御対象及び制御内容の決定の仕方としては多数決などを用いる。例えばN人存在する場合、エアコンの設定温度を下げたい指示を出す人が半数よりも多い場合に、エアコンの温度を下げる制御を行う。また、各人に対する制御対象や制御内容に矛盾がない場合には、同時に各人について決定した制御対象に制御内容を施しても良い。このように、本発明の第四の実施の形態では、第一の実施の形態の効果に加え、複数の人の操作を同時に考慮した機器の操作が可能となる。リモコンを用いて同様の処理を行うには常に人の数だけリモコンを用意し、各人がそれぞれ操作する必要があるが、本発明ではリモコンなど多数を用いずに、複数人の指示を反映した機器制御や情報制御が可能となる。
FIG. 4 is a block diagram showing a fourth embodiment of the present invention. In FIG. 4, the operation of each unit is the same as in the first embodiment. However, in the present embodiment, the
図5は本発明の第五の実施の形態を示すブロック図である。図5において各部の動作は第四の実施の形態と同様である。ただし、第五の実施の形態においては監視部1、制御対象候補決定部3、制御内容候補決定部4、制御対象・制御内容決定部5が制御対象機器(例えばエアコンなど)に付属する場合を示している。このように構成することで、本発明の第五の実施の形態では、第四の実施の形態の効果に加え、各機器は制御対象候補決定部3がその機器が選択されているか否かのみを判断すれば良いため、第四の実施の形態に比して制御対象候補の判断の処理量を低減させることが可能となる。また、機器自身の位置を自由に移動させても、機器自身の制御対象候補の判断処理を変更する必要はないという利点もある。
FIG. 5 is a block diagram showing a fifth embodiment of the present invention. In FIG. 5, the operation of each unit is the same as in the fourth embodiment. However, in the fifth embodiment, it is assumed that the
図6は本発明の第六の実施の形態を示すブロック図である。図6において各部の動作は第一の実施の形態とほぼ同様である。ただし、第六の実施の形態においては制御対象候補決定部3は全ての人に対して制御対象の候補を決定し、制御内容候補決定部4は全ての人に対して制御内容の候補を決定する。例えばN人存在する場合には、制御対象の候補の決定及び制御内容の候補の決定をN回行う(並列に同時に行っても良い)。
FIG. 6 is a block diagram showing a sixth embodiment of the present invention. In FIG. 6, the operation of each unit is almost the same as in the first embodiment. However, in the sixth embodiment, the control target
操作者選択部2は前記N人に対する制御対象の候補と制御内容の候補とに基づいて操作者を決定する。制御対象・制御内容決定部5は、操作者決定部2が選択した操作者についての制御対象の候補と制御内容の候補とに基づいて制御対象及び制御内容を決定する。
The
このような本発明の第六の実施の形態のような構成でも、第一の実施の形態と同様の効果が得られる。また、制御対象の候補と制御内容の候補を決定した後に、操作者を選択することで、所定の属性が曖昧で(例えば指示動作が曖昧で)制御内容の候補や制御内容の候補が決定できない人については操作者に選択しないとするなどの制御内容の候補や制御内容の候補に基づいた手続きが可能となる。 Even with such a configuration as the sixth embodiment of the present invention, the same effect as that of the first embodiment can be obtained. In addition, by selecting the operator after determining the candidate of the control target and the candidate of the control content, the predetermined attribute is ambiguous (for example, the instruction operation is ambiguous), and the candidate of the control content and the candidate of the control content cannot be determined. For a person, a control content candidate such as not selecting the operator and a procedure based on the control content candidate can be performed.
図7は本発明の第七の実施の形態を示すブロック図である。図7において各部の動作は第六の実施の形態と同様である。ただし、第七の実施の形態においては監視部1、制御対象候補決定部3、制御内容候補決定部4、操作者選択部2、制御対象・制御内容決定部5が制御対象機器(例えばエアコンなど)に付属する場合を示している。このように構成することで、本発明の第七の実施の形態では、第六の実施の形態の効果に加え、各機器は制御対象候補決定部3がその機器が選択されているか否かのみを判断すれば良いため、第六の実施の形態に比して制御対象候補の判断の処理量を低減させることが可能となる。また、機器自身の位置を自由に移動させても、機器自身の制御対象候補の判断処理を変更する必要はないという利点がある。
FIG. 7 is a block diagram showing a seventh embodiment of the present invention. In FIG. 7, the operation of each unit is the same as in the sixth embodiment. However, in the seventh embodiment, the
図8は本発明の第八の実施の形態を示すブロック図である。図8において各部の動作は第1の実施の形態とほぼ同様である。ただし、第七の実施の形態においては制御対象候補決定部3は全ての人に対して制御対象の候補を決定し、制御内容候補決定部4は全ての人に対して制御内容の候補を決定する。例えばN人存在する場合には、制御対象の候補の決定及び制御内容の候補の決定をN回行う(並列に同時に行っても良い)。制御対象・制御内容決定部5は操作者選択部2が選択した操作者についての制御対象の候補と制御内容の候補から、制御対象と制御内容を決定する。このような本発明の第八の実施の形態に示すような構成においても、第一の実施の形態と同様の効果が得られる。
FIG. 8 is a block diagram showing an eighth embodiment of the present invention. In FIG. 8, the operation of each section is almost the same as in the first embodiment. However, in the seventh embodiment, the control target
なお、第一から第八までの実施の形態では室内での実施を想定して説明しているが、屋外での機器操作についても同様に適応が可能である。また、情報操作として画面上のオブジェクトの操作や画面の制御などについても機器操作同様に適応することが出来る。 Although the first to eighth embodiments have been described assuming that the operation is performed indoors, the present invention is also applicable to equipment operation outdoors. In addition, as information operation, operation of an object on a screen, control of a screen, and the like can be applied in the same manner as device operation.
なお、本発明の実現手段としてはハードウェアを用いても、コンピュータ上のソフトウェアを用いても、両者を混在させて実現してもよい。 As means for realizing the present invention, hardware, software on a computer, or both may be used in combination.
また、本発明は、以上説明した本発明の制御方法における動作の全部又は一部をコンピュータで実現するためのプログラムを格納したことを特徴とするプログラム記録媒体でもある。 The present invention is also a program recording medium storing a program for realizing all or a part of the operation in the control method of the present invention described above with a computer.
尚、第1の本実施形態は、複数の人の属性を監視し、前記監視された複数の人の属性からあらかじめ登録した個人の属性を検出し、前記検出された個人の属性を用いて対象者を決定し、前記検出された個人に関する所定の属性を用いて、複数の機器のうち、所定の制御対象を制御する制御方法である。 In the first embodiment, the attributes of a plurality of persons are monitored, the attributes of a previously registered individual are detected from the monitored attributes of the plurality of persons, and an object is detected using the detected attributes of the individual. A control method for determining a person and controlling a predetermined control target among a plurality of devices by using a predetermined attribute regarding the detected individual.
第2の本実施形態は、対象者の所定の属性の検出に基づいて複数の機器から制御対象を選択する上記第1の本実施形態の制御方法である。 The second embodiment is a control method according to the first embodiment in which a control target is selected from a plurality of devices based on detection of a predetermined attribute of a target person.
第3の本実施形態は、制御対象の制御内容の集合は、対象者の所定の属性の検出に基づいて選択される上記第2の本実施形態の制御方法である。 The third embodiment is a control method according to the second embodiment in which a set of control contents of a control target is selected based on detection of a predetermined attribute of a target person.
第4の本実施形態は、人の周辺環境を監視し、検出された個人に関する所定の属性と前記監視された所定の周辺環境との検出に基づいて複数の機器から制御対象を選択し、前記制御対象を制御する上記第1の本実施形態の制御方法である。 The fourth embodiment monitors the surrounding environment of a person, selects a control target from a plurality of devices based on detection of a predetermined attribute regarding the detected individual and the monitored predetermined surrounding environment, This is a control method of the first embodiment for controlling a control target.
第5の本実施形態は、人の周辺における物理環境を、人の周辺環境として用いる上記第4の本実施形態の制御方法である。 The fifth embodiment is a control method according to the fourth embodiment in which a physical environment around a person is used as a surrounding environment of the person.
第6の本実施形態は、人の周辺環境として、気温、湿度、照度、音の大きさ、気流の状態、空気中の特定の気体濃度、及び時刻の内、少なくとも一つが選ばれる上記第4又は5の本実施形態の制御方法である。 In the sixth embodiment, at least one of a temperature, a humidity, an illuminance, a loudness of a sound, a state of an airflow, a specific gas concentration in the air, and a time is selected as a surrounding environment of a person. Or 5 is a control method of the present embodiment.
第7の本実施形態は、上記第1〜6のいずれかの本実施形態の制御方法における前記各ステップの全部をコンピュータに実現させるためのプログラムを担持した媒体であって、コンピュータにより処理可能なプログラム記録媒体である。 The seventh embodiment is a medium holding a program for causing a computer to realize all of the steps in the control method according to any one of the first to sixth embodiments, and is capable of being processed by a computer. It is a program recording medium.
第8の本実施形態は、複数の制御対象を通信路を介して接続し、前記接続された複数の制御対象の内、他の制御対象が有している人の属性情報または他の制御対象の情報を通信路を通して取得し、前記取得情報を用いて所定の制御対象を制御する上記第1記載の制御方法である。
In the eighth embodiment, a plurality of controlled objects are connected via a communication path, and among the plurality of connected controlled objects, attribute information of a person held by another controlled object or another controlled object is included. 2. The control method according to
第9の本実施形態は、複数の人の属性を監視する監視部と、前記監視された複数の人の前記属性からあらかじめ登録した個人の属性を検出し、前記検出された個人の属性を用いて対象者を決定する選択部と、前記検出された個人に関する所定の属性を用いて、複数の機器のうち、所定の制御対象を制御する制御部とを有する機器制御装置である。 The ninth embodiment uses a monitoring unit that monitors attributes of a plurality of persons, detects an attribute of an individual registered in advance from the attributes of the monitored persons, and uses the detected attribute of the individual. An apparatus control device comprising: a selection unit that determines a target person by using the control unit; and a control unit that controls a predetermined control target among a plurality of devices using a predetermined attribute related to the detected individual.
第10の本実施形態は、複数の人の属性を監視する監視部にて監視された複数の人の前記属性からあらかじめ登録した個人の属性を検出し、前記検出された個人の属性を用いて対象者を決定する選択部と、前記検出された個人に関する所定の属性を用いて、複数の機器のうち、所定の制御対象を制御する制御部とを有する機器制御装置である。 The tenth embodiment detects an attribute of an individual registered in advance from the attributes of a plurality of persons monitored by a monitoring unit that monitors attributes of a plurality of persons, and uses the detected attribute of the individual to detect the attribute of the individual. An apparatus control device comprising: a selection unit that determines a target person; and a control unit that controls a predetermined control target among a plurality of devices using a predetermined attribute regarding the detected individual.
尚、本実施形態に関連する技術の第1の形態は、人の属性を監視し、その結果に基づいて、所定の制御内容で、制御対象となる機器を制御する制御方法である。 A first form of technology related to the present embodiment is a control method for monitoring attributes of a person and controlling a device to be controlled with predetermined control contents based on the result.
又、本実施形態に関連する技術の第2の形態は、前記人の周辺環境も監視し、その結果も利用して、前記制御を行うことを特徴とする本実施形態に関連する上記第1の形態の制御方法である。 In a second aspect of the technology related to the present embodiment, the first environment related to the present embodiment is characterized in that the surrounding environment of the person is also monitored and the result is used to perform the control. It is a control method of the form.
又、本実施形態に関連する技術の第3の形態は、前記監視は常時又は間欠的に行われることを特徴とする本実施形態に関連する上記第1又は2の形態の制御方法である。 A third mode of the technology related to the present embodiment is the control method according to the first or second mode related to the present embodiment, wherein the monitoring is performed constantly or intermittently.
又、本実施形態に関連する技術の第4の形態は、前記監視結果により、先に操作者を選択し、後で制御対象と制御内容を選択することを特徴とする本実施形態に関連する上記第1、2又は3の形態の制御方法である。 A fourth aspect of the technology related to the present embodiment is related to the present embodiment, wherein an operator is selected first based on the monitoring result, and a control target and a control content are selected later. This is a control method according to the first, second, or third embodiment.
又、本実施形態に関連する技術の第5の形態は、前記制御対象、操作者、又は、前記制御内容が決定できない場合は、その旨提示することを特徴とする本実施形態に関連する上記第4の形態の制御方法である。 According to a fifth aspect of the technology relating to the present embodiment, when the control target, the operator, or the control content cannot be determined, the fact is presented to that effect. This is a control method according to a fourth embodiment.
又、本実施形態に関連する技術の第6の形態は、光、文字、音声、音、又は振動の少なくとも1つ以上を用いて情報を提示することを特徴とする本実施形態に関連する上記第5の形態の制御方法である。 In a sixth aspect of the technology related to the present embodiment, the information is presented using at least one of light, text, voice, sound, and vibration. It is a control method of a fifth mode.
又、本実施形態に関連する技術の第7の形態は、前記監視結果により、先に制御対象候補と制御内容候補を選択し、その後、操作者を選択し、その後、制御対象と、制御内容を決定することを特徴とする本実施形態に関連する上記第1,2又は3の形態の制御方法である。 According to a seventh aspect of the technology related to the present embodiment, a control target candidate and a control content candidate are selected first based on the monitoring result, and then an operator is selected. The control method according to the first, second, or third aspect related to the present embodiment, characterized in that:
又、本実施形態に関連する技術の第8の形態は、前記人は複数人存在することを特徴とする本実施形態に関連する上記第1、2又は、3の形態の制御方法である。 An eighth aspect of the technology related to the present embodiment is the control method according to the first, second, or third aspect related to the present embodiment, wherein the plurality of persons exist.
又、本実施形態に関連する技術の第9の形態は、前記対象とする機器は複数存在することを特徴とする本実施形態に関連する上記第1、2、3又は4の形態の制御方法である。 A ninth aspect of the technology relating to the present embodiment is the control method according to the first, second, third or fourth aspect relating to the present embodiment, wherein there are a plurality of the target devices. It is.
又、本実施形態に関連する技術の第10の形態は、前記監視の結果情報を前記人に提示し、その提示に対する前記人からの回答指示に基づいて、前記制御を行うことを特徴とする本実施形態に関連する上記第1〜9のいずれかの形態の制御方法である。 A tenth aspect of the technology related to the present embodiment is characterized in that the monitoring result information is presented to the person, and the control is performed based on a response instruction from the person to the presentation. This is a control method according to any one of the first to ninth aspects related to the present embodiment.
又、本実施形態に関連する技術の第11の形態は、前記提示される情報は、前記人の候補情報、前記対象となる機器候補情報、制御内容候補情報の少なくとも一つであることを特徴とする本実施形態に関連する上記第10の形態の制御方法である。 An eleventh mode of the technology related to the present embodiment is characterized in that the presented information is at least one of the candidate information of the person, the candidate device information of the target, and the control content candidate information. This is a control method according to the tenth embodiment, which is related to the present embodiment.
又、本実施形態に関連する技術の第12の形態は、前記監視の結果情報を単に前記人に提示するだけであり、前記制御は自動的に行われることを特徴とする本実施形態に関連する上記第1、2又は、3の形態の制御方法である。 A twelfth aspect of the technology relating to the present embodiment is that the monitoring result information is merely presented to the person, and the control is performed automatically. This is the control method of the first, second, or third mode described above.
又、本実施形態に関連する技術の第13の形態は、前記監視の結果情報を前記人に提示せず、自動的に前記制御を行うことを特徴とする本実施形態に関連する上記第1、2又は3の形態の制御方法である。 A thirteenth aspect of the technology relating to the present embodiment is characterized in that the control is performed automatically without presenting the monitoring result information to the person, This is a control method of the second or third mode.
又、本実施形態に関連する技術の第14の形態は、前記監視の結果情報として、人、機器、制御内容の少なくとも一つに対して、複数の候補を出し、それらの候補に基づき、前記制御を自動的におこなうことを特徴とする本実施形態に関連する上記第12又は13の形態の制御方法である。 A fourteenth aspect of the technology related to the present embodiment provides a plurality of candidates for at least one of a person, a device, and control content as the monitoring result information, and based on the candidates, A control method according to the twelfth or thirteenth aspect related to the present embodiment, wherein the control is performed automatically.
又、本実施形態に関連する技術の第15の形態は、前記制御を行う制御手段が対象となる機器に組み込まれていることを特徴とする本実施形態に関連する上記第1、2又は3の形態の制御方法である。 According to a fifteenth aspect of the technology relating to the present embodiment, the first, second or third aspect related to the present embodiment is characterized in that the control means for performing the control is incorporated in a target device. It is a control method of the form.
又、本実施形態に関連する技術の第16の形態は、前記制御手段が組み込まれた機器が複数台存在し、それらの制御手段間で通信路を用いて各種情報交換を行い、その結果に基づいて、前記制御を行うことを特徴とする本実施形態に関連する上記第15の形態の制御方法である。 In a sixteenth aspect of the technology related to the present embodiment, there are a plurality of devices in which the control means is incorporated, and various kinds of information are exchanged between the control means using a communication path. A control method according to the fifteenth aspect, wherein the control is performed on the basis of the first embodiment.
又、本実施形態に関連する技術の第17の形態は、前記制御手段は、自らの監視の結果を他の制御手段へ送信するとともに、前記通信路を通じて他の制御手段から得られた内容をも加味して、前記制御を行うことを特徴とする本実施形態に関連する上記第16の形態の制御方法である。 According to a seventeenth aspect of the technology related to the present embodiment, the control means transmits the result of its own monitoring to another control means, and transmits the content obtained from the other control means through the communication path. The control method according to the sixteenth aspect, wherein the control is performed in consideration of the above.
又、本実施形態に関連する技術の第18の形態は、前記人の属性とはその人の動作であることを特徴とする本実施形態に関連する上記第1〜17の何れかの形態の制御方法である。 An eighteenth aspect of the technology related to the present embodiment is the technology according to any one of the first to seventeenth aspects related to the present embodiment, wherein the attribute of the person is an action of the person. It is a control method.
又、本実施形態に関連する技術の第19の形態は、前記制御の態様は、対象となる機器の制御パラメータを変更するか、あるいはオン・オフさせるものであることを特徴とする本実施形態に関連する上記第1〜18の何れかの形態の制御方法である。 A nineteenth aspect of the technology relating to the present embodiment is characterized in that the control aspect is to change or turn on / off a control parameter of a target device. The control method according to any one of the first to the eighteenth aspects related to the above.
又、本実施形態に関連する技術の第20の形態は、人の所定の動作として前記人が自分の人差し指を自分の口の前にあてる動作を検出し、前記動作に基づいて音を発する機器を対象機器とし、制御パラメータの値の変更として前記機器の音量を小さくすることを特徴とする本実施形態に関連する上記第1の形態の制御方法である。 A twentieth aspect of the technology related to the present embodiment is a device that detects a motion of the person placing his / her index finger in front of his / her mouth as a predetermined motion of the person and emits a sound based on the motion. Is a target device, and the volume of the device is reduced as a change in the value of a control parameter, in the control method according to the first embodiment related to the present embodiment.
又、本実施形態に関連する技術の第21の形態は、人の所定の動作として前記人が自分の手で自分の耳をふさぐ動作を検出し、前記動作に基づいて音を発する機器及び音量を制御する機器を対象機器とし、制御パラメータの値の変更として前記機器の音量を小さくすることを特徴とする本実施形態に関連する上記第1の形態の制御方法である。 A twenty-first aspect of the technology related to the present embodiment is a device which detects a person's closing his / her ear with his / her own hand as a predetermined operation of a person, emits a sound based on the operation, and a volume. The control method according to the first aspect, which relates to the present embodiment, characterized in that a device that controls the target device is a target device, and the volume of the device is reduced as a change in the value of the control parameter.
又、本実施形態に関連する技術の第22の形態は、人の所定の動作として前記人が自分の手を自分の耳の横に添える動作を検出し、前記動作に基づいて音を発する機器及び音量を制御する機器を対象機器とし、制御パラメータの値の変更として前記機器の音量を大きくすることを特徴とする本実施形態に関連する上記第1の形態の制御方法である。 A twenty-second aspect of the technology related to the present embodiment is a device that detects, as a predetermined motion of a person, the motion of the person putting his / her hand beside his / her ear, and emits a sound based on the motion. The control method according to the first aspect is related to the present embodiment, wherein a target device is a device that controls the sound volume and the control device changes the value of the control parameter to increase the sound volume of the device.
又、本実施形態に関連する技術の第23の形態は、人の所定の動作として前記人が手で顔又は身体の一部を扇ぐ動作を検出し、前記動作に基づいて空調を制御する機器及び窓を対象機器とし、制御パラメータの値の変更として前記機器の設定温度を小さくすることを特徴とする本実施形態に関連する上記第1の形態の制御方法である。 A twenty-third form of the technology related to the present embodiment is a device that detects, as a predetermined operation of a person, an operation in which the person blows a face or a part of a body with a hand, and controls air conditioning based on the operation. And the window is a target device, and the set temperature of the device is reduced as a change in the value of the control parameter.
又、本実施形態に関連する技術の第24の形態は、単一又は複数の人の属性を継続的あるいは間欠的に監視し、人の所定の属性の検出に基づいて制御対象の候補及び制御内容の候補を決定し、前記制御対象の候補及び前記制御内容の候補に基づき制御対象及び制御内容を決定することを特徴とする本実施形態に関連する上記第1の形態の制御方法である。 A twenty-fourth aspect of the technology related to the present embodiment is to continuously or intermittently monitor the attribute of a single person or a plurality of persons, and based on the detection of a predetermined attribute of the person, the candidate of the control target and the control. The control method according to the first aspect, which is characterized by determining content candidates and determining a control target and control contents based on the control target candidates and the control content candidates.
又、本実施形態に関連する技術の第25の形態は、単一又は複数の人の属性及び前記人の周辺環境を継続的あるいは間欠的に監視し、人の所定の属性の検出及び周辺環境に基づいて制御対象の候補及び制御内容の候補を決定し、前記制御対象の候補及び前記制御内容の候補に基づき、制御対象及び制御内容を決定することを特徴とする本実施形態に関連する上記第1の形態の制御方法である。 A twenty-fifth aspect of the technology related to the present embodiment is to continuously or intermittently monitor the attributes of a single person or a plurality of persons and the surrounding environment of the person, detect a predetermined attribute of the person, and detect the surrounding environment. Determining a control target candidate and a control content candidate on the basis of the control target candidate and the control content candidate, and determining the control target and the control content based on the control target candidate and the control content candidate. It is a control method of the first mode.
又、本実施形態に関連する技術の第26の形態は、気温、湿度、照度、気流、時刻、又は音のうち少なくとも一つ以上を周辺環境として用いることを特徴とする本実施形態に関連する上記第25の形態の制御方法である。 A twenty-sixth aspect of the technology related to the present embodiment relates to the present embodiment, characterized in that at least one of temperature, humidity, illuminance, air current, time, and sound is used as a surrounding environment. This is a control method according to the twenty-fifth aspect.
又、本実施形態に関連する技術の第27の形態は、前記監視で得た情報を通信網に出力する、及び又は制御対象の候補及び制御内容の候補を通信網に出力する、及び又は制御対象及び制御内容を通信網に出力することを特徴とする本実施形態に関連する上記第24〜26の何れかの形態の制御方法である。 A twenty-seventh aspect of the technology related to the present embodiment is to output information obtained by the monitoring to a communication network, and / or to output control target candidates and control contents candidates to a communication network, and / or A control method according to any one of the twenty-fourth to twenty-sixth aspects related to the present embodiment, wherein an object and control contents are output to a communication network.
又、本実施形態に関連する技術の第28の形態は、前記通信網を継続的あるいは間欠的に監視し、通信網の情報及び人の所定の属性検出に基づいて制御対象の候補及び制御内容の候補を決定することを特徴とする本実施形態に関連する上記第27の形態の制御方法である。 A twenty-eighth aspect of the technology related to the present embodiment is that the communication network is monitored continuously or intermittently, and based on information on the communication network and detection of a predetermined attribute of a person, candidates for control objects and control contents are controlled. 27. A control method according to the twenty-seventh aspect, wherein the control method according to the present embodiment is characterized by determining candidates for
又、本実施形態に関連する技術の第29の形態は、前記通信網を継続的あるいは間欠的に監視し、通信網の情報及び制御対象の候補及び制御内容の候補に基づき制御対象及び制御内容を決定することを特徴とする本実施形態に関連する上記第27又は28の形態の制御方法である。 In a twenty-ninth aspect of the technology related to the present embodiment, the communication network is monitored continuously or intermittently, and control objects and control contents are controlled based on communication network information, control object candidates and control contents candidates. Is the control method according to the twenty-seventh or twenty-eighth aspect related to the present embodiment, characterized in that:
又、本実施形態に関連する技術の第30の形態は、前記制御対象の候補を制御対象とし、制御内容の候補を制御内容とすることを特徴とする本実施形態に関連する上記第24〜29のいずれかの形態の制御方法である。 A thirtieth aspect of the technology related to the present embodiment is characterized in that the control target candidate is set as a control target, and the control content candidate is set as control content. 29 is a control method according to any one of the twenty-ninth aspect.
又、本実施形態に関連する技術の第31の形態は、複数の人の属性の検出に基づき、前記人ごとに制御対象の候補及び制御内容の候補を決定し、前記制御対象の候補及び前記制御内容の候補に基づいて制御対象及び制御内容を決定することを特徴とする本実施形態に関連する上記第24〜30のいずれかの形態の制御方法である。 In a thirty-first aspect of the technology related to the present embodiment, a candidate for a control target and a candidate for control content are determined for each person based on detection of attributes of a plurality of persons, and the candidate for the control target and the A control method according to any one of the twenty-fourth to thirty aspects related to the present embodiment, wherein a control target and control content are determined based on a control content candidate.
又、本実施形態に関連する技術の第32の形態は、人ごとに決定した制御対象の候補及び制御内容の候補を用いて多数決に基づいて制御対象及び制御内容を決定することを特徴とする本実施形態に関連する上記第31の形態の制御方法である。 A thirty-second aspect of the technology related to the present embodiment is characterized in that a control target and a control content are determined based on a majority decision using a candidate for a control target and a candidate for a control content determined for each person. It is a control method according to the thirty-first aspect related to the present embodiment.
又、本実施形態に関連する技術の第33の形態は、人の所定の属性検出に基づいて、操作者及び制御対象の候補及び制御内容の候補を決定し、前記操作者及び前記制御対象の候補及び前記制御内容の候補に基づき制御対象及び制御内容を決定することを特徴とする本実施形態に関連する上記第24〜30のいずれかの形態の制御方法である。 A thirty-third mode of the technology related to the present embodiment determines a candidate of an operator and a control target and a candidate of a control content based on detection of a predetermined attribute of a person, and determines the candidate of the operator and the control target. A control method according to any one of the twenty-fourth to thirty aspects related to the present embodiment, wherein a control target and a control content are determined based on a candidate and the control content candidate.
又、本実施形態に関連する技術の第34の形態は、複数の人の属性検出に基づき、前記人ごとに制御対象の候補及び制御内容の候補を決定し、前記制御対象の候補及び制御内容の候補に基づき操作者を選択し、選択した操作者の属性に基づいて制御対象の候補及び又は制御内容の候補を決定することを特徴とする本実施形態に関連する上記第33の形態の制御方法である。 In a thirty-fourth aspect of the technology related to the present embodiment, a candidate for a control target and a candidate for control content are determined for each person based on attribute detection of a plurality of people, and the candidate for the control target and control content are determined. Selecting the operator based on the candidate of the above, and determining the candidate of the control target and / or the candidate of the control content based on the attribute of the selected operator, the control according to the thirty-third mode related to the present embodiment, Is the way.
又、本実施形態に関連する技術の第35の形態は、人の所定の属性検出に基づいて操作者を選択し、選択した操作者の属性に基づいて制御対象の候補及び制御内容の候補を決定することを特徴とする本実施形態に関連する上記第24〜30のいずれかの形態の制御方法である。 In a thirty-fifth aspect of the technology related to the present embodiment, an operator is selected based on detection of a predetermined attribute of a person, and a control target candidate and a control content candidate are selected based on the selected operator attribute. A control method according to any one of the twenty-fourth to thirty aspects related to the present embodiment, characterized in that the method is determined.
又、本実施形態に関連する技術の第36の形態は、選択した操作者の情報を通信網に出力することを特徴とする本実施形態に関連する上記第33〜35のいずれかの形態の制御方法である。 A thirty-sixth aspect of the technology related to the present embodiment is the information processing apparatus according to any one of the thirty-third to thirty-fifth aspects related to the present embodiment, which outputs information of a selected operator to a communication network. It is a control method.
又、本実施形態に関連する技術の第37の形態は、通信網は無線及び又は有線の通信網を用いることを特徴とする本実施形態に関連する上記第27〜29または36のいずれかの形態の制御方法である。 A thirty-seventh aspect of the technology relating to the present embodiment is the communication network according to any one of the above-mentioned twenty-seventh to twenty-ninth or thirty-sixth or thirty-sixth aspects related to the present embodiment, wherein a wireless and / or wired communication network is used. It is a form control method.
又、本実施形態に関連する技術の第38の形態は、選択した操作者を情報として提示することを特徴とする本実施形態に関連する上記第33〜36の何れかの形態の制御方法である。 A thirty-eighth aspect of the technology related to the present embodiment is a control method according to any one of the thirty-third to thirty-sixth aspects related to the present embodiment, in which a selected operator is presented as information. is there.
又、本実施形態に関連する技術の第39の形態は、制御対象の候補及び又は制御内容の候補に基づき情報の提示を行うことを特徴とする本実施形態に関連する上記第24〜38のいずれかの形態の制御方法である。 A thirty-ninth aspect of the technology relating to the present embodiment is characterized in that information is presented based on a candidate for a control target and / or a candidate for control content. This is a control method of one of the forms.
又、本実施形態に関連する技術の第40の形態は、制御対象の候補、又は制御対象、又は制御内容の候補、又は制御内容、又は確認の指示、又は再入力の指示、又は候補の選択肢、又は対象決定不能であることの少なくとも一つ以上を提示することを特徴とする本実施形態に関連する上記第39の形態の制御方法である。 Also, a fortieth aspect of the technology related to this embodiment is a control target candidate, a control target, or a control content candidate, or a control content, or a confirmation instruction, or a re-input instruction, or a candidate option. Or the control method according to the thirty-ninth aspect related to the present embodiment, characterized by presenting at least one of the fact that the object cannot be determined.
又、本実施形態に関連する技術の第41の形態は、光、文字、音声、音、又は振動の少なくとも1つ以上を用いて情報を提示することを特徴とする本実施形態に関連する上記第38〜40のいずれかの形態の制御方法である。 A forty-first aspect of the technology related to the present embodiment is characterized in that information is presented using at least one of light, characters, voice, sound, and vibration. A control method according to any one of the thirty-eighth to forty-fourth aspects.
又、本実施形態に関連する技術の第42の形態は、情報の提示後の人の属性の監視結果に基づいて制御対象の候補の削減、及び又は制御内容の候補の削減、及び又は制御対象の決定、及び又は制御内容の決定、及び又は情報の提示を行うことを特徴とする本実施形態に関連する上記第38〜41のいずれかの形態の制御方法である。 A forty-second aspect of the technology related to the present embodiment is based on the monitoring result of the attribute of the person after the information is presented, the reduction of the candidate of the control target and / or the reduction of the candidate of the control content, and / or the reduction of the control target. And / or the content of the control and / or the presentation of information.
又、本実施形態に関連する技術の第43の形態は、あらかじめ定めた基準に基づいて制御対象の候補の削減、及び又は制御内容の候補の削減、及び又は制御対象の決定、及び又は制御内容の決定を行うことを特徴とする本実施形態に関連する上記第24〜42のいずれかの形態の制御方法である。 A forty-third aspect of the technology related to the present embodiment is configured to reduce the number of control target candidates and / or the number of control content candidates based on a predetermined criterion, and / or determine the control target, and / or the control content. The control method according to any one of the twenty-fourth to forty-second modes related to the present embodiment, characterized in that:
又、本実施形態に関連する技術の第44の形態は、制御対象の候補と制御内容の候補との整合性に基づいて、制御対象の候補の削減、及び又は制御内容の候補の削減、及び又は制御対象の決定、及び又は制御内容の決定を行うことを特徴とする本実施形態に関連する上記第43の形態の制御方法である。 A forty-fourth aspect of the technology related to the present embodiment is configured to reduce the number of control target candidates and / or the number of control content candidates based on the consistency between the control target candidate and the control content candidate. Alternatively, the control method according to the forty-third aspect is related to the present embodiment, in which a control target is determined and / or a control content is determined.
又、本実施形態に関連する技術の第45の形態は、制御対象の候補の決定に用いた所定の属性を検出した第一の時刻と制御内容の候補の決定に用いた所定の属性を検出した第二の時刻との時間間隔、又は前記第一の時刻と前記第二の時刻との時間的順序関係、又は前記所定の属性検出の継続時間の少なくとも一つ以上を用いて、制御対象の候補の削減、及び又は制御内容の候補の削減、及び又は制御対象の決定、及び又は制御内容の決定を行うことを特徴とする本実施形態に関連する上記第43または44の形態の制御方法である。 A forty-fifth aspect of the technology related to the present embodiment detects a first time at which a predetermined attribute used to determine a control target candidate and a predetermined attribute used to determine a control content candidate are detected. The time interval between the second time, or the temporal sequence relationship between the first time and the second time, or using at least one or more of the duration of the predetermined attribute detection, the control target In the control method according to the forty-third or forty-fourth aspect related to the present embodiment, the number of candidates is reduced and / or the number of control content candidates is reduced, and / or the control target is determined, and / or the control content is determined. is there.
又、本実施形態に関連する技術の第46の形態は、制御内容は機器の操作及び又は情報の操作を行うことを特徴とする本実施形態に関連する上記第24〜45の何れかの形態の制御方法である。 A forty-sixth aspect of the technology related to the present embodiment is any of the above-described twenty-fourth to forty-fifth aspects related to the present embodiment, wherein the control content is to operate an apparatus and / or information. Is a control method.
又、本実施形態に関連する技術の第47の形態は、人の位置、人の姿勢、人の表情、人の動き、人の音声、人の生理状態、特定個人であること、人の体型、人の体重、人の性別、人の年齢、人の心身的不自由度、又は人の付帯物のうち少なくとも1つ以上を人の属性として用いることを特徴とする本実施形態に関連する上記第24〜46のいずれかの形態の制御方法である。 Also, a forty-seventh form of the technology related to the present embodiment includes a person's position, a person's posture, a person's facial expression, a person's movement, a person's voice, a person's physiological state, a specific individual, and a person's body type. , Wherein at least one of a person's weight, a person's gender, a person's age, a person's physical and mental inconvenience, or a person's accessory is used as a person's attribute. This is a control method according to any one of the twenty-fourth to forty-sixth aspects.
又、本実施形態に関連する技術の第48の形態は、制御対象の候補を決定するための人の属性と、制御内容の候補を決定するための人の属性とが異なることを特徴とする本実施形態に関連する上記第24〜47の何れかの形態の制御方法である。 A forty-eighth aspect of the technology related to the present embodiment is characterized in that the attribute of a person for determining a candidate for a control target is different from the attribute of a person for determining a candidate for a control content. This is a control method according to any one of the twenty-fourth to forty-seventh modes related to the present embodiment.
又、本実施形態に関連する技術の第49の形態は、制御対象の候補を決定するための人の属性と、制御内容の候補を決定するための人の属性とが同一であることを特徴とする本実施形態に関連する上記第24〜47の何れかの形態の制御方法である。 A forty-ninth aspect of the technology related to the present embodiment is characterized in that the attribute of a person for determining a candidate for a control target is the same as the attribute of a person for determining a candidate for control content. The control method according to any one of the twenty-fourth to forty-seventh aspects relating to the present embodiment.
又、本実施形態に関連する技術の第50の形態は、人の属性として前記人が自分の人差し指を口の前にあてる動作を検出し、前記動作に基づいて音を発する機器及び音量を制御する機器を制御対象の候補とし、音量を小さくする制御を制御内容の候補とすることを特徴とする本実施形態に関連する上記第49の形態の制御方法である。 Further, a fiftieth aspect of the technology related to the present embodiment detects an operation in which the person puts his / her index finger in front of a mouth as an attribute of the person, and controls a device that emits a sound and a volume based on the operation. A control method according to the forty-ninth aspect, wherein a device to be controlled is set as a candidate for a control target, and control for reducing the volume is set as a candidate for a control content.
又、本実施形態に関連する技術の第51の形態は、人の属性として前記人が手で耳をふさぐ動作を検出し、前記動作に基づいて音を発する機器及び音量を制御する機器を制御対象の候補とし、音量を小さくする制御を制御内容の候補とすることを特徴とする本実施形態に関連する上記第49の形態の制御方法である。 A fifty-first aspect of the technology related to the present embodiment is configured to detect, as an attribute of a person, an operation in which the person closes his ear with his / her hand, and control a device that emits a sound based on the operation and a device that controls a volume. A control method according to the forty-ninth aspect, wherein the control for reducing the volume is set as a candidate for the target and the control content is set as a candidate for the control content.
又、本実施形態に関連する技術の第52の形態は、人の属性として前記人が手で顔又は身体の一部を扇ぐ動作を検出し、前記動作に基づいて空調を制御する機器及び窓を制御対象の候補を制御対象の候補とし、設定温度の低下又は換気を制御内容の候補とすることを特徴とする本実施形態に関連する上記第49の形態の制御方法である。 Also, a fifty-second form of the technology related to the present embodiment is a device and a window for detecting, as an attribute of a person, an operation in which the person blows a face or a part of a body by hand, and controlling air conditioning based on the operation. The control method according to the forty-ninth aspect of the present invention relates to the present embodiment, wherein is set as a candidate for a control target, and a reduction in set temperature or ventilation is set as a candidate for control content.
又、本実施形態に関連する技術の第53の形態は、人の属性として前記人が耳を手の横に添える動作を検出し、前記動作基づいて音を出す機器及び音量を制御する機器を制御対象の候補とし、音量を大きくする制御を制御内容の候補とすることを特徴とする本実施形態に関連する上記第49の形態の制御方法である。 In a fifty-third mode of the technology related to the present embodiment, a device that detects a motion of the person placing his or her ear beside the hand as an attribute of the person, and that outputs a sound based on the motion and a device that controls the volume. A control method according to the forty-ninth aspect, wherein the control for increasing the volume is set as a candidate for control, and control for increasing the volume is set as a control content candidate.
又、本実施形態に関連する技術の第54の形態は、本実施形態に関連する上記第1〜53のいずれかの形態の制御方法における動作の全部又は一部をコンピュータで実現するためのプログラムを格納したことを特徴とするプログラム記録媒体である。 A fifty-fourth aspect of the technology related to the present embodiment is a program for realizing, with a computer, all or a part of the operation in the control method according to any one of the first to fifty aspects related to the present embodiment. Is stored in the program recording medium.
この様に、本実施形態に関連する技術の形態は、単一又は複数の人の属性を継続的あるいは間欠的に監視し、人の所定の属性の検出に基づいて所定の機器の制御を行うことを特徴とする制御方法である。また、人の所定の属性に基づき、制御対象の候補及び制御内容の候補を決定し、前記制御対象の候補及び前記制御内容の候補に基づき制御対象及び制御内容を決定することを特徴とする制御方法である。さらに、複数の人の属性の検出に基づき、前記人ごとに制御対象の候補及び制御内容の候補を決定し、前記制御対象の候補及び前記制御内容の候補に基づいて制御対象及び制御内容を決定することを特徴とする制御方法である。 As described above, the technology related to the present embodiment continuously or intermittently monitors the attributes of a single person or a plurality of persons, and controls a predetermined device based on the detection of the predetermined attribute of the person. A control method characterized by the following. Further, based on a predetermined attribute of a person, a control target candidate and a control content candidate are determined, and the control target and the control content are determined based on the control target candidate and the control content candidate. Is the way. Furthermore, based on the detection of the attributes of a plurality of persons, a candidate for a control target and a candidate for control content are determined for each person, and a control target and control contents are determined based on the candidate for the control target and the candidate for control content. This is a control method characterized in that:
以上説明したところから明らかなように、上記実施形態は、人の属性を用いて機器や情報の操作を円滑に行う最に問題となる、複数の人の存在や、複数の機器の存在や、人の動作や姿勢の曖昧さなどを考慮し、人にあらかじめ定めた複雑な動作などを強いることなく、人の日常の属性を用いることで機器の制御を円滑に行うことを可能とする制御方法である。 As is clear from the above description, the above embodiment is the most problematic in smoothly operating devices and information using the attributes of people, the presence of a plurality of people, the presence of a plurality of devices, A control method that enables smooth control of equipment by using daily attributes of a person without forcing the person to perform predetermined complicated operations, etc., taking into account the ambiguity of the person's movement and posture. It is.
また、人の所定の属性に基づき、制御対象ならびに制御内容を複数候補決定し、制御対象の候補と制御内容の候補の両方の情報を用いることで候補の数を限定することにより、制御対象や制御対象をより確実に特定することができる。 Also, based on a predetermined attribute of a person, a plurality of candidates for the control object and the control content are determined, and the number of candidates is limited by using information of both the control object candidate and the control content candidate. The control target can be specified more reliably.
さらに、機器が決定した操作者や候補の内容を人に提示することや、制御対象や制御内容が決定できない場合には再度入力を促し、その後の人の属性を観察することで、人に必要な情報を提供すると同時に制御対象ならびに制御内容の決定を円滑に行うことが可能である。 Furthermore, it is necessary to present the contents of the operator or candidate determined by the device to the human, or to prompt the user to input again when the control target or the control content cannot be determined, and to observe the attributes of the subsequent humans. And at the same time, it is possible to smoothly determine the control object and the control content.
また、上記実施形態によれば、画面に情報を提示するだけでなく、音声によっても情報を提示したりすることができるので、例えば、目の不自由な人がジェスチャーによって指示した内容を確実に音声にて確認でき、また耳の不自由な人にとっても、画面で確実に情報を確認できるので、目の不自由な人と、耳の不自由な人が混在して使用する場合などに便利であり、福祉対策上有効である。 Further, according to the above embodiment, not only the information can be presented on the screen but also the information can be presented by voice. It can be confirmed by voice, and even for people with hearing impairments, it is possible to confirm information on the screen reliably, so it is convenient for people who are blind and those who are hearing impaired It is effective in welfare measures.
さらにまた、間欠的に状況を監視することによって、消費電力を大きく削減することができ、地球環境保護の観点からも有効である。 Furthermore, by intermittently monitoring the situation, power consumption can be greatly reduced, which is effective from the viewpoint of global environmental protection.
本発明に係る制御方法、機器制御装置、及びプログラム記録媒体は、複数の機器や複数の人間が近隣に存在する場合にも、より円滑に機器の操作等を行えるという効果を有し、人の動き・姿勢・状態などに基づいて機器や情報の操作・環境の制御などを行う技術として有用である。 The control method, the device control device, and the program recording medium according to the present invention have an effect that even when a plurality of devices and a plurality of people are present in the vicinity, the device can be operated more smoothly and the like. It is useful as a technique for controlling the operation of devices and information, controlling the environment, and the like based on movement, posture, state, and the like.
1 監視部
2 操作者選択部
3 制御対象候補決定部
4 制御内容候補決定部
5 制御対象・制御内容決定部
1 monitoring section
2
Claims (10)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004105863A JP2004289850A (en) | 1997-11-27 | 2004-03-31 | Control method, equipment control apparatus, and program recording medium |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP32573997 | 1997-11-27 | ||
JP2004105863A JP2004289850A (en) | 1997-11-27 | 2004-03-31 | Control method, equipment control apparatus, and program recording medium |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP33440098A Division JPH11327753A (en) | 1997-11-27 | 1998-11-25 | Control method and program recording medium |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2004289850A true JP2004289850A (en) | 2004-10-14 |
Family
ID=33301379
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004105863A Withdrawn JP2004289850A (en) | 1997-11-27 | 2004-03-31 | Control method, equipment control apparatus, and program recording medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2004289850A (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011101201A (en) * | 2009-11-06 | 2011-05-19 | Mitsubishi Electric Corp | Remote controller and communication system |
WO2013099580A1 (en) | 2011-12-26 | 2013-07-04 | オリンパスメディカルシステムズ株式会社 | Medical endoscope system |
JP2019201251A (en) * | 2018-05-14 | 2019-11-21 | 三菱電機エンジニアリング株式会社 | Automatic operation apparatus and electric device system having automatic operation function |
JPWO2020195389A1 (en) * | 2019-03-26 | 2020-10-01 | ||
JP2022504302A (en) * | 2018-10-09 | 2022-01-13 | 美的集団股▲フン▼有限公司 | Methods and systems for providing control user interfaces to home appliances |
JP2023036387A (en) * | 2021-09-02 | 2023-03-14 | 株式会社シーエーシー | Apparatus, method, and program for controlling device or equipment based on gesture |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0981732A (en) * | 1995-09-19 | 1997-03-28 | Sharp Corp | Area extracting device and direction detecting device using same |
JPH0981094A (en) * | 1995-09-19 | 1997-03-28 | Sharp Corp | Monitor controller |
JPH0981309A (en) * | 1995-09-13 | 1997-03-28 | Toshiba Corp | Input device |
JPH09167993A (en) * | 1995-12-15 | 1997-06-24 | Matsushita Electric Ind Co Ltd | Equipment controller |
-
2004
- 2004-03-31 JP JP2004105863A patent/JP2004289850A/en not_active Withdrawn
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0981309A (en) * | 1995-09-13 | 1997-03-28 | Toshiba Corp | Input device |
JPH0981732A (en) * | 1995-09-19 | 1997-03-28 | Sharp Corp | Area extracting device and direction detecting device using same |
JPH0981094A (en) * | 1995-09-19 | 1997-03-28 | Sharp Corp | Monitor controller |
JPH09167993A (en) * | 1995-12-15 | 1997-06-24 | Matsushita Electric Ind Co Ltd | Equipment controller |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011101201A (en) * | 2009-11-06 | 2011-05-19 | Mitsubishi Electric Corp | Remote controller and communication system |
WO2013099580A1 (en) | 2011-12-26 | 2013-07-04 | オリンパスメディカルシステムズ株式会社 | Medical endoscope system |
JP2019201251A (en) * | 2018-05-14 | 2019-11-21 | 三菱電機エンジニアリング株式会社 | Automatic operation apparatus and electric device system having automatic operation function |
JP2022504302A (en) * | 2018-10-09 | 2022-01-13 | 美的集団股▲フン▼有限公司 | Methods and systems for providing control user interfaces to home appliances |
JP7193180B2 (en) | 2018-10-09 | 2022-12-20 | 美的集団股▲フン▼有限公司 | METHOD AND SYSTEM FOR PROVIDING CONTROL USER INTERFACE FOR HOME ELECTRONICS |
JPWO2020195389A1 (en) * | 2019-03-26 | 2020-10-01 | ||
WO2020195389A1 (en) * | 2019-03-26 | 2020-10-01 | ソニー株式会社 | Information processing device and information processing method |
JP7452528B2 (en) | 2019-03-26 | 2024-03-19 | ソニーグループ株式会社 | Information processing device and information processing method |
JP2023036387A (en) * | 2021-09-02 | 2023-03-14 | 株式会社シーエーシー | Apparatus, method, and program for controlling device or equipment based on gesture |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US6353764B1 (en) | Control method | |
JPH11327753A (en) | Control method and program recording medium | |
JP2004303251A (en) | Control method | |
US11680722B2 (en) | Device control system | |
JP7151835B2 (en) | Information processing device, information processing method and program | |
WO2016157658A1 (en) | Information processing device, control method, and program | |
JP2005284492A (en) | Operating device using voice | |
WO2018163637A1 (en) | Information-processing device, information-processing method, and recording medium | |
JP2016169990A (en) | Human sensing detection system | |
CN105291093A (en) | Domestic robot system | |
WO2016072118A1 (en) | Information processing system, storage medium, and control method | |
CN112363406B (en) | Intelligent control method based on visual sensor | |
WO2020116233A1 (en) | Information processing device, information processing method, and program | |
JPWO2019039119A1 (en) | Information processing apparatus, information processing method, and program | |
JP2004289850A (en) | Control method, equipment control apparatus, and program recording medium | |
US11544968B2 (en) | Information processing system, information processingmethod, and recording medium | |
US11687049B2 (en) | Information processing apparatus and non-transitory computer readable medium storing program | |
JP7296626B2 (en) | Information processing device and program | |
JP2004282770A (en) | Control method | |
JP2019220145A (en) | Operation terminal, voice input method, and program | |
CN205290937U (en) | Domestic robot system | |
US11195525B2 (en) | Operation terminal, voice inputting method, and computer-readable recording medium | |
CN212965894U (en) | Wearable device | |
WO2023149031A1 (en) | Information notification method, information notification device, and program | |
US12145256B2 (en) | Healthcare robot and control method therefor |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20060428 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20060516 |
|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20060718 |