JP6780641B2 - Image analysis device, image analysis method, and image analysis program - Google Patents

Image analysis device, image analysis method, and image analysis program Download PDF

Info

Publication number
JP6780641B2
JP6780641B2 JP2017521708A JP2017521708A JP6780641B2 JP 6780641 B2 JP6780641 B2 JP 6780641B2 JP 2017521708 A JP2017521708 A JP 2017521708A JP 2017521708 A JP2017521708 A JP 2017521708A JP 6780641 B2 JP6780641 B2 JP 6780641B2
Authority
JP
Japan
Prior art keywords
bed
person
watched
foreground
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017521708A
Other languages
Japanese (ja)
Other versions
JPWO2016194402A1 (en
Inventor
松本 修一
修一 松本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Noritsu Precision Co Ltd
Original Assignee
Noritsu Precision Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Noritsu Precision Co Ltd filed Critical Noritsu Precision Co Ltd
Publication of JPWO2016194402A1 publication Critical patent/JPWO2016194402A1/en
Application granted granted Critical
Publication of JP6780641B2 publication Critical patent/JP6780641B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • G08B25/01Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium
    • G08B25/04Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium using a single signalling line, e.g. in a closed loop

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Emergency Management (AREA)
  • Multimedia (AREA)
  • Emergency Alarm Devices (AREA)
  • Alarm Systems (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像解析装置、画像解析方法、及び、画像解析プログラムに関する。 The present invention relates to an image analysis apparatus, an image analysis method, and an image analysis program.

近年、入院患者、施設入居者、要介護者等の見守り対象者の徘徊による事故が年々増加する傾向にある。このような事故を防止するため、室内に設置したカメラで見守り対象者を撮影し、撮影した画像を解析することで見守り対象者の離床を検知し、見守り対象者の離床が一定時間以上継続する場合に、警報を行う見守りシステムが開発されている。 In recent years, the number of accidents caused by wandering of inpatients, facility residents, persons requiring long-term care, etc., has been increasing year by year. In order to prevent such accidents, a camera installed indoors takes a picture of the person being watched over, and by analyzing the captured image, the person being watched over is detected to get out of bed, and the person being watched over continues to get out of bed for a certain period of time or longer. In some cases, a watching system has been developed to give an alarm.

例えば、特許文献1では、カメラによりベッド上の患者を撮影し、それにより得られた画像を画像処理することで患者の離床を検知する患者認識装置が提案されている。具体的には、この患者認識装置は、カメラにより撮像したカラー撮像映像を黒色等の着目色とそれ以外の色とで2値化し、2値化した画像において直目色で抽出された連結成分(エリア)をラベリングする。 For example, Patent Document 1 proposes a patient recognition device that detects a patient getting out of bed by photographing a patient on a bed with a camera and processing the image obtained thereby. Specifically, this patient recognition device binarizes a color captured image captured by a camera with a color of interest such as black and another color, and a linking component extracted with a direct eye color in the binarized image. Label (Area).

そして、当該患者認識装置は、ラベリングしたエリアの大きさ及び形状に基づいて、当該エリアが人体の一部に該当するか否かを判定することで、人体の存在を認識する。これによって、当該患者認識装置は、人体の存在を認識しない状態が所定時間継続した場合に、患者の離床が所定時間以上継続していることを報知することができる。 Then, the patient recognition device recognizes the existence of the human body by determining whether or not the area corresponds to a part of the human body based on the size and shape of the labeled area. As a result, the patient recognition device can notify that the patient has been out of bed for a predetermined time or longer when the state of not recognizing the existence of the human body continues for a predetermined time.

特開2014−021619号公報Japanese Unexamined Patent Publication No. 2014-021619

しかしながら、上記患者認識装置では、ラベリング処理により抽出されたエリアが人体の一部に該当するか否かの判定に基づいて、人体の存在を認識している。そのため、カメラの撮影範囲に見守り対象者以外の人物が存在する場合に、見守り対象者がベッドから離床しても、当該見守り対象者以外の人物が写るエリアに基づいて人体の存在の認識を継続してしまい、見守り対象者の離床を検知することができない可能性があった。 However, the patient recognition device recognizes the existence of the human body based on the determination of whether or not the area extracted by the labeling process corresponds to a part of the human body. Therefore, if there is a person other than the person to be watched over in the shooting range of the camera, even if the person to be watched gets out of bed, the recognition of the existence of the human body is continued based on the area where the person other than the person to be watched is captured. There was a possibility that it would not be possible to detect the person being watched over getting out of bed.

また、見守り対象者がベッドから離床した後にカメラの撮影範囲に見守り対象者以外の人物が進入した場合に、当該見守り対象者以外の人物が写るエリアに基づいて人体の存在を認識してしまい、見守り対象者が離床した時間の計測を停止してしまう可能性があった。 In addition, when a person other than the person to be watched enters the shooting range of the camera after the person to be watched gets out of bed, the existence of the human body is recognized based on the area in which the person other than the person to be watched is captured. There was a possibility that the measurement of the time when the person to be watched got out of bed would be stopped.

したがって、上記患者認識装置では、見守り対象者以外の人物を見守り対象者と誤り、見守り対象者がベッドから離床している時間を正確に計測できない可能性があった。そのため、上記患者認識装置では、見守り対象者が一定時間以上離床しているにも関わらず、見守り対象者の離床に関する警報が実行されない場合があるという問題点があった。 Therefore, in the above-mentioned patient recognition device, there is a possibility that a person other than the watching target person is mistaken for the watching target person, and the time when the watching target person is out of bed cannot be accurately measured. Therefore, the above-mentioned patient recognition device has a problem that an alarm regarding getting out of bed of the person being watched over may not be executed even though the person being watched over has been out of bed for a certain period of time or more.

本発明は、一側面では、このような点を考慮してなされたものであり、見守り対象者の離床に関する警報を精度よく実行可能にする技術を提供することを目的とする。 One aspect of the present invention has been made in consideration of such a point, and an object of the present invention is to provide a technique for accurately executing an alarm regarding getting out of bed of a person to be watched over.

本発明は、上述した課題を解決するために、以下の構成を採用する。 The present invention employs the following configuration in order to solve the above-mentioned problems.

すなわち、本発明の一側面に係る画像解析装置は、見守り対象者のベッドにおける行動を見守るために設置された撮影装置によって撮影された撮影画像であって、当該撮影画像内の各画素の深度を示す深度データを含む撮影画像を取得する画像取得部と、取得された前記撮影画像と前記撮影画像の背景に設定された背景画像との差分を算出することにより、取得された前記撮影画像の前景領域を抽出する前景抽出部と、抽出された前記前景領域に含まれる各画素の深度を参照することで、実空間上で、ベッド上に現れた前景領域が前記ベッドから所定距離以上離れた位置に移動したか否かを判定し、前記ベッド上に現れた前景領域が前記ベッドから所定距離以上離れた位置に移動したと判定した場合に、前記見守り対象者が前記ベッドから離床したことを検知する離床検知部と、前記見守り対象者が前記ベッドから離床したことを検知した後に取得された撮影画像について、抽出された前記前景領域に含まれる各画素の深度を参照することで、実空間上で、ベッド外に現れた前景領域が前記ベッド上に移動したか否かを判定し、前記ベッド外に現れた前景領域が前記ベッド上に移動したと判定した場合に、前記見守り対象者が前記ベッドに就床したことを検知する就床検知部と、前記見守り対象者の就床を検知する前に、前記見守り対象者の離床を検知してからの経過時間が一定時間を超えた場合に、当該見守り対象者が一定時間以上離床していることを知らせるための通知を行う通知部と、を備える。 That is, the image analysis device according to one aspect of the present invention is a photographed image taken by a photographing device installed for watching the behavior of the person to be watched in the bed, and the depth of each pixel in the photographed image is determined. The foreground of the acquired image by calculating the difference between the image acquisition unit that acquires the photographed image including the indicated depth data and the acquired image and the background image set as the background of the photographed image. By referring to the foreground extraction unit that extracts the area and the depth of each pixel included in the extracted foreground area, the position where the foreground area appearing on the bed is separated from the bed by a predetermined distance or more in the real space. It is determined whether or not the person has moved to the bed, and when it is determined that the foreground area appearing on the bed has moved to a position separated from the bed by a predetermined distance or more, it is detected that the person to be watched has left the bed. By referring to the depth of each pixel included in the extracted foreground region of the bed leaving detection unit and the photographed image acquired after detecting that the watching target person has left the bed, in real space. Then, when it is determined whether or not the foreground area appearing outside the bed has moved onto the bed, and when it is determined that the foreground area appearing outside the bed has moved onto the bed, the watching target person is said to have moved to the bed. When the bedtime detection unit that detects that the person has gone to bed and the elapsed time since the detection of the person being watched over have left the bed before detecting the person being watched over have exceeded a certain period of time. , It is provided with a notification unit for notifying that the person to be watched has been out of bed for a certain period of time or longer.

上記構成によれば、見守り対象者のベッドにおける行動を見守るために設置された撮影装置により撮影された撮影画像が取得され、取得された撮影画像と当該撮影画像の背景に設定された背景画像との差分が算出される。これによって、取得された撮影画像において前景領域が抽出される。 According to the above configuration, a photographed image taken by a photographing device installed to watch the behavior of the person to be watched in the bed is acquired, and the acquired photographed image and the background image set as the background of the photographed image are used. The difference is calculated. As a result, the foreground region is extracted from the acquired captured image.

ここで、上記構成では、撮影画像は、各画素の深度を示す深度データを含んでいる。各画素の深度は、各画素に写る被写体の深さを表現する。そのため、この深度データによれば、撮影装置の設置位置及び撮影方向に依存することなく、撮影画像に写る被写体の実空間上の位置を特定することができる。 Here, in the above configuration, the captured image includes depth data indicating the depth of each pixel. The depth of each pixel expresses the depth of the subject reflected in each pixel. Therefore, according to this depth data, it is possible to specify the position of the subject in the photographed image in the real space without depending on the installation position and the photographing direction of the photographing device.

また、前景領域は、背景画像から変化の生じた場所で抽出される。そのため、見守り対象者が何らかの行動を行った場合には、当該行動に起因して見守り対象者が移動した場所に、当該見守り対象者に対応する前景領域が抽出される。したがって、当該構成によれば、抽出された前景領域に含まれる各画素の深度を参照することで、抽出された前景領域とベッドとの実空間上の位置関係を特定することができ、この位置関係に基づいて見守り対象者の行動を解析することができる。 In addition, the foreground region is extracted from the background image at the place where the change occurs. Therefore, when the watching target person performs some action, the foreground area corresponding to the watching target person is extracted at the place where the watching target person moves due to the action. Therefore, according to the configuration, by referring to the depth of each pixel included in the extracted foreground area, the positional relationship between the extracted foreground area and the bed in the real space can be specified, and this position can be specified. It is possible to analyze the behavior of the watching subject based on the relationship.

具体的に、見守り対象者がベッドから離床する場合には、見守り対象者の起き上がり等に際して前景領域がベッド上に現れ、そのような場所に現れた前景領域がベッドから離れる方向に移動すると想定される。これに対して、見守り対象者以外の人物は、撮影装置の撮影範囲に存在しても、このような動作を行うことはないと想定される。すなわち、見守り対象者以外の人物に対応する前景領域は、ベッド周囲で発生するに過ぎず、ベッド上で発生することはないと想定される。 Specifically, when the person to be watched gets out of bed, it is assumed that the foreground area appears on the bed when the person to be watched gets up, and the foreground area appearing in such a place moves in the direction away from the bed. To. On the other hand, it is assumed that a person other than the person to be watched does not perform such an operation even if he / she is in the shooting range of the shooting device. That is, it is assumed that the foreground area corresponding to a person other than the person to be watched only occurs around the bed and does not occur on the bed.

そこで、上記構成に係る画像解析装置は、抽出された前景領域に含まれる各画素の深度を参照することで、実空間上で、ベッド上に現れた前景領域がベッドから所定距離以上離れた位置に移動したか否かを判定する。そして、上記構成に係る画像解析装置は、ベッド上に現れた前景領域がベッドから所定距離以上離れた位置に移動したと判定した場合に、見守り対象者がベッドから離床したことを検知する。これによって、撮影装置の撮影範囲に見守り対象者以外の人物が存在する場合であっても、上記のような問題が生じることはなく、見守り対象者の離床を適切に検知することができる。そのため、上記構成によれば、当該見守り対象者の離床を検知してからの経過時間の計測を正確に開始することができる。 Therefore, the image analysis device according to the above configuration refers to the depth of each pixel included in the extracted foreground region, so that the foreground region appearing on the bed is located at a position separated from the bed by a predetermined distance or more in the real space. Determine if it has moved to. Then, the image analysis device according to the above configuration detects that the person to be watched has left the bed when it is determined that the foreground area appearing on the bed has moved to a position separated from the bed by a predetermined distance or more. As a result, even when a person other than the person to be watched is present in the shooting range of the photographing device, the above-mentioned problems do not occur, and it is possible to appropriately detect the person being watched to get out of bed. Therefore, according to the above configuration, it is possible to accurately start measuring the elapsed time after detecting the leaving of the watched person.

また、見守り対象者がベッドに就床する場合には、ベッドから離れた見守り対象者が再びベッド周囲に戻ってくるのに際して、撮影画像のフレーム近傍等のベッド外の場所に前景領域が現れ、そのような場所に現れた前景領域がベッド上に移動すると想定される。これに対して、見守り対象者以外の人物は、このような動作を行うことはないと想定される。すなわち、見守り対象者以外の人物が撮影装置の撮影範囲に進入しても、当該見守り対象者以外の人物に対応する前景領域は、ベッド周囲を移動するに過ぎず、ベッド上には移動しないものと想定される。 In addition, when the person to be watched goes to bed, the foreground area appears in a place outside the bed such as near the frame of the photographed image when the person to be watched away from the bed returns to the surroundings of the bed. It is assumed that the foreground area that appears in such a place moves onto the bed. On the other hand, it is assumed that a person other than the person to be watched does not perform such an operation. That is, even if a person other than the person to be watched enters the shooting range of the photographing device, the foreground area corresponding to the person other than the person to be watched only moves around the bed and does not move on the bed. Is assumed.

そこで、上記構成に係る画像解析装置は、見守り対象者の離床を検知した後に取得された撮影画像について、抽出された前景領域に含まれる各画素の深度を参照することで、実空間上で、ベッド外に現れた前景領域がベッド上に移動したか否かを判定する。そして、上記構成に係る画像解析装置は、ベッド外に現れた前景領域がベッド上に移動したと判定した場合に、見守り対象者がベッドに就床したことを検知する。これによって、見守り対象者がベッドから離床した後に撮影装置の撮影範囲に見守り対象者以外の人物が進入しても、上記のような問題が生じることはなく、見守り対象者の就床を適切に検知することができる。そのため、上記構成によれば、当該見守り対象者の離床を検知してからの経過時間の計測を正確に停止することができる。 Therefore, the image analysis device according to the above configuration refers to the depth of each pixel included in the extracted foreground region for the photographed image acquired after detecting the leaving of the bed of the person to be watched over, in real space. Determine if the foreground area that appears outside the bed has moved onto the bed. Then, when it is determined that the foreground region appearing outside the bed has moved onto the bed, the image analysis device according to the above configuration detects that the person to be watched has gone to bed. As a result, even if a person other than the watching target enters the shooting range of the photographing device after the watching target has left the bed, the above problems do not occur, and the watching target can properly lie down on the bed. It can be detected. Therefore, according to the above configuration, it is possible to accurately stop the measurement of the elapsed time from the detection of the person being watched over getting out of bed.

そして、上記構成では、見守り対象者の就床を検知する前に、見守り対象者の離床を検知してからの経過時間が一定時間を超えた場合に、当該見守り対象者が一定時間以上離床していることを知らせるための通知が行われる。すなわち、上記構成では、見守り対象者の離床と就床とを適切に検知可能な状況下で、当該見守り対象者の離床を検知してからの経過時間に基づいて、当該見守り対象者の離床に関する警報が実行される。したがって、上記構成によれば、見守り対象者以外の人物が存在することに起因する見守り対象者の離床に関する誤検知を防止することができ、これによって、見守り対象者の離床に関する警報を精度よく実行することができる。 Then, in the above configuration, if the elapsed time from detecting the bed leaving of the watching target person exceeds a certain time before detecting the bedtime of the watching target person, the watching target person leaves the bed for a certain period of time or more. You will be notified that you are doing so. That is, in the above configuration, in a situation where it is possible to appropriately detect getting out of bed and going to bed of the person to be watched over, it is related to getting out of bed of the person to be watched over based on the elapsed time from detecting getting out of bed of the person to be watched over. An alarm is executed. Therefore, according to the above configuration, it is possible to prevent erroneous detection of the person being watched over getting out of bed due to the existence of a person other than the person being watched over, thereby accurately executing an alarm regarding getting out of bed of the person being watched over. can do.

なお、見守り対象者は、見守りの対象となる人物であり、例えば、入院患者、施設入居者、要介護者等である。また、見守り対象者の離床に関する通知の通知先及び通知方法は、実施の形態に応じて適宜選択することができる。例えば、当該通知は、見守り者に対して行われてもよい。見守り者は、見守り対象者の行動を見守る者である。見守り対象者が、入院患者、施設入居者、要介護者等である場合は、見守り者は、例えば、看護師、施設職員、介護者等である。 The person to be watched over is a person to be watched over, for example, an inpatient, a resident of a facility, a person requiring long-term care, and the like. In addition, the notification destination and notification method of the notification regarding the person to be watched over getting out of bed can be appropriately selected according to the embodiment. For example, the notification may be given to the watcher. A watcher is a person who watches over the behavior of the watched person. When the person to be watched over is an inpatient, a resident of a facility, a person requiring long-term care, etc., the person to be watched over is, for example, a nurse, a facility staff member, a caregiver, or the like.

また、上記一側面に係る画像解析装置の別の形態として、前記就床検知部は、前記ベッド外に現れた前景領域がベッド側部に設けられた所定の領域内に移動した場合に、前記ベッド外に現れた前景領域が前記ベッド上に移動したと判定し、前記見守り対象者が前記ベッドに就床したことを検知してもよい。 Further, as another form of the image analysis device according to the one aspect, the bed detection unit is described when the foreground area appearing outside the bed moves into a predetermined area provided on the side of the bed. It may be determined that the foreground area appearing outside the bed has moved onto the bed, and it may be detected that the person to be watched has gone to bed.

離床した見守り対象者がベッドに戻り、ベッド上で端座位を行った場合には、ベッド外に現れた前景領域は、ベッド側部に移動するものと想定される。また、一般的には、見守り対象者以外の人物は、撮影装置の撮影範囲に進入することはあっても、見守り対象者のベッド上で端座位を行うことはないものと想定される。 When the person to be watched after leaving the bed returns to the bed and sits on the bed, the foreground area that appears outside the bed is assumed to move to the side of the bed. Further, in general, it is assumed that a person other than the person to be watched may enter the shooting range of the photographing device, but may not sit on the bed of the person to be watched.

そこで、当該構成に係る画像解析装置は、ベッド外に現れた前景領域がベッド側部に設けられた所定の領域内に移動した場合に、見守り対象者の就床を検知する。すなわち、当該構成に係る画像解析装置は、見守り対象者がベッド上で端座位を行ったことに基づいて、見守り対象者の就床を検知する。 Therefore, the image analysis device according to the configuration detects the bed of the person to be watched over when the foreground area appearing outside the bed moves into a predetermined area provided on the side of the bed. That is, the image analysis device according to the configuration detects the bed of the watching target person based on the fact that the watching target person sits on the bed.

したがって、当該構成によれば、見守り対象者以外の人物が行わないと想定される端座位の動作に基づいて見守り対象者の就床が検知される。そのため、当該見守り対象者の就床の検知精度を高めることができ、これによって、見守り対象者の離床に関する警報を精度よく実行することができるようになる。 Therefore, according to the configuration, the bed of the watching target person is detected based on the movement of the end sitting position which is assumed not to be performed by a person other than the watching target person. Therefore, it is possible to improve the accuracy of detecting the bed of the person being watched over, and thereby it is possible to accurately execute the alarm regarding the person being watched over getting out of bed.

また、上記一側面に係る画像解析装置の別の形態として、前記就床検知部は、前記ベッド外に現れた前景領域がベッド側部に設けられた所定の領域内に移動した場合に、更に、前記前景領域内において、前記見守り対象者の頭部が写る頭部領域と肩部が写る肩部領域とを推定してもよい。そして、前記就床検知部は、推定した当該頭部領域の重心が当該肩部領域の重心よりも前記ベッドの外側に位置するときに、前記ベッド外に現れた前景領域が前記ベッド上に移動したと判定し、前記見守り対象者が前記ベッドに就床したことを検知してもよい。 Further, as another form of the image analysis device according to the one aspect, the bed detection unit further increases when the foreground area appearing outside the bed moves into a predetermined area provided on the side of the bed. In the foreground region, it may be estimated that the head region in which the head of the watching target person is captured and the shoulder region in which the shoulder portion is captured. Then, when the estimated center of gravity of the head region is located outside the bed from the center of gravity of the shoulder region, the bed detection unit moves the foreground region appearing outside the bed onto the bed. It may be determined that the person has gone to bed, and it may be detected that the person to be watched has gone to bed.

例えば、介護者等の見守り対象者以外の人物が、ベッド上の布団を整える等の作業をベッド側部の近傍で行う場合がある。このような場合、見守り対象者以外の人物の身体(特に、上半身)がベッド面の上方に位置し得るため、上記所定の領域の設定によっては、当該見守り対象者以外の人物に対応する前景領域が当該所定の領域内にベッド外から移動する可能性がある。 For example, a person other than the person to be watched over, such as a caregiver, may perform work such as preparing a futon on the bed in the vicinity of the side of the bed. In such a case, the body (particularly, the upper body) of the person other than the person to be watched can be located above the bed surface. Therefore, depending on the setting of the predetermined area, the foreground area corresponding to the person other than the person to be watched is used. May move from outside the bed into the predetermined area.

ただし、この場合、見守り対象者以外の人物はベッドの内側の方を向いている。これに対して、端座位を行う見守り対象者は、ベッドの外側の方を向いている。すなわち、ベッド近傍で作業を行う見守り対象者以外の人物はベッドの内側の方を向いているため、この人物の頭部の重心は肩部の重心よりもベッドの内側に位置する。一方、ベッド上で端座位を行う見守り対象者は、ベッドの外側の方を向いているため、見守り対象者の頭部の重心は肩部の重心よりもベッドの外側に位置する。 However, in this case, the person other than the person to be watched is facing the inside of the bed. On the other hand, the watching subject who sits on the edge is facing the outside of the bed. That is, since a person other than the person to be watched who works near the bed faces the inside of the bed, the center of gravity of the head of this person is located inside the bed rather than the center of gravity of the shoulder. On the other hand, since the watching subject who sits on the bed faces the outside of the bed, the center of gravity of the head of the watching subject is located outside the bed rather than the center of gravity of the shoulder.

そこで、当該構成に係る画像解析装置は、ベッド外に現れた前景領域がベッド側部に設けられた所定の領域内に移動した場合に、更に、前景領域内において、見守り対象者の頭部が写る頭部領域と肩部が写る肩部領域とを推測する。そして、当該構成に係る画像解析装置は、推定した頭部領域の重心と肩部領域の重心との位置関係を判定し、頭部領域の重心が肩部領域の重心よりもベッドの外側に位置するときに、見守り対象者がベッドに就床したことを検知する。 Therefore, in the image analysis device according to the configuration, when the foreground area appearing outside the bed moves into a predetermined area provided on the side of the bed, the head of the person to be watched is further moved in the foreground area. Estimate the head area where the image is captured and the shoulder area where the shoulder is captured. Then, the image analysis device according to the configuration determines the positional relationship between the estimated center of gravity of the head region and the center of gravity of the shoulder region, and the center of gravity of the head region is located outside the bed from the center of gravity of the shoulder region. When doing so, it detects that the person being watched over has gone to bed.

したがって、当該構成によれば、ベッド近傍においてベッドの内側の方を向いて作業を行う見守り対象者以外の人物に起因して、見守り対象者の就床を誤検知してしまうことを防止することができる。そのため、当該構成によれば、見守り対象者の就床の検知精度を高めることができ、これによって、見守り対象者の離床に関する警報を精度よく実行することができるようになる。 Therefore, according to the configuration, it is possible to prevent a person other than the watching target person who works toward the inside of the bed in the vicinity of the bed from erroneously detecting the bed of the watching target person. Can be done. Therefore, according to the configuration, it is possible to improve the accuracy of detecting the bed of the person to be watched over, and thereby it is possible to accurately execute the alarm regarding the person to be watched over getting out of bed.

また、上記一側面に係る画像解析装置の別の形態として、前記就床検知部は、前記ベッド外に現れた前景領域が、ベッド面直上の所定の高さよりも低い位置に移動した場合に、前記ベッド外に現れた前景領域が前記ベッド上に移動したと判定し、前記見守り対象者が前記ベッドに就床したことを検知してもよい。 Further, as another form of the image analysis device according to the one aspect, the bed detection unit is used when the foreground region appearing outside the bed moves to a position lower than a predetermined height directly above the bed surface. It may be determined that the foreground area appearing outside the bed has moved onto the bed, and it may be detected that the person to be watched has gone to bed.

離床した見守り対象者が再びベッド上で就寝した場合には、ベッド外に現れた前景領域は、ベッド面の直上で、かつ、所定の高さよりも低い位置に移動するものと想定される。また、一般的には、見守り対象者以外の人物は、撮影装置の撮影範囲に進入することはあっても、見守り対象者のベッドで就寝することはないと想定される。 When the person to be watched after leaving the bed goes to bed again, it is assumed that the foreground area appearing outside the bed moves to a position directly above the bed surface and lower than a predetermined height. Further, in general, it is assumed that a person other than the person to be watched does not go to bed in the bed of the person to be watched, even if he / she may enter the shooting range of the photographing device.

そこで、当該構成に係る画像解析装置は、ベッド外に現れた前景領域がベッド面直上の所定の高さよりも低い位置に移動した場合に、当該見守り対象者の就床を検知する。すなわち、当該構成に係る画像解析装置は、見守り対象者がベッド上で就寝したことに基づいて、当該見守り対象者の就床を検知する。 Therefore, the image analysis device according to the configuration detects the bed of the person to be watched when the foreground area appearing outside the bed moves to a position lower than a predetermined height directly above the bed surface. That is, the image analysis device according to the configuration detects the bed of the watching target person based on the fact that the watching target person has fallen asleep on the bed.

したがって、当該構成によれば、見守り対象者以外の人物が行わないと想定される就寝行動に基づいて見守り対象者の就床が検知される。そのため、当該見守り対象者の就床の検知精度を高めることができ、これによって、見守り対象者の離床に関する警報を精度よく実行することができるようになる。 Therefore, according to the configuration, the bedtime of the watching target person is detected based on the sleeping behavior that is assumed that the person other than the watching target person does not perform. Therefore, it is possible to improve the accuracy of detecting the bed of the person being watched over, and thereby it is possible to accurately execute the alarm regarding the person being watched over getting out of bed.

なお、上記各形態に係る画像解析装置の別の形態として、以上の各構成を実現する情報処理システムであってもよいし、情報処理方法であってもよいし、プログラムであってもよいし、このようなプログラムを記録したコンピュータその他装置、機械等が読み取り可能な記憶媒体であってもよい。ここで、コンピュータ等が読み取り可能な記録媒体とは、プログラム等の情報を、電気的、磁気的、光学的、機械的、又は、化学的作用によって蓄積する媒体である。また、情報処理システムは、1又は複数の情報処理装置によって実現されてもよい。 As another form of the image analysis device according to each of the above forms, an information processing system that realizes each of the above configurations may be used, an information processing method may be used, or a program may be used. , A computer or other device or machine that records such a program may be a readable storage medium. Here, the recording medium that can be read by a computer or the like is a medium that stores information such as a program by electrical, magnetic, optical, mechanical, or chemical action. Further, the information processing system may be realized by one or more information processing devices.

例えば、本発明の一側面に係る画像解析方法は、コンピュータが、見守り対象者のベッドにおける行動を見守るために設置された撮影装置によって撮影された撮影画像であって、当該撮影画像内の各画素の深度を示す深度データを含む撮影画像を取得するステップと、取得された前記撮影画像と前記撮影画像の背景に設定された背景画像との差分を算出することにより、取得された前記撮影画像の前景領域を抽出するステップと、抽出された前記前景領域に含まれる各画素の深度を参照することで、実空間上で、ベッド上に現れた前景領域が前記ベッドから所定距離以上離れた位置に移動したか否かを判定し、前記ベッド上に現れた前景領域が前記ベッドから所定距離以上離れた位置に移動したと判定した場合に、前記見守り対象者が前記ベッドから離床したことを検知するステップと、前記見守り対象者が前記ベッドから離床したことを検知した後に取得された撮影画像について、抽出された前記前景領域に含まれる各画素の深度を参照することで、実空間上で、ベッド外に現れた前景領域が前記ベッド上に移動したか否かを判定し、前記ベッド外に現れた前景領域が前記ベッド上に移動したと判定した場合に、前記見守り対象者が前記ベッドに就床したことを検知するステップと、前記見守り対象者の就床を検知する前に、前記見守り対象者の離床を検知してからの経過時間が一定時間を超えた場合に、当該見守り対象者が一定時間以上離床していることを知らせるための通知を行うステップと、を実行する情報処理方法である。 For example, the image analysis method according to one aspect of the present invention is a photographed image taken by a photographing device installed by a computer to watch the behavior of the person to be watched in the bed, and each pixel in the photographed image. By calculating the difference between the step of acquiring the captured image including the depth data indicating the depth of the photographed image and the background image set as the background of the captured image and the captured image of the captured image, the captured image of the acquired image is calculated. By referring to the step of extracting the foreground region and the depth of each pixel included in the extracted foreground region, the foreground region appearing on the bed is located at a position separated from the bed by a predetermined distance or more in the real space. It is determined whether or not the person has moved, and when it is determined that the foreground area appearing on the bed has moved to a position separated from the bed by a predetermined distance or more, it is detected that the person to be watched has left the bed. By referring to the step and the depth of each pixel included in the extracted foreground region for the photographed image acquired after detecting that the watching target person has left the bed, the bed is placed in the real space. When it is determined whether or not the foreground area appearing outside has moved onto the bed and it is determined that the foreground area appearing outside the bed has moved onto the bed, the person to be watched over enters the bed. If the step of detecting that the person has floored and the elapsed time from the detection of the person being watched leaving the bed before detecting the bed of the person being watched exceeds a certain period of time, the person being watched over will It is an information processing method that executes a step of notifying that the person has been out of bed for a certain period of time or longer.

また、例えば、本発明の一側面に係る画像解析プログラムは、コンピュータに、見守り対象者のベッドにおける行動を見守るために設置された撮影装置によって撮影された撮影画像であって、当該撮影画像内の各画素の深度を示す深度データを含む撮影画像を取得するステップと、取得された前記撮影画像と前記撮影画像の背景に設定された背景画像との差分を算出することにより、取得された前記撮影画像の前景領域を抽出するステップと、抽出された前記前景領域に含まれる各画素の深度を参照することで、実空間上で、ベッド上に現れた前景領域が前記ベッドから所定距離以上離れた位置に移動したか否かを判定し、前記ベッド上に現れた前景領域が前記ベッドから所定距離以上離れた位置に移動したと判定した場合に、前記見守り対象者が前記ベッドから離床したことを検知するステップと、前記見守り対象者が前記ベッドから離床したことを検知した後に取得された撮影画像について、抽出された前記前景領域に含まれる各画素の深度を参照することで、実空間上で、ベッド外に現れた前景領域が前記ベッド上に移動したか否かを判定し、前記ベッド外に現れた前景領域が前記ベッド上に移動したと判定した場合に、前記見守り対象者が前記ベッドに就床したことを検知するステップと、前記見守り対象者の就床を検知する前に、前記見守り対象者の離床を検知してからの経過時間が一定時間を超えた場合に、当該見守り対象者が一定時間以上離床していることを知らせるための通知を行うステップと、を実行させるためのプログラムである。 Further, for example, the image analysis program according to one aspect of the present invention is a photographed image taken by a photographing device installed on a computer in order to watch the behavior of the person to be watched in the bed, and is included in the photographed image. The captured image obtained by calculating the difference between the step of acquiring a captured image including depth data indicating the depth of each pixel and the acquired photographed image and the background image set as the background of the captured image. By referring to the step of extracting the foreground region of the image and the depth of each pixel included in the extracted foreground region, the foreground region appearing on the bed is separated from the bed by a predetermined distance or more in the real space. When it is determined whether or not the person has moved to the position and it is determined that the foreground area appearing on the bed has moved to a position separated from the bed by a predetermined distance or more, it is determined that the person to be watched has left the bed. By referring to the depth of each pixel included in the extracted foreground region for the detection step and the captured image acquired after detecting that the watching target person has left the bed, in the real space. , It is determined whether or not the foreground area appearing outside the bed has moved onto the bed, and when it is determined that the foreground area appearing outside the bed has moved onto the bed, the watching target person is the bed. If the elapsed time from the step of detecting that the person to be watched has gone to bed and the time elapsed since the person to be watched to leave the bed exceeds a certain period of time before detecting the person to be watched to go to bed, the watched object is to be watched. It is a program for executing a step of giving a notification to notify that a person has been out of bed for a certain period of time or longer.

本発明によれば、見守り対象者の離床に関する警報を精度よく実行することができる。 According to the present invention, it is possible to accurately execute an alarm regarding getting out of bed of a person to be watched over.

図1は、本発明が適用される場面の一例を模式的に例示する。FIG. 1 schematically illustrates an example of a situation in which the present invention is applied. 図2は、実施の形態に係る画像解析装置のハードウェア構成を例示する。FIG. 2 illustrates the hardware configuration of the image analysis device according to the embodiment. 図3は、実施の形態に係るカメラにより取得される深度と被写体との関係を例示する。FIG. 3 illustrates the relationship between the depth acquired by the camera according to the embodiment and the subject. 図4は、実施の形態に係る画像解析装置の機能構成を例示する。FIG. 4 illustrates the functional configuration of the image analysis apparatus according to the embodiment. 図5は、実施の形態に係る画像解析装置における見守り対象者の見守りに関する処理手順を例示する。FIG. 5 illustrates a processing procedure for watching over a person to be watched in the image analysis device according to the embodiment. 図6は、実施の形態に係るカメラにより取得される撮影画像を例示する。FIG. 6 illustrates a captured image acquired by the camera according to the embodiment. 図7は、実施の形態に係る撮影画像内の座標関係を例示する。FIG. 7 illustrates the coordinate relationship in the captured image according to the embodiment. 図8は、実施の形態に係る撮影画像の任意の点(画素)とカメラとの実空間内での位置関係を例示する。FIG. 8 illustrates the positional relationship between an arbitrary point (pixel) of the captured image according to the embodiment and the camera in the real space. 図9は、撮影画像に含まれる深度データに基づいて特定される撮影範囲内の被写体の三次元分布を例示する。FIG. 9 illustrates a three-dimensional distribution of a subject within a shooting range specified based on depth data included in a shot image. 図10は、撮影画像から抽出される前景領域の三次元分布を例示する。FIG. 10 illustrates a three-dimensional distribution of the foreground region extracted from the captured image. 図11Aは、見守り対象者がベッドから離床する際の動作を模式的に例示する。FIG. 11A schematically illustrates an operation when the watching subject gets out of bed. 図11Bは、見守り対象者がベッドから離床する際の動作を模式的に例示する。FIG. 11B schematically illustrates an operation when the watch subject gets out of bed. 図12Aは、見守り対象者がベッドから離床する際に抽出される前景領域を模式的に例示する。FIG. 12A schematically illustrates a foreground region extracted when the watch subject gets out of bed. 図12Bは、見守り対象者がベッドから離床する際に抽出される前景領域を模式的に例示する。FIG. 12B schematically illustrates a foreground region extracted when the watch subject gets out of bed. 図13Aは、見守り対象者が就床する際の動作を模式的に例示する。FIG. 13A schematically illustrates an operation when the person to be watched goes to bed. 図13Bは、見守り対象者が就床する際の動作(端座位)を模式的に例示する。FIG. 13B schematically illustrates an operation (end sitting position) when the person to be watched goes to bed. 図13Cは、見守り対象者が就床する際の動作(就寝)を模式的に例示する。FIG. 13C schematically illustrates an operation (sleeping) when the person to be watched goes to bed. 図14Aは、見守り対象者が就床する際に抽出される前景領域を模式的に例示する。FIG. 14A schematically illustrates a foreground region extracted when the person to be watched goes to bed. 図14Bは、見守り対象者が就床する際に抽出される前景領域を模式的に例示する。FIG. 14B schematically illustrates a foreground region extracted when the person to be watched goes to bed. 図14Cは、見守り対象者が就床する際に抽出される前景領域を模式的に例示する。FIG. 14C schematically illustrates a foreground region extracted when the person to be watched goes to bed. 図15Aは、見守り対象者以外の人物がベッドに向かって作業を行っている場面を模式的に例示する。FIG. 15A schematically illustrates a scene in which a person other than the person to be watched is working toward the bed. 図15Bは、見守り対象者がベッド上で端座位を行っている場面を模式的に例示する。FIG. 15B schematically illustrates a scene in which the watching subject is sitting on the bed.

以下、本発明の一側面に係る実施の形態(以下、「本実施形態」とも表記する)を、図面に基づいて説明する。ただし、以下で説明する本実施形態は、あらゆる点において本発明の例示に過ぎない。本発明の範囲を逸脱することなく種々の改良や変形を行うことができることは言うまでもない。つまり、本発明の実施にあたって、実施形態に応じた具体的構成が適宜採用されてもよい。なお、本実施形態において登場するデータを自然言語により説明しているが、より具体的には、コンピュータが認識可能な疑似言語、コマンド、パラメタ、マシン語等で指定される。 Hereinafter, embodiments according to one aspect of the present invention (hereinafter, also referred to as “the present embodiment”) will be described with reference to the drawings. However, the embodiments described below are merely examples of the present invention in all respects. Needless to say, various improvements and modifications can be made without departing from the scope of the present invention. That is, in carrying out the present invention, a specific configuration according to the embodiment may be appropriately adopted. Although the data appearing in the present embodiment is described in natural language, more specifically, it is specified in a pseudo language, a command, a parameter, a machine language, etc. that can be recognized by a computer.

§1 適用場面
まず、図1を用いて、本発明が適用される場面について説明する。図1は、本実施形態に係る画像解析装置1が用いられる場面を模式的に例示する。本実施形態に係る画像解析装置1は、カメラ2によって見守り対象者を撮影し、それにより得られた撮影画像3を画像解析することで、見守り対象者の行動を検知する情報処理装置である。そのため、本実施形態に係る画像解析装置1は、見守り対象者の見守りを行う場面で広く利用可能である。
§1 Application scene First, a scene in which the present invention is applied will be described with reference to FIG. FIG. 1 schematically illustrates a scene in which the image analysis device 1 according to the present embodiment is used. The image analysis device 1 according to the present embodiment is an information processing device that detects the behavior of the watching target person by photographing the watching target person with the camera 2 and analyzing the captured image 3 obtained thereby. Therefore, the image analysis device 1 according to the present embodiment can be widely used in a scene of watching over a person to be watched over.

具体的には、図1で例示されるように、見守り対象者のベッドにおける行動を見守るためにカメラ2が設置されており、画像解析装置1は、このカメラ2によって見守り対象者を撮影する。カメラ2は、本発明の「撮影装置」に相当する。また、見守り対象者は、見守りの対象となる人物であり、例えば、入院患者、施設入居者、要介護者である。 Specifically, as illustrated in FIG. 1, a camera 2 is installed to watch the behavior of the watching target person in the bed, and the image analysis device 1 photographs the watching target person by the camera 2. The camera 2 corresponds to the "photographing device" of the present invention. In addition, the person to be watched over is a person to be watched over, for example, an inpatient, a resident of a facility, and a person requiring long-term care.

カメラ2は、撮影画像3内の各画素に対応する深度を取得可能に構成される。本実施形態では、カメラ2は、各画素の深度を取得可能なように、被写体の深度を測定する深度センサ(後述する深度センサ21)を含んでいる。そのため、カメラ2により撮影される撮影画像3は、後述する図6に例示されるように、画素毎に得られる深度を示す深度データを含んでいる。この深度データの示す各画素の深度は、各画素に写る被写体の深さを表現する。そのため、この深度データによれば、カメラ2の設置位置及び撮影方向に依存することなく、撮影画像3に写る被写体の実空間上の位置を特定することができる。 The camera 2 is configured to be able to acquire the depth corresponding to each pixel in the captured image 3. In the present embodiment, the camera 2 includes a depth sensor (depth sensor 21 described later) that measures the depth of the subject so that the depth of each pixel can be acquired. Therefore, the captured image 3 captured by the camera 2 includes depth data indicating the depth obtained for each pixel, as illustrated in FIG. 6 described later. The depth of each pixel indicated by the depth data expresses the depth of the subject reflected in each pixel. Therefore, according to this depth data, it is possible to specify the position of the subject in the photographed image 3 in the real space without depending on the installation position and the photographing direction of the camera 2.

なお、この撮影画像3は、撮影範囲(画角)内の被写体の深度を示すデータを含んでいればよく、例えば、撮影範囲内の被写体の深度が二次元状に分布したデータ(例えば、深度マップ)であってもよい。また、撮影画像3は、深度データとともに、RGB画像を含んでもよい。更に、撮影画像3は、動画像であってもよいし、1又は複数枚の静止画像であってもよい。 The captured image 3 may include data indicating the depth of the subject within the shooting range (angle of view). For example, the depth of the subject within the shooting range is distributed in a two-dimensional manner (for example, depth). It may be a map). Further, the captured image 3 may include an RGB image together with the depth data. Further, the captured image 3 may be a moving image, or may be one or a plurality of still images.

本実施形態では、画像解析装置1は、このような撮影画像3をカメラ2から取得する。そして、画像解析装置1は、取得された撮影画像3と当該撮影画像3の背景に設定された背景画像(後述する背景画像4)との差分を算出することにより、撮影画像3内において前景領域を抽出する。すなわち、画像解析装置1は、いわゆる背景差分法に基づいて、撮影画像3の前景領域を抽出する。 In the present embodiment, the image analysis device 1 acquires such a captured image 3 from the camera 2. Then, the image analysis device 1 calculates the difference between the acquired photographed image 3 and the background image (background image 4 described later) set as the background of the photographed image 3, thereby causing the foreground region in the photographed image 3. Is extracted. That is, the image analysis device 1 extracts the foreground region of the captured image 3 based on the so-called background subtraction method.

この前景領域は、背景画像から変化の生じた場所で抽出される。そのため、見守り対象者が何らかの行動を行った場合には、当該行動に起因して見守り対象者が移動した場所に、当該見守り対象者に対応する前景領域が抽出される。例えば、図1に例示されるように、見守り対象者がベッド上で起き上がった場合には、ベッド面上の所定の高さの範囲に前景領域が現れる。すなわち、見守り対象者の行動に応じた場所に前景領域が現れる。そのため、抽出された前景領域とベッドとの実空間上の位置関係に基づいて、見守り対象者の行動を解析することができる。 This foreground area is extracted from the background image at the place where the change occurs. Therefore, when the watching target person performs some action, the foreground area corresponding to the watching target person is extracted at the place where the watching target person moves due to the action. For example, as illustrated in FIG. 1, when the watch subject gets up on the bed, the foreground region appears in a predetermined height range on the bed surface. That is, the foreground area appears in a place corresponding to the behavior of the person to be watched over. Therefore, it is possible to analyze the behavior of the watching target person based on the positional relationship between the extracted foreground area and the bed in the real space.

具体的には、見守り対象者がベッドから離床する場合には、見守り対象者の起き上がり等に際して前景領域がベッド上に現れ、そのような場所に現れた前景領域がベッドから離れる方向に移動すると想定される。これに対して、見守り対象者以外の人物(以下、「第三者」とも記載する)は、カメラ2の撮影範囲に存在しても、このような動作を行うことはないと想定される。すなわち、一般的には、第三者に対応する前景領域は、ベッド周囲で発生するに過ぎず、ベッド上で発生することはないと想定される。 Specifically, when the person to be watched gets out of bed, it is assumed that the foreground area appears on the bed when the person to be watched gets up, and the foreground area appearing in such a place moves away from the bed. Will be done. On the other hand, it is assumed that a person other than the person to be watched (hereinafter, also referred to as a “third party”) does not perform such an operation even if it exists in the shooting range of the camera 2. That is, in general, it is assumed that the foreground region corresponding to a third party only occurs around the bed and does not occur on the bed.

そこで、本実施形態に係る画像解析装置1は、撮影画像3から抽出された前景領域に含まれる各画素の深度を参照することで、実空間上で、ベッド上に現れた前景領域がベッドから所定距離以上離れた位置に移動したか否かを判定する。そして、本実施形態に係る画像解析装置1は、ベッド上に現れた前景領域がベッドから所定距離以上離れた位置に移動したと判定した場合に、見守り対象者がベッドから離床したことを検知する。したがって、本実施形態によれば、カメラ2の撮影範囲に第三者が存在する場合であっても、この第三者に対応する前景領域を見守り対象者に対応する前景領域と誤認識することなく、見守り対象者の離床を適切に検知することができる。そのため、本実施形態によれば、見守り対象者の離床を検知してからの経過時間の計測を正確に開始することができる。 Therefore, the image analysis device 1 according to the present embodiment refers to the depth of each pixel included in the foreground region extracted from the captured image 3, so that the foreground region appearing on the bed in the real space can be seen from the bed. It is determined whether or not the user has moved to a position separated by a predetermined distance or more. Then, the image analysis device 1 according to the present embodiment detects that the watching target person has left the bed when it is determined that the foreground area appearing on the bed has moved to a position separated from the bed by a predetermined distance or more. .. Therefore, according to the present embodiment, even if a third party exists in the shooting range of the camera 2, the foreground area corresponding to the third party is watched over and erroneously recognized as the foreground area corresponding to the target person. Therefore, it is possible to appropriately detect the person being watched over getting out of bed. Therefore, according to the present embodiment, it is possible to accurately start the measurement of the elapsed time from the detection of the person being watched over getting out of bed.

また、見守り対象者がベッドに就床する場合には、ベッドから離床した見守り対象者がベッド近傍に戻るのに際して、ベッド外の場所で前景領域が抽出されると想定される。例えば、見守り対象者が離床に伴いカメラ2の撮影範囲から退出した場合には、見守り対象者が再びカメラ2の撮影範囲に進入するのに際して、撮影画像3のフレーム近傍で前景領域が抽出される。そして、見守り対象者がベッドに就床するのに際して、そのような場所に現れた前景領域はベッド上に移動すると想定される。これに対して、第三者は、カメラ2の撮影範囲に進入しても、見守り対象者のベッドに就床することはないと想定される。すなわち、第三者に対応する前景領域は、ベッド周囲を移動するに過ぎず、ベッド上には移動しないものと想定される。 In addition, when the person to be watched goes to bed, it is assumed that the foreground area is extracted at a place outside the bed when the person to be watched who has left the bed returns to the vicinity of the bed. For example, when the watching target person leaves the shooting range of the camera 2 due to getting out of bed, the foreground area is extracted near the frame of the shot image 3 when the watching target person enters the shooting range of the camera 2 again. .. Then, when the person to be watched goes to bed, it is assumed that the foreground area appearing in such a place moves on the bed. On the other hand, it is assumed that the third party does not go to bed of the person to be watched even if he / she enters the shooting range of the camera 2. That is, it is assumed that the foreground area corresponding to the third party only moves around the bed and does not move on the bed.

そこで、本実施形態に係る画像解析装置1は、見守り対象者の離床を検知した後に取得された撮影画像3について、抽出された前景領域に含まれる各画素の深度を参照することで、実空間上で、ベッド外に現れた前景領域がベッド上に移動したか否かを判定する。そして、本実施形態に係る画像解析装置1は、ベッド外に現れた前景領域がベッド上に移動したと判定した場合に、見守り対象者がベッドに就床したことを検知する。したがって、本実施形態によれば、見守り対象者がベッドから離床した後にカメラ2の撮影範囲に第三者が進入しても、この第三者に対応する前景領域を見守り対象者に対応する前景領域と誤認識することなく、見守り対象者の就床を適切に検知することができる。そのため、本実施形態によれば、見守り対象者の離床を検知してからの経過時間の計測を正確に停止することができる。 Therefore, the image analysis device 1 according to the present embodiment refers to the depth of each pixel included in the extracted foreground region for the photographed image 3 acquired after detecting the leaving of the bed of the person to be watched over in the real space. Above, it is determined whether or not the foreground area that appears outside the bed has moved onto the bed. Then, the image analysis device 1 according to the present embodiment detects that the person to be watched has gone to bed when it is determined that the foreground region appearing outside the bed has moved onto the bed. Therefore, according to the present embodiment, even if a third party enters the shooting range of the camera 2 after the watch target person gets out of bed, the foreground area corresponding to the third party is watched and the foreground corresponds to the target person. It is possible to appropriately detect the bedtime of the person being watched over without erroneously recognizing it as an area. Therefore, according to the present embodiment, it is possible to accurately stop the measurement of the elapsed time from the detection of the person being watched over getting out of bed.

そして、本実施形態に係る画像解析装置1は、見守り対象者の就床を検知する前に、見守り対象者の離床を検知してからの経過時間が一定時間を超えた場合に、当該見守り対象者が一定時間以上離床していることを知らせるための通知を行う。すなわち、本実施形態によれば、見守り対象者の離床と就床とを適切に検知可能な状況下で、当該見守り対象者の離床を検知してからの経過時間に基づく、当該見守り対象者の離床に関する警報を実行することができる。したがって、本実施形態によれば、カメラ2の撮影範囲に第三者が存在することに起因する見守り対象者の離床に関する誤検知を防止することができ、これによって、見守り対象者の離床に関する警報を精度よく実行することができる。 Then, the image analysis device 1 according to the present embodiment performs the monitoring target when the elapsed time from detecting the leaving of the monitoring target person exceeds a certain time before detecting the bedtime of the monitoring target person. Notify that the person has been out of bed for a certain period of time or longer. That is, according to the present embodiment, in a situation where it is possible to appropriately detect getting out of bed and going to bed of the person being watched over, the person being watched over is based on the elapsed time from detecting the person being watched over getting out of bed. It is possible to execute an alarm regarding getting out of bed. Therefore, according to the present embodiment, it is possible to prevent erroneous detection of the person being watched over getting out of bed due to the presence of a third party in the shooting range of the camera 2, thereby giving an alarm about getting out of bed of the person being watched over. Can be executed accurately.

つまり、本実施形態では、画像解析装置1は、撮影画像3を継続的に取得し、継続的に取得される撮影画像3それぞれについて前景領域を抽出する。画像解析装置1は、この継続的に取得される撮影画像3に基づいて、まずは、見守り対象者の離床の検知判定の処理を実行する。この見守り対象者の離床の検知判定の処理は、見守り対象者の離床を検知するまで繰り返される。 That is, in the present embodiment, the image analysis device 1 continuously acquires the captured image 3, and extracts the foreground region for each of the continuously acquired captured images 3. Based on the continuously acquired captured image 3, the image analysis device 1 first executes a process of detecting and determining the person being watched over to get out of bed. This process of detecting and determining that the person to be watched has left the bed is repeated until the person to be watched has left the bed.

そして、見守り対象者の離床を検知した後、画像解析装置1は、当該離床の検知判定の処理を停止し、見守り対象者の就床の検知判定の処理を開始する。すなわち、画像解析装置1は、見守り対象者の離床を検知した後に取得された撮影画像3に基づいて、見守り対象者の就床の検知判定の処理を実行する。この見守り対象者の就床の検知判定の処理は、見守り対象者の就床を検知するまで繰り返される。 Then, after detecting the bed leaving of the watching target person, the image analysis device 1 stops the processing of the detection determination of the bed leaving, and starts the processing of the detection determination of the bed of the watching target person. That is, the image analysis device 1 executes the process of detecting and determining the bed of the watching target person based on the captured image 3 acquired after detecting the leaving of the watching target person. This process of detecting and determining the bed of the person to be watched is repeated until the bed of the person to be watched is detected.

また、この見守り対象者の就床の検知判定の処理を繰り返している間に、見守り対象者が離床してからの経過時間が一定時間を超えたか否かの判定処理が実行される。そして、本実施形態に係る画像解析装置1は、見守り対象者の就床を検知する前に、見守り対象者が離床してからの経過時間が一定時間を超えた場合に、上記見守り対象者が一定時間以上離床していることを知らせるための通知処理を実行する。 In addition, while repeating the process of detecting and determining the bed of the person to be watched, the process of determining whether or not the elapsed time since the person to be watched leaves the bed exceeds a certain time is executed. Then, in the image analysis device 1 according to the present embodiment, when the elapsed time after the monitoring target person leaves the bed exceeds a certain time before detecting the bedtime of the monitoring target person, the monitoring target person Executes a notification process to notify that the person has been out of bed for a certain period of time or longer.

これによって、本実施形態によれば、見守りを行う空間(ベッド)に見守り対象者が一定時間以上不在である場合に、見守り対象者が一定時間以上不在であることを、当該見守り対象者の見守りを行う見守り者等に知らせることができる。したがって、本実施形態に係る画像解析装置1によれば、見守り対象者がベッドから長時間離床している状態を放置するのを防止することができ、当該見守り対象者の見守りを適切に行うことができる。 As a result, according to the present embodiment, when the person to be watched is absent for a certain period of time or more in the space (bed) to be watched, the person to be watched is absent for a certain period of time or more. It is possible to inform the watchers who perform the above. Therefore, according to the image analysis device 1 according to the present embodiment, it is possible to prevent the person to be watched from leaving the bed for a long time, and to appropriately watch the person to be watched. Can be done.

なお、図1では、カメラ2は、ベッドのフットボード側から見守り対象者を撮影するように配置されている。しかしながら、カメラ2の設置位置は、このような例に限定されなくてもよく、見守り対象者のベッドにおける行動を撮影可能であれば、いかなる場所に配置されてもよい。 In addition, in FIG. 1, the camera 2 is arranged so as to photograph the person to be watched from the footboard side of the bed. However, the installation position of the camera 2 is not limited to such an example, and may be arranged at any place as long as it is possible to photograph the behavior of the person to be watched over in the bed.

また、画像解析装置1の配置場所は、カメラ2から撮影画像3を取得可能であれば、実施の形態に応じて適宜決定可能である。例えば、画像解析装置1は、図1に例示されるように、カメラ2に近接するように配置されてもよい。また、画像解析装置1は、ネットワークを介してカメラ2と接続してもよく、当該カメラ2とは全く異なる場所に配置されてもよい。 Further, the arrangement location of the image analysis device 1 can be appropriately determined according to the embodiment as long as the captured image 3 can be acquired from the camera 2. For example, the image analysis device 1 may be arranged so as to be close to the camera 2 as illustrated in FIG. Further, the image analysis device 1 may be connected to the camera 2 via a network, or may be arranged at a place completely different from the camera 2.

§2 構成例
<ハードウェア構成>
次に、図2を用いて、画像解析装置1のハードウェア構成を説明する。図2は、本実施形態に係る画像解析装置1のハードウェア構成を例示する。画像解析装置1は、図2に例示されるように、CPU、RAM(Random Access Memory)、ROM(Read Only Memory)等を含む制御部11、制御部11で実行するプログラム5等を記憶する記憶部12、画像の表示と入力を行うためのタッチパネルディスプレイ13、音声を出力するためのスピーカ14、外部装置と接続するための外部インタフェース15、ネットワークを介して通信を行うための通信インタフェース16、及び記憶媒体6に記憶されたプログラムを読み込むためのドライブ17が電気的に接続されたコンピュータである。図2では、通信インタフェース及び外部インタフェースは、それぞれ、「通信I/F」及び「外部I/F」と記載されている。
§2 Configuration example <Hardware configuration>
Next, the hardware configuration of the image analysis device 1 will be described with reference to FIG. FIG. 2 illustrates the hardware configuration of the image analysis device 1 according to the present embodiment. As illustrated in FIG. 2, the image analysis device 1 stores a control unit 11 including a CPU, a RAM (Random Access Memory), a ROM (Read Only Memory), and a program 5 executed by the control unit 11. A unit 12, a touch panel display 13 for displaying and inputting an image, a speaker 14 for outputting audio, an external interface 15 for connecting to an external device, a communication interface 16 for communicating via a network, and A computer to which a drive 17 for reading a program stored in the storage medium 6 is electrically connected. In FIG. 2, the communication interface and the external interface are described as "communication I / F" and "external I / F", respectively.

なお、画像解析装置1の具体的なハードウェア構成に関して、実施形態に応じて、適宜、構成要素の省略、置換、及び追加が可能である。例えば、制御部11は、複数のプロセッサを含んでもよい。また、例えば、タッチパネルディスプレイ13は、それぞれ別個独立に接続される入力装置及び表示装置に置き換えられてもよい。また、例えば、スピーカ14は省略されてもよい。また、例えば、スピーカ14は、画像解析装置1の内部装置としてではなく、外部装置として画像解析装置1に接続されてもよい。また、画像解析装置1はカメラ2を内蔵してもよい。更に、画像解析装置1は、複数の外部インタフェース15を備えてもよく、複数の外部装置と接続してもよい。 Regarding the specific hardware configuration of the image analysis device 1, it is possible to omit, replace, and add components as appropriate according to the embodiment. For example, the control unit 11 may include a plurality of processors. Further, for example, the touch panel display 13 may be replaced with an input device and a display device that are individually and independently connected to each other. Further, for example, the speaker 14 may be omitted. Further, for example, the speaker 14 may be connected to the image analysis device 1 as an external device instead of as an internal device of the image analysis device 1. Further, the image analysis device 1 may have a built-in camera 2. Further, the image analysis device 1 may include a plurality of external interfaces 15 and may be connected to a plurality of external devices.

本実施形態では、カメラ2は、外部インタフェース15を介して画像解析装置1に接続しており、見守り対象者を撮影するために設置されている。本実施形態に係るカメラ2は、被写体の深度を測定するための深度センサ21を備えている。この深度センサ21の種類及び測定方法は、実施の形態に応じて適宜選択されてよい。例えば、深度センサ21として、TOF(Time Of Flight)方式等のセンサを挙げることができる。 In the present embodiment, the camera 2 is connected to the image analysis device 1 via the external interface 15 and is installed to photograph the person to be watched over. The camera 2 according to the present embodiment includes a depth sensor 21 for measuring the depth of the subject. The type and measurement method of the depth sensor 21 may be appropriately selected according to the embodiment. For example, as the depth sensor 21, a sensor such as a TOF (Time Of Flight) method can be mentioned.

ただし、カメラ2の構成は、被写体の深度を取得可能であれば、このような例に限定されなくてもよく、実施の形態に応じて適宜選択可能である。例えば、カメラ2は、ステレオカメラであってもよい。ステレオカメラは、撮影範囲内の被写体を複数の異なる方向から撮影するため、当該被写体の深度を記録することができる。また、カメラ2は、深度センサ21単体に置き換わってもよい。 However, the configuration of the camera 2 is not limited to such an example as long as the depth of the subject can be acquired, and can be appropriately selected according to the embodiment. For example, the camera 2 may be a stereo camera. Since the stereo camera shoots a subject within the shooting range from a plurality of different directions, the depth of the subject can be recorded. Further, the camera 2 may be replaced with the depth sensor 21 alone.

なお、見守り対象者を撮影する場所は暗い可能性がある。そこで、撮影場所の明るさに影響されずに深度を取得可能なように、深度センサ21は、赤外線の照射に基づいて深度を測定する赤外線深度センサであってもよい。このような赤外線深度センサを含む比較的安価な撮影装置として、例えば、マイクロソフト社のKinect、ASUS社のXtion、Occipital社のStructure Sensorを挙げることができる。 In addition, the place where the person to be watched is photographed may be dark. Therefore, the depth sensor 21 may be an infrared depth sensor that measures the depth based on the irradiation of infrared rays so that the depth can be acquired without being affected by the brightness of the photographing place. Examples of relatively inexpensive imaging devices including such an infrared depth sensor include Kinect from Microsoft, Xtion from ASUS, and Structure Sensor from Occipital.

ここで、図3を用いて、本実施形態に係る深度センサ21によって測定される深度を詳細に説明する。図3は、本実施形態に係る深度として扱うことが可能な距離の一例を示す。当該深度は、被写体の深さを表現する。図3で例示されるように、被写体の深さは、例えば、カメラ2と対象物との直線の距離Aで表現されてもよいし、カメラ2の被写体に対する水平軸から下ろした垂線の距離Bで表現されてもよい。 Here, the depth measured by the depth sensor 21 according to the present embodiment will be described in detail with reference to FIG. FIG. 3 shows an example of a distance that can be treated as the depth according to the present embodiment. The depth expresses the depth of the subject. As illustrated in FIG. 3, the depth of the subject may be expressed by, for example, the distance A of the straight line between the camera 2 and the object, or the distance B of the perpendicular line drawn from the horizontal axis with respect to the subject of the camera 2. It may be expressed by.

すなわち、本実施形態に係る深度は、距離Aであってもよいし、距離Bであってもよい。本実施形態では、距離Bを深度として扱うことにする。ただし、距離Aと距離Bとは、例えば、三平方の定理等を用いることで、互いに変換可能である。そのため、距離Bを用いた以降の説明は、そのまま、距離Aに適用することが可能である。このような深度を利用することで、本実施形態に係る画像解析装置1は、実空間上における被写体の位置を特定することができる。 That is, the depth according to the present embodiment may be a distance A or a distance B. In the present embodiment, the distance B is treated as the depth. However, the distance A and the distance B can be converted to each other by using, for example, the three-square theorem. Therefore, the following description using the distance B can be applied to the distance A as it is. By using such a depth, the image analysis device 1 according to the present embodiment can specify the position of the subject in the real space.

このカメラ2は、見守り対象者のベッドにおける行動を見守るために、ベッド周辺の領域を撮影可能なように設置される。例えば、上記のとおり、図1では、カメラ2は、ベッドのフットボード側から見守り対象者を撮影するように配置されている。ただし、本実施形態では、カメラ2は、このように被写体の深度を測定可能に構成される。そのため、本実施形態では、カメラ2の設置場所及び撮影方向に依存することなく、被写体の実空間上の位置を特定することができる。したがって、カメラ2の設置場所及び撮影方向は、比較的に自由に設定することができる。 The camera 2 is installed so that the area around the bed can be photographed in order to watch the behavior of the person to be watched over in the bed. For example, as described above, in FIG. 1, the camera 2 is arranged so as to photograph the person to be watched from the footboard side of the bed. However, in the present embodiment, the camera 2 is configured to be able to measure the depth of the subject in this way. Therefore, in the present embodiment, the position of the subject in the real space can be specified without depending on the installation location and the shooting direction of the camera 2. Therefore, the installation location and shooting direction of the camera 2 can be set relatively freely.

また、本実施形態では、記憶部12は、プログラム5を格納する。このプログラム5は、画像解析装置1に後述する見守り対象者の見守りに関する処理手順を実行させるためのプログラムであり、本発明の「画像解析プログラム」に相当する。このプログラム5は記憶媒体6に記録されていてもよい。 Further, in the present embodiment, the storage unit 12 stores the program 5. This program 5 is a program for causing the image analysis device 1 to execute a processing procedure related to watching over a person to be watched, which will be described later, and corresponds to the "image analysis program" of the present invention. This program 5 may be recorded on the storage medium 6.

記憶媒体6は、コンピュータその他装置、機械等が記録されたプログラム等の情報を読み取り可能なように、当該プログラム等の情報を、電気的、磁気的、光学的、機械的又は化学的作用によって蓄積する媒体である。記憶媒体6は、本発明の「記憶媒体」に相当する。なお、図2は、記憶媒体6の一例として、CD(Compact Disk)、DVD(Digital Versatile Disk)等のディスク型の記憶媒体を例示している。しかしながら、記憶媒体6の種類は、ディスク型に限定される訳ではなく、ディスク型以外であってもよい。ディスク型以外の記憶媒体として、例えば、フラッシュメモリ等の半導体メモリを挙げることができる。 The storage medium 6 stores the information of the program or the like by electrical, magnetic, optical, mechanical or chemical action so that the computer or other device, the machine or the like can read the information of the recorded program or the like. It is a medium to do. The storage medium 6 corresponds to the "storage medium" of the present invention. Note that FIG. 2 illustrates a disc-type storage medium such as a CD (Compact Disk) or a DVD (Digital Versatile Disk) as an example of the storage medium 6. However, the type of the storage medium 6 is not limited to the disc type, and may be other than the disc type. Examples of storage media other than the disk type include semiconductor memories such as flash memories.

なお、このような画像解析装置1は、例えば、提供されるサービス専用に設計された装置であってもよいし、PC(Personal Computer)、タブレット端末等の汎用の装置であってもよい。更に、画像解析装置1は、1又は複数のコンピュータにより実装されてもよい。 The image analysis device 1 may be, for example, a device designed exclusively for the provided service, or a general-purpose device such as a PC (Personal Computer) or a tablet terminal. Further, the image analysis device 1 may be implemented by one or more computers.

<機能構成例>
次に、図4を用いて、画像解析装置1の機能構成を説明する。図4は、本実施形態に係る画像解析装置1の機能構成を例示する。本実施形態では、画像解析装置1の制御部11は、記憶部12に記憶されたプログラム5をRAMに展開する。そして、制御部11は、RAMに展開されたプログラム5をCPUにより解釈及び実行して、各構成要素を制御する。これにより、画像解析装置1は、画像取得部111、前景抽出部112、離床検知部113、就床検知部114及び通知部115を備えるコンピュータとして機能する。
<Function configuration example>
Next, the functional configuration of the image analysis device 1 will be described with reference to FIG. FIG. 4 illustrates the functional configuration of the image analysis device 1 according to the present embodiment. In the present embodiment, the control unit 11 of the image analysis device 1 expands the program 5 stored in the storage unit 12 into the RAM. Then, the control unit 11 interprets and executes the program 5 expanded in the RAM by the CPU to control each component. As a result, the image analysis device 1 functions as a computer including an image acquisition unit 111, a foreground extraction unit 112, a bed leaving detection unit 113, a bedtime detection unit 114, and a notification unit 115.

画像取得部111は、カメラ2によって撮影された撮影画像3を取得する。カメラ2には深度センサ21が含まれているため、取得される撮影画像3には、当該撮影画像3内の各画素の深度を示す深度データが含まれる。前景抽出部112は、取得された撮影画像3と当該撮影画像3の背景に設定された背景画像4との差分を算出することにより、取得された撮影画像3の前景領域を抽出する。すなわち、前景抽出部112は、いわゆる背景差分法に基づいて、背景から変化した領域である前景領域を撮影画像3において抽出する。 The image acquisition unit 111 acquires the captured image 3 captured by the camera 2. Since the camera 2 includes the depth sensor 21, the acquired captured image 3 includes depth data indicating the depth of each pixel in the captured image 3. The foreground extraction unit 112 extracts the foreground region of the acquired photographed image 3 by calculating the difference between the acquired photographed image 3 and the background image 4 set as the background of the photographed image 3. That is, the foreground extraction unit 112 extracts the foreground region, which is a region changed from the background, in the captured image 3 based on the so-called background subtraction method.

上記のとおり、前景領域は、背景画像4から変化の生じた場所で抽出される。そのため、見守り対象者が何らかの行動を行った場合には、当該行動に起因して見守り対象者が移動した場所に、当該見守り対象者に対応する前景領域が抽出される。そこで、離床検知部113は、抽出された前景領域に含まれる各画素の深度を参照することで、実空間上で、ベッド上に現れた前景領域が前記ベッドから所定距離以上離れた位置に移動したか否かを判定する。そして、離床検知部113は、当該ベッド上に現れた前景領域がベッドから所定距離以上離れた位置に移動したと判定した場合に、見守り対象者がベッドから離床したことを検知する。 As described above, the foreground region is extracted from the background image 4 at the place where the change occurs. Therefore, when the watching target person performs some action, the foreground area corresponding to the watching target person is extracted at the place where the watching target person moves due to the action. Therefore, the bed leaving detection unit 113 moves the foreground region appearing on the bed to a position separated from the bed by a predetermined distance or more in the real space by referring to the depth of each pixel included in the extracted foreground region. Determine if it has been done. Then, the bed leaving detection unit 113 detects that the watching target person has left the bed when it is determined that the foreground area appearing on the bed has moved to a position separated from the bed by a predetermined distance or more.

また、就床検知部114は、見守り対象者がベッドから離床したことを検知した後に取得された撮影画像3について、抽出された前景領域に含まれる各画素の深度を参照することで、実空間上で、ベッド外に現れた前景領域がベッド上に移動したか否かを判定する。そして、就床検知部114は、当該ベッド外に現れた前景領域がベッド上に移動したと判定した場合に、見守り対象者がベッドに就床したことを検知する。 In addition, the bedtime detection unit 114 refers to the depth of each pixel included in the extracted foreground region for the photographed image 3 acquired after detecting that the person to be watched has left the bed, so that the real space Above, it is determined whether or not the foreground area that appears outside the bed has moved onto the bed. Then, when it is determined that the foreground area appearing outside the bed has moved onto the bed, the bed detection unit 114 detects that the person to be watched has gone to bed.

そして、通知部115は、見守り対象者の就床を検知する前に、見守り対象者の離床を検知してからの経過時間が一定時間を超えた場合に、見守り対象者が一定時間以上離床していることを知らせるための通知を行う。すなわち、通知部115は、見守り対象者の離床が一定時間以上継続していると認定される場合に、見守り対象者が一定時間以上離床していることを知らせる警報を実行する。 Then, the notification unit 115 leaves the watch target person for a certain period of time or more when the elapsed time from detecting the bed leaving of the watch target person exceeds a certain time before detecting the bed of the watch target person. Make a notification to let you know that you are. That is, when it is determined that the person being watched over has been out of bed for a certain period of time or longer, the notification unit 115 executes an alarm notifying that the person being watched over has been out of bed for a certain period of time or longer.

なお、本実施形態では、これらの機能がいずれも汎用のCPUによって実現される例を説明している。しかしながら、これらの機能の一部又は全部が、1又は複数の専用のプロセッサにより実現されてもよい。また、画像解析装置1の機能構成に関して、実施形態に応じて、適宜、機能の省略、置換、及び追加が行われてもよい。各機能に関しては後述する動作例で詳細に説明する。 In this embodiment, an example in which all of these functions are realized by a general-purpose CPU is described. However, some or all of these functions may be realized by one or more dedicated processors. Further, regarding the functional configuration of the image analysis device 1, the functions may be omitted, replaced, or added as appropriate according to the embodiment. Each function will be described in detail in an operation example described later.

§3 動作例
次に、図5を用いて、画像解析装置1の動作例を説明する。図5は、画像解析装置1による見守り対象者の見守りに関する処理手順を例示する。なお、以下で説明する見守り対象者の見守りに関する処理手順は、本発明の「画像解析方法」に相当する。ただし、以下で説明する見守り対象者の見守りに関する処理手順は一例に過ぎず、各処理は可能な限り変更されてもよい。また、以下で説明する処理手順について、実施の形態に応じて、適宜、ステップの省略、置換及び追加が可能である。
§3 Operation example Next, an operation example of the image analysis apparatus 1 will be described with reference to FIG. FIG. 5 illustrates a processing procedure for watching over a person to be watched by the image analysis device 1. The processing procedure for watching over the person to be watched described below corresponds to the "image analysis method" of the present invention. However, the processing procedure for watching over the person to be watched described below is only an example, and each processing may be changed as much as possible. Further, with respect to the processing procedure described below, steps can be omitted, replaced and added as appropriate according to the embodiment.

(概要)
本実施形態では、制御部11は、まず、ステップS101〜S104の処理によって、見守り対象者の離床を検知する判定処理を実行する。ステップS101〜S104の処理は、見守り対象者の離床を検知するまで繰り返される。見守り対象者の離床を検知すると、制御部11は、次に、ステップS105〜S109の処理によって、見守り対象者の就床を検知する判定処理を実行しつつ、見守り対象者が離床してからの経過時間を判定する。そして、見守り対象者が離床してからの経過時間が一定時間を超える前に、見守り対象者の就床を検知した場合には、制御部11は、本動作例に係る処理を終了する。一方、見守り対象者の就床を検知する前に、見守り対象者が離床してからの経過時間が一定時間を超えた場合には、ステップS110において、見守り対象者が一定時間以上離床していることを知らせるための通知を行う。以下、各処理について、詳細に説明する。
(Overview)
In the present embodiment, the control unit 11 first executes a determination process of detecting the person being watched over to get out of bed by the processes of steps S101 to S104. The processes of steps S101 to S104 are repeated until it is detected that the person to be watched has left the bed. When the monitoring target person has detected the bed leaving, the control unit 11 then executes the determination process of detecting the monitoring target person's bedtime by the processing of steps S105 to S109, and after the watching target person leaves the bed. Determine the elapsed time. Then, if the monitoring target person detects the bedtime before the elapsed time from getting out of bed exceeds a certain time, the control unit 11 ends the process related to this operation example. On the other hand, if the elapsed time from the person to be watched getting out of bed exceeds a certain time before detecting the bedtime of the person to be watched over, in step S110, the person to be watched over has left the bed for a certain period of time or more. Make a notification to let you know. Hereinafter, each process will be described in detail.

(ステップS101)
ステップS101では、制御部11は、画像取得部111として機能し、カメラ2により撮影された撮影画像3を取得する。そして、撮影画像3を取得すると、制御部11は、次のステップS102に処理を進める。
(Step S101)
In step S101, the control unit 11 functions as an image acquisition unit 111 to acquire the captured image 3 captured by the camera 2. Then, when the captured image 3 is acquired, the control unit 11 proceeds to the next step S102.

上記のとおり、本実施形態では、カメラ2は、深度センサ21を備えている。そのため、本ステップS101において取得される撮影画像3には、各画素の深度を示す深度データが含まれている。制御部11は、この深度データを含む撮影画像3として、例えば、図6で例示される撮影画像3を取得する。 As described above, in the present embodiment, the camera 2 includes the depth sensor 21. Therefore, the captured image 3 acquired in this step S101 includes depth data indicating the depth of each pixel. The control unit 11 acquires, for example, the photographed image 3 illustrated in FIG. 6 as the photographed image 3 including the depth data.

図6は、深度データを含む撮影画像3の一例を示す。図6で例示される撮影画像3は、各画素の濃淡値が当該各画素の深度に応じて定められた画像である。黒色の画素ほど、カメラ2に近いことを示す。一方、白色の画素ほど、カメラ2から遠いことを示す。この撮影画像3は、深度画像と称されてもよい。制御部11は、この深度データに基づいて、各画素の写る対象の実空間での位置を特定することができる。すなわち、制御部11は、撮影画像3内の各画素の座標(二次元情報)と深度とから、当該各画素内に写る被写体の三次元空間(実空間)での位置を特定することができる。以下、図7及び図8を用いて、制御部11が各画素の実空間上での位置を特定する計算例を示す。 FIG. 6 shows an example of the captured image 3 including the depth data. The photographed image 3 illustrated in FIG. 6 is an image in which the shading value of each pixel is determined according to the depth of each pixel. The blacker the pixel, the closer it is to the camera 2. On the other hand, the whiter the pixel, the farther it is from the camera 2. The captured image 3 may be referred to as a depth image. Based on this depth data, the control unit 11 can specify the position of each pixel in the real space to be captured. That is, the control unit 11 can specify the position of the subject in each pixel in the three-dimensional space (real space) from the coordinates (two-dimensional information) and the depth of each pixel in the captured image 3. .. Hereinafter, with reference to FIGS. 7 and 8, a calculation example in which the control unit 11 specifies the position of each pixel in the real space is shown.

図7は、撮影画像3内の座標関係を例示する。また、図8は、撮影画像3の任意の画素(点s)とカメラ2との実空間内での位置関係を例示する。なお、図7の左右方向は、図8の紙面に垂直な方向に対応する。すなわち、図8で表れている撮影画像3の長さは、図7で例示される縦方向の長さ(Hピクセル)に対応する。また、図7で例示される横方向の長さ(Wピクセル)は、図8で表れていない撮影画像3の紙面垂直方向の長さに対応する。 FIG. 7 illustrates the coordinate relationship in the captured image 3. Further, FIG. 8 illustrates the positional relationship between an arbitrary pixel (point s) of the captured image 3 and the camera 2 in the real space. The left-right direction of FIG. 7 corresponds to the direction perpendicular to the paper surface of FIG. That is, the length of the captured image 3 shown in FIG. 8 corresponds to the length (H pixel) in the vertical direction exemplified in FIG. 7. Further, the horizontal length (W pixel) exemplified in FIG. 7 corresponds to the length in the vertical direction of the paper surface of the captured image 3 not shown in FIG.

図7で例示されるように、撮影画像3の任意の画素(点s)の座標が(xs,ys)であるとし、カメラ2の横方向の画角がVx、縦方向の画角がVyであるとする。また、撮影画像3の横方向のピクセル数がWであるとし、縦方向のピクセル数がHであるとし、撮影画像3の中心点(画素)の座標が(0,0)であるとする。As illustrated in FIG. 7, assuming that the coordinates of an arbitrary pixel (point s) of the captured image 3 are (x s , y s ), the horizontal angle of view of the camera 2 is V x , and the vertical image. Suppose the angle is V y . Further, it is assumed that the number of pixels in the horizontal direction of the captured image 3 is W, the number of pixels in the vertical direction is H, and the coordinates of the center point (pixel) of the captured image 3 are (0,0).

制御部11は、カメラ2の画角(Vx、Vy)を示す情報をカメラ2から取得することができる。ただし、カメラ2の画角(Vx、Vy)を示す情報を取得する方法はこのような例に限られず、制御部11は、カメラ2の画角(Vx、Vy)を示す情報を、ユーザ入力に基づき取得してもよいし、予め設定されている設定値として取得してもよい。また、制御部11は、撮影画像3から、点sの座標(xs,ys)及び撮影画像3のピクセル数(W×H)を取得することができる。更に、制御部11は、撮影画像3に含まれる深度データを参照することによって、点sの深度Dsを取得することができる。The control unit 11 can acquire information indicating the angle of view (V x , V y ) of the camera 2 from the camera 2. However, the method of acquiring the information indicating the angle of view (V x , V y ) of the camera 2 is not limited to such an example, and the control unit 11 indicates the information indicating the angle of view (V x , V y ) of the camera 2. May be acquired based on user input, or may be acquired as a preset setting value. Further, the control unit 11 can acquire the coordinates (x s , y s ) of the point s and the number of pixels (W × H) of the photographed image 3 from the photographed image 3. Further, the control unit 11 can acquire the depth Ds of the point s by referring to the depth data included in the captured image 3.

制御部11は、これらの情報を利用することで、当該各画素(点s)の実空間上の位置を特定することができる。例えば、制御部11は、以下の数1〜3で示される関係式に基づいて、図8に例示されるカメラ座標系におけるカメラ2から点sまでのベクトルS(Sx,Sy,Sz,1)の各値を算出することができる。これにより、撮影画像3内の二次元座標系における点sの位置とカメラ座標系における点sの位置とは相互に変換可能になる。By using this information, the control unit 11 can specify the position of each pixel (point s) in the real space. For example, the control unit 11 has a vector S (S x , S y , S z) from the camera 2 to the point s in the camera coordinate system exemplified in FIG. 8 based on the relational expression shown by the following equations 1 to 3. , 1) can be calculated. As a result, the position of the point s in the two-dimensional coordinate system in the captured image 3 and the position of the point s in the camera coordinate system can be mutually converted.

ただし、上記ベクトルSは、カメラ2を中心とした三次元座標系のベクトルである。このカメラ2は、図8に例示されるように、水平方向に対して傾いている場合がある。すなわち、カメラ座標系は、三次元空間(実空間)のワールド座標系から傾いている場合がある。そのため、制御部11は、カメラ2のロール角、ピッチ角(図8のα)及びヨー角を用いた射影変換を上記ベクトルSに適用することによって、上記カメラ座標系のベクトルSをワールド座標系のベクトルに変換し、ワールド座標系における点sの位置を算出してもよい。 However, the vector S is a vector of a three-dimensional coordinate system centered on the camera 2. The camera 2 may be tilted with respect to the horizontal direction, as illustrated in FIG. That is, the camera coordinate system may be tilted from the world coordinate system of the three-dimensional space (real space). Therefore, the control unit 11 applies the projective transformation using the roll angle, pitch angle (α in FIG. 8) and yaw angle of the camera 2 to the vector S, thereby changing the vector S of the camera coordinate system to the world coordinate system. The position of the point s in the world coordinate system may be calculated by converting to the vector of.

なお、撮影画像3は、動画像であってもよいし、1又は複数枚の静止画像であってもよい。また、制御部11は、このような撮影画像3を、カメラ2のビデオ信号に同期して取得してもよい。そして、制御部11は、カメラ2と同期して取得した撮影画像3に対して、後述するステップS102〜S104までの処理を即座に実行してもよい。画像解析装置1は、このような動作を絶え間なく継続的に実行することにより、カメラ2の撮影範囲に存在する見守り対象者の離床をリアルタイムに検知することができる。以下では、このように継続的に取得される撮影画像3により見守り対象者の離床を検知する例を説明する。 The captured image 3 may be a moving image, or may be one or a plurality of still images. Further, the control unit 11 may acquire such a captured image 3 in synchronization with the video signal of the camera 2. Then, the control unit 11 may immediately execute the processes of steps S102 to S104 described later for the captured image 3 acquired in synchronization with the camera 2. By continuously and continuously executing such an operation, the image analysis device 1 can detect the getting out of bed of the watching target person existing in the shooting range of the camera 2 in real time. In the following, an example of detecting the getting out of bed of the watching target person by the captured image 3 continuously acquired in this way will be described.

(ステップS102)
図5に戻り、次のステップS102では、制御部11は、前景抽出部112として機能し、ステップS101で取得された撮影画像3と当該撮影画像3の背景に設定された背景画像4との差分を算出することにより、当該撮影画像3の前景領域を抽出する。背景画像4は、背景差分法に基づいて撮影画像3において前景領域を抽出するために利用されるデータである。制御部11は、例えば、当該見守り対象者の見守りを開始したとき等任意のタイミングに取得される撮影画像3によって、この背景画像4を作成することができる。
(Step S102)
Returning to FIG. 5, in the next step S102, the control unit 11 functions as the foreground extraction unit 112, and the difference between the captured image 3 acquired in step S101 and the background image 4 set as the background of the captured image 3. Is calculated to extract the foreground region of the captured image 3. The background image 4 is data used for extracting a foreground region in the captured image 3 based on the background subtraction method. The control unit 11 can create the background image 4 from the captured image 3 acquired at an arbitrary timing such as when the monitoring target person is started to be watched.

なお、撮影画像3により背景画像4を作成する方法は、実施の形態に応じて適宜選択されてよい。例えば、制御部11は、カメラ2により得られる1フレーム分の撮影画像3をそのまま背景画像4に設定してもよい。また、例えば、制御部11は、カメラ2により得られる数フレーム分の撮影画像3の平均を算出することで、背景画像4を作成してもよい。これによって、各画素の深度を示す深度データを含む背景画像4を生成することができる。 The method of creating the background image 4 from the captured image 3 may be appropriately selected depending on the embodiment. For example, the control unit 11 may set the captured image 3 for one frame obtained by the camera 2 as the background image 4 as it is. Further, for example, the control unit 11 may create the background image 4 by calculating the average of the captured images 3 for several frames obtained by the camera 2. As a result, the background image 4 including the depth data indicating the depth of each pixel can be generated.

本ステップS102では、制御部11は、このように作成される背景画像4とステップS101で取得した撮影画像3との差分を算出することにより、ステップS101で取得した撮影画像3において前景領域を抽出する。例えば、制御部11は、図9及び図10で例示されるように、撮影画像3において前景領域を抽出することができる。 In this step S102, the control unit 11 extracts the foreground region in the captured image 3 acquired in step S101 by calculating the difference between the background image 4 created in this way and the captured image 3 acquired in step S101. To do. For example, the control unit 11 can extract a foreground region in the captured image 3 as illustrated in FIGS. 9 and 10.

図9は、撮影画像3に含まれる深度データに基づいて特定される撮影範囲内の各画素(被写体)の三次元分布を例示する。図10は、図9で例示した被写体のうち撮影画像3から抽出される前景領域の三次元分布を例示する。上記のとおり、深度データに基づいて、撮影画像3の各画素の三次元空間(実空間)上の位置を特定することができる。そのため、制御部11は、撮影画像3内の位置と深度とにより各画素を三次元空間内でプロットすることで、図6で例示される撮影画像3から、図9で例示される三次元分布を作成することができる。また、背景画像4も、撮影画像3と同様に、深度データを含んでいる。そのため、制御部11は、背景画像4についても、図9で例示されるような各画素の三次元分布を特定することができる。 FIG. 9 illustrates a three-dimensional distribution of each pixel (subject) within a shooting range specified based on the depth data included in the shot image 3. FIG. 10 illustrates the three-dimensional distribution of the foreground region extracted from the captured image 3 among the subjects illustrated in FIG. As described above, the position of each pixel of the captured image 3 in the three-dimensional space (real space) can be specified based on the depth data. Therefore, the control unit 11 plots each pixel in the three-dimensional space according to the position and depth in the captured image 3, so that the captured image 3 illustrated in FIG. 6 to the three-dimensional distribution exemplified in FIG. 9 are plotted. Can be created. Further, the background image 4 also includes depth data like the captured image 3. Therefore, the control unit 11 can also specify the three-dimensional distribution of each pixel as illustrated in FIG. 9 for the background image 4.

そこで、制御部11は、撮影画像3及び背景画像4の対応する画素の深度を比較する。そして、制御部11は、撮影画像3と背景画像4とで深度の相違する画素を前景領域として抽出する。これによって、制御部11は、図10で例示されるような前景領域を抽出することができる。ステップS101で取得した撮影画像3において前景領域を抽出すると、制御部11は、次のステップS103に処理を進める。 Therefore, the control unit 11 compares the depths of the corresponding pixels of the captured image 3 and the background image 4. Then, the control unit 11 extracts pixels having different depths between the captured image 3 and the background image 4 as the foreground region. As a result, the control unit 11 can extract the foreground region as illustrated in FIG. When the foreground region is extracted from the captured image 3 acquired in step S101, the control unit 11 proceeds to the next step S103.

(ステップS103)
図5に戻り、次のステップS103では、制御部11は、離床検知部113として機能し、見守り対象者の離床を検知する判定処理を実行する。すなわち、制御部11は、ステップS102で抽出された前景領域に含まれる各画素の深度を参照することで、実空間上で、ベッド上に現れた前景領域がベッドから所定距離以上離れた位置に移動したか否かを判定する。
(Step S103)
Returning to FIG. 5, in the next step S103, the control unit 11 functions as the bed leaving detection unit 113, and executes a determination process for detecting the bed leaving of the watching target person. That is, the control unit 11 refers to the depth of each pixel included in the foreground region extracted in step S102 so that the foreground region appearing on the bed is located at a position separated from the bed by a predetermined distance or more in the real space. Determine if it has moved.

そして、本ステップS103において、ベッド上に現れた前景領域がベッドから所定距離以上離れた位置に移動したと判定できた場合には、制御部11は、見守り対象者の離床を検知した上で、次のステップS104に処理を進める。一方、そのような判定ができなかった場合には、制御部11は、見守り対象者の離床を検知することなく、次のステップS104に処理を進める。 Then, in the present step S103, when it can be determined that the foreground area appearing on the bed has moved to a position separated from the bed by a predetermined distance or more, the control unit 11 detects that the person to be watched has left the bed and then leaves the bed. The process proceeds to the next step S104. On the other hand, if such a determination cannot be made, the control unit 11 proceeds to the next step S104 without detecting the person being watched over from bed.

ここで、図11A、図11B、図12A及び図12Bを用いて、本ステップS103において、見守り対象者の離床を検知する判定処理を具体的に説明する。図11Aは、見守り対象者が離床する際にベッドから起き上がった場面を模式的に例示する。図11Bは、見守り対象者がベッドから所定距離HA以上離れた位置に移動した場面を模式的に例示する。図12Aは、図11Aの場面の際に抽出される前景領域の位置を模式的に例示する。また、図12Bは、図11Bの場面の際に抽出される前景領域の位置を模式的に例示する。なお、以下では、説明の便宜のため、ベッドのヘッドボードとフットボードとを結ぶ方向を「前後方向」と称し、ベッド側部(サイドフレーム)間を結ぶ方向を「左右方向」と称し、ベッドの鉛直方向を「上下方向」と称する。 Here, with reference to FIGS. 11A, 11B, 12A and 12B, the determination process for detecting the leaving of the watched person in the step S103 will be specifically described. FIG. 11A schematically illustrates a scene in which the watching subject gets up from the bed when getting out of bed. FIG. 11B schematically illustrates a scene in which the person to be watched moves to a position separated from the bed by a predetermined distance HA or more. FIG. 12A schematically illustrates the position of the foreground region extracted during the scene of FIG. 11A. Further, FIG. 12B schematically illustrates the position of the foreground region extracted in the scene of FIG. 11B. In the following, for convenience of explanation, the direction connecting the headboard and footboard of the bed is referred to as the "front-back direction", and the direction connecting the side portions (side frames) of the bed is referred to as the "left-right direction". The vertical direction of is referred to as "vertical direction".

ベッドから離床する際には、まず、見守り対象者は、ベッドから立ち上がるため、ベッド上で身体を動かす。例えば、図11Aに例示されるように、見守り対象者は、上半身を起こす動作をベッド上で行う。そして、見守り対象者は、ベッド側部において立ち上がり、図11Bに例示されるようにベッドから離れる方向に移動する。 When getting out of bed, the person being watched first moves his / her body on the bed to get up from the bed. For example, as illustrated in FIG. 11A, the watching subject performs an action of raising the upper body on the bed. Then, the person to be watched stands up on the side of the bed and moves in the direction away from the bed as illustrated in FIG. 11B.

そのため、見守り対象者の離床を検知するまで繰り返されるステップS101〜S104の一連の処理において、繰り返し実行される上記ステップS101では、結果的に、このような見守り対象者の一連の動作を撮影した撮影画像3の画像群が取得される。そして、上記ステップS102では、この画像群に含まれる最初の方の撮影画像3において、図12Aに例示されるように、見守り対象者に対応する前景領域がベッド面SUの上方で抽出される。一方、この画像群に含まれる最後の方の撮影画像3では、図12Bに例示されるように、見守り対象者がベッドから離れるに従って、この見守り対象者に対応する前景領域もベッドから離れた位置で抽出されるようになる。 Therefore, in the series of processes of steps S101 to S104 that are repeated until the monitoring target person gets out of bed, in the step S101 that is repeatedly executed, as a result, a series of movements of the monitoring target person are photographed. The image group of the image 3 is acquired. Then, in step S102, in the first captured image 3 included in this image group, as illustrated in FIG. 12A, the foreground region corresponding to the person to be watched is extracted above the bed surface SU. On the other hand, in the last captured image 3 included in this image group, as illustrated in FIG. 12B, as the watching target person moves away from the bed, the foreground area corresponding to the watching target person also moves away from the bed. Will be extracted with.

そこで、本実施形態では、制御部11は、次のようにして、見守り対象者の離床を検知する。すなわち、制御部11は、まず、ベッド上に現れる前景領域を捕捉する。具体的には、ステップS102において、図12Aに例示されるように、ベッド面SUの上方で前景領域が抽出された場合に、制御部11は、本ステップS103において、見守り対象者の離床を検知しないが、この前景領域をトラッキングの対象とする。ベッド面SUの範囲は、システム上で予め設定されてもよいし、ユーザによって適宜設定されてもよい。これによって、制御部11は、これ以降のステップS101で繰り返し取得される撮影画像3の画像群において、同一の対象(見守り対象者)の写る前景領域を追跡することができる。 Therefore, in the present embodiment, the control unit 11 detects the person to be watched to get out of bed as follows. That is, the control unit 11 first captures the foreground region that appears on the bed. Specifically, in step S102, as illustrated in FIG. 12A, when the foreground region is extracted above the bed surface SU, the control unit 11 detects that the person to be watched leaves the bed in step S103. No, but this foreground area is the target of tracking. The range of the bed surface SU may be preset on the system or may be appropriately set by the user. As a result, the control unit 11 can track the foreground region in which the same target (watching target person) appears in the image group of the captured image 3 repeatedly acquired in the subsequent steps S101.

そして、制御部11は、トラッキングしている前景領域とベッドとの間の距離を算出し、算出した距離が所定距離HA以上であるか否かを判定する。前景領域とベッドとの間の距離は公知の方法により適宜算出可能である。トラッキングしている前景領域とベッドとの間の距離が所定距離HA以上ではない場合には、制御部11は、見守り対象者の離床を検知せず、その前景領域のトラッキングを継続する。一方、トラッキングしている前景領域とベッドとの間の距離が所定距離HA以上である場合には、制御部11は、ベッド上に現れた前景領域がベッドから所定距離HA以上離れた位置に移動したと判定し、見守り対象者の離床を検知する。 Then, the control unit 11 calculates the distance between the tracking foreground region and the bed, and determines whether or not the calculated distance is equal to or greater than the predetermined distance HA. The distance between the foreground area and the bed can be appropriately calculated by a known method. If the distance between the foreground area being tracked and the bed is not greater than or equal to the predetermined distance HA, the control unit 11 does not detect the person being watched over and continues tracking the foreground area. On the other hand, when the distance between the tracking foreground area and the bed is a predetermined distance HA or more, the control unit 11 moves the foreground area appearing on the bed to a position separated from the bed by a predetermined distance HA or more. It is determined that the person has left the bed, and the person to be watched over is detected.

なお、見守り対象者がベッド上で起き上がった場合には、ベッド面SUから所定の高さ以上の位置で前景領域が抽出され得る。そのため、制御部11は、ベッド面SUから所定の高さ以上に現れた前景領域に限りトラッキングの対象としてもよい。この所定の高さは、システム上で予め設定されてもよいし、ユーザによって適宜設定されてもよい。この所定の高さの値は、見守り対象者が離床する際にベッド上で発生し得る前景領域の高さに基づいて適宜設定されてよい。 When the person to be watched gets up on the bed, the foreground region can be extracted from the bed surface SU at a position equal to or higher than a predetermined height. Therefore, the control unit 11 may target the tracking only in the foreground region that appears above the predetermined height from the bed surface SU. This predetermined height may be preset on the system or may be appropriately set by the user. The value of this predetermined height may be appropriately set based on the height of the foreground region that may occur on the bed when the person to be watched leaves the bed.

この場合、制御部11は、前景領域に含まれる任意の点の位置を前景領域の位置として取り扱ってもよい。例えば、制御部11は、以下の数4の式で算出される前景領域の重心の位置を前景領域の位置として取り扱ってもよい。以下、その他の場面における前景領域の位置についても同様である。 In this case, the control unit 11 may treat the position of an arbitrary point included in the foreground region as the position of the foreground region. For example, the control unit 11 may treat the position of the center of gravity of the foreground region calculated by the following equation 4 as the position of the foreground region. Hereinafter, the same applies to the position of the foreground region in other scenes.

なお、wは、任意の画素(点s)の実空間内における横方向の長さを示す。また、hは、任意の画素(点s)の実空間内における縦方向の長さを示す。w及びhは、後述する数5及び数6によりそれぞれ算出することができる。ここで、Mは、前景領域Fに含まれる画素(点s)のベクトルSの面積平均である。すなわち、Mは、前景領域の実空間内での平均の位置を示す。そのため、このMにより示される位置を前景領域の重心の位置として取り扱うことができる。 Note that w indicates the length of an arbitrary pixel (point s) in the real space in the horizontal direction. Further, h indicates the length of an arbitrary pixel (point s) in the real space in the vertical direction. w and h can be calculated by the numbers 5 and 6, which will be described later, respectively. Here, M is the area average of the vector S of the pixels (points) included in the foreground region F. That is, M indicates the average position of the foreground region in the real space. Therefore, the position indicated by M can be treated as the position of the center of gravity of the foreground region.

また、制御部11は、ベッド面SUの上方に所定範囲の捕捉領域を設け、この捕捉領域に現れた前景領域に限りトラッキングの対象としてもよい。この場合、この捕捉領域の前後方向、左右方向及び上下方向それぞれの長さは、システム上で予め設定されてもよいし、ユーザによって適宜設定されてもよい。上記と同様に、この捕捉領域は、見守り対象者が離床する際にベッド上で発生し得る前景領域を適切に捕捉可能に適宜設定される。 Further, the control unit 11 may provide a capture area in a predetermined range above the bed surface SU, and may target only the foreground area appearing in this capture area as a tracking target. In this case, the lengths of the capture area in the front-rear direction, the left-right direction, and the up-down direction may be preset on the system or may be appropriately set by the user. Similar to the above, this capture area is appropriately set so that the foreground area that may occur on the bed when the person to be watched leaves the bed can be appropriately captured.

また、見守り対象者の離床を検知する基準となる所定距離HAの値は、システム上で予め設定されてもよいし、ユーザによって適宜設定されてもよい。更に、図12Bは、ベッドの左右方向の両側に見守り対象者が離床可能な場面を例示している。しかしながら、見守り対象者の離床を検知する方向は、このような例に限定されなくてもよく、実施の形態に応じて適宜選択されてもよい。例えば、見守り対象者が離床可能な方向は、図12Bで例示されるような二方向ではなく、一方向に限られてもよい。また、例えば、制御部11は、前景領域とベッドとの前後方向の距離に基づいて、見守り対象者の離床を検知してもよい。 Further, the value of the predetermined distance HA, which is a reference for detecting the person to be watched to get out of bed, may be set in advance on the system or may be appropriately set by the user. Further, FIG. 12B illustrates a scene in which the subject can get out of bed while watching over both sides of the bed in the left-right direction. However, the direction for detecting the leaving of the bed of the person to be watched over is not limited to such an example, and may be appropriately selected according to the embodiment. For example, the direction in which the person to be watched can get out of bed may be limited to one direction instead of the two directions as illustrated in FIG. 12B. Further, for example, the control unit 11 may detect that the person to be watched leaves the bed based on the distance between the foreground region and the bed in the front-rear direction.

また、ステップS102で抽出される前景領域は、人物以外の物体(例えば、カーテン等)に対応する可能性がある。そこで、このような人物以外の物体に対応する前景領域をステップS103の処理の対象から排除すべく、制御部11は、ステップS102で抽出された前景領域が見守り対象者等の人物の写る領域であるか否かを判定する処理を行ってもよい。例えば、このような判定処理は次のように行うことができる。 Further, the foreground region extracted in step S102 may correspond to an object other than a person (for example, a curtain or the like). Therefore, in order to exclude the foreground region corresponding to such an object other than the person from the processing target of step S103, the control unit 11 sets the foreground area extracted in step S102 to be an area in which a person such as a person to be watched is captured. You may perform the process of determining whether or not there is. For example, such a determination process can be performed as follows.

すなわち、ステップS102で抽出された前景領域が見守り対象者等の人物の写る領域である場合、この前景領域の形状は、その人物の形状に対応する。そのため、制御部11は、パターンマッチング等の画像処理によって、ステップS102で抽出された前景領域の形状が見守り対象者等の人物に対応するか否かを判定してもよい。そして、パターンマッチングの結果、制御部11は、人物の形状に対応しない前景領域をステップS103の処理対象から除外し、人物の形状に対応する前景領域をステップS103の処理対象としてもよい。 That is, when the foreground area extracted in step S102 is an area in which a person such as a person to be watched is captured, the shape of this foreground area corresponds to the shape of the person. Therefore, the control unit 11 may determine whether or not the shape of the foreground region extracted in step S102 corresponds to a person such as a person to be watched by image processing such as pattern matching. Then, as a result of pattern matching, the control unit 11 may exclude the foreground area corresponding to the shape of the person from the processing target of step S103, and may set the foreground area corresponding to the shape of the person as the processing target of step S103.

また、ステップS102で抽出された前景領域が見守り対象者等の人物の写る領域である場合、この前景領域の面積は、その人物の大きさに対応する。そのため、制御部11は、前景領域の面積が所定の面積範囲に含まれるか否かを判定してもよい。この所定の面積範囲は、見守り対象者の写る前景領域の面積として取り得る値をカバーするように設定される。そして、制御部11は、所定の面積範囲に含まれない面積の前景領域をステップS103の処理対象から除外し、所定の面積範囲に含まれる面積の前景領域をステップS103の処理対象としてもよい。 Further, when the foreground area extracted in step S102 is an area in which a person such as a person to be watched is captured, the area of this foreground area corresponds to the size of the person. Therefore, the control unit 11 may determine whether or not the area of the foreground region is included in the predetermined area range. This predetermined area range is set to cover a value that can be taken as the area of the foreground area in which the person to be watched is captured. Then, the control unit 11 may exclude the foreground area having an area not included in the predetermined area range from the processing target in step S103, and may set the foreground area having an area included in the predetermined area range as the processing target in step S103.

このとき、前景領域の面積は、前景領域に含まれる画素数により与えられてもよい。ただし、カメラ2から被写体が遠ざかるほど、撮影画像3内の被写体の像は小さくなり、カメラ2に被写体が近づくほど、撮影画像3内の被写体の像は大きくなる。撮影画像3内に写る被写体の深度は被写体の表面に対して取得されるが、その撮影画像3の各画素に対応する被写体の表面部分の面積は各画素間で一致するとは限らない。 At this time, the area of the foreground region may be given by the number of pixels included in the foreground region. However, the farther the subject is from the camera 2, the smaller the image of the subject in the captured image 3, and the closer the subject is to the camera 2, the larger the image of the subject in the captured image 3. The depth of the subject captured in the captured image 3 is acquired with respect to the surface of the subject, but the area of the surface portion of the subject corresponding to each pixel of the captured image 3 does not always match between the pixels.

そこで、制御部11は、被写体の遠近による影響を除外するために、本ステップS103において、各画素の深度を利用して、抽出した前景領域の実空間における面積を算出してもよい。前景領域の実空間における面積は、例えば、次のようにして算出することができる。すなわち、制御部11は、まず、以下の数5及び数6の関係式に基づいて、図7及び図8に例示される任意の点s(1画素)の実空間内における横方向の長さw及び/又は縦方向の長さhをそれぞれ算出する。 Therefore, in order to exclude the influence of the perspective of the subject, the control unit 11 may calculate the area of the extracted foreground region in the real space by using the depth of each pixel in this step S103. The area of the foreground region in the real space can be calculated, for example, as follows. That is, first, the control unit 11 first has the lateral length of any point s (1 pixel) exemplified in FIGS. 7 and 8 in the real space based on the following relational expressions of the equations 5 and 6. w and / or the length h in the vertical direction are calculated respectively.

続いて、制御部11は、このように算出されるwの2乗、hの2乗、又はwとhとの積によって、深度Dsにおける1画素の実空間内での面積を算出する。そして、制御部11は、前景領域に含まれる各画素の実空間内での面積の総和を求めることで、前景領域の実空間における面積を算出する。これにより、被写体の遠近の影響を除外した上で、前景領域の面積を求めることができる。以下、その他の場面における前景領域の面積についても同様である。 Subsequently, the control unit 11 calculates the area of one pixel in the real space at the depth Ds by the square of w, the square of h, or the product of w and h calculated in this way. Then, the control unit 11 calculates the area of the foreground region in the real space by obtaining the total area of each pixel included in the foreground region in the real space. As a result, the area of the foreground region can be obtained after excluding the influence of the perspective of the subject. Hereinafter, the same applies to the area of the foreground area in other scenes.

なお、このような面積は、深度データのノイズ、見守り対象者以外の物体の動き、等によって、大きく変化してしまう場合がある。これに対応するため、制御部11は、数フレーム分の面積の平均を利用してもよい。また、制御部11は、処理対象のフレームにおける該当領域の面積と当該処理対象のフレームよりも過去の数フレームにおける当該該当領域の面積の平均との差が所定範囲を超える場合、当該該当領域を処理対象から除外してもよい。 It should be noted that such an area may change significantly due to noise of depth data, movement of an object other than the person to be watched, and the like. In order to correspond to this, the control unit 11 may use the average of the areas for several frames. Further, when the difference between the area of the corresponding area in the frame to be processed and the average of the area of the corresponding area in several frames in the past than the frame to be processed exceeds a predetermined range, the control unit 11 sets the corresponding area. It may be excluded from the processing target.

本実施形態では、以上の処理によって、見守り対象者の離床を検知することができる。ただし、見守り対象者の離床を検知する方法は、このような例に限定されなくてもよく、実施の形態に応じて適宜変更されてよい。 In the present embodiment, it is possible to detect the person being watched over from bed by the above processing. However, the method of detecting the person being watched over from bed does not have to be limited to such an example, and may be appropriately changed according to the embodiment.

(ステップS104)
図5に戻り、次のステップS104では、制御部11は、ステップS103において見守り対象者のベッドからの離床を検知したか否かを判定する。ステップS103において見守り対象者のベッドからの離床を検知しなかった場合には、制御部11は、ステップS101に処理を戻す。すなわち、制御部11は、見守り対象者の離床を検知するまで、見守り対象者の離床を検知する判定処理(ステップS101〜S104)を繰り返す。
(Step S104)
Returning to FIG. 5, in the next step S104, the control unit 11 determines whether or not the monitoring target person has detected that he / she has left the bed in step S103. If the monitoring target person does not get out of bed in step S103, the control unit 11 returns the process to step S101. That is, the control unit 11 repeats the determination process (steps S101 to S104) for detecting the leaving of the watching target person until it detects that the watching target person has left the bed.

一方、ステップS103において見守り対象者のベッドからの離床を検知した場合には、制御部11は、次のステップS105に処理を進める。すなわち、見守り対象者の離床を検知すると、制御部11は、見守り対象者の就床を検知する判定処理及び見守り対象者の離床してからの経過時間(以下、「離床経過時間」とも記載する)が一定時間を超えたか否かを判定する処理の実行を開始する。このとき、制御部11は、後述するステップS109の処理において離床経過時間を特定するため、タイマを起動し、離床経過時間をこのタイマにより計測してもよい。また、制御部11は、見守り対象者の離床を検知した時刻を保持してもよい。 On the other hand, when it is detected in step S103 that the person to be watched leaves the bed, the control unit 11 proceeds to the next step S105. That is, when the monitoring target person has detected that he / she has left the bed, the control unit 11 describes the determination process for detecting the monitoring target person's bedtime and the elapsed time since the watching target person has left the bed (hereinafter, also referred to as “the elapsed bed leaving time”). ) Starts execution of the process of determining whether or not it exceeds a certain period of time. At this time, the control unit 11 may start a timer and measure the elapsed bed leaving time by this timer in order to specify the elapsed bed leaving time in the process of step S109 described later. Further, the control unit 11 may hold the time when the person to be watched over has detected that he / she has left the bed.

(ステップS105及びステップS106)
次のステップS105では、制御部11は、画像取得部111として機能し、上記ステップS101と同様に、カメラ2より撮影画像3を取得する。そして、撮影画像3を取得した後、ステップS106では、制御部11は、前景抽出部112として機能し、上記ステップS102と同様に、撮影画像3と背景画像4との差分を算出することで、当該撮影画像3の前景領域を抽出する。
(Step S105 and Step S106)
In the next step S105, the control unit 11 functions as the image acquisition unit 111, and acquires the captured image 3 from the camera 2 in the same manner as in the step S101. Then, after acquiring the captured image 3, in step S106, the control unit 11 functions as the foreground extraction unit 112, and similarly to step S102, the difference between the captured image 3 and the background image 4 is calculated. The foreground region of the captured image 3 is extracted.

上記のとおり、ステップS105〜S109の処理は、見守り対象者の就床を検知する判定処理及び離床経過時間が一定時間を超えたか否かを判定する処理に対応する。このステップS105〜S109の処理は、見守り対象者の就床を検知する又は離床経過時間が一定時間を超えるまで実行される。そのため、見守り対象者の就床を検知する又は離床経過時間が一定時間を超えるまで、上記ステップS101及びステップS102と同様に、本ステップS105及びステップS106の処理は繰り返し実行される。すなわち、見守り対象者の就床を検知する又は離床経過時間が一定時間を超えるまで、ステップS105により撮影画像3が継続的に取得され、ステップS106により、継続的に取得される撮影画像3の前景領域が抽出される。 As described above, the processes of steps S105 to S109 correspond to the determination process of detecting the bedtime of the person to be watched over and the process of determining whether or not the elapsed time of getting out of bed exceeds a certain time. The processes of steps S105 to S109 are executed until the bedtime of the person being watched over is detected or the elapsed time of getting out of bed exceeds a certain time. Therefore, the processes of steps S105 and S106 are repeatedly executed in the same manner as in steps S101 and S102 until the bedtime of the person to be watched is detected or the elapsed time of getting out of bed exceeds a certain time. That is, the captured image 3 is continuously acquired in step S105 until the bedtime of the person to be watched is detected or the elapsed time of getting out of bed exceeds a certain time, and the foreground of the captured image 3 is continuously acquired in step S106. The area is extracted.

(ステップS107)
次のステップS107では、制御部11は、就床検知部114として機能し、見守り対象者の離床を検知した後に取得された撮影画像3について、見守り対象者の就床を検知する判定処理を実行する。すなわち、制御部11は、ステップS106により抽出された前景領域に含まれる各画素の深度を参照することで、実空間上で、ベッド外に現れた前景領域がベッド上に移動したか否かを判定する。
(Step S107)
In the next step S107, the control unit 11 functions as the bedtime detection unit 114, and executes a determination process for detecting the bedtime of the monitoring target person with respect to the captured image 3 acquired after detecting the bed leaving of the monitoring target person. To do. That is, the control unit 11 refers to the depth of each pixel included in the foreground region extracted in step S106 to determine whether or not the foreground region appearing outside the bed has moved onto the bed in the real space. judge.

そして、本ステップS107において、ベッド外に現れた前景領域がベッド上に移動したと判定できた場合には、制御部11は、見守り対象者の就床を検知した上で、次のステップS108に処理を進める。一方、そのような判定ができなかった場合には、制御部11は、見守り対象者の就床を検知することなく、次のステップS108に処理を進める。 Then, in this step S107, when it can be determined that the foreground area appearing outside the bed has moved onto the bed, the control unit 11 detects the bed of the person to be watched and then moves to the next step S108. Proceed with processing. On the other hand, if such a determination cannot be made, the control unit 11 proceeds to the next step S108 without detecting the bed of the person to be watched over.

ここで、図13A〜図13C及び図14A〜図14Cを用いて、本ステップS107において、見守り対象者の就床を検知する判定処理を具体的に説明する。図13Aは、ベッドから離床した見守り対象者がベッド付近に戻ってきた場面を模式的に例示する。図13Bは、見守り対象者が就床する際に端座位を行っている場面を模式的に例示する。図13Cは、見守り対象者がベッド上で就寝した場面を模式的に例示する。図14A〜図14Cはそれぞれ、図13A〜図13Cそれぞれの場面の際に抽出される前景領域の位置を模式的に例示する。 Here, with reference to FIGS. 13A to 13C and FIGS. 14A to 14C, the determination process for detecting the bedtime of the person to be watched over will be specifically described in this step S107. FIG. 13A schematically illustrates a scene in which a watching subject who has left the bed returns to the vicinity of the bed. FIG. 13B schematically illustrates a scene in which the person to be watched is sitting on the floor when going to bed. FIG. 13C schematically illustrates a scene in which the watching subject goes to bed on the bed. 14A to 14C schematically illustrate the position of the foreground region extracted in each of the scenes of FIGS. 13A to 13C, respectively.

ベッドに就床する際には、まず、見守り対象者は、図13Aに例示されるように、ベッドから離れた位置からベッドに近付く方向に移動する。そして、見守り対象者は、図13Bに例示されるようにベッド側部において端座位を行い、図13Cに例示されるようにベッド上で就寝する。又は、見守り対象者は、図13Bに例示される端座位を省略して、図13Cに例示されるようにベッド上で就寝する。 When going to bed, first, the person to be watched moves from a position away from the bed to approach the bed, as illustrated in FIG. 13A. Then, the person to be watched sits on the side of the bed as illustrated in FIG. 13B, and goes to bed on the bed as illustrated in FIG. 13C. Alternatively, the watching subject sleeps on the bed as illustrated in FIG. 13C, omitting the end sitting position exemplified in FIG. 13B.

そのため、見守り対象者の就床を検知するまでには、繰り返し実行される上記ステップS105では、結果的に、見守り対象者が端座位を行った上で就寝する又は端座位を行うことなく就寝する一連の動作を撮影した撮影画像3の画像群が取得され得る。そして、上記ステップS106では、この画像群に含まれる最初の方の撮影画像3において、図14Aに例示されるように、見守り対象者に対応する前景領域がベッド外で抽出される。この前景領域は、ベッド周辺を移動し、最終的にはベッド近傍に近付く。 Therefore, in step S105, which is repeatedly executed until the monitoring target person is detected to go to bed, as a result, the watching target person goes to bed after sitting on the edge or goes to bed without sitting on the edge. An image group of the captured image 3 obtained by photographing a series of operations can be acquired. Then, in step S106, in the first captured image 3 included in this image group, the foreground region corresponding to the person to be watched is extracted outside the bed, as illustrated in FIG. 14A. This foreground area moves around the bed and eventually approaches the vicinity of the bed.

その後、見守り対象者が端座位を行った場合には、その見守り対象者に対応する前景領域はベッド側部で一時的に停止する。すなわち、上記ステップS106では、見守り対象者が端座位を行っている間に取得された撮影画像3において、図14Bに例示されるように、見守り対象者に対応する前景領域がベッド側部で抽出される。 After that, when the watching target person sits on the edge, the foreground area corresponding to the watching target person temporarily stops at the side of the bed. That is, in step S106, in the photographed image 3 acquired while the watching target person is sitting on the edge, the foreground region corresponding to the watching target person is extracted on the bed side as illustrated in FIG. 14B. Will be done.

一方、見守り対象者が、端座位を行うことなく、ベッド上で就寝した場合には、ベッド近傍に近付いた前景領域は、そのままベッド上に移動する。すなわち、上記ステップS106では、見守り対象者が就寝したときに取得された撮影画像3において、図14Cに例示されるように、見守り対象者に対応する前景領域がベッド面SU直上の比較的に低い位置で抽出される。 On the other hand, when the person to be watched goes to bed on the bed without sitting on the edge, the foreground area approaching the vicinity of the bed moves to the bed as it is. That is, in step S106, in the captured image 3 acquired when the watch target person goes to bed, the foreground area corresponding to the watch target person is relatively low directly above the bed surface SU, as illustrated in FIG. 14C. Extracted by position.

そこで、本実施形態では、この端座位及び就寝姿勢の2つの状態に基づいて、見守り対象者の就床を検知する。すなわち、制御部11は、ベッド外に現れた前景領域がベッド側部に設けられた所定の領域DBに移動するか又はベッド面SU直上の所定の高さHCよりも低い位置に移動した場合に、見守り対象者の就床を検知する。 Therefore, in the present embodiment, the bedtime of the person to be watched over is detected based on the two states of the sitting position and the sleeping posture. That is, when the foreground area appearing outside the bed moves to a predetermined area DB provided on the side of the bed, or when the control unit 11 moves to a position lower than the predetermined height HC directly above the bed surface SU. , Detects the bed of the person being watched over.

(1)端座位に基づく就床検知
第一に、端座位に基づいて就床を検知する方法を説明する。上記のとおり、端座位に基づいて就床を検知するまでには、図14Aに例示されるようにベッド外に前景領域が現れる。そして、そのベッド外に現れた前景領域が、図14Bに例示されるようにベッド側部に移動する。
(1) Bedhold detection based on the end sitting position First, a method of detecting bedtime based on the end sitting position will be described. As described above, the foreground region appears outside the bed as illustrated in FIG. 14A by the time the bed is detected based on the sitting position. Then, the foreground region that appears outside the bed moves to the side of the bed as illustrated in FIG. 14B.

そのため、制御部11は、次のようにして、見守り対象者の就床を検知することができる。すなわち、制御部11は、まず、ベッド外に現れる前景領域を捕捉する。具体的には、ステップS106において、図14Aに例示されるように、ベッド外に前景領域が抽出された場合に、制御部11は、本ステップS107において、見守り対象者の就床を検知しないが、この前景領域をトラッキングの対象とする。これによって、制御部11は、これ以降のステップS105で繰り返し取得される撮影画像3の画像群において、同一の対象(見守り対象者)の写る前景領域を追跡することができる。 Therefore, the control unit 11 can detect the bedtime of the person to be watched over as follows. That is, the control unit 11 first captures the foreground region that appears outside the bed. Specifically, in step S106, as illustrated in FIG. 14A, when the foreground region is extracted outside the bed, the control unit 11 does not detect the bed of the person to be watched over in step S107. , This foreground area is the target of tracking. As a result, the control unit 11 can track the foreground region in which the same target (watching target person) appears in the image group of the captured image 3 repeatedly acquired in the subsequent steps S105.

そして、制御部11は、トラッキングしている前景領域がベッド側部に設けられた所定の領域DB内に移動したか否かを判定する。この所定の領域DBは、見守り対象者がベッド側部で端座位を行ったときに前景領域が抽出される場所に適宜設定される。 Then, the control unit 11 determines whether or not the tracked foreground area has moved into a predetermined area DB provided on the bed side. This predetermined area DB is appropriately set at a place where the foreground area is extracted when the person to be watched sits on the side of the bed.

この判定の結果、トラッキングしている前景領域が所定の領域DB内に移動していない場合には、制御部11は、見守り対象者の就床を検知せず、その前景領域のトラッキングを継続する。一方、トラッキングしている前景領域が所定の領域DB内に移動した場合には、制御部11は、ベッド外に現れた前景領域がベッド上に移動したと判定し、見守り対象者の就床を検知する。 As a result of this determination, if the tracked foreground area has not moved into the predetermined area DB, the control unit 11 does not detect the bed of the person to be watched and continues tracking the foreground area. .. On the other hand, when the tracked foreground area moves into the predetermined area DB, the control unit 11 determines that the foreground area appearing outside the bed has moved onto the bed, and causes the person to be watched to go to bed. Detect.

なお、上記ステップS103と同様に、制御部11は、前景領域の形状及び/又は面積に基づいて、処理対象とする前景領域を限定してもよい。更に、ベッド外に現れた前景領域を捕捉する領域は、ベッド外の領域であればよく、実施形態に応じて適宜設定されてよい。 As in step S103, the control unit 11 may limit the foreground region to be processed based on the shape and / or area of the foreground region. Further, the area for capturing the foreground area appearing outside the bed may be an area outside the bed, and may be appropriately set according to the embodiment.

また、トラッキングしている領域が所定の領域DB内に移動したか否かの判定は、図14Bに例示されるように前景領域の重心に基づいて行われてもよい。この前景領域の重心は、上記数4によって、算出可能である。この場合、所定の領域DBは、見守り対象者がベッド側部で端座位を行った時に抽出される前景領域の重心が存在し得る範囲を含むように適宜設定される。なお、トラッキングしている領域が所定の領域DB内に移動したか否かの判定は、前景領域の全体に基づいて行われてもよいし、前景領域の一部に基づいて行われてもよい。所定の領域DBは、判定の対象とする前景領域の基準に応じて適宜設定される。 Further, it may be determined whether or not the tracked area has moved into the predetermined area DB based on the center of gravity of the foreground area as illustrated in FIG. 14B. The center of gravity of this foreground region can be calculated by the above equation 4. In this case, the predetermined area DB is appropriately set so as to include a range in which the center of gravity of the foreground area extracted when the person to be watched sits on the side of the bed can exist. It should be noted that the determination as to whether or not the tracked area has moved into the predetermined area DB may be performed based on the entire foreground area or a part of the foreground area. .. The predetermined area DB is appropriately set according to the reference of the foreground area to be determined.

また、図14Bでは、所定の領域DBは、左右方向の各ベッド側部に設定されている。しかしながら、いずれか一方のベッド側部で、所定の領域DBの設定が省略されてもよい。すなわち、制御部11は、所定の領域DBは、いずれか一方のベッド側部にのみ設定されてもよい。更に、図14Bでは、2つの所定の領域DBが左右方向に離間して設けられている。しかしながら、所定の領域DBの設定方法はこのような例に限定されなくてもよく、この2つの所定の領域DBを左右方向で連結することで、左右方向に延びる1つの所定の領域DBが設定されてもよい。加えて、このような所定の領域DBは、システム上で予め設定されてもよいし、ユーザによって適宜設定されてもよい。 Further, in FIG. 14B, the predetermined area DB is set on each bed side portion in the left-right direction. However, the setting of the predetermined area DB may be omitted on either bed side. That is, the control unit 11 may set the predetermined area DB only on one of the bed side portions. Further, in FIG. 14B, two predetermined region DBs are provided so as to be separated from each other in the left-right direction. However, the method of setting the predetermined area DB does not have to be limited to such an example, and by connecting the two predetermined area DBs in the left-right direction, one predetermined area DB extending in the left-right direction can be set. May be done. In addition, such a predetermined area DB may be preset on the system or may be appropriately set by the user.

また、見守り対象者がベッド側部で端座位を行っている間は、その見守り対象者に対応する前景領域はベッド側部で継続的に抽出される。そのため、制御部11は、ベッド外に現れた前景領域が一定時間以上継続して所定の領域DB内に留まっている場合に、ベッド外に現れた前景領域がベッド上に移動したと判定し、見守り対象者の就床を検知してもよい。これによって、何らかの物体がベッド側部を通過したような場合に、見守り対象者の就床を誤検知してしまうのを防止することができる。なお、見守り対象者の就床を検知する基準となる閾値(一定時間)は、システム上で予め設定されてもよいし、ユーザによって適宜設定されてもよい。 Further, while the person to be watched is sitting on the side of the bed, the foreground area corresponding to the person to be watched is continuously extracted on the side of the bed. Therefore, the control unit 11 determines that the foreground area appearing outside the bed has moved onto the bed when the foreground area appearing outside the bed remains in the predetermined area DB for a certain period of time or longer. The bed of the person to be watched over may be detected. As a result, when some object passes through the side of the bed, it is possible to prevent the watching target person from erroneously detecting the bed. It should be noted that the threshold value (constant time) that serves as a reference for detecting the bedtime of the person to be watched over may be set in advance on the system or may be appropriately set by the user.

(2)就寝姿勢に基づく就床検知
第二に、就寝姿勢に基づいて就床を検知する方法を説明する。上記のとおり、就寝姿勢に基づいて就床を検知するまでには、図14Aに例示されるようにベッド外に前景領域が現れる。そして、そのベッド外に現れた前景領域が、図14Cに例示されるように、ベッド面SU直上の比較的に低い位置に移動する。
(2) Bedtime detection based on sleeping posture Second, a method of detecting bedtime based on sleeping posture will be described. As described above, the foreground region appears outside the bed as illustrated in FIG. 14A by the time the bed is detected based on the sleeping posture. Then, the foreground region appearing outside the bed moves to a relatively low position directly above the bed surface SU, as illustrated in FIG. 14C.

そのため、制御部11は、次のようにして、見守り対象者の就床を検知することができる。すなわち、制御部11は、まず、上記と同様に、ステップS106において、図14Aに例示されるように、ベッド外に前景領域が抽出された場合に、制御部11は、本ステップS107において、この前景領域をトラッキングの対象とする。これによって、制御部11は、これ以降のステップS105で繰り返し取得される撮影画像3の画像群において、同一の対象(見守り対象者)の写る前景領域を追跡することができる。 Therefore, the control unit 11 can detect the bedtime of the person to be watched over as follows. That is, first, in the same manner as described above, when the foreground region is extracted outside the bed as illustrated in FIG. 14A in step S106, the control unit 11 controls this in step S107. Target the foreground area for tracking. As a result, the control unit 11 can track the foreground region in which the same target (watching target person) appears in the image group of the captured image 3 repeatedly acquired in the subsequent steps S105.

そして、制御部11は、トラッキングしている前景領域がベッド面SU直上の所定の高さHCよりも低い位置に移動したか否かを判定する。この所定の高さHCの値は、見守り対象者がベッド面SU上で就寝したときに抽出される前景領域の高さよりも高くなるように適宜設定される。 Then, the control unit 11 determines whether or not the tracked foreground region has moved to a position lower than a predetermined height HC directly above the bed surface SU. The value of this predetermined height HC is appropriately set so as to be higher than the height of the foreground region extracted when the person to be watched goes to bed on the bed surface SU.

この判定の結果、トラッキングしている前景領域がベッド面SU直上の所定の高さHCよりも低い位置に移動していない場合には、制御部11は、見守り対象者の就床を検知せず、その前景領域のトラッキングを継続する。一方、トラッキングしている前景領域がベッド面SU直上の所定の高さHCよりも低い位置に移動した場合には、制御部11は、ベッド外に現れた前景領域がベッド上に移動したと判定し、見守り対象者の就床を検知する。 As a result of this determination, if the tracked foreground area has not moved to a position lower than the predetermined height HC directly above the bed surface SU, the control unit 11 does not detect the bed of the person to be watched over. , Continue tracking its foreground area. On the other hand, when the tracked foreground region moves to a position lower than the predetermined height HC directly above the bed surface SU, the control unit 11 determines that the foreground region appearing outside the bed has moved onto the bed. Then, it detects the bed of the person to be watched over.

なお、上記と同様に、制御部11は、前景領域の形状及び/又は面積に基づいて、処理対象とする前景領域を限定してもよい。更に、ベッド外に現れた前景領域を捕捉する領域は、ベッド外の領域であればよく、実施形態に応じて適宜設定されてよい。 In the same manner as described above, the control unit 11 may limit the foreground region to be processed based on the shape and / or area of the foreground region. Further, the area for capturing the foreground area appearing outside the bed may be an area outside the bed, and may be appropriately set according to the embodiment.

また、トラッキングしている領域がベッド面SU直上の所定の高さHCよりも低い位置に移動したか否かの判定は、上記と同様に、前景領域の重心に基づいて行われてもよいし、前景領域の全体に基づいて行われてもよいし、前景領域の一部に基づいて行われてもよい。所定の高さHCは、判定の対象とする前景領域の基準に応じて適宜設定される。この所定の高さHCは、システム上で予め設定されてもよいし、ユーザによって適宜設定されてもよい。 Further, the determination as to whether or not the tracked area has moved to a position lower than the predetermined height HC directly above the bed surface SU may be performed based on the center of gravity of the foreground area as described above. , It may be done based on the whole foreground area, or it may be done based on a part of the foreground area. The predetermined height HC is appropriately set according to the reference of the foreground region to be determined. This predetermined height HC may be preset on the system or may be appropriately set by the user.

(3)その他
本実施形態では、制御部11は、上記2つの判定処理によって、見守り対象者の就床を検知することができる。ただし、見守り対象者の就床を検知する方法は、このような例に限定されなくてもよく、実施の形態に応じて適宜変更されてよい。例えば、制御部11は、上記2つの判定処理のうちいずれかを省略してもよい。また、例えば、制御部11は、上記2つの判定処理以外の処理によって、見守り対象者の就床を検知してもよい。
(3) Others In the present embodiment, the control unit 11 can detect the bed of the person to be watched over by the above two determination processes. However, the method of detecting the bedtime of the person to be watched over may not be limited to such an example, and may be appropriately changed depending on the embodiment. For example, the control unit 11 may omit either of the above two determination processes. Further, for example, the control unit 11 may detect the bed of the person to be watched by a process other than the above two determination processes.

(ステップS108)
図5に戻り、次のステップS108では、制御部11は、ステップS107において見守り対象者がベッドに就床したことを検知したか否かを判定する。ステップS107において見守り対象者の就床を検知しなかった場合には、制御部11は、次のステップS109に処理を進める。
(Step S108)
Returning to FIG. 5, in the next step S108, the control unit 11 determines whether or not it is detected in step S107 that the watching target person has gone to bed. If the monitoring target person does not detect the bed in step S107, the control unit 11 proceeds to the next step S109.

一方、ステップS107において見守り対象者の就床を検知した場合には、制御部11は、本動作例に係る処理を終了する。このとき、制御部11は、見守り対象者の離床を検知してから見守り対象者の就床を検知するまでの離床時間を特定し、この離床時間を記憶部12等に記録してもよい。離床時間を特定する方法は、実施の形態に応じて適宜選択されてよい。例えば、離床経過時間をタイマにより計測している場合には、制御部11は、この時点でタイマのカウントを停止し、当該タイマを参照することで、この離床時間を特定することができる。また、例えば、見守り対象者の離床を検知した時刻を保持している場合には、制御部11は、見守り対象者の離床を検知した時刻とこの処理の時点の時刻との差分を算出することで、離床時間を特定することができる。 On the other hand, when it is detected in step S107 that the person to be watched goes to bed, the control unit 11 ends the process related to this operation example. At this time, the control unit 11 may specify the time to get out of bed from the detection of the person to be watched to get out of bed to the time to detect the person to be watched to go to bed, and record the time to get out of bed in the storage unit 12 or the like. The method for specifying the time to get out of bed may be appropriately selected depending on the embodiment. For example, when the elapsed time of getting out of bed is measured by a timer, the control unit 11 can specify the time of getting out of bed by stopping the counting of the timer at this point and referring to the timer. Further, for example, when the time when the person being watched over is detected to get out of bed is held, the control unit 11 calculates the difference between the time when the person being watched over is detected to get out of bed and the time at the time of this processing. With, the time to get out of bed can be specified.

なお、この場合には、見守り対象者はベッドに就床している。そのため、見守り対象者が再び離床するのに備えて、制御部11は、再びステップS101から処理を開始してもよい。すなわち、制御部11は、見守り対象者の離床を検知する判定処理から開始することで、見守り対象者の見守りを継続してもよい。 In this case, the person to be watched over is in bed. Therefore, the control unit 11 may start the process again from step S101 in preparation for the person to be watched to get out of bed again. That is, the control unit 11 may continue watching the watching target person by starting from the determination process of detecting the leaving of the watching target person.

(ステップS109)
次のステップS109では、制御部11は、上記ステップS103により見守り対象者の離床を検知してからの離床経過時間が一定時間を超えたか否かを判定する。この判定の結果、離床経過時間が一定時間を超えていない場合には、制御部11は、ステップS105に処理を戻す。すなわち、見守り対象者の就床を検知する又は離床経過時間が一定時間を超えるまで、見守り対象者の就床を検知する判定処理及び離床経過時間が一定時間を超えたか否かを判定する処理を繰り返す。
(Step S109)
In the next step S109, the control unit 11 determines whether or not the elapsed time from getting out of bed after detecting the getting out of bed of the watching target person exceeds a certain time in step S103. As a result of this determination, if the elapsed time of getting out of bed does not exceed a certain time, the control unit 11 returns the process to step S105. That is, until the monitoring target person's bedtime is detected or the elapsed bed leaving time exceeds a certain time, the determination process for detecting the bedtime of the watching target person and the determination process for determining whether or not the bed leaving elapsed time exceeds a certain time are performed. repeat.

一方、離床経過時間が一定時間を超えている場合には、制御部11は、次のステップS110に処理を進める。ここで、後述するステップS110では、見守り対象者が一定時間以上離床していることを知らせる警報が行われる。すなわち、この分岐の基準となる閾値(一定時間)は、当該警報を行う離床経過時間を規定する。この閾値(一定時間)は、システム上で予め設定されてもよいし、ユーザによって適宜設定されてもよい。 On the other hand, when the elapsed time of getting out of bed exceeds a certain time, the control unit 11 proceeds to the next step S110. Here, in step S110, which will be described later, an alarm is issued to notify that the person to be watched has left the bed for a certain period of time or longer. That is, the threshold value (constant time) that serves as a reference for this branch defines the elapsed time for getting out of bed to issue the alarm. This threshold value (constant time) may be preset on the system or may be appropriately set by the user.

なお、この時点における離床経過時間は適宜特定することができる。例えば、離床経過時間をタイマにより計測している場合には、制御部11は、この時点でタイマを参照することで、この時点における離床検知時間を特定することができる。また、例えば、見守り対象者の離床を検知した時刻を保持している場合には、制御部11は、見守り対象者の離床を検知した時刻とこの処理の時点の時刻との差分を算出することで、この時点における離床検知時間を特定することができる。 The elapsed time for getting out of bed at this point can be specified as appropriate. For example, when the elapsed time for getting out of bed is measured by a timer, the control unit 11 can specify the time for detecting getting out of bed at this time by referring to the timer at this time. Further, for example, when the time when the person being watched over is detected to get out of bed is held, the control unit 11 calculates the difference between the time when the person being watched over is detected to get out of bed and the time at the time of this processing. Therefore, the time for detecting getting out of bed at this time can be specified.

また、本ステップS109の処理は、任意のタイミングで実行されてもよい。例えば、本ステップS109の処理は、ステップS105〜S108の処理とは別に、実行されてもよい。本ステップS109の処理が上記ステップS108の処理よりも前に実行される場合、上記ステップS108において見守り対象者の就床が検知されていないと判定されたときには、制御部11は、ステップS105に処理を戻す。 Further, the process of this step S109 may be executed at an arbitrary timing. For example, the process of this step S109 may be executed separately from the process of steps S105 to S108. When the process of this step S109 is executed before the process of step S108, when it is determined in step S108 that the bed of the person to be watched is not detected, the control unit 11 processes in step S105. Return.

(ステップS110)
次のステップS110では、制御部11は、通知部115として機能し、見守り対象者が一定時間以上離床していることを知らせるための通知を行う。すなわち、制御部11は、上記ステップS107において見守り対象者の就床を検知する前に、上記ステップS109において離床経過時間が一定時間を超えたと判定した場合に、見守り対象者が一定時間以上不在であることを知らせる警報を実行する。
(Step S110)
In the next step S110, the control unit 11 functions as the notification unit 115, and gives a notification to notify that the person to be watched has left the bed for a certain period of time or longer. That is, when the control unit 11 determines in step S109 that the elapsed time of getting out of bed exceeds a certain time before detecting the bedtime of the person to be watched in step S107, the person to be watched is absent for a certain period of time or more. Execute an alarm to inform you that there is.

なお、通知先及び通知方法は、実施の形態に応じて適宜選択することができる。制御部11は、例えば、見守り対象者以外の第三者、特に、見守り対象者の行動を見守る見守り者に当該通知を行ってもよい。見守り対象者が、入院患者、施設入居者、要介護者等である場合、見守り者は、例えば、看護師、施設職員、介護者等である。また、制御部11は、見守り対象者自身に当該通知を行ってもよい。 The notification destination and the notification method can be appropriately selected according to the embodiment. The control unit 11 may, for example, give the notification to a third party other than the watching target person, particularly to the watching person who watches the behavior of the watching target person. When the person to be watched is an inpatient, a resident of a facility, a person requiring long-term care, etc., the person to be watched is, for example, a nurse, a facility staff, a caregiver, or the like. In addition, the control unit 11 may give the notification to the person to be watched over.

例えば、本実施形態に係る画像解析装置1が病院等の施設で利用される場合、当該画像解析装置1は、外部インタフェース15を介して、ナースコールシステム等の設備と接続することができる。この場合、制御部11は、当該ナースコールシステム等の設備と連携して、見守り対象者が一定時間以上離床していることを知らせるための通知を行ってもよい。すなわち、制御部11は、外部インタフェース15を介して、当該ナースコールシステムを制御してもよい。そして、制御部11は、見守り対象者が一定時間以上離床していることを知らせるための通知として、当該ナースコールシステムによる呼び出しを行ってもよい。これによって、見守り対象者が一定時間以上ベッドから離れていることを当該見守り対象者の見守りを行う看護師等に適切に知らせることができる。 For example, when the image analysis device 1 according to the present embodiment is used in a facility such as a hospital, the image analysis device 1 can be connected to equipment such as a nurse call system via an external interface 15. In this case, the control unit 11 may give a notification to notify that the person to be watched has left the bed for a certain period of time or more in cooperation with the equipment such as the nurse call system. That is, the control unit 11 may control the nurse call system via the external interface 15. Then, the control unit 11 may make a call by the nurse call system as a notification for notifying that the person to be watched has left the bed for a certain period of time or more. As a result, it is possible to appropriately notify the nurse or the like who is watching over the person to be watched that the person to be watched is away from the bed for a certain period of time or more.

また、例えば、制御部11は、タッチパネルディスプレイ13による画面表示によって、見守り対象者が一定時間以上離床していることを知らせるための通知を行ってもよい。また、例えば、制御部11は、画像解析装置1に接続されるスピーカ14から所定の音声を出力することにより、見守り対象者が一定時間以上離床していることを知らせるための通知を行ってもよい。このタッチパネルディスプレイ13及びスピーカ14をそれぞれ見守り者の居室に設置することで、見守り対象者が一定時間以上ベッドから離れていることを当該見守り者に適切に知らせることができる。 Further, for example, the control unit 11 may give a notification to notify that the person to be watched has left the bed for a certain period of time or more by displaying the screen on the touch panel display 13. Further, for example, the control unit 11 may output a predetermined sound from the speaker 14 connected to the image analysis device 1 to notify that the person to be watched is out of bed for a certain period of time or longer. Good. By installing the touch panel display 13 and the speaker 14 in the room of the watcher, it is possible to appropriately notify the watcher that the watcher is away from the bed for a certain period of time or longer.

また、例えば、制御部11は、電子メール、ショートメッセージサービス、プッシュ通知等を利用して、見守り対象者が一定時間以上離床していることを知らせるための通知を行ってもよい。このような通知を行う場合には、通知先となるユーザ端末の電子メールアドレス、電話番号等は記憶部12に予め登録されていてもよい。そして、制御部11は、この予め登録されている電子メールアドレス、電話番号等を利用して、見守り対象者が一定時間以上離床していることを知らせるための通知を行ってもよい。 Further, for example, the control unit 11 may use e-mail, short message service, push notification, or the like to give a notification to notify that the person to be watched is out of bed for a certain period of time or longer. When making such a notification, the e-mail address, telephone number, etc. of the user terminal to be notified may be registered in advance in the storage unit 12. Then, the control unit 11 may use the pre-registered e-mail address, telephone number, or the like to give a notification to notify that the person to be watched is out of bed for a certain period of time or longer.

本実施形態では、制御部11は、このような通知を行った後に、本動作例に係る処理が終了する。ただし、このように処理を終了した場合には、上記ステップS108で見守り対象者の就床を検知して処理を終了した場合とは異なり、見守り対象者の就床が検知されていない。すなわち、見守り対象者は離床したままベッドに戻っていない。そのため、この場合には、制御部11は、見守り対象者の就床を検知するまで、ステップS105〜S110の処理を繰り返してもよい。このとき、制御部11は、離床経過時間を新たに計測し始めるため、これまでの処理で計測した離床経過時間をリセットしてもよい。 In the present embodiment, after giving such a notification, the control unit 11 ends the process related to this operation example. However, when the process is completed in this way, unlike the case where the bed of the monitoring target person is detected and the process is completed in step S108, the bed of the watching target person is not detected. That is, the person being watched over has not returned to bed while leaving the bed. Therefore, in this case, the control unit 11 may repeat the processes of steps S105 to S110 until the monitoring target person is detected to go to bed. At this time, since the control unit 11 starts to newly measure the elapsed bed leaving time, the bed leaving elapsed time measured in the previous processes may be reset.

(作用・効果)
以上のように、本実施形態に係る画像解析装置1は、まず、ステップS101〜S104の処理によって、見守り対象者の離床を検知する判定処理を実行する。次に、見守り対象者の離床を検知した後には、画像解析装置1は、見守り対象者の就床を検知する判定処理及び離床経過時間が一定時間を超えたか否かを判定する処理を実行する。そして、見守り対象者の就床を検知する前に、離床経過時間が一定時間を超えた場合には、画像解析装置1は、ステップS110の処理によって、見守り対象者が一定時間以上離床していることを知らせるための通知を行う。
(Action / effect)
As described above, the image analysis device 1 according to the present embodiment first executes the determination process of detecting the person being watched over from bed by the process of steps S101 to S104. Next, after detecting the person being watched over from bed, the image analysis device 1 executes a determination process for detecting the bedtime of the person being watched over and a process for determining whether or not the elapsed time for getting out of bed exceeds a certain time. .. Then, if the elapsed time of getting out of bed exceeds a certain time before detecting the bedtime of the person to be watched over, the image analysis device 1 has left the person to be watched over for a certain period of time or more by the process of step S110. Make a notification to let you know.

ここで、本実施形態に係る画像解析装置1は、上記ステップS103において、図11A及び図11Bに例示される見守り対象者の一連の動作に伴い抽出される前景領域の変動に基づいて、見守り対象者の離床を検知している。そのため、本実施形態によれば、カメラ2の撮影範囲に第三者が存在する場合であっても、この第三者に対応する前景領域を見守り対象者に対応する前景領域と誤認識することなく、見守り対象者の離床を適切に検知することができる。 Here, the image analysis device 1 according to the present embodiment is the monitoring target based on the fluctuation of the foreground region extracted by the series of actions of the monitoring target person exemplified in FIGS. 11A and 11B in step S103. Detects a person getting out of bed. Therefore, according to the present embodiment, even if a third party exists in the shooting range of the camera 2, the foreground area corresponding to the third party is watched over and erroneously recognized as the foreground area corresponding to the target person. Therefore, it is possible to appropriately detect the person being watched over getting out of bed.

同様に、本実施形態に係る画像解析装置1は、上記ステップS107において、図13A〜図13Cに例示される見守り対象者の一連の動作に伴い抽出される前景領域の変動に基づいて、見守り対象者の就床を検知している。そのため、本実施形態によれば、見守り対象者がベッドから離床した後にカメラ2の撮影範囲に第三者が進入しても、この第三者に対応する前景領域を見守り対象者に対応する前景領域と誤認識することなく、見守り対象者の就床を適切に検知することができる。 Similarly, the image analysis device 1 according to the present embodiment is the monitoring target based on the fluctuation of the foreground region extracted by the series of actions of the watching target person exemplified in FIGS. 13A to 13C in step S107. The person's bed is detected. Therefore, according to the present embodiment, even if a third party enters the shooting range of the camera 2 after the watch target person gets out of bed, the foreground area corresponding to the third party is watched and the foreground corresponds to the target person. It is possible to appropriately detect the bedtime of the person being watched over without erroneously recognizing it as an area.

したがって、本実施形態によれば、カメラ2の撮影範囲に第三者が存在することに起因する見守り対象者の離床及び就床の誤検知を防止し、当該見守り対象者の離床及び就床をそれぞれ適切に検知することができる。そのため、本実施形態によれば、見守り対象者の離床に関する警報を精度よく実行することができる。 Therefore, according to the present embodiment, it is possible to prevent erroneous detection of getting out of bed and going to bed of the person to be watched due to the presence of a third party in the shooting range of the camera 2, and to get out of bed and going to bed of the person to be watched over. Each can be detected appropriately. Therefore, according to the present embodiment, it is possible to accurately execute an alarm regarding getting out of bed of the person to be watched over.

特に、本実施形態では、制御部11は、上記ステップS107において、見守り対象者がベッド上で端座位又は就寝する際の前景領域の変動に基づいて、当該見守り対象者の就床を検知する。見守り対象者以外の第三者は、カメラ2の撮影範囲に進入することはあっても、ベッド上で端座位又は就寝することはないと想定される。したがって、本実施形態によれば、見守り対象者以外の人物が行わないと想定される動作に基づいて見守り対象者の就床が検知される。そのため、本実施形態によれば、見守り対象者の就床の検知精度を高めることができ、これによって、見守り対象者の離床に関する警報を精度よく実行することができるようになる。 In particular, in the present embodiment, in step S107, the control unit 11 detects the bed of the watching target person based on the change in the foreground area when the watching target person sits on the bed or goes to bed. It is assumed that a third party other than the person to be watched may enter the shooting range of the camera 2 but will not sit on the bed or go to bed. Therefore, according to the present embodiment, the bedtime of the watching target person is detected based on the operation that is assumed that the person other than the watching target person does not perform. Therefore, according to the present embodiment, it is possible to improve the accuracy of detecting the bed of the person being watched over, and thereby it is possible to accurately execute the alarm regarding the person being watched over getting out of bed.

§4 変形例
以上、本発明の実施の形態を詳細に説明してきたが、前述までの説明はあらゆる点において本発明の例示に過ぎない。本発明の範囲を逸脱することなく種々の改良や変形を行うことができることは言うまでもない。
§4 Modifications Although the embodiments of the present invention have been described in detail above, the above description is merely an example of the present invention in all respects. Needless to say, various improvements and modifications can be made without departing from the scope of the present invention.

例えば、上記実施形態では、ステップS107において、制御部11は、ベッド側部に所定の領域DBを設定する。そして、制御部11は、見守り対象者がベッド側部で端座位を行う際の一連の動作に伴い変動する前景領域が当該所定の領域DB内に進入することに基づいて、当該見守り対象者の就床を検知している。この検知方法では、次のような問題が生じる可能性がある。 For example, in the above embodiment, in step S107, the control unit 11 sets a predetermined area DB on the bed side. Then, the control unit 11 is based on the fact that the foreground region, which fluctuates with a series of movements when the watch target person performs the end sitting position on the bed side, enters the predetermined area DB, and the watch target person Detecting bedtime. This detection method may cause the following problems.

すなわち、介護者等の第三者が、例えば、ベッドメイキング等の作業をベッド側部の近傍で行う場合がある。このような場合、この第三者の身体がベッド面SUの上方に位置し得るため、所定の領域DBの設定範囲によっては、第三者に対応する前景領域がこの所定の領域DB内にベッド外から移動する可能性がある。すなわち、見守り対象者以外の第三者の上記動作を見守り対象者の就床の動作と誤検知してしまう可能性がある。 That is, a third party such as a caregiver may perform work such as bed-making in the vicinity of the bed side. In such a case, since the body of the third party may be located above the bed surface SU, the foreground area corresponding to the third party may be placed in the predetermined area DB depending on the setting range of the predetermined area DB. May move from outside. That is, there is a possibility that the above-mentioned movement of a third party other than the watching target person may be erroneously detected as the sleeping movement of the watching target person.

ここで、図15A及び図15Bを用いて、ベッド側部の近傍で第三者が作業を行う場面と見守り対象者が端座位を行う場面とを比較する。図15Aは、第三者がベッドに向かって作業を行っている場面を模式的に例示する。また、図15Bは、見守り対象者がベッド上で端座位を行っている場面を模式的に例示する。 Here, with reference to FIGS. 15A and 15B, a scene in which a third party works in the vicinity of the bed side and a scene in which the watching target person sits on the edge are compared. FIG. 15A schematically illustrates a scene in which a third party is working toward the bed. Further, FIG. 15B schematically illustrates a scene in which the watching subject is sitting on the bed.

図15A及び図15Bに例示されるように、所定の領域DBをよりベッドの外側に配置した場合には、見守り対象者が端座位を行う際に抽出される前景領域の他、第三者がベッド側部近傍で作業を行う際に抽出される前景領域が所定の領域DB内に進入し得る。そのため、このように所定の領域DBの範囲を設定した場合には、見守り対象者以外の第三者の動作を見守り対象者の就床の動作と誤検知してしまう可能性がある。 As illustrated in FIGS. 15A and 15B, when the predetermined area DB is arranged further outside the bed, in addition to the foreground area extracted when the watching target person performs the end sitting position, a third party The foreground area extracted when the work is performed near the bed side can enter the predetermined area DB. Therefore, when the range of the predetermined area DB is set in this way, there is a possibility that the movement of a third party other than the watching target person may be erroneously detected as the sleeping movement of the watching target person.

しかしながら、図15Aで例示されるように、このようなベッドメイキング等の作業を行う第三者は、一般的には、ベッドの内側を向いていると想定される。そのため、この第三者の頭部の重心は肩部の重心よりもベッドの内側に位置する。一方、図15Bで例示されるように、ベッド側部で端座位を行う見守り対象者は、一般的には、ベッドの外側を向いていると想定される。そのため、この見守り対象者の頭部の重心は肩部の重心よりもベッドの内側に位置する。 However, as illustrated in FIG. 15A, it is generally assumed that a third party performing such work such as bed-making is facing the inside of the bed. Therefore, the center of gravity of the head of this third party is located inside the bed rather than the center of gravity of the shoulder. On the other hand, as illustrated in FIG. 15B, it is generally assumed that the watching subject who sits on the side of the bed faces the outside of the bed. Therefore, the center of gravity of the head of the person being watched over is located inside the bed rather than the center of gravity of the shoulder.

そこで、制御部11は、上記ステップS107において、トラッキングしている前景領域が所定の領域DB内に移動した場合に、更に、このトラッキングしている前景領域内において、頭部の写る頭部領域と肩部の写る肩部領域とを推測してもよい。このような領域推定は、例えば、パターンマッチング等の公知の画像処理によって行うことができる。 Therefore, in step S107, when the tracking foreground area moves into the predetermined area DB, the control unit 11 further sets the tracking head area as the head area in the tracking foreground area. You may infer that it is the shoulder area where the shoulder is reflected. Such region estimation can be performed by known image processing such as pattern matching.

そして、制御部11は、推定した頭部領域の重心と肩部領域の重心との位置関係を判定してもよい。頭部領域の重心及び肩部領域の重心は、上記数4の計算によって、算出することができる。当該判定の結果、制御部11は、頭部領域の重心が肩部領域の重心よりもベッドの外側に位置する場合に、見守り対象者がベッドに就床したことを検知する。一方、頭部領域の重心が肩部領域の重心よりもベッドの内側に位置する場合、制御部11は、見守り対象者の就床を検知せずに、処理を継続する。この頭部領域の重心が肩部領域の重心よりもベッドの内側に位置する状態が一定時間以上継続する場合には、トラッキングしている前景領域は見守り対象者以外の第三者に対応する可能性があるため、制御部11は、この前景領域のトラッキングを解消してもよい。 Then, the control unit 11 may determine the positional relationship between the estimated center of gravity of the head region and the center of gravity of the shoulder region. The center of gravity of the head region and the center of gravity of the shoulder region can be calculated by the calculation of the above equation 4. As a result of the determination, when the center of gravity of the head region is located outside the bed of the shoulder region, the control unit 11 detects that the person to be watched has gone to bed. On the other hand, when the center of gravity of the head region is located inside the bed with respect to the center of gravity of the shoulder region, the control unit 11 continues the process without detecting the bed of the person to be watched over. If the center of gravity of this head area is located inside the bed from the center of gravity of the shoulder area for a certain period of time or longer, the foreground area being tracked can correspond to a third party other than the person being watched over. Therefore, the control unit 11 may cancel the tracking of the foreground region.

当該変形例によれば、ベッド近傍においてベッドの内側の方を向いて作業を行う見守り対象者以外の人物に起因して、見守り対象者の就床を誤検知してしまうことを防止することができる。そのため、当該変形例によれば、見守り対象者の就床の検知精度を高めることができ、これによって、見守り対象者の離床に関する警報を精度よく実行することができるようになる。 According to the modification, it is possible to prevent a person other than the watching target person who works toward the inside of the bed in the vicinity of the bed from erroneously detecting the bed of the watching target person. it can. Therefore, according to the modification, the accuracy of detecting the bed of the person to be watched can be improved, and thereby the alarm regarding the person to be watched to get out of bed can be accurately executed.

また、上記実施形態に係る画像解析装置1は、例えば、ベッド上での起き上がり等、見守り対象者の離床及び就床以外の行動を検知してもよい。画像解析装置1は、見守り対象者に対応する前景領域とベッド(例えば、ベッド面SU)との位置関係に基づいて、見守り対象者の行動を検知することができる。例えば、画像解析装置1は、ベッド面SU直上で所定の高さよりも高い位置に前景領域が現れた場合に、見守り対象者のベッド上での起き上がりを検知してもよい。これによって、見守り対象者のベッドにおける種々の行動を検知することができ、画像解析装置1による見守り対象者の見守りを充実させることができる。また、この場合、画像解析装置1が、見守り対象者の行動の検知処理を開始してから、例えば、数時間以上、見守り対象者のいずれの行動も検知しないとき、当該見守り対象者に異常が発生している可能性がある。そのため、画像解析装置1は、所定時間以上の間、見守り対象者の起き上がり等の動作が検知されない場合、そのことを知らせるための通知を行ってもよい。 In addition, the image analysis device 1 according to the above embodiment may detect actions other than getting out of bed and going to bed of the person to be watched, such as getting up on the bed. The image analysis device 1 can detect the behavior of the watching target person based on the positional relationship between the foreground area corresponding to the watching target person and the bed (for example, the bed surface SU). For example, the image analysis device 1 may detect that the person to be watched rises on the bed when the foreground region appears at a position higher than a predetermined height directly above the bed surface SU. As a result, various behaviors of the person to be watched in the bed can be detected, and the image analysis device 1 can enhance the watching of the person to be watched. Further, in this case, when the image analysis device 1 does not detect any behavior of the monitoring target person for several hours or more after starting the detection processing of the behavior of the monitoring target person, the monitoring target person has an abnormality. It may have occurred. Therefore, if the image analysis device 1 does not detect an action such as getting up of the person to be watched over for a predetermined time or longer, the image analysis device 1 may give a notification to notify the fact.

1…画像解析装置、
2…カメラ、21…深度センサ、
3…撮影画像、4…背景画像、
5…プログラム、6…記憶媒体、
11…制御部、12…記憶部、13…タッチパネルディスプレイ、
14…スピーカ、15…外部インタフェース、16…通信インタフェース、
17…ドライブ、
111…画像取得部、112…前景抽出部、113…離床検知部、
114…就床検知部、115…通知部
1 ... Image analyzer,
2 ... camera, 21 ... depth sensor,
3 ... photographed image, 4 ... background image,
5 ... program, 6 ... storage medium,
11 ... Control unit, 12 ... Storage unit, 13 ... Touch panel display,
14 ... speaker, 15 ... external interface, 16 ... communication interface,
17 ... Drive,
111 ... image acquisition unit, 112 ... foreground extraction unit, 113 ... bed leaving detection unit,
114 ... Bed detection unit, 115 ... Notification unit

Claims (4)

見守り対象者のベッドにおける行動を見守るために設置された撮影装置によって撮影された撮影画像であって、当該撮影画像内の各画素の深度を示す深度データを含む撮影画像を取得する画像取得部と、
取得された前記撮影画像と前記撮影画像の背景に設定された背景画像との差分を算出することにより、取得された前記撮影画像の前景領域を抽出する前景抽出部と、
抽出された前記前景領域に含まれる各画素の深度を参照することで、実空間上で、ベッド上に現れた前景領域が前記ベッドから所定距離以上離れた位置に移動したか否かを判定し、前記ベッド上に現れた前景領域が前記ベッドから所定距離以上離れた位置に移動したと判定した場合に、前記見守り対象者が前記ベッドから離床したことを検知する離床検知部と、
前記見守り対象者が前記ベッドから離床したことを検知した後に取得された撮影画像について、抽出された前記前景領域に含まれる各画素の深度を参照することで、実空間上で、ベッド外に現れた前景領域が前記ベッド上に移動したか否かを判定し、前記ベッド外に現れた前景領域が前記ベッド上に移動したと判定した場合に、前記見守り対象者が前記ベッドに就床したことを検知する就床検知部と、
前記見守り対象者の就床を検知する前に、前記見守り対象者の離床を検知してからの経過時間が一定時間を超えた場合に、当該見守り対象者が一定時間以上離床していることを知らせるための通知を行う通知部と、
を備え、
前記就床検知部は、前記ベッド外に現れた前景領域がベッド側部に設けられた所定の領域内に移動した場合に、更に、前記前景領域内において、前記見守り対象者の頭部が写る頭部領域と肩部が写る肩部領域とを推定し、推定した当該頭部領域の重心が当該肩部領域の重心よりも前記ベッドの外側に位置するときに、前記ベッド外に現れた前景領域が前記ベッド上に移動したと判定し、前記見守り対象者が前記ベッドに就床したことを検知する、
画像解析装置。
An image acquisition unit that acquires a photographed image including depth data indicating the depth of each pixel in the photographed image, which is a photographed image taken by a photographing device installed to monitor the behavior of the person to be watched in the bed. ,
A foreground extraction unit that extracts the foreground region of the acquired photographed image by calculating the difference between the acquired photographed image and the background image set as the background of the photographed image.
By referring to the depth of each pixel included in the extracted foreground region, it is determined whether or not the foreground region appearing on the bed has moved to a position separated from the bed by a predetermined distance or more in the real space. When it is determined that the foreground area appearing on the bed has moved to a position separated from the bed by a predetermined distance or more, the bed leaving detection unit for detecting that the watching target person has left the bed.
With respect to the photographed image acquired after detecting that the person to be watched has left the bed, the image appears outside the bed in the real space by referring to the depth of each pixel included in the extracted foreground area. When it is determined whether or not the foreground area has moved onto the bed and it is determined that the foreground area appearing outside the bed has moved onto the bed, the person to be watched has laid down on the bed. Bed detection unit that detects
If the elapsed time from detecting the bed leaving of the watching target person exceeds a certain time before detecting the bedtime of the watching target person, it is determined that the watching target person has left the bed for a certain period of time or more. A notification unit that gives notifications to notify
Bei to give a,
When the foreground area appearing outside the bed moves into a predetermined area provided on the side of the bed, the bed detection unit further captures the head of the person to be watched in the foreground area. The foreground that appears outside the bed when the head region and the shoulder region where the shoulder is reflected are estimated and the estimated center of gravity of the head region is located outside the bed from the center of gravity of the shoulder region. It is determined that the area has moved onto the bed, and it is detected that the watching target person has fallen asleep on the bed.
Image analyzer.
前記就床検知部は、前記ベッド外に現れた前景領域が、ベッド面直上の所定の高さよりも低い位置に移動した場合に、前記ベッド外に現れた前景領域が前記ベッド上に移動したと判定し、前記見守り対象者が前記ベッドに就床したことを検知する、
請求項に記載の画像解析装置。
According to the bed detection unit, when the foreground area appearing outside the bed moves to a position lower than a predetermined height directly above the bed surface, the foreground area appearing outside the bed moves onto the bed. Judging and detecting that the person to be watched has gone to bed.
The image analysis apparatus according to claim 1 .
コンピュータが、
見守り対象者のベッドにおける行動を見守るために設置された撮影装置によって撮影された撮影画像であって、当該撮影画像内の各画素の深度を示す深度データを含む撮影画像を取得するステップと、
取得された前記撮影画像と前記撮影画像の背景に設定された背景画像との差分を算出することにより、取得された前記撮影画像の前景領域を抽出するステップと、
抽出された前記前景領域に含まれる各画素の深度を参照することで、実空間上で、ベッド上に現れた前景領域が前記ベッドから所定距離以上離れた位置に移動したか否かを判定し、前記ベッド上に現れた前景領域が前記ベッドから所定距離以上離れた位置に移動したと判定した場合に、前記見守り対象者が前記ベッドから離床したことを検知するステップと、
前記見守り対象者が前記ベッドから離床したことを検知した後に取得された撮影画像について、抽出された前記前景領域に含まれる各画素の深度を参照することで、実空間上で、ベッド外に現れた前景領域が前記ベッド上に移動したか否かを判定し、前記ベッド外に現れた前景領域が前記ベッド上に移動したと判定した場合に、前記見守り対象者が前記ベッドに就床したことを検知するステップと、
前記見守り対象者の就床を検知する前に、前記見守り対象者の離床を検知してからの経過時間が一定時間を超えた場合に、当該見守り対象者が一定時間以上離床していることを知らせるための通知を行うステップと、
を実行し、
前記就床したことを検知するステップでは、前記コンピュータは、前記ベッド外に現れた前景領域がベッド側部に設けられた所定の領域内に移動した場合に、更に、前記前景領域内において、前記見守り対象者の頭部が写る頭部領域と肩部が写る肩部領域とを推定し、推定した当該頭部領域の重心が当該肩部領域の重心よりも前記ベッドの外側に位置するときに、前記ベッド外に現れた前景領域が前記ベッド上に移動したと判定し、前記見守り対象者が前記ベッドに就床したことを検知する、
画像解析方法。
The computer
A step of acquiring a captured image including depth data indicating the depth of each pixel in the captured image, which is a captured image taken by a photographing device installed to monitor the behavior of the person to be watched in the bed.
A step of extracting the foreground region of the acquired photographed image by calculating the difference between the acquired photographed image and the background image set as the background of the photographed image.
By referring to the depth of each pixel included in the extracted foreground region, it is determined whether or not the foreground region appearing on the bed has moved to a position separated from the bed by a predetermined distance or more in the real space. When it is determined that the foreground area appearing on the bed has moved to a position separated from the bed by a predetermined distance or more, the step of detecting that the person to be watched has left the bed.
With respect to the photographed image acquired after detecting that the person to be watched has left the bed, the image appears outside the bed in the real space by referring to the depth of each pixel included in the extracted foreground area. When it is determined whether or not the foreground area has moved onto the bed and it is determined that the foreground area appearing outside the bed has moved onto the bed, the person to be watched has laid down on the bed. Steps to detect and
If the elapsed time from detecting the bed leaving of the watching target person exceeds a certain time before detecting the bedtime of the watching target person, it is determined that the watching target person has left the bed for a certain period of time or more. The steps to make a notification to let you know,
The execution,
In the step of detecting that the person has gone to bed, when the foreground area appearing outside the bed moves into a predetermined area provided on the side of the bed, the computer further in the foreground area. When the head area where the head of the person to be watched is reflected and the shoulder area where the shoulder is reflected are estimated, and the estimated center of gravity of the head area is located outside the bed from the center of gravity of the shoulder area. , It is determined that the foreground area appearing outside the bed has moved onto the bed, and it is detected that the person to be watched has gone to bed.
Image analysis method.
コンピュータに、
見守り対象者のベッドにおける行動を見守るために設置された撮影装置によって撮影された撮影画像であって、当該撮影画像内の各画素の深度を示す深度データを含む撮影画像を取得するステップと、
取得された前記撮影画像と前記撮影画像の背景に設定された背景画像との差分を算出することにより、取得された前記撮影画像の前景領域を抽出するステップと、
抽出された前記前景領域に含まれる各画素の深度を参照することで、実空間上で、ベッド上に現れた前景領域が前記ベッドから所定距離以上離れた位置に移動したか否かを判定し、前記ベッド上に現れた前景領域が前記ベッドから所定距離以上離れた位置に移動したと判定した場合に、前記見守り対象者が前記ベッドから離床したことを検知するステップと、
前記見守り対象者が前記ベッドから離床したことを検知した後に取得された撮影画像について、抽出された前記前景領域に含まれる各画素の深度を参照することで、実空間上で、ベッド外に現れた前景領域が前記ベッド上に移動したか否かを判定し、前記ベッド外に現れた前景領域が前記ベッド上に移動したと判定した場合に、前記見守り対象者が前記ベッドに就床したことを検知するステップと、
前記見守り対象者の就床を検知する前に、前記見守り対象者の離床を検知してからの経過時間が一定時間を超えた場合に、当該見守り対象者が一定時間以上離床していることを知らせるための通知を行うステップと、
を実行させ
前記就床したことを検知するステップでは、前記コンピュータに、前記ベッド外に現れた前景領域がベッド側部に設けられた所定の領域内に移動した場合に、更に、前記前景領域内において、前記見守り対象者の頭部が写る頭部領域と肩部が写る肩部領域とを推定させ、推定した当該頭部領域の重心が当該肩部領域の重心よりも前記ベッドの外側に位置するときに、前記ベッド外に現れた前景領域が前記ベッド上に移動したと判定させて、前記見守り対象者が前記ベッドに就床したことを検知させる、
ための画像解析プログラム。

On the computer
A step of acquiring a captured image including depth data indicating the depth of each pixel in the captured image, which is a captured image taken by a photographing device installed to monitor the behavior of the person to be watched in the bed.
A step of extracting the foreground region of the acquired photographed image by calculating the difference between the acquired photographed image and the background image set as the background of the photographed image.
By referring to the depth of each pixel included in the extracted foreground region, it is determined whether or not the foreground region appearing on the bed has moved to a position separated from the bed by a predetermined distance or more in the real space. When it is determined that the foreground area appearing on the bed has moved to a position separated from the bed by a predetermined distance or more, the step of detecting that the person to be watched has left the bed.
With respect to the photographed image acquired after detecting that the person to be watched has left the bed, the image appears outside the bed in the real space by referring to the depth of each pixel included in the extracted foreground area. When it is determined whether or not the foreground area has moved onto the bed and it is determined that the foreground area appearing outside the bed has moved onto the bed, the person to be watched has laid down on the bed. Steps to detect and
If the elapsed time from detecting the bed leaving of the watching target person exceeds a certain time before detecting the bedtime of the watching target person, it is determined that the watching target person has left the bed for a certain period of time or more. The steps to make a notification to let you know,
To execute ,
In the step of detecting that the person has gone to bed, when the foreground area appearing outside the bed moves into a predetermined area provided on the side of the bed, the computer further in the foreground area. When the head area where the head of the person to be watched is reflected and the shoulder area where the shoulder is reflected are estimated, and the estimated center of gravity of the head area is located outside the bed from the center of gravity of the shoulder area. , It is determined that the foreground area appearing outside the bed has moved onto the bed, and it is detected that the person to be watched has gone to bed.
Image analysis program for.

JP2017521708A 2015-05-29 2016-02-04 Image analysis device, image analysis method, and image analysis program Active JP6780641B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2015110260 2015-05-29
JP2015110260 2015-05-29
PCT/JP2016/053349 WO2016194402A1 (en) 2015-05-29 2016-02-04 Image analysis device, image analysis method, and image analysis program

Publications (2)

Publication Number Publication Date
JPWO2016194402A1 JPWO2016194402A1 (en) 2018-03-22
JP6780641B2 true JP6780641B2 (en) 2020-11-04

Family

ID=57441018

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017521708A Active JP6780641B2 (en) 2015-05-29 2016-02-04 Image analysis device, image analysis method, and image analysis program

Country Status (2)

Country Link
JP (1) JP6780641B2 (en)
WO (1) WO2016194402A1 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6831740B2 (en) * 2017-04-10 2021-02-17 大和ハウス工業株式会社 Dietary habit estimation system
JP7033305B2 (en) * 2018-02-23 2022-03-10 エイアイビューライフ株式会社 Information processing equipment
JP7232497B2 (en) * 2018-06-15 2023-03-03 エイアイビューライフ株式会社 Information processing equipment
JP2020077015A (en) * 2018-11-05 2020-05-21 株式会社オートニクス Patient information management device
US12046128B2 (en) 2020-03-31 2024-07-23 Nec Corporation Monitoring device, monitoring method, and recording medium
CN112885053B (en) * 2020-12-31 2022-08-19 苏州佩秋信息科技有限公司 Working method of decentralized home monitoring system
JP7533954B2 (en) 2021-10-26 2024-08-14 Necプラットフォームズ株式会社 Information processing system, information processing device, information processing method, and program

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001307257A (en) * 2000-04-20 2001-11-02 Matsushita Electric Works Ltd Information method in care support system, and its system using the method and readable recording medium of computer
JP4590745B2 (en) * 2001-01-31 2010-12-01 パナソニック電工株式会社 Image processing device
JP6119356B2 (en) * 2013-03-25 2017-04-26 富士通株式会社 Notification program, notification method, and notification device
JP6115335B2 (en) * 2013-06-10 2017-04-19 ノーリツプレシジョン株式会社 Information processing apparatus, information processing method, and program

Also Published As

Publication number Publication date
WO2016194402A1 (en) 2016-12-08
JPWO2016194402A1 (en) 2018-03-22

Similar Documents

Publication Publication Date Title
JP6780641B2 (en) Image analysis device, image analysis method, and image analysis program
JP6115335B2 (en) Information processing apparatus, information processing method, and program
US10095930B2 (en) System and method for home health care monitoring
JP6167563B2 (en) Information processing apparatus, information processing method, and program
JP6432592B2 (en) Information processing apparatus, information processing method, and program
JP6500785B2 (en) INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND PROGRAM
JP6171415B2 (en) Information processing apparatus, information processing method, and program
JP6489117B2 (en) Information processing apparatus, information processing method, and program
JP6504156B2 (en) INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND PROGRAM
WO2016151966A1 (en) Infant monitoring device, infant monitoring method, and infant monitoring program
JP6638723B2 (en) Image analysis device, image analysis method, and image analysis program
JP6737261B2 (en) Vital sign measuring device, vital sign measuring method, and vital sign measuring program
JP2011209794A (en) Object recognition system, monitoring system using the same, and watching system
JP6645503B2 (en) Image analysis device, image analysis method, and image analysis program
JP6607253B2 (en) Image analysis apparatus, image analysis method, and image analysis program
JP6737262B2 (en) Abnormal state detection device, abnormal state detection method, and abnormal state detection program
JP6565468B2 (en) Respiration detection device, respiration detection method, and respiration detection program
JP6606912B2 (en) Bathroom abnormality detection device, bathroom abnormality detection method, and bathroom abnormality detection program
JP6780639B2 (en) Image analysis device, image analysis method, and image analysis program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200324

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200403

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200915

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200928

R150 Certificate of patent or registration of utility model

Ref document number: 6780641

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250