JP2001157196A - System and method for security - Google Patents
System and method for securityInfo
- Publication number
- JP2001157196A JP2001157196A JP33936099A JP33936099A JP2001157196A JP 2001157196 A JP2001157196 A JP 2001157196A JP 33936099 A JP33936099 A JP 33936099A JP 33936099 A JP33936099 A JP 33936099A JP 2001157196 A JP2001157196 A JP 2001157196A
- Authority
- JP
- Japan
- Prior art keywords
- image
- camera
- moving
- edge information
- text
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Studio Devices (AREA)
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Alarm Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術の分野】本発明は、画像中の物体の
位置及び大きさを検出して近くに物体があることを利用
者に警告する警戒装置に関し、詳しくは、ビデオカメラ
などで撮影された二値画像、濃淡画像、三原色波長、可
視光波長、赤外線波長、紫外線波長、その他全ての電磁
波のうち任意の帯域から構成される動画像中の物体のエ
ッジ情報から、物体の位置及び大きさを検出して近くに
ある物体、近づいてくる物体及び遠ざかる物体をディス
プレイに表示し、人工音声で物体の種別、位置及び位置
の変化を知らせるものに関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a security device which detects the position and size of an object in an image and warns a user that an object is nearby. The position and size of the object from the edge information of the object in the moving image composed of an arbitrary band among binary images, grayscale images, three primary color wavelengths, visible light wavelengths, infrared wavelengths, ultraviolet wavelengths, and all other electromagnetic waves. The present invention relates to an apparatus which detects a nearby object, an approaching object, and an distant object on a display and informs the type, position, and change of the position of the object by artificial voice.
【0002】[0002]
【従来の技術】従来から、銀行、コンビニエンスストア
ー、工場、事務所及び家屋などに監視装置が設置されて
きた。しかしながら多くの監視装置では監視カメラが固
定されており、常時同じ場所を撮影する(特開平6−3
51021、特開平9−52396参照)。したがって
監視範囲から死角をなくすためには複数の監視カメラが
必要となり、利用者はこれらの監視カメラの映像を順番
に見なければならない。また遠隔操作可能な監視装置も
存在するが、利用者が手動で操作しなければならない。
したがって利用者が1個の監視カメラを操作する場合で
も、利用者はその監視カメラが撮影した映像を見続けな
ければならない。まして利用者が複数の監視カメラを操
作する必要がある場合、利用者には過度の負担が掛る。
例えば監視カメラを車両に設置した場合には、運転者は
映像を見ながら監視カメラの向きを操作しなければなら
ない(特開昭63−54699、特開平3−16434
1参照)。このような問題を解決するために、CD−R
OMに記憶された地図を参照して監視カメラの向きを変
更する方法も開発されている(特開平5−254372
参照)。しかしながらこのような監視装置でも状況に合
わせて物体を探索することができないので、結局運転者
が常時監視カメラを操作しなければならない。物体追尾
式エリア監視装置(特開平6−88876参照)のよう
な監視装置も開発されているが、利用範囲が限られてい
るのが現状である。2. Description of the Related Art Conventionally, monitoring devices have been installed in banks, convenience stores, factories, offices and houses. However, many surveillance devices have a fixed surveillance camera and always photograph the same place (Japanese Patent Laid-Open No. 6-3).
51021, JP-A-9-52396). Therefore, a plurality of surveillance cameras are required to eliminate the blind spot from the surveillance range, and the user must view the images of these surveillance cameras in order. Some monitoring devices can be operated remotely, but must be manually operated by the user.
Therefore, even when the user operates one surveillance camera, the user must keep watching the video taken by the surveillance camera. In addition, when the user needs to operate a plurality of monitoring cameras, an excessive burden is imposed on the user.
For example, when a surveillance camera is installed in a vehicle, the driver must operate the direction of the surveillance camera while watching the image (Japanese Patent Application Laid-Open Nos. 63-54699 and 3-164434).
1). In order to solve such a problem, CD-R
A method of changing the direction of the surveillance camera with reference to a map stored in the OM has also been developed (Japanese Patent Laid-Open No. 5-254372).
reference). However, even with such a monitoring device, it is not possible to search for an object according to the situation, so that the driver must always operate the monitoring camera at all times. Monitoring devices such as an object tracking type area monitoring device (see JP-A-6-88876) have also been developed, but at present the usage range is limited.
【0003】一方で、近年高性能の音声合成装置(特開
平5−053595、特開平5−094196、特開平
5−108084参照)及び高性能の音声認識装置(特
開平05−002399、特開平05−011798、
特開平5−019787参照)が開発されてきた。これ
らはスピーカー及びマイクロフォンと共にナビゲーショ
ン装置に組み込まれることにより、利用者が音声を介し
て簡単にナビゲーション装置を利用できるようになった
(特開平6−20196、特開平8−35846、特開
平11−276516参照)。On the other hand, in recent years, high-performance speech synthesizers (see JP-A-5-053595, JP-A-5-09196, and JP-A-5-108084) and high-performance speech recognizers (JP-A-05-002399, JP-A-05-002399) have been proposed. -011798,
Japanese Patent Application Laid-Open No. Hei 5-017877) has been developed. These are incorporated into a navigation device together with a speaker and a microphone, so that a user can easily use the navigation device via voice (Japanese Patent Application Laid-Open Nos. 6-20196, 8-35846, and 11-276516). reference).
【0004】このような状況において、本発明者は移動
カメラを用いて屋内及び屋外で物体を探索することがで
きる視覚装置を開発した(特願平11−253634参
照)。この視覚装置は移動物体及び静止物体を探索して
適切な倍率で撮影し、物体の種別、位置及び位置の変化
を検出することができる。In such a situation, the present inventor has developed a visual device capable of searching for an object indoors and outdoors using a moving camera (see Japanese Patent Application No. 11-253634). This visual device can search for a moving object and a stationary object, photograph at an appropriate magnification, and detect the type, position, and change in position of the object.
【0005】これらのことを考慮すると、視覚装置によ
って制御された移動カメラが物体を撮影し、音声合成装
置がこの物体の種別、位置及び位置の変化を人工音声に
変換して利用者に知らせ、音声認識装置が利用者の音声
を認識して移動カメラを制御することができれば、利用
者の周囲の物体を探索するために利用者が容易に操作す
ることができるような警戒装置を製造できると期待され
る。In consideration of the above, a moving camera controlled by a visual device captures an object, and a speech synthesizer converts the type, position, and change of the position of the object into artificial voice to notify the user, If the voice recognition device can recognize the user's voice and control the moving camera, it would be possible to manufacture a security device that can be easily operated by the user to search for objects around the user. Be expected.
【0006】[0006]
【発明が解決しようとする課題】そこで、請求項記載の
本発明は、移動カメラによって撮影された映像から視覚
装置が物体の位置及び大きさを検出することにより、移
動カメラが適切な向き及び倍率で撮影した物体の映像を
ディスプレイに表示し、音声合成装置を介してスピーカ
ーが人工音声で物体の種別、位置及び位置の変化を知ら
せ、マイクロフォンが取り込んだ利用者の音声を音声認
識装置が認識することにより、利用者が移動カメラの向
き及び倍率を制御することを目的とする。SUMMARY OF THE INVENTION Accordingly, an object of the present invention is to provide an image processing apparatus in which a visual camera detects a position and a size of an object from an image captured by the moving camera so that the moving camera has an appropriate orientation and magnification. Display the image of the object photographed on the display, the speaker notifies the type, position and position change of the object by artificial voice through the voice synthesizer, and the voice recognition device recognizes the user's voice captured by the microphone By doing so, it is an object for the user to control the direction and magnification of the mobile camera.
【0007】[0007]
【課題を解決するための手段】請求項1の発明は、10
00メートル以内の物体を探索する警戒装置であって、
移動カメラを用いて前記物体の動画像を生成する手段
と、視覚装置を用いて、前記動画像から前記物体の位置
及び大きさを検出し、前記物体の種別を認識し、及び制
御命令を入力することにより、前記移動カメラの向き及
び倍率を制御する手段と、ディスプレイを用いて前記動
画像を表示する手段と、音声合成装置を用いて地図テキ
ストを人工音声に変換する手段と、スピーカーを用いて
前記人工音声を出力する手段と、マイクロフォンを用い
て利用者の音声を入力する手段と、音声認識装置を用い
て前記利用者の前記音声を認識して命令テキストに変換
する手段と、中央制御装置を用いて、前記物体の前記種
別、前記位置及び前記位置の変化を前記地図テキストに
変換し、前記命令テキストを前記制御命令に変換し、前
記動画像に前記地図テキスト及び前記命令テキストを挿
入することにより、前記移動カメラ、前記ディスプレ
イ、前記視覚装置、前記音声合成装置及び前記音声認識
装置の間の通信を媒介する手段と、を有する警戒装置で
ある。本発明は、前記物体を前記移動カメラで撮影する
ことにより前記動画像を生成し、前記視覚装置が前記動
画像に対して画像処理を実行することで、前記物体の前
記位置を特定し、かつ前記物体の前記種別を認識し、前
記物体が前記動画像の中央で拡大されるように前記移動
カメラの前記向き及び前記倍率を制御する。また本発明
は前記ディスプレイを利用することにより前記移動カメ
ラが撮影した前記動画像を表示し、音声合成技術を用い
て前記物体の前記種別、前記位置及び前記位置の前記変
化を前記利用者に知らせる。さらに本発明は、前記地図
テキスト及び前記命令テキストが挿入された前記動画像
を見ながら、前記利用者が前記利用者の前記音声により
前記移動カメラの前記向き及び前記倍率を前記物体の前
記位置及び前記大きさに合わせることができる。したが
って本発明は、前記移動カメラの近くにある前記物体
と、前記移動カメラに向かって近づいてくる前記物体
と、前記移動カメラから遠ざかる前記物体と、を撮影す
る前記警戒装置を実現することができ、前記物体の探索
に関する諸問題が好適に解決される。According to the first aspect of the present invention, there is provided an information processing system comprising:
A security device for searching for objects within 00 meters,
Means for generating a moving image of the object using a moving camera, and using a visual device, detecting the position and size of the object from the moving image, recognizing the type of the object, and inputting a control command Means for controlling the orientation and magnification of the moving camera, means for displaying the moving image using a display, means for converting map text into artificial sound using a speech synthesizer, and using a speaker. Means for outputting the artificial voice using a microphone, means for inputting the user's voice using a microphone, means for recognizing the user's voice using a voice recognition device and converting the voice into a command text, and central control. Using a device, the type of the object, the position and the change in the position are converted into the map text, the command text is converted into the control command, and the map is converted into the moving image. By inserting the text and the instruction text, the moving camera, the display, the visual device, a warning device and means for mediating communication between the speech synthesis apparatus and the speech recognition device. The present invention generates the moving image by photographing the object with the moving camera, and executes the image processing on the moving image by the visual device to specify the position of the object, and Recognizing the type of the object, controlling the orientation and the magnification of the moving camera so that the object is enlarged at the center of the moving image. Further, the present invention displays the moving image captured by the moving camera by using the display, and notifies the user of the type, the position, and the change of the position of the object using a voice synthesis technology. . Further, in the present invention, while viewing the moving image in which the map text and the instruction text are inserted, the user can change the orientation and the magnification of the moving camera by the voice of the user, the position of the object and the position of the object. The size can be adjusted. Therefore, the present invention can realize the vigilance device that photographs the object near the moving camera, the object approaching the moving camera, and the object moving away from the moving camera. In addition, the problems related to the search for the object are preferably solved.
【0008】請求項2の発明は、移動カメラによって撮
影された動画像中の物体に対して、前記動画像のフレー
ム画像を取得する手段と、前記フレーム画像をデジタル
画像として順次記憶する手段と、前記デジタル画像から
粗エッジ情報画像を生成する手段と、前記デジタル画像
を用いて前記粗エッジ情報画像から形成エッジ情報画像
を生成する手段と、前記形成エッジ情報画像を用いて背
景から前記物体領域を分離する手段と、前記物体領域を
正規化して正規化画像を生成する手段と、前記形成エッ
ジ情報画像を幾何解析する手段と、前記正規化画像から
前記物体領域の種別を認識する手段と、前記粗エッジ情
報画像によって区分される前記物体領域の位置及び大き
さを検出する手段と、前記移動カメラの向き及び倍率を
環境座標の位置に変換する手段と、前記物体領域の前記
位置及び前記大きさを前記環境座標の前記位置に変換す
る手段と、前記環境座標で表された環境地図を生成する
手段と、前記環境地図を用いて前記物体の前記位置を推
定する手段と、複数の前記物体領域に対する前記環境座
標の前記位置の中から1つを選択する手段と、外部から
制御命令を入力する手段と、前記移動カメラを振動させ
る振動命令を生成する手段と、前記移動カメラが移動す
べき前記環境座標の前記位置を決定する手段と、前記移
動カメラを制御するカメラ命令を生成する手段と、を有
する視覚装置を特徴とする警戒装置である。第一に、前
記移動カメラが撮影した前記物体が適当な大きさで撮影
されるように前記視覚装置は前記移動カメラの前記向き
及び前記倍率を調整する。前記動画像から前記物体のエ
ッジ情報を生成し、前記エッジ情報を縮退する一連の処
理は、全て局所処理によって実現される。これにより前
記視覚装置は前記物体の形や大きさに依存することな
く、高速に前記物体を適切な大きさで撮影することがで
きる。また色情報の分類などによって前記物体領域を抽
出する場合に比べて、前記エッジ情報は照明などの影響
を受け難いので、前記視覚装置の応用範囲は広い。第二
に、前記動画像から前記物体の前記エッジ情報を生成
し、前記エッジ情報を用いて前記背景から分離した前記
物体領域を正規化する一連の処理は、全て局所処理によ
って実現される。これにより前記視覚装置は前記物体の
形や大きさに依存することなく、高速に前記正規化画像
を生成することができる。しかも前記正規化画像は前記
背景を含まないので、前記正規化画像を認識する方法
は、前記背景に囲まれた前記物体領域を認識する場合に
比べて、前記背景や前記物体領域の前記位置及び前記大
きさなどの影響を受け難いので、前記視覚装置の応用範
囲は広い。第三に、前記正規化画像を認識した結果と前
記移動カメラの前記向き及び前記倍率から前記物体の前
記種別と前記環境座標中の位置を表す環境データが作成
されるので、前記視覚装置は前記環境データの集合であ
る前記環境地図を作成することができる。前記環境地図
は一定期間の前記環境データを含んでいるので、前記物
体の前記種別毎に分布や移動状況を記録することがで
き、前記視覚装置の応用範囲は広い。第四に、前記環境
地図を用いると、未だ認識されていない前記物体の前記
環境座標中の前記位置を求めることができる。また前記
移動カメラが撮影可能な範囲に存在する前記物体の実際
の位置を推定することができるので、前記視覚装置の応
用範囲は広い。第五に、前記物体から生成した前記エッ
ジ情報の大ざっぱな形状を解析することにより、前記正
規化画像中の前記物体の前記種別を推定できるので、前
記正規化画像を認識する前記手段はより高速で正確に前
記物体正規化画像を認識することができる。また前記正
規化画像中の前記物体が認識の対象でない場合には、前
記正規化画像を認識する前記手段が前記認識結果を生成
する前に前記環境地図を生成することができるので、前
記視覚装置の応用範囲は広い。したがって前記物体の探
索に関する諸問題が好適に解決される。According to a second aspect of the present invention, a means for acquiring a frame image of the moving image for an object in the moving image captured by the moving camera, a means for sequentially storing the frame image as a digital image, Means for generating a coarse edge information image from the digital image, means for generating a formed edge information image from the coarse edge information image using the digital image, and processing the object area from the background using the formed edge information image. Means for separating, means for normalizing the object area to generate a normalized image, means for geometrically analyzing the formed edge information image, means for recognizing the type of the object area from the normalized image, Means for detecting the position and size of the object area divided by the coarse edge information image, and setting the direction and magnification of the moving camera to the position of environmental coordinates. Means for converting, the position and the size of the object area to the position of the environment coordinates, means for generating an environment map represented by the environment coordinates, and using the environment map Means for estimating the position of an object, means for selecting one of the environmental coordinates for the plurality of object regions, means for inputting a control command from outside, and vibration for vibrating the mobile camera A vigilance device, characterized by a visual device comprising: means for generating instructions; means for determining the position of the environmental coordinates to which the mobile camera is to move; and means for generating camera instructions for controlling the mobile camera. It is. First, the visual device adjusts the orientation and the magnification of the moving camera so that the object photographed by the moving camera is photographed at an appropriate size. A series of processes for generating edge information of the object from the moving image and degenerating the edge information are all realized by local processing. This allows the visual device to quickly image the object with an appropriate size without depending on the shape and size of the object. In addition, compared to the case where the object area is extracted by classification of color information, the edge information is less affected by illumination and the like, so that the application range of the visual device is wide. Second, a series of processes for generating the edge information of the object from the moving image and normalizing the object region separated from the background using the edge information are all realized by local processing. This allows the visual device to generate the normalized image at high speed without depending on the shape and size of the object. Moreover, since the normalized image does not include the background, the method of recognizing the normalized image is more efficient than the case of recognizing the object region surrounded by the background. The application range of the visual device is wide because it is hardly affected by the size and the like. Third, environmental data representing the type of the object and a position in the environmental coordinates is created from the result of recognition of the normalized image and the orientation and the magnification of the moving camera, so that the visual device is The environmental map, which is a set of environmental data, can be created. Since the environment map includes the environment data for a certain period, the distribution and the movement status can be recorded for each type of the object, and the application range of the visual device is wide. Fourth, using the environment map, the position of the object that has not yet been recognized in the environment coordinates can be obtained. Further, since the actual position of the object existing in a range where the mobile camera can capture an image can be estimated, the application range of the visual device is wide. Fifth, since the type of the object in the normalized image can be estimated by analyzing the rough shape of the edge information generated from the object, the means for recognizing the normalized image is faster. Thus, the object normalized image can be accurately recognized. Further, when the object in the normalized image is not a recognition target, the means for recognizing the normalized image can generate the environment map before generating the recognition result. Has a wide range of applications. Therefore, the problems relating to the search for the object are suitably solved.
【0009】請求項3の発明は、移動カメラ、ディスプ
レイ、視覚装置、音声合成装置及び音声認識装置と接続
された中央制御装置であって、前記視覚装置が生成した
環境地図を入力する手段と、前記環境地図に記載された
物体領域の種別、位置及び前記位置の変化を地図テキス
トに変換する手段と、前記音声合成装置に出力される前
記地図テキストを保持する手段と、前記音声認識装置が
出力する命令テキストを入力する手段と、前記命令テキ
ストを前記視覚装置用の制御命令に変換する手段と、前
記制御命令を保持する手段と、前記移動カメラが生成し
たビデオ信号を入力する手段と、前記ビデオ信号に前記
地図テキスト及び前記命令テキストを挿入する手段と、
前記地図テキスト及び前記命令テキストが挿入された前
記ビデオ信号を前記ディスプレイに出力する手段と、を
有する前記中央制御装置を特徴とする警戒装置である。
前記視覚装置が生成した前記環境地図には前記物体領域
の前記種別、前記位置及び前記位置の前記変化が記載さ
れているので、前記音声合成装置を用いて利用者が前記
物体領域の前記種別、前記位置及び前記位置の前記変化
を知ることができるように、本発明は前記物体領域の前
記種別、前記位置及び前記位置の前記変化を前記地図テ
キストに変換する。また前記音声認識装置が前記利用者
の音声を前記命令テキストに変換するので、前記視覚装
置を用いて前記利用者が前記移動カメラの向き及び倍率
を制御することができるように、本発明は前記命令テキ
ストを前記制御命令に変換する。さらに前記移動カメラ
が生成した前記ビデオ信号には現在前記移動カメラが撮
影している物体しか映っていないので、前記ディスプレ
イを用いて前記利用者が前記物体以外の情報を得られる
ように、本発明は前記ビデオ信号に前記地図テキスト及
び前記命令テキストを挿入する。したがって前記物体の
探索に関する諸問題が好適に解決される。According to a third aspect of the present invention, there is provided a central control device connected to a moving camera, a display, a visual device, a voice synthesizing device, and a voice recognizing device, and means for inputting an environment map generated by the visual device. Means for converting the type, position and change of the position of the object area described in the environmental map into map text, means for holding the map text output to the speech synthesizer, and output by the speech recognition device Means for inputting instruction text to be executed, means for converting the instruction text into control instructions for the visual device, means for holding the control instructions, means for inputting a video signal generated by the moving camera, Means for inserting the map text and the instruction text into a video signal;
Means for outputting, to the display, the video signal into which the map text and the command text have been inserted, the central control device comprising:
Since the type of the object region, the position and the change in the position are described in the environment map generated by the visual device, the user uses the voice synthesizer to set the type of the object region, The present invention converts the type of the object region, the position, and the change in the position into the map text so that the position and the change in the position can be known. In addition, the voice recognition device converts the voice of the user into the command text, so that the user can control the orientation and magnification of the moving camera using the visual device, Convert the instruction text into the control instruction. Further, since the video signal generated by the moving camera only shows the object currently being photographed by the moving camera, the present invention provides the user with the display so that the user can obtain information other than the object. Inserts the map text and the command text into the video signal. Therefore, the problems relating to the search for the object are suitably solved.
【0010】請求項4の発明は、請求項1記載の警戒装
置に対して、車両及び船舶の正面から時計回りで90〜
270度の範囲を撮影可能な位置に前記移動カメラ及び
前記視覚装置を設置し、前記車両の運転席及び前記船舶
の操縦席に前記ディスプレイ、前記マイクロフォン、前
記スピーカー、前記中央制御装置、前記音声合成装置及
び前記音声認識装置を設置することにより、前記移動カ
メラから1000メートル以内にある前記物体と、前記
移動カメラに向かって近づいてくる前記物体と、前記移
動カメラから遠ざかる前記物体と、を探索する警戒方法
である。例えば自動車、ミニカー、バス、トラック及び
ダンプカーなどの四輪車、バイク及び自転車などの二輪
車、車いす(電動式を含む)、電動三輪車、歩行補助機
などの前記車両と、水上バイク、ヨット、ボート、クル
ーザー、釣り船、タグボート、客船及びタンカーなどの
前記船舶に対して、本発明は前記車両及び前記船舶の後
方にある前記物体を前記ディスプレイに表示し、かつ前
記物体の前記種別、前記位置及びを前記位置の前記変化
を前記人工音声に変換する。たとえ前記運転席及び前記
操縦席にバックミラー、サイドミラー又は監視カメラが
撮影した映像を表示する前記ディスプレーが設置されて
いるとしても、現実に運転者及び操縦者が死角にあるか
又は遠方から近づいてくる前記物体を見付けることは難
しい。まして前記運転者及び前記操縦者が前方及び側方
の前記物体に気を取られていると、後方の前記物体に対
して警戒を怠ってしまうので、本発明は後方の前記物体
に対して前記運転者及び前記操縦者に注意を喚起するこ
とができる。したがって前記車両及び前記船舶の後方の
前記物体の探索に関する諸問題が好適に解決される。According to a fourth aspect of the present invention, there is provided a warning device according to the first aspect, wherein the warning device is 90 to 90 degrees clockwise from the front of the vehicle and the ship.
The moving camera and the visual device are installed at a position where a range of 270 degrees can be photographed, and the display, the microphone, the speaker, the central control device, and the voice synthesis are provided in a driver seat of the vehicle and a cockpit of the boat. By installing a device and the voice recognition device, searching for the object within 1000 meters from the moving camera, the object approaching the moving camera, and the object moving away from the moving camera. It is a vigilance method. For example, the vehicles such as automobiles, mini cars, buses, four-wheeled vehicles such as trucks and dump trucks, two-wheeled vehicles such as motorcycles and bicycles, wheelchairs (including electric type), three-wheeled electric vehicles, walking aids and the like, and personal watercraft, yachts, boats, For the vessels such as cruisers, fishing boats, tug boats, passenger ships and tankers, the present invention displays the object behind the vehicle and the vessel on the display, and displays the type, the position, and the position of the object. The change in position is converted to the artificial voice. Even if the driver's seat and the cockpit are equipped with a rearview mirror, a side mirror or the display for displaying an image captured by a surveillance camera, the driver and the driver are actually in a blind spot or approach from a distance. It is difficult to find the coming object. Even more, if the driver and the driver are distracted by the objects in front and side, the driver neglects to be alert to the object in the rear, and thus the present invention relates to the object in the rear. The driver and the operator can be alerted. Therefore, various problems related to searching for the object behind the vehicle and the ship are suitably solved.
【0011】請求項5の発明は、請求項1記載の警戒装
置に対して、車両及び船舶の正面から時計回りで0〜1
80度、又は180〜360度の範囲を撮影可能な位置
に前記移動カメラ及び前記視覚装置を設置し、前記車両
の運転席及び前記船舶の操縦席に前記ディスプレイ、前
記マイクロフォン、前記スピーカー、前記中央制御装
置、前記音声合成装置及び前記音声認識装置を設置する
ことにより、前記移動カメラから1000メートル以内
にある前記物体と、前記移動カメラに向かって近づいて
くる前記物体と、前記移動カメラから遠ざかる前記物体
と、を探索する警戒方法である。例えば自動車、ミニカ
ー、バス、トラック及びダンプカーなどの四輪車、バイ
ク及び自転車などの二輪車、車いす(電動式を含む)、
電動三輪車、歩行補助機などの前記車両と、水上バイ
ク、ヨット、ボート、クルーザー、釣り船、タグボー
ト、客船及びタンカーなどの前記船舶に対して、本発明
は前記車両及び前記船舶の側方にある前記物体を前記デ
ィスプレイに表示し、かつ前記物体の前記種別、前記位
置及びを前記位置の前記変化を前記人工音声に変換す
る。たとえ前記運転席及び前記操縦席にバックミラー、
サイドミラー又は監視カメラが撮影した映像を表示する
前記ディスプレーが設置されているとしても、現実に運
転者及び操縦者が死角にあるか又は遠方から近づいてく
る前記物体を見付けることは難しい。まして前記運転者
及び前記操縦者が前方及び後方の前記物体に気を取られ
ていると、側方の前記物体に対して警戒を怠ってしまう
ので、本発明は側方の前記物体に対して前記運転者及び
前記操縦者に注意を喚起することができる。したがって
前記車両及び前記船舶の側方の前記物体の探索に関する
諸問題が好適に解決される。According to a fifth aspect of the present invention, there is provided a warning device according to the first aspect, wherein the warning device is provided in a clockwise direction from 0 to 1 from the front of the vehicle and the ship.
The moving camera and the visual device are installed at a position capable of photographing an angle of 80 degrees or a range of 180 to 360 degrees, and the display, the microphone, the speakers, and the center are provided at a driver's seat of the vehicle and a cockpit of the boat. By installing a control device, the speech synthesis device and the speech recognition device, the object within 1000 meters from the moving camera, the object approaching the moving camera, and moving away from the moving camera It is an alert method to search for objects. For example, automobiles, mini cars, buses, four-wheeled vehicles such as trucks and dump trucks, motorcycles and two-wheeled vehicles such as bicycles, wheelchairs (including electric type),
The present invention relates to the electric tricycle, the vehicle such as a walking aid, and the boat such as a personal watercraft, a yacht, a boat, a cruiser, a fishing boat, a tug boat, a passenger boat, and a tanker. An object is displayed on the display, and the type, the position, and the change of the position of the object are converted into the artificial voice. Even if the driver's seat and the cockpit are rearview mirrors,
Even if the display for displaying an image captured by a side mirror or a surveillance camera is installed, it is difficult for a driver and a driver to actually find the object in a blind spot or approaching from a distance. Even more, if the driver and the driver are distracted by the objects in front and behind, the driver neglects to be cautious of the objects on the sides, and the present invention is directed to the objects on the sides. The driver and the operator can be alerted. Therefore, various problems relating to the search for the object on the side of the vehicle and the ship are suitably solved.
【0012】請求項6の発明は、請求項1記載の警戒装
置に対して、車両及び船舶の正面から時計回りで0〜9
0度、及び270〜360度の範囲を撮影可能な位置に
前記移動カメラ及び前記視覚装置を設置し、前記車両の
運転席及び前記船舶の操縦席に前記ディスプレイ、前記
マイクロフォン、前記スピーカー、前記中央制御装置、
前記音声合成装置及び前記音声認識装置を設置すること
により、前記移動カメラから1000メートル以内にあ
る前記物体と、前記移動カメラに向かって近づいてくる
前記物体と、前記移動カメラから遠ざかる前記物体と、
を探索する警戒方法である。例えば自動車、ミニカー、
バス、トラック及びダンプカーなどの四輪車、バイク及
び自転車などの二輪車、車いす(電動式を含む)、電動
三輪車、歩行補助機などの前記車両と、水上バイク、ヨ
ット、ボート、クルーザー、釣り船、タグボート、客船
及びタンカーなどの前記船舶に対して、本発明は前記車
両及び前記船舶の前方にある前記物体を前記ディスプレ
イに表示し、かつ前記物体の前記種別、前記位置及びを
前記位置の前記変化を前記人工音声に変換する。たとえ
前記運転席及び前記操縦席に望遠鏡又は監視カメラが撮
影した映像を表示する前記ディスプレーが設置されてい
るとしても、現実に運転者及び操縦者が死角にあるか又
は遠方から近づいてくる前記物体を見付けることは難し
い。まして前記運転者及び前記操縦者が後方及び側方の
前記物体に気を取られていると、前方の前記物体に対し
て警戒を怠ってしまうので、本発明は前方の前記物体に
対して前記運転者及び前記操縦者に注意を喚起すること
ができる。したがって前記車両及び前記船舶の前方の前
記物体の探索に関する諸問題が好適に解決される。According to a sixth aspect of the present invention, there is provided a warning device according to the first aspect, wherein the number is 0 to 9 in a clockwise direction from the front of the vehicle and the boat.
The mobile camera and the visual device are installed at positions where the camera can capture images in the range of 0 degrees and 270 to 360 degrees, and the display, the microphone, the speakers, and the center are provided in the driver's seat of the vehicle and the cockpit of the boat. Control device,
By installing the speech synthesis device and the speech recognition device, the object within 1000 meters from the moving camera, the object approaching the moving camera, the object moving away from the moving camera,
Is a vigilant way to explore. For example, cars, mini cars,
The vehicles such as buses, trucks and dump trucks, such as four-wheeled vehicles, motorcycles and bicycles, two-wheeled vehicles, wheelchairs (including electric type), electric three-wheeled vehicles, walking aids, etc., and watercraft, yachts, boats, cruisers, fishing boats, tugboats For the ship such as a passenger ship and a tanker, the present invention displays the object in front of the vehicle and the ship on the display, and displays the type of the object, the position, and the change in the position. Convert to the artificial voice. Even if the driver's seat and the cockpit are equipped with a display for displaying an image captured by a telescope or a surveillance camera, the driver and the driver are actually in a blind spot or the object approaching from a distance. It is difficult to find. Even more, if the driver and the driver are distracted by the objects behind and on the sides, they neglect to be vigilant against the objects ahead, and the present invention relates to the above-mentioned objects with respect to the objects ahead. The driver and the operator can be alerted. Therefore, various problems relating to the search for the object in front of the vehicle and the ship are suitably solved.
【0013】請求項7の発明は、請求項1記載の警戒装
置に対して、2〜200個の前記移動カメラ及び前記視
覚装置と、1〜200個の前記ディスプレイと、を用い
ることにより、1〜200個の前記物体を同時に探索す
る警戒装置である。本発明は2〜200個の前記移動カ
メラ及び前記視覚装置を用いることにより、1個の前記
移動カメラでは撮影することができない2箇所以上の位
置を同時に撮影したり、又は1〜200個の前記物体を
同時に撮影することができる。また本発明は1〜200
個の前記ディスプレイを備えているので、前記利用者は
同時に1〜200個の前記物体を見ることができ、しか
も前記ディスプレイのうち1つを前記利用者の前記音声
で選ぶことにより、前記ディスプレイが表示している前
記動画像を撮影している前記移動カメラを前記利用者の
前記音声により制御することができる。したがって複数
の前記移動カメラを用いた前記物体の前記探索に関する
諸問題が好適に解決される。According to a seventh aspect of the present invention, there is provided a security device according to the first aspect, wherein 2 to 200 of the moving cameras and the visual devices and 1 to 200 of the displays are used. This is a warning device that searches for ~ 200 objects at the same time. The present invention uses 2 to 200 moving cameras and the visual device to simultaneously photograph two or more positions that cannot be photographed by one moving camera, or 1 to 200 of the moving cameras. Objects can be photographed simultaneously. Further, the present invention relates to 1 to 200
, The user can see 1 to 200 objects at the same time, and by selecting one of the displays with the voice of the user, the display is The moving camera that is capturing the displayed moving image can be controlled by the voice of the user. Therefore, various problems relating to the search for the object using the plurality of moving cameras are suitably solved.
【0014】請求項8の発明は、請求項1及び7記載の
警戒装置の前記移動カメラに対して、可視光線撮像素子
及び紫外線撮像素子を組み込むことにより、紫外線反射
塗料が塗られた前記物体と、紫外線反射フィルムが張ら
れた前記物体と、を選択的に探索する警戒方法である。
例えば道路標識、信号機、レーンマーク及びマーカーな
どに日焼け止めクリームなどで用いられている紫外線反
射塗料を塗ることと、前記道路標識、前記信号機、前記
レーンマーク及び前記マーカーなどに使う塗料に混入す
ることと、及び前記道路標識、前記信号機、前記レーン
マーク及び前記マーカーなどの表面を眼鏡のようにUV
カット処理することにより、本発明は前記警戒装置が素
早く的確に前記道路標識、前記信号機、前記レーンマー
ク及び前記マーカーなどを見付け出すようにすることが
できる。したがって前記物体の探索に関する諸問題が好
適に解決される。According to an eighth aspect of the present invention, there is provided a security device according to the first and seventh aspects, wherein the movable camera is provided with a visible light image pickup device and an ultraviolet light image pickup device, so that the object coated with the ultraviolet reflection paint is removed. A method for selectively searching for the object on which an ultraviolet reflective film is stretched.
For example, applying a UV-reflective paint used in sunscreen creams, etc. to road signs, traffic lights, lane marks, markers, etc., and mixing with paint used for the road signs, the traffic lights, the lane marks, the markers, etc. And the surface of the road sign, the traffic light, the lane mark, the marker, etc.
By performing the cutting process, the present invention enables the alerting device to quickly and accurately find the road sign, the traffic light, the lane mark, the marker, and the like. Therefore, the problems relating to the search for the object are suitably solved.
【0015】請求項9の発明は、請求項8記載の警戒方
法に対して、紫外線放射装置を用いて紫外線を放射する
ことにより、前記紫外線反射塗料を塗られた前記物体を
選択的に探索する警戒方法である。例えば紫外線蛍光灯
及びブラックライトなどの前記紫外線放射装置が前記物
体に向けて前記紫外線を放射することにより、本発明は
夜間、曇り及び雨天の場合でも前記警戒装置が素早く的
確に前記道路標識、前記信号機、前記レーンマーク及び
前記マーカーなどを見付け出すようにすることができ
る。したがって前記物体の探索に関する諸問題が好適に
解決される。According to a ninth aspect of the present invention, in the warning method according to the eighth aspect, the object coated with the ultraviolet reflecting paint is selectively searched for by emitting ultraviolet rays using an ultraviolet emitting device. It is a vigilance method. For example, at night, in the case of cloudy and rainy weather, the warning device can quickly and accurately make the road sign, the ultraviolet light emitting device such as an ultraviolet fluorescent lamp and a black light emit the ultraviolet light toward the object. The traffic light, the lane mark, the marker, and the like can be found. Therefore, the problems relating to the search for the object are suitably solved.
【0016】[0016]
【発明の実施の形態】以下、本発明の警戒装置の実施形
態を挙げ、図面を参照して説明する。BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a block diagram showing a security device according to an embodiment of the present invention;
【0017】まず請求項1記載の発明は図1に示すよう
な構成で表される。ここで本発明の製造者は移動カメラ
1、ディスプレイ3、スピーカー4、音声合成装置5、
マイクロフォン6及び音声認識装置7に市販品を用いる
ことができる。特に高機能カーナビゲーション装置には
既にディスプレイ3、スピーカー4、音声合成装置5、
マイクロフォン6及び音声認識装置7が組み込まれてい
るので、製造者はこれらを安価に用いることができる。
したがって以下では主に視覚装置2及び中央制御装置8
について説明する。First, the invention according to claim 1 is represented by a configuration as shown in FIG. Here, the manufacturer of the present invention has a mobile camera 1, a display 3, a speaker 4, a voice synthesizer 5,
Commercial products can be used for the microphone 6 and the voice recognition device 7. In particular, the high-performance car navigation system already has a display 3, a speaker 4, a voice synthesizer 5,
Since the microphone 6 and the voice recognition device 7 are incorporated, the manufacturer can use these at low cost.
Therefore, hereinafter, the visual device 2 and the central control device 8 will be mainly described.
Will be described.
【0018】図1に示すように、移動カメラ1が撮影し
た映像は、フレーム画像の画質を低下させることなくア
ナログ動画像又はデジタル動画像として視覚装置2に送
信される。また移動カメラ1が撮影した映像は、NTS
C、PAL、HDTV、VGA、MPEGフォーマット
などのビデオ信号に変換されて中央制御装置8に送信さ
れる。この他に移動カメラ1は現在の移動カメラ1の状
態を表す信号を視覚装置2に送信し、一方で視覚装置2
は移動カメラ1の向き及び倍率を制御する信号を移動カ
メラ1に送信する。さらに請求項2に記載されたよう
に、視覚装置2は環境地図を中央制御装置8に送信す
る。中央制御装置8は、視覚装置2から受信した環境地
図を解析して音声合成装置5に送信すると共に、音声認
識装置7から受信した利用者の命令を視覚装置2に送信
する。同時に、中央制御装置8は、移動カメラ1が撮影
した映像を受信して環境地図及び利用者の命令を挿入し
た後、ディスプレイ3に送信する。したがって以下で
は、視覚装置2の実施形態について説明した後、中央制
御装置8の実施形態について説明する。As shown in FIG. 1, an image captured by the moving camera 1 is transmitted to the visual device 2 as an analog moving image or a digital moving image without deteriorating the image quality of the frame image. The video taken by the mobile camera 1 is NTS
The video signal is converted into a video signal of C, PAL, HDTV, VGA, MPEG format or the like and transmitted to the central control unit 8. In addition, the mobile camera 1 sends a signal representing the current state of the mobile camera 1 to the visual device 2, while the visual device 2
Transmits a signal for controlling the direction and magnification of the mobile camera 1 to the mobile camera 1. Further, as described in claim 2, the visual device 2 transmits the environment map to the central control device 8. The central control device 8 analyzes the environment map received from the visual device 2 and transmits it to the voice synthesizing device 5, and transmits the user's command received from the voice recognition device 7 to the visual device 2. At the same time, the central control device 8 receives the image captured by the mobile camera 1, inserts the environment map and the user's command, and transmits the image to the display 3. Therefore, hereinafter, the embodiment of the visual control device 2 will be described, and then the embodiment of the central control device 8 will be described.
【0019】まず、移動カメラ1は水平方向及び垂直方
向に向きを変更する機構を備え、外部から移動角度を制
御する命令を入力することにより、各々パン及びチルト
をすることができるものとする。また移動カメラ1は撮
影画像の倍率を変更する機構を備え、外部から倍率を制
御する命令を入力することにより、ズームをすることが
できるものとする。したがって移動カメラ1は外部から
の命令によりカメラ自体を細かく振動させることができ
る。これにより移動カメラ1が撮影した動画像のフレー
ム画像はブレを生じ、フレーム画像中の物体はあたかも
振動しているように撮影される。そのため静止物体はあ
たかもフレーム画像中を移動しているかのように撮影さ
れる。First, it is assumed that the mobile camera 1 has a mechanism for changing the direction in the horizontal direction and the vertical direction, and is capable of panning and tilting by inputting a command for controlling the moving angle from the outside. The mobile camera 1 has a mechanism for changing the magnification of a captured image, and can perform zooming by inputting a command for controlling the magnification from outside. Therefore, the mobile camera 1 can finely vibrate the camera itself according to an external command. As a result, the frame image of the moving image captured by the mobile camera 1 is blurred, and the object in the frame image is captured as if it were vibrating. Therefore, the stationary object is photographed as if it is moving in the frame image.
【0020】次に、移動カメラ1はパン、チルト及びズ
ームなどの移動命令により移動した現在の向き及び倍率
を必要に応じて出力できるものとし、さらに現在移動中
であるか若しくは停止しているかといった移動カメラ1
の状態も必要に応じて出力できるものとする。このとき
視覚装置2が移動カメラ1のパン、チルト及びズームを
制御することができれば、移動カメラ1が移動物体及び
静止物体を常時適切な大きさで撮影できるように、この
視覚装置2は移動カメラ1の向き及び倍率を変更するこ
とができるようになる。Next, it is assumed that the mobile camera 1 can output the current direction and magnification, which have been moved by movement commands such as pan, tilt, and zoom, as necessary, and whether the camera is currently moving or stopped. Mobile camera 1
Can also be output as needed. At this time, if the visual device 2 can control the pan, tilt, and zoom of the moving camera 1, the visual device 2 is used so that the moving camera 1 can always capture a moving object and a stationary object in appropriate sizes. The direction and magnification of 1 can be changed.
【0021】そこで移動カメラ1が移動物体及び静止物
体を常時適切な大きさで撮影するために、視覚装置2は
機能に応じて3つの座標系、つまりカメラ座標系、画像
座標系及び環境座標系を使い分ける。第一に、カメラ座
標系は、文字通り移動カメラ1がパン、チルト及びズー
ムを各々の最小制御単位で制御するために用いているカ
メラ内部の三次元球座標系である。一般にカメラ座標系
の原点はホームポジションと呼ばれる移動カメラ1固有
の位置である。カメラ座標系は移動物体及び静止物体の
物理的位置を表すことができる唯一の座標系である。そ
れにも関わらずカメラ座標系は移動カメラ1の機種毎に
異なるため、カメラ座標系には汎用性がない。そのため
視覚装置2は他の手段からカメラ座標系を秘匿する必要
がある。第二に、画像座標系は、移動カメラ1によって
撮影されたフレーム画像の中央を原点とする、画素を単
位とした二次元座標系である。これはフレーム画像中の
どの画素に移動物体及び静止物体が位置するか表すため
に用いられる。したがって画像座標系はフレーム画像中
にある移動物体及び静止複数の物体の細かな位置を区別
するのには適しているが、画像座標系だけではこれらの
移動物体及び静止物体の物理的位置を表すことができな
い。第三に、環境座標系は、視覚装置2が内部で移動物
体及び静止物体の位置を論理的に統一して表すために用
いている三次元球座標系である。環境座標系は水平方向
及び垂直方向にはラジアンを単位とした角度を用い、物
体の大きさと物体までの距離の積を表すために、距離方
向には1.0を単位とした実数を用いる。一般に物体の
大きさが短時間で極端に変ることはないので、物体まで
の距離と移動カメラ1の倍率は比例すると見なしてよ
い。環境座標系の原点は任意である。つまり環境座標系
は原則として環境座標系上の任意の2点の相対座標を表
すために用いられる。視覚装置2は移動カメラ1によっ
て撮影可能な環境中の移動物体及び静止物体を環境座標
系に投影することで、複数の移動物体及び静止物体を区
別することができる。Therefore, in order for the moving camera 1 to always photograph a moving object and a stationary object with an appropriate size, the visual device 2 has three coordinate systems according to functions, namely, a camera coordinate system, an image coordinate system, and an environment coordinate system. We use properly. First, the camera coordinate system is a three-dimensional spherical coordinate system inside the camera which is used by the moving camera 1 to control pan, tilt and zoom in each minimum control unit. Generally, the origin of the camera coordinate system is a position unique to the mobile camera 1 called a home position. The camera coordinate system is the only coordinate system that can represent the physical positions of moving and stationary objects. Nevertheless, since the camera coordinate system differs for each model of the mobile camera 1, the camera coordinate system has no versatility. Therefore, the visual device 2 needs to keep the camera coordinate system secret from other means. Second, the image coordinate system is a two-dimensional coordinate system having a pixel as a unit and having an origin at the center of a frame image captured by the moving camera 1. This is used to indicate at which pixel in the frame image the moving object and the stationary object are located. Therefore, the image coordinate system is suitable for distinguishing fine positions of a moving object and a plurality of stationary objects in a frame image, but the image coordinate system alone represents the physical positions of these moving objects and a stationary object. I can't. Third, the environment coordinate system is a three-dimensional spherical coordinate system used by the visual device 2 to logically unify the positions of the moving object and the stationary object. The environment coordinate system uses angles in radians in the horizontal and vertical directions, and uses real numbers in units of 1.0 in the distance direction to represent the product of the size of the object and the distance to the object. In general, since the size of an object does not change extremely in a short time, the distance to the object and the magnification of the moving camera 1 may be regarded as proportional. The origin of the environment coordinate system is arbitrary. That is, the environment coordinate system is used in principle to represent the relative coordinates of any two points on the environment coordinate system. The visual device 2 can distinguish a plurality of moving objects and stationary objects by projecting the moving objects and stationary objects in the environment that can be photographed by the moving camera 1 onto the environment coordinate system.
【0022】そこでカメラ座標系及び画像座標系は各々
環境座標系と相互に座標変換をする必要がある。その役
割を果たしている手段がカメラ/環境座標変換手段2
0、画像/環境座標変換手段21及び運動制御手段23
である(図2参照)。これらの手段は移動カメラ1及び
画像取得手段11(図2参照)の仕様からカメラ座標系
及び画像座標系の各単位を求め、環境座標系に変換する
ための行列を計算する。またカメラ座標系から環境座標
系への変換行列の逆行列を計算することにより、環境座
標系からカメラ座標系への変換行列も求めることができ
る。ただしカメラ座標系の原点が移動カメラ1のホーム
ポジションであるので、カメラ座標系から変換された環
境座標系の位置は環境座標系上の移動カメラ1のホーム
ポジションからの相対位置となる。一方、環境座標系か
ら変換されたカメラ座標系の位置はカメラ座標系上の移
動カメラ1の現在位置からの相対位置となる。加えて、
画像座標系は二次元座標系であるため、画像座標系のみ
では環境座標系に変換することはできない。そのため画
像/環境座標変換手段21では環境座標系で表された移
動カメラ1の向き及び倍率と、フレーム画像中の移動物
体及び静止物体の領域の大きさを用いて、随時変換行列
を計算することにより、画像座標系から環境座標系に変
換できるようにする。なお画像座標系から変換された環
境座標系の位置は、画像の中心からの相対位置となる。Therefore, the camera coordinate system and the image coordinate system need to mutually perform coordinate conversion with the environment coordinate system. The camera / environmental coordinate conversion means 2 which fulfills the role is
0, image / environmental coordinate conversion means 21 and motion control means 23
(See FIG. 2). These units obtain the respective units of the camera coordinate system and the image coordinate system from the specifications of the mobile camera 1 and the image acquisition unit 11 (see FIG. 2), and calculate a matrix for converting the units into the environment coordinate system. Also, by calculating the inverse matrix of the transformation matrix from the camera coordinate system to the environment coordinate system, the transformation matrix from the environment coordinate system to the camera coordinate system can be obtained. However, since the origin of the camera coordinate system is the home position of the mobile camera 1, the position of the environment coordinate system converted from the camera coordinate system is a relative position from the home position of the mobile camera 1 on the environment coordinate system. On the other hand, the position of the camera coordinate system converted from the environment coordinate system is a relative position from the current position of the moving camera 1 on the camera coordinate system. in addition,
Since the image coordinate system is a two-dimensional coordinate system, it cannot be converted to the environment coordinate system using only the image coordinate system. Therefore, the image / environmental coordinate conversion means 21 calculates the conversion matrix as needed using the orientation and magnification of the mobile camera 1 expressed in the environment coordinate system and the size of the area of the moving object and the stationary object in the frame image. Thus, the image coordinate system can be converted to the environment coordinate system. Note that the position of the environment coordinate system converted from the image coordinate system is a relative position from the center of the image.
【0023】前述したカメラ座標系、画像座標系及び環
境座標系を用いて、視覚装置2の実施形態を説明する。
図2に示すように、視覚装置2の実施形態は、移動カメ
ラ1の撮像信号(フレーム画像)を受信して適切なフォ
ーマットとサイズのデジタル画像111に変換する画像
取得手段11と、デジタル画像111を一定期間記憶す
る画像記憶手段12と、2つのデジタル画像111から
移動物体の粗エッジ情報112を生成するエッジ情報生
成手段14と、粗エッジ情報112をより的確で明瞭な
形成エッジ情報114に形成するエッジ情報形成手段1
5と、形成エッジ情報114によって区分される領域を
分離する物体/背景分離手段16と、分離された領域を
画像サイズに正規化する領域正規化手段27と、形成エ
ッジ情報114を用いて移動物体の大ざっぱな形状を解
析する幾何解析手段37と、正規化された移動物体の領
域及び幾何解析結果から移動物体の種別を認識する画像
認識手段29と、粗エッジ情報112によって区分され
た各領域の位置及び大きさを検出する位置/大きさ検出
手段17と、移動カメラ1の向き及び倍率を表すカメラ
座標系を視覚装置2の基本的な座標系である環境座標系
に変換するカメラ/環境座標変換手段20と、環境座標
系で表された移動カメラ1の向き及び倍率を用いて、位
置/大きさ検出手段17が検出した移動物体の位置を環
境座標系に変換する画像/環境座標変換手段21と、位
置/大きさ検出手段17が検出した複数の移動物体の位
置から1つを選択する位置選択手段22と、1ミリ秒単
位で時刻を計る計時手段32と、環境座標系で表された
移動カメラ1の向き及び倍率、環境座標系で表される複
数の移動物体の位置、移動物体の種別、幾何解析結果、
及び時刻から環境地図を作成する環境理解手段31と、
出力先に出力するまで環境地図を保持する環境地図保持
手段33と、環境地図を用いて次に認識すべき移動物体
の位置を推定する物体位置推定手段34と、移動カメラ
1の向き及び倍率を外部から制御するための制御命令を
入力する制御命令入力手段24と、移動カメラ1を振動
させる命令を生成する振動命令生成手段25と、環境座
標系で表された移動カメラ1の向き及び倍率を用いて、
位置選択手段22、制御命令入力手段24、振動命令生
成手段25及び物体位置推定手段34から入力した4つ
の位置を参照しながらカメラ座標系で表される移動カメ
ラ1の位置を決定する運動制御手段23と、運動制御手
段23が決定したカメラ座標系の位置に移動カメラ1を
移動させるための命令を生成するカメラ命令生成手段2
6と、を利用したものである。An embodiment of the visual device 2 will be described using the above-described camera coordinate system, image coordinate system, and environment coordinate system.
As shown in FIG. 2, an embodiment of the visual device 2 includes an image acquisition unit 11 that receives an image signal (frame image) of the mobile camera 1 and converts the image signal into a digital image 111 having an appropriate format and size; , An edge information generating unit 14 for generating rough edge information 112 of a moving object from two digital images 111, and forming the rough edge information 112 into more accurate and clear formed edge information 114. Edge information forming means 1
5, an object / background separation unit 16 for separating an area divided by the formed edge information 114, an area normalizing unit 27 for normalizing the separated area to an image size, and a moving object using the formed edge information 114. , An image recognition unit 29 that recognizes the type of the moving object from the normalized moving object region and the geometric analysis result, Position / size detection means 17 for detecting the position and size, and camera / environment coordinates for converting the camera coordinate system representing the direction and magnification of the mobile camera 1 into an environment coordinate system which is a basic coordinate system of the visual device 2. The position of the moving object detected by the position / size detection unit 17 is converted into the environment coordinate system using the conversion unit 20 and the orientation and magnification of the mobile camera 1 expressed in the environment coordinate system. Image / environmental coordinate conversion means 21, position selection means 22 for selecting one of a plurality of moving objects detected by position / size detection means 17, time measurement means 32 for measuring time in units of 1 millisecond, The orientation and magnification of the mobile camera 1 represented in the environment coordinate system, the positions of a plurality of moving objects represented in the environment coordinate system, the types of the moving objects, the geometric analysis results,
An environment understanding means 31 for creating an environment map from the time and the time;
Environmental map holding means 33 for holding an environmental map until output to an output destination; object position estimating means 34 for estimating the position of a moving object to be recognized next using the environmental map; A control command input unit 24 for inputting a control command for external control, a vibration command generation unit 25 for generating a command for vibrating the mobile camera 1, and a direction and a magnification of the mobile camera 1 expressed in an environmental coordinate system. make use of,
Motion control means for determining the position of the mobile camera 1 represented in the camera coordinate system with reference to the four positions input from the position selection means 22, the control command input means 24, the vibration command generation means 25, and the object position estimation means 34 23, a camera command generating means 2 for generating a command for moving the mobile camera 1 to the position of the camera coordinate system determined by the motion control means 23
6 is used.
【0024】画像取得手段11が移動カメラ1から動画
像のフレーム画像を入力する際に、動画像がアナログ信
号の場合は、A/D変換によりフレーム画像をデジタル
信号に変換してデジタル画像111にする。なお特にC
CD撮像素子及びフォトダイオード撮像素子などの電圧
を直接入力できるならば、A/D変換により適当なビッ
ト数のデジタル信号に変換するだけで良い。動画像がデ
ジタル信号の場合は、圧縮されていれば展開し、圧縮さ
れていなければそのまま入力する。これらにより動画像
中任意のフレーム画像を切り出すことができるので、こ
のフレーム画像を切り出してデジタル画像111にす
る。変換されたデジタル画像111は適当なフォーマッ
トに従いながら任意の画像サイズを有しているので、画
像取得手段11は画素単位で画像データを参照できるフ
ォーマットに変換し、視覚装置2で必要とする画像サイ
ズ分を切り出し、デジタル画像111として出力する。
もし画像取得手段11がデジタル画像111の全ての画
素を並列に出力することができれば、画像取得手段11
から画像記憶手段12への通信は、画素毎に並列に行う
ことができる。When the image acquisition means 11 inputs a frame image of a moving image from the moving camera 1, if the moving image is an analog signal, the frame image is converted into a digital signal by A / D conversion and converted into a digital image 111. I do. Note that especially C
If it is possible to directly input the voltage of a CD image sensor, a photodiode image sensor, or the like, it is only necessary to convert the digital signal into an appropriate number of bits by A / D conversion. If the moving image is a digital signal, it is expanded if it is compressed, and is input as it is if it is not compressed. With these, an arbitrary frame image can be cut out from the moving image. Since the converted digital image 111 has an arbitrary image size according to an appropriate format, the image obtaining unit 11 converts the image data into a format in which the image data can be referred to in pixel units, and The minute is cut out and output as a digital image 111.
If the image acquisition means 11 can output all the pixels of the digital image 111 in parallel,
Can be performed in parallel for each pixel.
【0025】画像記憶手段12が画像取得手段11から
デジタル画像111を入力すると、視覚装置2の時間分
解能若しくは各手段の計算能力に合わせて一定時間デジ
タル画像111を記憶する。つまりこの一定時間中にデ
ジタル画像111が入力されても画像記憶手段12は記
憶画像を変更することがないので、後に続く各手段は異
なるタイミングで同じデジタル画像111を入力するこ
とができる。しかも画像記憶手段12はデジタル画像1
11に対して画像処理を施さないので、デジタル画像1
11の全ての画素に対して二次元の位相関係を保ったま
ま記憶している。もし画像記憶手段12がデジタル画像
111の全ての画素を並列に出力することができれば、
画像記憶手段12からエッジ情報生成手段14への通信
は、画素毎に並列に行うことができる。When the image storage unit 12 receives the digital image 111 from the image acquisition unit 11, the digital image 111 is stored for a certain period of time in accordance with the time resolution of the visual device 2 or the calculation capability of each unit. That is, even if the digital image 111 is input during this fixed time, the image storage unit 12 does not change the stored image, so that each subsequent unit can input the same digital image 111 at a different timing. Moreover, the image storage means 12 stores the digital image 1
11 is not subjected to image processing, the digital image 1
All two pixels are stored while maintaining a two-dimensional phase relationship. If the image storage means 12 can output all the pixels of the digital image 111 in parallel,
Communication from the image storage unit 12 to the edge information generation unit 14 can be performed in parallel for each pixel.
【0026】エッジ情報生成手段14が画像記憶手段1
2からデジタル画像111を入力すると、直前に入力さ
れたデジタル画像111と比較することにより移動物体
の粗エッジ情報画像113を生成する。エッジ情報生成
手段14は画素毎に近傍処理のみで粗エッジ情報画像1
13を生成することができるので、並列化に向いてい
る。もしエッジ情報生成手段14が粗エッジ情報画像1
13の全ての画素を並列に出力することができれば、エ
ッジ情報生成手段14からエッジ情報形成手段15及び
位置/大きさ検出手段17への通信は、画素毎に並列に
行うことができる。The edge information generating means 14 is used by the image storing means 1
When the digital image 111 is input from Step 2, a coarse edge information image 113 of the moving object is generated by comparing the digital image 111 with the digital image 111 input immediately before. The edge information generation means 14 performs only the neighborhood processing for each pixel and executes the coarse edge information image 1
13 can be generated, which is suitable for parallelization. If the edge information generating means 14 determines that the coarse edge information image 1
If all 13 pixels can be output in parallel, communication from the edge information generating means 14 to the edge information forming means 15 and the position / size detecting means 17 can be performed in parallel for each pixel.
【0027】エッジ情報形成手段15がエッジ情報生成
手段14から粗エッジ情報画像113を入力すると、画
像記憶手段12で記憶されていたデジタル画像111を
参照して、粗エッジ情報画像113より的確で明瞭な移
動物体の形成エッジ情報画像115を生成する。エッジ
情報形成手段15は画素毎に近傍処理のみで形成エッジ
情報画像115を生成することができるので、並列化に
向いている。もしエッジ情報形成手段15が形成エッジ
情報画像115の全ての画素を並列に出力することがで
きれば、エッジ情報形成手段15から物体/背景分離手
段16及び幾何解析手段37への通信は、画素毎に並列
に行うことができる。When the edge information forming means 15 receives the coarse edge information image 113 from the edge information generating means 14, the edge information forming means 15 refers to the digital image 111 stored in the image storage means 12 and is more accurate and clear than the coarse edge information image 113. The generated edge information image 115 of the moving object is generated. Since the edge information forming unit 15 can generate the formed edge information image 115 only by the neighborhood process for each pixel, it is suitable for parallelization. If the edge information forming unit 15 can output all the pixels of the formed edge information image 115 in parallel, the communication from the edge information forming unit 15 to the object / background separating unit 16 and the geometric analysis unit 37 is performed for each pixel. Can be done in parallel.
【0028】物体/背景分離手段16はエッジ情報形成
手段15から形成エッジ情報画像115を入力すると、
移動物体の物体領域141に含まれる画素と背景に含ま
れる画素を異なるグループに分離して、分離結果をグル
ープ単位で順次出力する。なお物体領域141が隣接し
ているにも関わらず形成エッジ情報114により明確に
区別される場合、物体/背景分離手段16はこれらの物
体領域141を異なるグループに分離することができ
る。したがってグループの数は3以上になることもあ
る。物体/背景分離手段16は画素毎に近傍処理のみで
物体領域141と背景を分離することができるので、並
列化に向いている。もし物体/背景分離手段16が物体
領域画像142の全ての画素を並列に出力することがで
きれば、物体/背景分離手段16から領域正規化手段2
7への通信は、画素毎に並列に行うことができる。The object / background separating means 16 receives the formed edge information image 115 from the edge information forming means 15,
Pixels included in the object region 141 of the moving object and pixels included in the background are separated into different groups, and the separation results are sequentially output in group units. When the object areas 141 are clearly distinguished by the formed edge information 114 even though they are adjacent to each other, the object / background separation unit 16 can separate these object areas 141 into different groups. Therefore, the number of groups may be three or more. The object / background separation means 16 is suitable for parallelization because the object region 141 and the background can be separated by only neighborhood processing for each pixel. If the object / background separation means 16 can output all the pixels of the object area image 142 in parallel,
Communication to 7 can be performed in parallel for each pixel.
【0029】領域正規化手段27は物体/背景分離手段
16及び画像取得手段11から物体領域画像142及び
デジタル画像111をそれぞれ入力すると、移動物体の
分離物体領域143をデジタル画像111から切り出
し、分離物体領域143を変形しながらデジタル画像1
11の画像サイズに合わせて可能な限り補完及び拡大す
ることで正規化画像145を生成する。領域正規化手段
27は画素毎に近傍処理のみで分離物体領域143を正
規化することができるので、並列化に向いている。もし
領域正規化手段27が正規化画像145の全ての画素を
並列に出力することができれば、領域正規化手段27か
ら画像認識手段29への通信は、画素毎に並列に行うこ
とができる。When the area normalizing means 27 receives the object area image 142 and the digital image 111 from the object / background separating means 16 and the image acquiring means 11, respectively, it cuts out the separated object area 143 of the moving object from the digital image 111, Digital image 1 while deforming area 143
A normalized image 145 is generated by complementing and enlarging as much as possible according to the image size of No. 11. The region normalizing means 27 can normalize the separated object region 143 only by the neighborhood processing for each pixel, and is suitable for parallelization. If the area normalizing means 27 can output all the pixels of the normalized image 145 in parallel, the communication from the area normalizing means 27 to the image recognizing means 29 can be performed for each pixel in parallel.
【0030】幾何解析手段37はエッジ情報形成手段1
5から形成エッジ情報画像115を入力すると、ストロ
ーク抽出法、フーリエ変換、アフィン変換及びハフ変換
などの幾何解析を行うことにより、フレーム画像中の移
動物体の形を推定し、幾何解析結果を生成する。従来の
画像認識では画像自体から直接線分などを抽出したり、
移動物体の位置及び大きさなどに左右されないような各
種変換などを用いることにより、画像中の物体を認識す
ることを行ってきた。このため処理の単純さにも関わら
ず組み合わせの数が膨大となり、結果として膨大な計算
量が必要となり、望みうる結果を得るまでに長時間掛っ
たり、若しくは品質の低い認識結果しか得られなかっ
た。しかしながらこの視覚装置2では、フレーム画像中
の移動物体のパターンに対する認識を物体/背景分離手
段16、領域正規化手段27及び画像認識手段29が行
う。そこで、幾何解析手段37は形成エッジ情報画像1
15を用いて、物体/背景分離手段16、領域正規化手
段27及び画像認識手段29が苦手としている移動物体
の輪郭などの図形のみを、簡単な方法で大ざっぱに解析
することにより、画像認識手段29が行うパターンマッ
チングを簡略化し、環境理解手段31が環境地図を的確
で高速に作成することができると共に、幾何解析手段3
7自体の負荷も低減することができる。幾何解析結果は
幾何解析手段37から画像認識手段29及び環境理解手
段31へ出力される。The geometric analysis means 37 is the edge information forming means 1
5, a geometric analysis such as a stroke extraction method, a Fourier transform, an affine transform, and a Hough transform is performed to estimate the shape of a moving object in a frame image, and generate a geometric analysis result. . In conventional image recognition, line segments are extracted directly from the image itself,
Recognition of an object in an image has been performed by using various transformations that are not affected by the position and size of the moving object. For this reason, despite the simplicity of the processing, the number of combinations became enormous, and as a result an enormous amount of calculation was required, and it took a long time to obtain a desired result, or only a low-quality recognition result was obtained. . However, in the visual device 2, the object / background separation unit 16, the region normalization unit 27, and the image recognition unit 29 recognize the pattern of the moving object in the frame image. Therefore, the geometric analysis means 37 generates the formed edge information image 1
15 using the simple method to roughly analyze only a figure such as a contour of a moving object that the object / background separation means 16, the area normalization means 27 and the image recognition means 29 are not good at. 29, the environment understanding means 31 can create an environment map accurately and at high speed.
7 itself can also be reduced. The geometric analysis result is output from the geometric analysis means 37 to the image recognition means 29 and the environment understanding means 31.
【0031】画像認識手段29は領域正規化手段27か
ら正規化画像145を入力すると、正規化画像145中
の移動物体の正規化領域144を適当なパターン認識方
法を用いて認識し、認識結果、つまり移動物体の種別を
出力する。画像認識手段29に入力される正規化画像1
45では領域正規化手段27によって移動物体の形が変
形されているので、画像認識手段29はストローク抽出
法、フーリエ変換、アフィン変換、及びハフ変換など位
置ずれに強い方法を用いた幾何解析を行うよりも、むし
ろ入力された正規化画像145とテンプレート画像14
6の比較をするパターンマッチングを行う方が適してい
る。パターンマッチング法として、誤差逆伝播法(バッ
クプロパゲーション)によりテンプレート画像146を
学習することができるパーセプトロンなどのニューラル
ネットワークを用いることができる。またニューラルネ
ットワークを用いた場合には、ニューラルネットワーク
専用アクセラレータを用いることにより並列化及び高速
化も可能である。正規化画像145の認識結果、つまり
移動物体の種別は画像認識手段29から環境理解手段3
1へ出力される。ただし、画像認識手段29は幾何解析
手段37から幾何解析結果を入力すると、まず画像認識
手段29が認識の対象としている図形であるかどうか判
断する。もし幾何解析結果が対象外の図形であれば、画
像認識手段29は動作しない。幾何解析結果が対象図形
であれば、画像認識手段29は対象図形用のテンプレー
ト画像146を用いてパターンマッチングを行う。例え
ば誤差逆伝播法によって学習するパーセプトロンの場
合、対象図形毎にパーセプトロンを学習させて学習デー
タを作成し、その後幾何解析結果によって学習データを
選択することにより、対象図形に対して効率的にパター
ンマッチングを行うようにする。つまり幾何解析結果が
円形であれば、人の顔やボールなど円形の物体の学習デ
ータだけを利用し、幾何解析結果が三角形であれば、道
路標識や山並みなど三角形の物体の学習データだけを利
用する。これならば小規模のパーセプトロンによって多
数の物体のパターンを認識することができるばかりでな
く、パーセプトロン自体も効率よく学習することができ
る。When the image recognition means 29 receives the normalized image 145 from the area normalizing means 27, the image recognition means 29 recognizes the normalized area 144 of the moving object in the normalized image 145 by using an appropriate pattern recognition method. That is, the type of the moving object is output. Normalized image 1 input to image recognition means 29
In 45, since the shape of the moving object is deformed by the area normalizing means 27, the image recognizing means 29 performs a geometric analysis using a method resistant to positional displacement such as a stroke extraction method, a Fourier transform, an affine transform, and a Hough transform. Rather, the input normalized image 145 and template image 14
It is more suitable to perform pattern matching for comparing No. 6. As the pattern matching method, a neural network such as a perceptron capable of learning the template image 146 by an error back propagation method (back propagation) can be used. When a neural network is used, parallelization and speeding up are possible by using an accelerator dedicated to the neural network. The recognition result of the normalized image 145, that is, the type of the moving object is determined by the image recognition unit 29 to the environment understanding unit 3.
1 is output. However, when the image recognizing unit 29 receives the result of the geometric analysis from the geometric analyzing unit 37, it first determines whether or not the image is a figure to be recognized by the image recognizing unit 29. If the result of the geometric analysis is not a target figure, the image recognition means 29 does not operate. If the result of the geometric analysis is the target graphic, the image recognition means 29 performs pattern matching using the template image 146 for the target graphic. For example, in the case of a perceptron that learns by the error backpropagation method, the learning data is created by learning the perceptron for each target figure, and then the learning data is selected based on the result of the geometric analysis, so that pattern matching is efficiently performed on the target figure. To do. In other words, if the geometric analysis result is circular, use only learning data for circular objects such as human faces and balls, and if the geometric analysis result is triangular, use only learning data for triangular objects such as road signs and mountain ranges. I do. In this case, not only can the patterns of many objects be recognized by a small-scale perceptron, but also the perceptron itself can be efficiently learned.
【0032】位置/大きさ検出手段17がエッジ情報生
成手段14から粗エッジ情報画像113を入力すると、
粗エッジ情報112によって指し示された移動物体の領
域の位置及び大きさを検出する。位置/大きさ検出手段
17は画素毎に近傍処理のみで、移動物体の領域の位置
及び大きさの検出結果を表す重複情報画像132を生成
することができるので、並列化に向いている。もし位置
/大きさ検出手段17が重複情報画像132の全ての画
素を並列に出力することができれば、位置/大きさ検出
手段17から画像/環境座標変換手段21への通信は、
画素毎に並列に行うことができる。When the position / size detecting means 17 inputs the rough edge information image 113 from the edge information generating means 14,
The position and size of the area of the moving object pointed by the rough edge information 112 are detected. The position / size detection unit 17 can generate the overlapping information image 132 indicating the detection result of the position and size of the area of the moving object only by the neighborhood processing for each pixel, and is suitable for parallelization. If the position / size detection means 17 can output all the pixels of the overlapping information image 132 in parallel, the communication from the position / size detection means 17 to the image / environment coordinate conversion means 21
It can be performed in parallel for each pixel.
【0033】カメラ/環境座標変換手段20及び画像/
環境座標変換手段21は、位置/大きさ検出手段17が
生成した重複情報画像132で表される移動物体の領域
の位置を環境座標系の位置に変換する。このときフレー
ム画像中の移動物体の領域の位置の総数が2つ以上であ
れば、環境座標系上にも2つ以上の位置が存在すること
になる。そこで移動カメラ1のパン、チルト及びズーム
を制御していずれか1つの移動物体に移動カメラ1の向
き及び倍率を合わせるために、環境座標系上の複数の位
置の中から1つを選択する必要がある。位置選択手段2
2は一定の判断基準に従い、環境座標系上の1つの位置
を選択する。ここで用いられる判断基準は主に次のよう
なものである。第一に、環境座標系上での移動物体の位
置のうち移動カメラ1に最も近いもの(若しくは最も大
きいもの)を選択する。これは移動物体が遠かったり
(若しくは小さかったり)した場合、エッジ情報生成手
段14がノイズを生成した可能性があるので、環境座標
系上の複数の位置の中から移動物体が存在する確率が少
しでも高いものを選択する。第二に、環境座標系上の一
定範囲内に複数の位置が集中している場合、このうちの
1つを選択する。これは2つの可能性が考えられる。1
つはエッジ情報生成手段14が1つの移動物体に対して
分散した粗エッジ情報112を生成した可能性であり、
もう1つは実際に複数の移動物体が存在する可能性であ
る。第三に、環境座標系上に多数の位置がほぼ同じ距離
(若しくはほぼ同じ大きさ)である場合、原点に最も近
い位置、すなわち移動カメラ1の向きに最も近い位置を
選択する。これらを用途や状況に応じて適宜組み合せる
ことにより、位置選択手段22は環境座標系上の複数の
位置の中から1つを選択することができる。The camera / environmental coordinate conversion means 20 and the image /
The environment coordinate conversion unit 21 converts the position of the area of the moving object represented by the overlap information image 132 generated by the position / size detection unit 17 into a position in the environment coordinate system. At this time, if the total number of positions of the area of the moving object in the frame image is two or more, two or more positions exist on the environment coordinate system. Therefore, in order to control the pan, tilt, and zoom of the moving camera 1 to adjust the direction and the magnification of the moving camera 1 to one of the moving objects, it is necessary to select one from a plurality of positions on the environment coordinate system. There is. Position selection means 2
2 selects one position on the environment coordinate system in accordance with a predetermined criterion. The criteria used here are mainly as follows. First, of the positions of the moving object on the environment coordinate system, the one closest to the moving camera 1 (or the largest one) is selected. This is because when the moving object is far (or small), there is a possibility that the edge information generating means 14 has generated noise. Therefore, the probability that the moving object exists from a plurality of positions on the environment coordinate system is small. But choose the higher one. Second, when a plurality of positions are concentrated within a certain range on the environment coordinate system, one of them is selected. This has two possibilities. 1
One is that the edge information generating means 14 has generated coarse edge information 112 dispersed for one moving object,
The other is the possibility that a plurality of moving objects actually exist. Third, when a large number of positions on the environment coordinate system have substantially the same distance (or substantially the same size), the position closest to the origin, that is, the position closest to the direction of the mobile camera 1 is selected. By appropriately combining these in accordance with the application and the situation, the position selecting means 22 can select one from a plurality of positions on the environment coordinate system.
【0034】計時手段32はタイマー回路により現在時
刻を1ミリ秒単位で出力する。現在時刻は絶えず計時手
段32から環境理解手段31へ出力される。The timer 32 outputs the current time in 1 millisecond units by a timer circuit. The current time is continuously output from the clock means 32 to the environment understanding means 31.
【0035】環境理解手段31は画像認識手段29から
移動物体の物体領域141の認識結果を入力すると、認
識結果、移動カメラ1の環境座標系上での位置、及び現
在時刻からなる環境データを作成する。また環境理解手
段31は画像/環境座標変換手段21からフレーム画像
中の全ての物体領域141の環境座標系上での位置を入
力すると、ヌルデータからなる認識結果、移動カメラ1
の環境座標系上での位置とフレーム画像中の1つの物体
領域141の環境座標系上での位置を加えた位置、及び
現在時刻からなる環境データを、物体領域141の数だ
け作成する。このとき環境地図は現在時刻より一定時間
前に作成された環境データの集合となり、環境データ中
の位置は移動カメラ1のホームポジションを原点とする
環境座標系によって表される。環境理解手段31は環境
地図に対して時刻の経過と共に環境データを追加及び削
除する。また環境理解手段31は、重複した内容の環境
データを位置の変化に置き換えるなどして削除すると共
に、認識結果がヌルデータである環境データ中の位置が
認識結果がヌルデータでない他の環境データ中の位置の
近傍である場合、認識結果がヌルデータである環境デー
タを削除する。加えて、認識結果がヌルデータでない環
境データ中の位置が、認識結果がヌルデータでない他の
環境データ中の位置の近傍である場合、もしこれらの環
境データ中の認識結果が一致すれば、前者の環境データ
を削除する。環境データの記録時間と環境データ中の位
置の近傍の範囲により、環境地図の精度が決定される。
環境座標系上での現在の移動カメラ1の位置が環境地図
に追加された後、環境地図は環境理解手段31から環境
地図保持手段33へ出力される。ただし、環境理解手段
31は幾何解析手段37から幾何解析結果を入力する
と、まず画像認識手段29が認識の対象としている図形
であるかどうか判断する。もし幾何解析結果が対象外の
図形であれば、移動カメラ1の環境座標系上の位置の近
傍にあり、しかも認識結果がヌルデータである環境デー
タを、環境理解手段31は直ちに環境地図から削除す
る。これにより環境地図から不必要な環境データが削除
され、物体位置推定手段34などが不必要な物体推定位
置を出力しなくても済む。幾何解析結果が対象図形の場
合、画像認識手段29から認識結果が入力されるまで待
つ。When the environment understanding means 31 receives the recognition result of the object area 141 of the moving object from the image recognition means 29, it creates environment data including the recognition result, the position of the mobile camera 1 on the environment coordinate system, and the current time. I do. When the environment understanding unit 31 inputs the positions of all the object regions 141 in the frame image on the environment coordinate system from the image / environment coordinate conversion unit 21, the recognition result including null data indicates that the mobile camera 1
The environment data including the position on the environment coordinate system and the position obtained by adding the position on the environment coordinate system of one object region 141 in the frame image and the current time are created by the number of object regions 141. At this time, the environment map is a set of environment data created a predetermined time before the current time, and the position in the environment data is represented by an environment coordinate system having the home position of the mobile camera 1 as an origin. The environment understanding means 31 adds and deletes environment data to and from the environment map as time elapses. The environment understanding means 31 deletes the duplicated environmental data by replacing the environmental data with a change in the position, etc., and sets the position in the environmental data whose recognition result is null data to the position in other environmental data whose recognition result is not null data. , The environment data whose recognition result is null data is deleted. In addition, if the position in the environment data where the recognition result is not null data is close to the position in other environment data where the recognition result is not null data, if the recognition results in these environment data match, the former environment Delete data. The accuracy of the environmental map is determined by the recording time of the environmental data and the range near the position in the environmental data.
After the current position of the mobile camera 1 on the environment coordinate system is added to the environment map, the environment map is output from the environment understanding unit 31 to the environment map holding unit 33. However, when the environment understanding means 31 receives the result of the geometric analysis from the geometric analysis means 37, it first determines whether or not the image is a figure to be recognized by the image recognition means 29. If the result of the geometric analysis is a figure that is not a target, the environment understanding means 31 immediately deletes the environment data near the position on the environment coordinate system of the mobile camera 1 and whose recognition result is null data from the environment map. . As a result, unnecessary environment data is deleted from the environment map, and the object position estimating means 34 does not need to output unnecessary object estimated positions. If the geometric analysis result is the target graphic, the process waits until the recognition result is input from the image recognition unit 29.
【0036】環境地図保持手段33が環境理解手段31
から環境地図を入力すると、もし環境地図の出力先が適
当なフォーマットの信号を要求するならば、環境地図の
出力先が要求するフォーマットに環境地図を変換する。
その後環境地図保持手段33は環境地図の出力先に確実
に環境地図を送信するまで一定期間環境地図を記憶す
る。The environment map holding means 33 is used as the environment understanding means 31.
If the output destination of the environmental map requires a signal in an appropriate format, the environment map is converted into the format required by the output destination of the environmental map.
Thereafter, the environmental map holding means 33 stores the environmental map for a certain period of time until the environmental map is reliably transmitted to the output destination of the environmental map.
【0037】物体位置推定手段34は環境理解手段31
から環境地図を入力すると、認識結果がヌルデータであ
る環境データを1つ選択し、この環境データ中の位置を
抜き出す。この位置からカメラ/環境座標変換手段20
によって計算された移動カメラ1の環境座標系上での現
在位置を引くことにより、物体位置推定手段34は、移
動カメラ1の環境座標系上での現在位置を原点とした、
過去に粗エッジ情報112が生成されているにも関わら
ずまだ認識結果が出ていない移動物体の環境座標系上で
の相対位置を求めることができる。ただし現在この位置
に移動物体が存在するとは限らない。したがってこの位
置は移動物体が存在する可能性がある移動物体の推定位
置となる。一方で、もし環境地図の中に認識結果がヌル
データである環境データがなければ、移動カメラ1が移
動可能な範囲で適当な環境座標系上の位置を生成する。
このとき適当な位置を生成する基準として次のようなも
のが考えられる。第一に、疑似乱数により任意の位置を
生成する。第二に、環境地図中の環境データ中の位置の
密度が低い位置を計算する。第三に、移動カメラ1が移
動可能な範囲中の位置を適当な順番で順次生成する。例
えば、移動カメラ1が移動可能な範囲において左上端の
位置から右に向けて順番に位置を生成し、右端に到達し
たら一段下に降りた後左に向けて順番に位置を生成し、
左端に到達したら一段下に降りた後右に向けて順番に位
置を生成することを繰り返す。これらの基準を用途や状
況に応じて組み合せることにより、まだ移動カメラ1が
撮影していない移動物体の推定位置を効率的に推定する
ことができる。物体推定位置は物体位置推定手段34か
ら運動制御手段23へ出力される。The object position estimating means 34 is the environment understanding means 31
When an environmental map is input from the user, one environmental data whose recognition result is null data is selected, and a position in the environmental data is extracted. From this position, camera / environmental coordinate conversion means 20
By subtracting the current position of the mobile camera 1 on the environment coordinate system calculated by the above, the object position estimating means 34 sets the current position of the mobile camera 1 on the environment coordinate system as the origin.
The relative position on the environment coordinate system of a moving object for which a recognition result has not yet been obtained despite the generation of the rough edge information 112 in the past can be obtained. However, a moving object is not always present at this position. Therefore, this position is an estimated position of the moving object where the moving object may exist. On the other hand, if there is no environment data whose recognition result is null data in the environment map, a position on the appropriate environment coordinate system is generated within a range in which the mobile camera 1 can move.
At this time, the following can be considered as a reference for generating an appropriate position. First, an arbitrary position is generated by a pseudo random number. Second, a position having a low density of positions in the environmental data in the environmental map is calculated. Third, positions within the movable range of the mobile camera 1 are sequentially generated in an appropriate order. For example, the position is generated in order from the upper left position to the right in the movable range of the mobile camera 1, and when it reaches the right end, it descends one step down and then generates the position in order to the left,
When it reaches the left end, it descends one step and repeats generating positions sequentially to the right. By combining these criteria according to the application and the situation, it is possible to efficiently estimate the estimated position of the moving object that has not been photographed by the mobile camera 1 yet. The object estimation position is output from the object position estimation means 34 to the motion control means 23.
【0038】さて、視覚装置2には、位置選択手段22
で選択された位置の他に次のような位置に移動カメラ1
をパン、チルト及びズームすることが求められる。まず
静止物体が移動しているように移動カメラ1が撮影する
ために、この視覚装置2は移動カメラ1を振動させなけ
ればならない。そこで振動命令生成手段25は移動カメ
ラ1が移動すべき位置を環境座標系上の位置として指定
する。振動命令生成手段25が指定する位置は極端に移
動カメラ1が振動しない範囲で疑似乱数などによって決
定される。加えて、この視覚装置2には、外部から制御
命令を入力することにより移動カメラ1をパン、チルト
及びズームすることが求められる。一般的な用途では移
動カメラ1の現在の向き及び倍率を基にしてパン、チル
ト及びズームがなされるので、制御命令入力手段24を
用いて、一旦制御命令を記憶した後に移動カメラ1の現
在位置を原点とした環境座標系上の位置を算出する。な
お制御命令入力手段24を改良することにより、容易に
移動カメラ1を特定の位置に移動させるようにすること
ができる。Now, the visual device 2 has a position selecting means 22.
Camera 1 moves to the following position in addition to the position selected in
Is required to be panned, tilted and zoomed. First, in order for the moving camera 1 to take an image as if a stationary object is moving, the visual device 2 must vibrate the moving camera 1. Therefore, the vibration command generation unit 25 specifies a position to which the mobile camera 1 should move as a position on the environment coordinate system. The position specified by the vibration command generation means 25 is determined by a pseudo random number or the like within a range where the mobile camera 1 does not vibrate extremely. In addition, the visual device 2 is required to pan, tilt, and zoom the mobile camera 1 by inputting a control command from the outside. In general use, panning, tilting and zooming are performed based on the current orientation and magnification of the mobile camera 1. Therefore, the control command input means 24 is used to temporarily store the control command and then store the current position of the mobile camera 1. Is calculated on the environment coordinate system with the origin as. By improving the control command input means 24, the mobile camera 1 can be easily moved to a specific position.
【0039】そこで移動カメラ1のパン、チルト及びズ
ームを制御するために、運動制御手段23が前述した環
境座標系上の4つの位置から1つを選択する。その際に
運動制御手段23は、制御命令入力手段24、物体位置
推定手段34、位置選択手段22、振動命令生成手段2
5の順番で入力位置がある手段から選択する。選択され
た位置は運動制御手段23によって環境座標系からカメ
ラ座標系に変換される。その後カメラ命令生成手段26
によって移動カメラ1が認識することができる命令に置
き換えられて移動カメラ1に送信される。これによりこ
の視覚装置2は移動カメラ1のパン、チルト及びズーム
を制御することができる。Therefore, in order to control the pan, tilt and zoom of the mobile camera 1, the motion control means 23 selects one of the four positions on the environment coordinate system described above. At that time, the motion control means 23 includes the control command input means 24, the object position estimating means 34, the position selecting means 22, the vibration command generating means 2
The input position is selected from the means having the input position in the order of 5. The selected position is converted from the environment coordinate system to the camera coordinate system by the motion control means 23. Then, the camera command generating means 26
The command is replaced with a command recognizable by the mobile camera 1 and transmitted to the mobile camera 1. This allows the visual device 2 to control the pan, tilt, and zoom of the mobile camera 1.
【0040】なお移動カメラ1の機種によっては、移動
カメラ1に特定の命令を送信しないと移動カメラ1の状
態、すなわち移動カメラ1の向き及び倍率や、移動カメ
ラ1が移動中であるか若しくは停止中であるかといった
情報を得ることができないものがある。そこで運動制御
手段23は、前述した4つの位置から1つを選んでカメ
ラ命令生成手段26に出力した後に、移動カメラ1が移
動中であるかどうかといった情報を問い合わせる命令を
移動カメラ1に送信するように、運動制御手段23はカ
メラ命令生成手段26に指示し、移動カメラ1からカメ
ラ/環境座標変換手段20を介してこの情報を受け取る
まで待つ。もし受け取った情報が移動中を示せば、移動
カメラ1が移動中であるかどうかといった情報を問い合
わせる命令を移動カメラ1に送信するように、運動制御
手段23は再度カメラ命令生成手段26に指示する。も
し受け取った情報が停止中を示せば、移動カメラ1が現
在の向き及び倍率を問い合わせる命令を移動カメラ1に
送信するように、運動制御手段23はカメラ命令生成手
段26に指示する。この期間中運動制御手段23は4つ
の位置を選択しない。カメラ命令生成手段26は運動制
御手段23からの指示に従い、対応する命令を移動カメ
ラ1に送信する。カメラ/環境座標変換手段20は移動
カメラ1が移動中であるかどうかといった情報をそのま
ま運動制御手段23に送信し、また移動カメラ1の現在
の向き及び倍率をカメラ座標系から環境座標系の位置に
変換する。これによりこの視覚装置2は、移動カメラ1
の状態を逐次調査しながら、移動カメラ1のパン、チル
ト及びズームを制御することができる。Depending on the model of the mobile camera 1, if a specific command is not sent to the mobile camera 1, the state of the mobile camera 1, that is, the direction and magnification of the mobile camera 1, the mobile camera 1 is moving or stopped. Some information cannot be obtained, such as whether it is inside. Then, the motion control unit 23 selects one of the four positions described above and outputs the selected one to the camera command generation unit 26, and then transmits to the mobile camera 1 a command for inquiring information as to whether or not the mobile camera 1 is moving. Thus, the motion control unit 23 instructs the camera command generation unit 26 to wait until receiving this information from the mobile camera 1 via the camera / environmental coordinate conversion unit 20. If the received information indicates that the mobile camera 1 is moving, the motion control means 23 instructs the camera command generation means 26 again to transmit a command for inquiring information such as whether the mobile camera 1 is moving. . If the received information indicates that the mobile camera 1 is stopped, the motion control unit 23 instructs the camera command generation unit 26 so that the mobile camera 1 transmits a command for inquiring the current orientation and magnification to the mobile camera 1. During this period, the motion control means 23 does not select four positions. The camera command generation means 26 transmits a corresponding command to the mobile camera 1 according to the instruction from the motion control means 23. The camera / environmental coordinate conversion means 20 transmits the information as to whether the mobile camera 1 is moving or not to the motion control means 23 as it is, and also converts the current orientation and magnification of the mobile camera 1 from the camera coordinate system to the position in the environmental coordinate system. Convert to This allows the visual device 2 to move the mobile camera 1
The pan, tilt and zoom of the mobile camera 1 can be controlled while sequentially examining the state of the camera.
【0041】最後に、視覚装置2では、エッジ情報生成
手段14と、エッジ情報形成手段15、物体/背景分離
手段16、領域正規化手段27及び画像認識手段29と
の間で、各々の手段が入力する画像の解像度若しくは画
像サイズを必ずしも一致させる必要はない。例えば、こ
の視覚装置2において、エッジ情報生成手段14にはデ
ジタル画像111の解像度を低くした低解像度デジタル
画像116を入力させ、一方、エッジ情報形成手段15
には、エッジ情報生成手段14が生成した低解像度粗エ
ッジ情報画像117の画像サイズを適当な方法でデジタ
ル画像111の画像サイズに拡大した粗エッジ情報画像
113を入力させ、物体/背景分離手段16及び領域正
規化手段27にはデジタル画像111を入力させること
により、エッジ情報生成手段14の負荷を低減すること
ができる。つまりエッジ情報形成手段15以降で生成さ
れる正規化画像145の品質をほとんど変えることな
く、位置/大きさ検出手段17以降の移動カメラ1のパ
ン、チルト及びズームの制御をより高速にすることがで
きる。そこでこの方法をさらに進めると、エッジ情報形
成手段15には、エッジ情報生成手段14が生成した低
解像度粗エッジ情報画像117のうち粗エッジ情報11
2が存在する領域を切り出した切出粗エッジ情報画像1
19を入力させ、物体/背景分離手段16及び領域正規
化手段27には、デジタル画像111から切出粗エッジ
情報画像119と同じ位置の領域を切り出した切出デジ
タル画像120を入力させることにより、エッジ情報形
成手段15以降の正規化画像145の生成の負荷を低減
することができる。ここでこの視覚装置2により、移動
カメラ1が移動物体をフレーム画像の中央に適切な大き
さで撮影することができれば、デジタル画像111に対
する切出粗エッジ情報画像119及び切出デジタル画像
120の切出領域を事前に決定することができる。この
方法により、この視覚装置2は1台の移動カメラ1を用
いることにより、広角カメラと高解像度カメラを用いた
物体探索装置と同様の性能を達成することができる。Finally, in the visual device 2, each of the edge information generating means 14, the edge information forming means 15, the object / background separating means 16, the area normalizing means 27 and the image recognizing means 29 is It is not always necessary to match the resolution or image size of the input image. For example, in the visual device 2, the edge information generating unit 14 is caused to input a low resolution digital image 116 in which the resolution of the digital image 111 is reduced, while the edge information forming unit 15
Input a coarse edge information image 113 obtained by enlarging the image size of the low-resolution coarse edge information image 117 generated by the edge information generating means 14 to the image size of the digital image 111 by an appropriate method. By inputting the digital image 111 to the area normalizing means 27, the load on the edge information generating means 14 can be reduced. That is, the pan, tilt, and zoom of the mobile camera 1 after the position / size detection unit 17 can be controlled at a higher speed without substantially changing the quality of the normalized image 145 generated by the edge information forming unit 15 or later. it can. Therefore, when this method is further advanced, the edge information forming unit 15 stores the coarse edge information 11 in the low-resolution coarse edge information image 117 generated by the edge information generating unit 14.
2 is an extracted coarse edge information image obtained by cutting out an area where 2 exists.
19 is input to the object / background separation means 16 and the area normalization means 27 by inputting a cutout digital image 120 obtained by cutting out a region at the same position as the cutout rough edge information image 119 from the digital image 111. The load of generating the normalized image 145 after the edge information forming unit 15 can be reduced. If the visual camera 2 allows the moving camera 1 to shoot the moving object at an appropriate size in the center of the frame image, the cut coarse edge information image 119 and the cut digital image 120 of the digital image 111 are cut. The exit area can be determined in advance. With this method, the visual device 2 can achieve the same performance as an object search device using a wide-angle camera and a high-resolution camera by using one moving camera 1.
【0042】さて、請求項2記載の視覚装置2で用いら
れている画像記憶手段12、エッジ情報生成手段14、
エッジ情報形成手段15、物体/背景分離手段16、領
域正規化手段27、位置/大きさ検出手段17及び画像
認識手段29は、配列演算ユニット40(ARRAY OPERAT
ION UNIT)から構成されるデータ処理装置110を用い
ることにより実装することができる。そこで以下では、
配列演算ユニット40を利用したデータ処理装置110
の実施形態を挙げ、この視覚装置2を図面を参照して説
明する。The image storage means 12, the edge information generation means 14, used in the visual device 2 according to the second aspect,
The edge information forming means 15, the object / background separating means 16, the area normalizing means 27, the position / size detecting means 17, and the image recognizing means 29 are composed of an array operation unit 40 (ARRAY OPERAT).
ION UNIT) can be implemented by using the data processing device 110 composed of the ION UNIT. So in the following,
Data processing device 110 using array operation unit 40
The visual device 2 will be described with reference to the drawings.
【0043】まず配列演算ユニット40は、入力画像の
1つの画素とその近傍画素を用いることにより、出力画
像の1つの画素を生成する。そこで図3に示したよう
に、配列演算ユニット40を入力画像のサイズに合わせ
て格子状に配列したデータ処理装置110を用いること
により、データ処理装置110は入力画像から出力画像
を生成することができる。なお図3において、配列演算
ユニット40をAOUと略記する。次に配列演算ユニッ
ト40は専用ハードウェアによって実装されても良い
し、汎用コンピュータ上でソフトウェアによって実装す
ることもできる。つまり入力画像から出力画像を生成す
ることができれば、実装手段は制限されない。したがっ
て配列演算ユニット40のアルゴリズムを示すことによ
り、データ処理装置110の画像処理を示すことができ
る。そこで配列演算ユニット40のアルゴリズムを示す
ために、図2で示された画像記憶手段12、エッジ情報
生成手段14、エッジ情報形成手段15、領域正規化手
段27、位置/大きさ検出手段17及び画像認識手段2
9で用いる数式について説明する。First, the array operation unit 40 generates one pixel of the output image by using one pixel of the input image and its neighboring pixels. Therefore, as shown in FIG. 3, by using the data processing device 110 in which the array operation units 40 are arranged in a lattice in accordance with the size of the input image, the data processing device 110 can generate an output image from the input image. it can. In FIG. 3, the array operation unit 40 is abbreviated as AOU. Next, the array operation unit 40 may be implemented by dedicated hardware, or may be implemented by software on a general-purpose computer. That is, as long as the output image can be generated from the input image, the mounting means is not limited. Therefore, the image processing of the data processing device 110 can be indicated by indicating the algorithm of the array operation unit 40. In order to show the algorithm of the array operation unit 40, the image storage unit 12, the edge information generation unit 14, the edge information formation unit 15, the area normalization unit 27, the position / size detection unit 17, and the image shown in FIG. Recognition means 2
The mathematical formula used in No. 9 will be described.
【0044】幅w、高さh、帯域数bの任意の2n階調
画像をx、y、wとすると、x、y、wは各々位置p
(i,j,k)の帯域画素値xijk、yijk、wijkを用
いて数式1、2及び3のように表される。なおアンダー
ラインが付された文字はベクトルを示す。またnは非負
の整数、w、h、b、i、j、kは自然数である。Assuming that x , y , and w are arbitrary 2 n gradation images having a width w, a height h, and the number of bands b, x , y , and w are respectively located at positions p.
Expressions 1, 2, and 3 are expressed using band pixel values x ijk , y ijk , and w ijk of (i, j, k). The underlined characters indicate vectors. N is a non-negative integer, w, h, b, i, j, and k are natural numbers.
【0045】[0045]
【数1】 (Equation 1)
【0046】[0046]
【数2】 (Equation 2)
【0047】[0047]
【数3】 (Equation 3)
【0048】まず前記画像の各帯域画素値に対する点処
理に関する関数について以下で説明する。First, a function relating to point processing for each band pixel value of the image will be described below.
【0049】画像xを二値画像に変換する場合、数式4
に従って帯域画素値を二値化する。When converting the image x into a binary image, the following expression 4 is used.
, The band pixel value is binarized.
【0050】[0050]
【数4】 (Equation 4)
【0051】画像xを帯域最大値画像に変換する場合、
数式5に従ってi行j列の画素の各帯域の値のうち最大
値を選択する。なお前記帯域最大値画像は単帯域画像と
なるので、便宜上帯域数1の前記画像として取り扱うこ
とにする。したがって関数B ij1(x)の第3添字は1
となっている。ImagexIs converted to a band maximum value image,
The maximum value among the values of each band of the pixel in the i-th row and the j-th column in accordance with Expression 5
Select a value. The band maximum value image is a single band image.
Therefore, for convenience, it can be handled as the image with 1 band.
And Therefore function B ij1(x) Has the first subscript 1
It has become.
【0052】[0052]
【数5】 (Equation 5)
【0053】画像xが二値画像であるとして、画像xを
反転させる場合、数式6に従って計算する。[0053] As the image x is a binary image, when reversing the image x, is calculated according to Equation 6.
【0054】[0054]
【数6】 (Equation 6)
【0055】画像xの位置p(i,j,k)における対
数変換は数式7に従って行われる。ここでeはオフセッ
トであり、自然対数関数が出力する値が有効範囲に入る
ようにするために使われるので、一般にe=1で十分で
ある。この対数化により帯域画素値同士の除算を減算に
することができる。また画像xが2n階調のデジタル画
像111であるとすると、帯域数に関わらず2n個の要
素を含むルックアップテーブルをメモリ42上に持つな
らば、毎回自然対数関数を計算する必要もなく、標準的
な対数表を持つ必要もなくなる。The logarithmic transformation at the position p (i, j, k) of the image x is performed according to the following equation (7). Here, e is an offset, and is used to make the value output by the natural logarithmic function fall within the effective range, so that e = 1 is generally sufficient. By this logarithmic conversion, division between band pixel values can be subtracted. Further, assuming that the image x is a digital image 111 of 2 n gradations, if a look-up table including 2 n elements is stored in the memory 42 regardless of the number of bands, it is necessary to calculate the natural logarithmic function every time. No need to have a standard log table.
【0056】[0056]
【数7】 (Equation 7)
【0057】さて、画像の位置p(i,j,k)におけ
るq近傍の位置の集合Pijk(q)は数式8によって表
される。ただしqは4、8、24、48、80、12
0、(2r+1)2−1と続く数列であり、rは自然数
である。なお画像サイズをはみ出した位置が集合Pijk
(q)に含まれる場合には、特に指定がない限り位置p
(i,j,k)を代用するものとする。またこれ以外の
ときは、指定に従い、画素値が0に相当し、しかも画像
に含まれない架空の位置を代用する。これにより辺縁処
理は自動的に行われる。したがって集合Pijk(q)の
要素の数Nijkは常にqとなる。A set P ijk (q) of positions near q at the position p (i, j, k) of the image is represented by Expression 8. Where q is 4, 8, 24, 48, 80, 12
0, (2r + 1) 2 −1, and a series of numbers, where r is a natural number. The position beyond the image size is set P ijk
If included in (q), position p unless otherwise specified
(I, j, k) shall be substituted. In other cases, a fictitious position whose pixel value corresponds to 0 and which is not included in the image is substituted according to the designation. Thereby, the edge processing is automatically performed. Therefore, the number N ijk of elements of the set P ijk (q) is always q.
【0058】[0058]
【数8】 (Equation 8)
【0059】そこで次に画像の各帯域画素値に対する最
大8近傍の近傍処理に関する関数及びオペレータについ
て以下で説明する。Next, functions and operators relating to neighborhood processing of up to eight neighborhoods for each band pixel value of an image will be described below.
【0060】画像xの位置p(i,j,k)における平
滑化は数式9に従って行われる。ただしint(v)は
実数vの小数点以下切り捨てを意味するものとする。も
し画像xの帯域画素値が整数値であるならば、ハードウ
ェアの実装時にNijk=4のときxlmkの総和に対して右
シフト命令を2回、Nijk=8のときxlmkの総和に対し
て右シフト命令を3回実行するような回路に変更するこ
とにより、除算を実行する回路を省くことができる。The smoothing at the position p (i, j, k) of the image x is performed according to equation (9). However, int (v) means that the real number v is truncated below the decimal point. If If a band-pixel value of the image x is an integer value, twice the right shift instruction based on the sum of x LMK when N ijk = 4 in hardware implementation, the sum of x LMK when N ijk = 8 The circuit for executing the division can be omitted by changing the circuit to execute the right shift instruction three times.
【0061】[0061]
【数9】 (Equation 9)
【0062】ラプラシアンの計算であるが、これは数式
10に示すように単なる2階差分オペレータである。8
近傍の方がノイズの微妙な変化を捉えてゼロ点およびゼ
ロ交差が多くなり、本発明には向いている。ただしN
ijkが4か8であるので、もしハードウェアの実装時に
Nijk=4のときxijkに対して左シフト命令を2回、N
ijk=8のときxijkに対して左シフト命令を3回実行す
るような回路に変更することにより、実数の乗算を実行
する回路を省くことができる。The Laplacian calculation is performed by using the following equation.
As shown in FIG. 10, it is a simple second-order difference operator. 8
The nearer part captures subtle changes in noise, and
The number of intersections increases, which is suitable for the present invention. Where N
ijkIs 4 or 8, so if the hardware implementation
NijkX = 4ijkTo the left shift instruction twice, N
ijkX = 8ijkExecute left shift instruction three times for
Perform multiplication of real numbers by changing the circuit to
Circuits to be used can be omitted.
【0063】[0063]
【数10】 (Equation 10)
【0064】ラプラシアンによって求められた値からゼ
ロ点を見付ける方法として、従来は正から負に変化する
画素を見付けていたが、本発明では数式11に従い、負
から正にゼロ交差する画素の他に、負からゼロやゼロか
ら正などゼロ点が経由したり、ゼロが継続する画素を見
付けるようにする。本発明では、数式11が見付けたゼ
ロ点はエッジがある場所ではなく、ノイズがある場所、
つまりエッジがない場所になる。また数式11により実
数値の二値化も同時に行っている。As a method of finding a zero point from the value obtained by Laplacian, a pixel that changes from positive to negative has been conventionally found. , Find a pixel passing through a zero point, such as negative to zero or zero to positive, or where zero continues. In the present invention, the zero point found by Equation 11 is not a place where there is an edge, but a place where there is noise,
That is, there is no edge. In addition, binarization of real values is performed at the same time according to Expression 11.
【0065】[0065]
【数11】 [Equation 11]
【0066】画像xが任意の二値画像であるとして、画
像xのうち孔が空いている画素を埋める場合には、数式
12に従い計算する。ここでfは埋めるべき孔の大きさ
を表すパラメータであり、一般にはf=1で十分であ
る。なお4近傍の場合にはその性質上対角線を検知する
ことができないので、極力8近傍にした方がよい。Assuming that the image x is an arbitrary binary image, when filling a pixel having a hole in the image x , the calculation is performed in accordance with Expression 12. Here, f is a parameter indicating the size of the hole to be filled, and generally f = 1 is sufficient. Note that a diagonal line cannot be detected due to its nature in the vicinity of 4; therefore, it is better to set it as close to 8 as possible.
【0067】[0067]
【数12】 (Equation 12)
【0068】画像xが任意の二値画像であるとして、画
像xのうち孤立点ないし孤立孔を削除する場合には、数
式13に従い計算する。なお4近傍の場合にはその性質
上対角線を検知することができないので、極力8近傍に
した方がよい。Assuming that the image x is an arbitrary binary image, when an isolated point or an isolated hole is to be deleted from the image x , the calculation is performed in accordance with Expression 13. Note that a diagonal line cannot be detected due to its nature in the vicinity of 4; therefore, it is better to set it as close to 8 as possible.
【0069】[0069]
【数13】 (Equation 13)
【0070】画像xが任意の二値画像であるとして、画
像xのうち線幅が1である画素を検知するために、4近
傍画素を用いて数式14に従い計算する。Assuming that the image x is an arbitrary binary image, in order to detect a pixel having a line width of 1 in the image x , calculation is performed using four neighboring pixels in accordance with Expression 14.
【0071】[0071]
【数14】 [Equation 14]
【0072】2つの画像x、yが任意の二値画像であ
り、画像yが画像xのうち線幅が1である画素を検知し
た画像であるとすると、画像xのうち線幅が1である画
素の線幅を拡張するために、4近傍画素を用いて数式1
5に従い計算する。[0072] Two image x, y is any binary image. When the image y is assumed to be an image obtained by detecting the pixel out line width is 1 image x, the inner line width of the image x is 1 In order to extend the line width of a certain pixel, Equation 1 is calculated using four neighboring pixels.
Calculate according to 5.
【0073】[0073]
【数15】 (Equation 15)
【0074】そこで数式14の線幅検知と数式15の線
幅拡張を用いると、数式16に従い二値画像の線幅補完
を簡単に記述することができる。Therefore, by using the line width detection of Expression 14 and the line width expansion of Expression 15, complementation of the line width of the binary image can be easily described according to Expression 16.
【0075】[0075]
【数16】 (Equation 16)
【0076】次に画像の各帯域画素値に対する近傍処理
に関する関数及びオペレータについて以下で説明する。Next, a function and an operator relating to the neighborhood processing for each band pixel value of the image will be described below.
【0077】2つの画像x、yがある場合、これらの画
像の最大値画像は数式17に従って計算される。If there are two images x and y , the maximum value image of these images is calculated according to equation (17).
【0078】[0078]
【数17】 [Equation 17]
【0079】2つの画像x、yがある場合、これらの画
像の差分は数式18に従って計算される。If there are two images x and y , the difference between these images is calculated according to equation (18).
【0080】[0080]
【数18】 (Equation 18)
【0081】ここで数式10のラプラシアンと数式18
の差分を用いると、数式19に従い画像の鮮鋭化を簡単
に記述することができる。Here, Laplacian of Expression 10 and Expression 18
By using the difference of, the sharpening of the image can be easily described in accordance with Expression 19.
【0082】[0082]
【数19】 [Equation 19]
【0083】2つの画像x、yがあり、画像yが単帯域
二値画像である場合、数式20に従い、画像yの帯域画
素値を用いて画像xの各帯域画素値をマスクすることが
できる。If there are two images x and y , and the image y is a single-band binary image, each band pixel value of the image x can be masked using the band pixel value of the image y according to Equation (20). .
【0084】[0084]
【数20】 (Equation 20)
【0085】2つの画像x、yがあり、画像xとyが二
値画像である場合、数式21に従い、画像xを基に画像
yを整形することができる。[0085] Two image x, there is y, if the image x and y are binary images, in accordance with Equation 21, the image based on the image x
y can be shaped.
【0086】[0086]
【数21】 (Equation 21)
【0087】2つの画像x、yがあり、画像yが二値画
像である場合、数式22に従い、画像yで指定されなか
った画像xの帯域画素値を、画像xの帯域画素値の近傍
のうち画像yで指定された画像xの帯域画素値の平均値
で補間する。ただしint(v)は実数vの小数点以下
切り捨てを意味するものとする。[0087] Two image x, there is y, if the image y is binary image in accordance with Equation 22, a band-pixel value of the image x not specified by the image y, in the vicinity of the band-pixel value of the image x The interpolation is performed using the average value of the band pixel values of the image x specified by the image y . However, int (v) means that the real number v is truncated below the decimal point.
【0088】[0088]
【数22】 (Equation 22)
【0089】さて本発明では、画素の位置や移動量など
も画像データのように扱うことで処理を単純にしてい
る。これを位置の画像化と呼ぶ。以下では画像化に関す
る幾つかの関数及びオペレータについて説明する。In the present invention, the processing is simplified by treating the position and the movement amount of the pixel as image data. This is called position imaging. In the following, some functions and operators relating to imaging will be described.
【0090】まず位置p(l,m,o)のl、m、o各
々の値を画像データとして帯域画素値に変換するオペレ
ータを#とし、変換された帯域画素値を#p(l,m,
o)とする。次に帯域画素値が位置p(i,j,k)か
ら位置p(i+l,j+m,k+o)へ移動する場合を
考える。このとき帯域画素値の移動量は位置p(l,
m,o)として表されるものとする。つまり移動量はあ
る位置からのベクトルと見なすことができる。最後に帯
域画素値から位置を取り出すオペレータを#-1とする。
したがって#-1#p(l,m,o)=p(l,m,o)
となる。First, the operator for converting each value of l, m, and o at the position p (l, m, o) into band pixel values as image data is #, and the converted band pixel values are #p (l, m). ,
o). Next, consider a case where the band pixel value moves from the position p (i, j, k) to the position p (i + 1, j + m, k + o). At this time, the shift amount of the band pixel value is the position p (l,
m, o). That is, the movement amount can be regarded as a vector from a certain position. Finally, the operator that extracts the position from the band pixel value is # -1 .
Therefore, # -1 #p (l, m, o) = p (l, m, o)
Becomes
【0091】そこで数式23に従い、移動量p(i,
j,k)を幅方向と高さ方向で表される平面内で180
度反対方向に向けることができる。Therefore, according to Equation 23, the movement amount p (i,
j, k) in a plane represented by the width direction and the height direction by 180
Can be turned in the opposite direction.
【0092】[0092]
【数23】 (Equation 23)
【0093】画像xがあり、画像xが単帯域二値画像で
ある場合、画像xの位置p(i,j,1)における重心
位置への移動量は数式24に従い計算される。なお、本
来重心を計算する際には除算を行う必要があるが、8近
傍内への移動量を計算する際に除算は相殺されてしまう
ので、数式24では除算が省かれている。[0093] There are image x, when the image x is a single band binary image, the moving amount of the center of gravity position in the position of the image x p (i, j, 1 ) is calculated in accordance with Equation 24. Note that division must be performed when calculating the center of gravity, but division is canceled out when calculating the amount of movement into the vicinity of 8, so division is omitted in Expression 24.
【0094】[0094]
【数24】 (Equation 24)
【0095】移動量p(i,j,k)から、数式25及
び26に従い8近傍内への移動量を計算し、移動量画像
に画像化することができる。なお数式26は、画像の離
散化により数式25では対応しきれない場合にのみ利用
する。From the amount of movement p (i, j, k), the amount of movement into the vicinity of 8 can be calculated according to equations 25 and 26, and can be converted into an image of the amount of movement. The expression 26 is used only when the expression 25 cannot be used due to discretization of an image.
【0096】[0096]
【数25】 (Equation 25)
【0097】[0097]
【数26】 (Equation 26)
【0098】したがって数式24、25及び26を用い
ると、数式27及び28に従い、単帯域二値画像xの重
心方向への移動量画像の帯域画素値を簡単に記述するこ
とができる。なお移動量画像の帯域数は1となる。Therefore, using Equations 24, 25 and 26, the band pixel value of the displacement image of the single-band binary image x in the direction of the center of gravity can be simply described according to Equations 27 and 28. Note that the number of bands of the moving amount image is one.
【0099】[0099]
【数27】 [Equation 27]
【0100】[0100]
【数28】 [Equation 28]
【0101】一方で数式23を用いると重心位置の反対
位置を求めることができるので、数式29に従い、単帯
域二値画像xの重心と反対方向への移動量画像の帯域画
素値を簡単に記述することができる。なお移動量画像の
帯域数は1となる。On the other hand, since the position opposite to the position of the center of gravity can be obtained by using Expression 23, the band pixel value of the moving amount image in the direction opposite to the center of gravity of the single-band binary image x is simply described according to Expression 29. can do. Note that the number of bands of the moving amount image is one.
【0102】[0102]
【数29】 (Equation 29)
【0103】2つの画像x、yがあり、画像yが移動量
画像である場合、数式30に従い、画像yで指し示され
た移動位置に画像xの帯域画素値を移動した後、同じ帯
域画素に移動した帯域画素値の合計を濃淡画像にするこ
とができる。If there are two images x and y , and the image y is a movement amount image, after moving the band pixel value of the image x to the movement position indicated by the image y according to Expression 30, the same band pixel The sum of the band pixel values that have been moved to the grayscale image can be obtained.
【0104】[0104]
【数30】 [Equation 30]
【0105】そこで数式4、27、28及び30を用い
ることにより、数式31又は数式32に従い、単帯域濃
淡画像xを近傍の重心方向に移動した後、同じ帯域画素
に移動した帯域画素値の合計を簡単に記述することがで
きる。Then, by using Equations 4, 27, 28 and 30, the total of the band pixel values moved to the same band pixel after moving the single band gray-scale image x in the direction of the center of gravity in the vicinity according to Equation 31 or Equation 32 Can be easily described.
【0106】[0106]
【数31】 (Equation 31)
【0107】[0107]
【数32】 (Equation 32)
【0108】2つの画像x、yがあり、画像xが二値画
像で、画像yが移動量画像である場合、画像xの各帯域
画素値の移動先の位置を求めることができるので、移動
先が重複する帯域画素値を見つけることができる。そこ
で画像xの各帯域画素値の移動先が重複することなく、
しかも移動する各帯域画素値が存在することを表す移動
可能画像の帯域画素値は、数式33に従い生成される。
なお移動可能画像の帯域数は1となる。If there are two images x and y , and the image x is a binary image and the image y is a moving amount image, the position of the destination of each band pixel value of the image x can be obtained. Band pixel values with overlapping destinations can be found. Therefore, the destination of each band pixel value of the image x does not overlap,
Moreover, the band pixel value of the movable image indicating that there is a moving band pixel value is generated according to Equation 33.
Note that the number of bands of the movable image is one.
【0109】[0109]
【数33】 [Equation 33]
【0110】3つの画像x、y、wがあり、画像yが移
動可能画像であり、画像wが移動量画像である場合、数
式34に従い画像xの帯域画素値を移動することができ
る。When there are three images x , y , and w , the image y is a movable image, and the image w is a movement amount image, the band pixel value of the image x can be moved according to Expression 34.
【0111】[0111]
【数34】 (Equation 34)
【0112】そこで数式29、数式33及び数式34を
用いると、数式35に従い、二値画像yから計算される
重心位置と反対方向に画像xの帯域画素を移動すること
で得られる画像の帯域画素値を簡単に記述することがで
きる。Therefore, using Equations 29, 33 and 34, the band pixels of the image x obtained by moving the band pixels of the image x in the direction opposite to the position of the center of gravity calculated from the binary image y according to Equation 35 Value can be described easily.
【0113】[0113]
【数35】 (Equation 35)
【0114】そこで数式1から数式35までを用いるこ
とにより、図2で示された画像記憶手段12、エッジ情
報生成手段14、エッジ情報形成手段15、領域正規化
手段27及び位置/大きさ検出手段17を実装するデー
タ処理装置110の全ての配列演算ユニット40のアル
ゴリズムを記述することができる。以下では、データ処
理装置110中の任意の配列演算ユニット40のアルゴ
リズムを用いて、画像記憶手段12、エッジ情報生成手
段14、エッジ情報形成手段15、領域正規化手段27
及び位置/大きさ検出手段17を説明する。Therefore, by using Equations 1 to 35, the image storage unit 12, the edge information generation unit 14, the edge information formation unit 15, the area normalization unit 27, and the position / size detection unit shown in FIG. 17 can be described in all the array operation units 40 of the data processing device 110. In the following, the image storage unit 12, the edge information generation unit 14, the edge information formation unit 15, the area normalization unit 27, using an algorithm of an arbitrary array operation unit 40 in the data processing device 110.
And the position / size detecting means 17 will be described.
【0115】データ処理装置110によって実現される
画像記憶手段12がデジタル画像111を記憶するため
に、格子状に配列された配列演算ユニット40は同期し
て並列に動作する。格子上i行j列に配置された配列演
算ユニット40をAOUijとすると、AOUijのアルゴ
リズムは図4のようになる。Since the image storage means 12 realized by the data processing device 110 stores the digital image 111, the array operation units 40 arranged in a lattice form operate in synchronization and in parallel. When the lattice i and a row j sequence arithmetic unit 40 arranged in columns and AOU ij, Algorithm of AOU ij is shown in FIG.
【0116】ステップ1201で、AOUijを格子上の
i行j列に配置する。これは論理的であれ物理的であ
れ、AOUijの近傍を決定するために必要である。In step 1201, AOU ij is arranged at the i-th row and the j-th column on the lattice. This is necessary to determine the neighborhood of AOU ij , whether logical or physical.
【0117】ステップ1202で、AOUijの近傍や変
数の初期値を設定する。In step 1202, the neighborhood of AOU ij and initial values of variables are set.
【0118】ステップ1203で、順次入力されるデジ
タル画像111が無くなったかどうか判断する。もしデ
ジタル画像111が無ければ(ステップ1203:YE
S)、アルゴリズムを終了する。もしデジタル画像11
1があれば(ステップ1203:NO)、ステップ12
04に移行する。ただし特定の画像サイズのみに対して
配列演算ユニット40を実装する場合には、無限ループ
にしても良い。At step 1203, it is determined whether or not the digital image 111 to be sequentially input has disappeared. If there is no digital image 111 (step 1203: YE
S), end the algorithm. If digital image 11
If there is 1 (step 1203: NO), step 12
Move to 04. However, when the array operation unit 40 is implemented only for a specific image size, an infinite loop may be used.
【0119】ステップ1204で、デジタル画像111
が準備されるまで入力待ちをする。At step 1204, the digital image 111
Wait for input until is ready.
【0120】ステップ1205で、デジタル画像111
のi行j列の画素を帯域数分入力する。このためAOU
ijは少なくとも帯域数分の画像データを記憶するメモリ
42を必要とする。At step 1205, the digital image 111
Of pixels in the i-th row and the j-th column are input for the number of bands. For this reason, AOU
ij requires a memory 42 for storing at least image data for the number of bands.
【0121】ステップ1206で、入力待ちの間出力で
きるように、デジタル画像111のi行j列の画素を記
憶する。In step 1206, the pixels in the i-th row and the j-th column of the digital image 111 are stored so as to be able to output while waiting for input.
【0122】ステップ1207で、デジタル画像111
の帯域画素値を出力する。その後ステップ1203に戻
る。At step 1207, the digital image 111
Is output. Thereafter, the flow returns to step 1203.
【0123】これにより、配列演算ユニット40から構
成されるデータ処理装置110を用いて、画像記憶手段
12はデジタル画像111を記憶することができる。Thus, the image storage unit 12 can store the digital image 111 using the data processing device 110 including the array operation unit 40.
【0124】データ処理装置110によって実現される
エッジ情報生成手段14がデジタル画像111から粗エ
ッジ情報画像113を生成するために、格子状に配列さ
れた配列演算ユニット40は同期して並列に動作する。
格子上i行j列に配置された配列演算ユニット40をA
OUijとすると、エッジ情報生成手段14に対するAO
Uijのアルゴリズムは図5のようになる。In order for the edge information generating means 14 realized by the data processing device 110 to generate the coarse edge information image 113 from the digital image 111, the array operation units 40 arranged in a lattice form operate synchronously and in parallel. .
The array operation unit 40 arranged at i-th row and j-th column on the
OU ij , AO for the edge information generating means 14
The algorithm of U ij is as shown in FIG.
【0125】ステップ1401で、AOUijを格子上の
i行j列に配置する。これは論理的であれ物理的であ
れ、AOUijの近傍を決定するために必要である。In step 1401, AOU ij is arranged at the i-th row and the j-th column on the grid. This is necessary to determine the neighborhood of AOU ij , whether logical or physical.
【0126】ステップ1402で、AOUijの近傍や変
数の初期値を設定する。近傍の設定においては、前記各
関数で使う近傍サイズqを個別に4か8に決めても良い
し、全部を4か8に統一しても良い。本発明のエッジ情
報生成手段14が生成する粗エッジ情報112の正確さ
を上げるためには近傍サイズqを全て8に設定すること
が望ましい。しかしながら粗エッジ情報112を生成す
るための計算時間の制約や、デジタル画像111の帯域
数などにより、エッジ情報生成手段14は必要に応じて
適宜近傍サイズを変えることで対処することができる。In step 1402, the neighborhood of AOU ij and initial values of variables are set. In setting the neighborhood, the neighborhood size q used in each of the functions may be individually determined to be 4 or 8, or the whole may be unified to 4 or 8. In order to increase the accuracy of the rough edge information 112 generated by the edge information generating means 14 of the present invention, it is desirable to set all the neighborhood sizes q to 8. However, the edge information generating means 14 can cope with the situation by appropriately changing the neighborhood size as needed, due to restrictions on the calculation time for generating the rough edge information 112, the number of bands of the digital image 111, and the like.
【0127】ステップ1403で、デジタル画像111
が終了したかどうか判断する。もしデジタル画像111
が無ければ(ステップ1403:YES)、アルゴリズ
ムを終了する。もしデジタル画像111があれば(ステ
ップ1403:NO)、アルゴリズムを終了する。ただ
し特定の帯域数と画像サイズに対して配列演算ユニット
40を実装する場合には、無限ループにしても良い。At step 1403, the digital image 111
Judge whether or not is completed. If the digital image 111
If there is no (step 1403: YES), the algorithm ends. If there is a digital image 111 (step 1403: NO), the algorithm ends. However, when the array operation unit 40 is implemented for a specific number of bands and an image size, an infinite loop may be used.
【0128】ステップ1404で、デジタル画像111
のi行j列の画素を帯域数分入力する。これは、AOU
ijがデジタル画像111のi行j列の画素を一括して処
理するためである。このためAOUijは少なくとも帯域
数分の画像データを記憶するメモリ42を必要とする。At step 1404, the digital image 111
Of pixels in the i-th row and the j-th column are input for the number of bands. This is AOU
ij collectively processes the pixels in the i-th row and the j-th column of the digital image 111. Therefore, AOU ij requires a memory 42 for storing at least image data for the number of bands.
【0129】ステップ1405で、AOUijが近傍の配
列演算ユニット40と通信することにより、入力したデ
ジタル画像111の各帯域画素値に対して関数S
ijk(x)に従い平滑化を行う。平滑化された帯域画素
値は平滑化画像の帯域画素値として扱われる。ここで関
数Sijk(x)は必要に応じて数回繰り返しても良い。
一般的なカラー画像の場合、この回数は2回で十分であ
る。In step 1405, AOU ij communicates with the array operation unit 40 in the vicinity to obtain a function S for each band pixel value of the input digital image 111.
Performs smoothing according to ijk ( x ). The smoothed band pixel values are treated as band pixel values of the smoothed image. Here, the function S ijk ( x ) may be repeated several times as necessary.
In the case of a general color image, two times is sufficient.
【0130】ステップ1406で、平滑化画像の各帯域
画素値に対して関数Lijk(x)に従い対数変換を行
う。対数変換された帯域画素値は対数変換画像の帯域画
素値として扱われる。In step 1406, logarithmic conversion is performed on each band pixel value of the smoothed image in accordance with the function Lijk ( x ). The logarithmically converted band pixel value is treated as a band pixel value of the logarithmically converted image.
【0131】ステップ1407で、AOUijが近傍の配
列演算ユニット40と通信することにより、対数変換画
像の各帯域画素値に対して関数Eijk(x)に従い鮮鋭
化を行う。鮮鋭化された帯域画素値は鮮鋭化画像の帯域
画素値として扱われる。In step 1407, AOU ij communicates with the neighboring array operation unit 40, thereby sharpening each band pixel value of the logarithmically converted image according to the function E ijk ( x ). The sharpened band pixel value is treated as a band pixel value of the sharpened image.
【0132】ステップ1408で、鮮鋭化画像の各帯域
画素値に対して関数Dijk(x,y)に従い1入力前鮮
鋭化画像の各帯域画素値を引く。差分を計算された帯域
画素値は時間差分画像の帯域画素値として扱われる。In step 1408, each band pixel value of one input pre-sharpened image is subtracted from each band pixel value of the sharpened image according to the function D ijk ( x , y ). The band pixel value for which the difference has been calculated is treated as a band pixel value of the time difference image.
【0133】ステップ1409で、1入力前鮮鋭化画像
の各帯域画素値を鮮鋭化画像の対応する各帯域画素値で
置き換える。At step 1409, each band pixel value of the sharpened image before one input is replaced with a corresponding band pixel value of the sharpened image.
【0134】ステップ1410で、AOUijが近傍の配
列演算ユニット40と通信することにより、時間差分画
像の各帯域画素値に対してオペレータ∇2 ijk xに従いラ
プラシアンの計算を行う。ラプラシアンを計算された帯
域画素値は時間差分ラプラシアン画像の帯域画素値とし
て扱われる。At step 1410, AOU ij communicates with the neighboring array operation unit 40 to calculate Laplacian for each band pixel value of the time difference image according to the operator ∇ 2 ijk x . The band pixel value for which the Laplacian has been calculated is treated as the band pixel value of the time difference Laplacian image.
【0135】ステップ1411で、AOUijが近傍の配
列演算ユニット40と通信することにより、時間差分ラ
プラシアン画像の各帯域画素値に対して関数Z
ijk(x)に従いゼロ点を抽出する。ゼロ点を抽出され
た帯域画素値は時間差分ゼロ点画像の帯域画素値として
扱われる。At step 1411, AOU ij communicates with the neighboring array operation unit 40 to obtain a function Z for each band pixel value of the time difference Laplacian image.
The zero point is extracted according to ijk ( x ). The band pixel value from which the zero point has been extracted is treated as the band pixel value of the time difference zero point image.
【0136】ステップ1412で、時間差分ラプラシア
ン画像の各帯域画素値に対して関数Bij 1(x)に従い
各帯域画素値のうち最大値を検出する。検出された最大
値帯域画素値は最大値時間差分ゼロ点画像の帯域画素値
として扱われる。なお便宜上帯域数は1である。In step 1412, the maximum value among the band pixel values of each band pixel value of the time difference Laplacian image is detected according to the function B ij 1 ( x ). The detected maximum value band pixel value is treated as a band pixel value of the maximum value time difference zero point image. Note that the number of bands is 1 for convenience.
【0137】ステップ1413で、AOUijが近傍の配
列演算ユニット40と通信することにより、鮮鋭化画像
の各帯域画素値に対してオペレータ∇2 ijk xに従いラプ
ラシアンの計算を行う。ラプラシアンを計算された帯域
画素値はラプラシアン画像の帯域画素値として扱われ
る。In step 1413, AOU ij communicates with the neighboring array operation unit 40 to calculate Laplacian for each band pixel value of the sharpened image according to the operator ∇ 2 ijk x . The band pixel value for which the Laplacian has been calculated is treated as the band pixel value of the Laplacian image.
【0138】ステップ1414で、AOUijが近傍の配
列演算ユニット40と通信することにより、ラプラシア
ン画像の各帯域画素値に対して関数Zijk(x)に従い
ゼロ点を抽出する。ゼロ点を抽出された帯域画素値はゼ
ロ点画像の帯域画素値として扱われる。At step 1414, AOU ij communicates with the neighboring array operation unit 40 to extract a zero point for each band pixel value of the Laplacian image according to the function Z ijk ( x ). The band pixel value from which the zero point is extracted is treated as the band pixel value of the zero point image.
【0139】ステップ1415で、ラプラシアン画像の
各帯域画素値に対して関数Bij 1(x)に従い各帯域画
素値のうち最大値を検出する。検出された最大帯域画素
値は最大値ゼロ点画像の帯域画素値として扱われる。な
お便宜上帯域数は1である。In step 1415, the maximum value among the band pixel values of each band pixel value of the Laplacian image is detected according to the function B ij 1 ( x ). The detected maximum band pixel value is treated as a band pixel value of the maximum zero point image. Note that the number of bands is 1 for convenience.
【0140】ステップ1416で、ラプラシアン画像の
各帯域画素値と時間差分ラプラシアン画像の各帯域画素
値に対して関数Mijk(x,y)に従い各々の画像の同
じ位置にある帯域画素値のうち最大値を検出する。検出
された最大帯域画素値は混成ゼロ点画像の帯域画素値と
して扱われる。なお便宜上帯域数は1である。In step 1416, for each band pixel value of the Laplacian image and each band pixel value of the time-difference Laplacian image, the maximum of the band pixel values at the same position in each image according to the function M ijk ( x , y ). Find the value. The detected maximum band pixel value is treated as a band pixel value of the hybrid zero point image. Note that the number of bands is 1 for convenience.
【0141】ステップ1417で、AOUijが近傍の配
列演算ユニット40と通信することにより、混成ゼロ点
画像の帯域画素値に対して関数Fijk(x)に従い孔を
除去する。孔を除去された帯域画素値は孔除去混成ゼロ
点画像の帯域画素値として扱われる。なお便宜上帯域数
は1である。ここで関数Fijk(x)は必要に応じて数
回繰り返しても良い。一般的なカラー画像の場合、この
回数は1回で十分である。At step 1417, the AOU ij communicates with the neighboring array operation unit 40 to remove holes according to the function F ijk ( x ) for the band pixel value of the hybrid zero point image. The band pixel value from which the hole has been removed is treated as the band pixel value of the hole-removed hybrid zero-point image. Note that the number of bands is 1 for convenience. Here, the function F ijk ( x ) may be repeated several times as needed. In the case of a general color image, one time is sufficient.
【0142】ステップ1418で、AOUijが近傍の配
列演算ユニット40と通信することにより、孔除去混成
ゼロ点画像の帯域画素値に対して関数Aijk(x)に従
い孤立点および孤立孔を除去する。孤立点および孤立孔
を除去された帯域画素値はノイズ除去混成ゼロ点画像の
帯域画素値として扱われる。なお便宜上帯域数は1であ
る。At step 1418, AOU ij communicates with the neighboring array operation unit 40 to remove isolated points and isolated holes in accordance with the function A ijk ( x ) for the band pixel values of the hole-removed hybrid zero-point image. . The band pixel value from which the isolated points and the isolated holes have been removed is treated as the band pixel value of the noise-removed hybrid zero-point image. Note that the number of bands is 1 for convenience.
【0143】ステップ1419で、ノイズ除去混成ゼロ
点画像の帯域画素値に対して関数I ijk(x)に従い0
と1を反転させる。反転された帯域画素値は粗エッジ情
報画像113の帯域画素値として扱われる。At step 1419, noise removal hybrid zero
Function I for the band pixel value of the point image ijk(x0)
And 1 are inverted. The inverted band pixel value is
It is treated as a band pixel value of the report image 113.
【0144】ステップ1420で、粗エッジ情報画像1
13の帯域画素値を出力する。その後ステップ1403
に戻る。At step 1420, coarse edge information image 1
13 band pixel values are output. Then step 1403
Return to
【0145】これにより、配列演算ユニット40から構
成されるデータ処理装置110を用いて、エッジ情報生
成手段14はデジタル画像111から粗エッジ情報画像
113を生成することができる。Thus, the edge information generating means 14 can generate the coarse edge information image 113 from the digital image 111 using the data processing device 110 including the array operation unit 40.
【0146】図6に示すように、データ処理装置110
によって実現されるエッジ情報形成手段15が粗エッジ
情報112から構成される粗エッジ情報画像113、及
びデジタル画像111から、形成エッジ情報114から
構成される形成エッジ情報画像115を生成するため
に、格子状に配列された配列演算ユニット40は同期し
て並列に動作する。格子上i行j列に配置された配列演
算ユニット40をAOU ijとすると、AOUijのアルゴ
リズムは図7のようになる。[0146] As shown in FIG.
Edge information forming means 15 realized by
A rough edge information image 113 composed of information 112;
From digital image 111 and from formed edge information 114
In order to generate the formed formation information image 115
In addition, the array operation units 40 arranged in a lattice form
Work in parallel. Array performance arranged at i row and j column on the grid
Calculation unit 40 ijThen, AOUijArgo
The rhythm is as shown in FIG.
【0147】ステップ1501で、AOUijを格子上の
i行j列に配置する。これは論理的であれ物理的であ
れ、AOUijの近傍を決定するために必要である。At step 1501, AOU ij is arranged at the i-th row and the j-th column on the grid. This is necessary to determine the neighborhood of AOU ij , whether logical or physical.
【0148】ステップ1502で、AOUijの近傍や変
数の初期値を設定する。近傍の設定においては、前記各
関数で使う近傍サイズqを個別に4か8に決めても良い
し、全部を4か8に統一しても良い。本発明のエッジ情
報形成手段15が形成した形成エッジ情報114の正確
さを上げるためには近傍サイズqを全て8に設定するこ
とが望ましい。しかしながら粗エッジ情報112を形成
するための計算時間の制約や、入力されるデジタル画像
111の帯域数などにより、エッジ情報形成手段15は
必要に応じて適宜近傍サイズを変えることで対処するこ
とができる。In step 1502, the neighborhood of AOU ij and initial values of variables are set. In setting the neighborhood, the neighborhood size q used in each of the functions may be individually determined to be 4 or 8, or the whole may be unified to 4 or 8. In order to increase the accuracy of the formed edge information 114 formed by the edge information forming means 15 of the present invention, it is desirable to set all the neighborhood sizes q to 8. However, the edge information forming means 15 can cope with the situation by appropriately changing the neighborhood size as necessary, due to restrictions on the calculation time for forming the rough edge information 112, the number of bands of the input digital image 111, and the like. .
【0149】ステップ1503で、順次入力されるデジ
タル画像111又は粗エッジ情報画像113が無くなっ
たかどうか判断する。もしデジタル画像111若しくは
粗エッジ情報画像113のいずれかが無ければ(ステッ
プ1503:YES)、アルゴリズムを終了する。もし
デジタル画像111若しくは粗エッジ情報画像113の
いずれかがあれば(ステップ1503:NO)、ステッ
プ1504に移行する。ただし特定の帯域数と画像サイ
ズに対して配列演算ユニット40を実装する場合には、
無限ループにしても良い。In step 1503, it is determined whether or not the digital image 111 or the rough edge information image 113 that is sequentially input has disappeared. If there is no digital image 111 or coarse edge information image 113 (step 1503: YES), the algorithm ends. If there is either the digital image 111 or the rough edge information image 113 (step 1503: NO), the process proceeds to step 1504. However, when implementing the array operation unit 40 for a specific number of bands and image size,
It may be an infinite loop.
【0150】ステップ1504で、デジタル画像111
及び粗エッジ情報画像113のi行j列の画素を帯域数
分入力する。これは、AOUijがデジタル画像111及
び粗エッジ情報画像113のi行j列の画素を一括して
処理するためである。このためAOUijは少なくとも帯
域数分の画像データを記憶するメモリ42を必要とす
る。In step 1504, the digital image 111
Then, the pixels of the i-th row and the j-th column of the rough edge information image 113 are inputted for the number of bands. This is because AOU ij collectively processes the pixels in the i-th row and the j-th column of the digital image 111 and the rough edge information image 113. Therefore, AOU ij requires a memory 42 for storing at least image data for the number of bands.
【0151】ステップ1505で、デジタル画像111
のi行j列の画素と粗エッジ情報画像113のi行j列
の画素を分離する。これは、AOUijがデジタル画像1
11のi行j列の画素と粗エッジ情報画像113のi行
j列の画素を各々独立した画像の画素として処理するた
めである。もしデジタル画像111のi行j列の画素と
粗エッジ情報画像113のi行j列の画素が初めから分
離されて入力されていれば、特に何もしない。At step 1505, the digital image 111
And the pixel at the i-th row and the j-th column of the coarse edge information image 113 are separated. This is because AOU ij is a digital image 1
This is for processing the eleventh pixel in the i-th row and the j-th column and the pixel in the i-th row and the j-th column of the rough edge information image 113 as pixels of an independent image. If the pixel at the i-th row and the j-th column of the digital image 111 and the pixel at the i-th row and the j-th column of the rough edge information image 113 are separated and input from the beginning, nothing is performed.
【0152】ステップ1506で、AOUijが近傍の配
列演算ユニット40と通信することにより、入力したデ
ジタル画像111の各帯域画素値に対して関数S
ijk(x)に従い平滑化を行う。平滑化された帯域画素
値は平滑化画像の帯域画素値として扱われる。ここで関
数Sijk(x)は必要に応じて数回繰り返しても良い。
一般的なカラー画像の場合、この回数は2回で十分であ
る。In step 1506, the AOU ij communicates with the neighboring array operation unit 40, and the function S is applied to each band pixel value of the input digital image 111.
Performs smoothing according to ijk ( x ). The smoothed band pixel values are treated as band pixel values of the smoothed image. Here, the function S ijk ( x ) may be repeated several times as necessary.
In the case of a general color image, two times is sufficient.
【0153】ステップ1507で、平滑化画像の各帯域
画素に対して関数Lijk(x)に従い対数変換を行う。
対数変換された帯域画素値は対数変換画像の帯域画素値
として扱われる。At step 1507, logarithmic conversion is performed on each band pixel of the smoothed image in accordance with the function Lijk ( x ).
The logarithmically converted band pixel value is treated as a band pixel value of the logarithmically converted image.
【0154】ステップ1508で、AOUijが近傍の配
列演算ユニット40と通信することにより、対数変換画
像の各帯域画素値に対して関数Eijk(x)に従い鮮鋭
化を行う。鮮鋭化された帯域画素値は鮮鋭化画像の帯域
画素値として扱われる。In step 1508, AOU ij communicates with the neighboring array operation unit 40 to sharpen each band pixel value of the logarithmically converted image according to the function E ijk ( x ). The sharpened band pixel value is treated as a band pixel value of the sharpened image.
【0155】ステップ1509で、AOUijが近傍の配
列演算ユニット40と通信することにより、鮮鋭化画像
の各帯域画素値に対してオペレータ∇2 ijk xに従いラプ
ラシアンの計算を行う。ラプラシアンを計算された帯域
画素値はラプラシアン画像の帯域画素値として扱われ
る。In step 1509, AOU ij communicates with the neighboring array operation unit 40 to calculate Laplacian for each band pixel value of the sharpened image in accordance with the operator ∇ 2 ijk x . The band pixel value for which the Laplacian has been calculated is treated as the band pixel value of the Laplacian image.
【0156】ステップ1510で、AOUijが近傍の配
列演算ユニット40と通信することにより、ラプラシア
ン画像の各帯域画素値に対して関数Zijk(x)に従い
ゼロ点を抽出する。ゼロ点を抽出された帯域画素値はゼ
ロ点画像の帯域画素値として扱われる。In step 1510, AOU ij communicates with the neighboring array operation unit 40 to extract a zero point for each band pixel value of the Laplacian image according to the function Z ijk ( x ). The band pixel value from which the zero point is extracted is treated as the band pixel value of the zero point image.
【0157】ステップ1511で、ゼロ点画像の各帯域
画素値に対して関数Bij 1(x)に従い各帯域画素値の
うち最大値を検出する。検出された最大帯域画素値は最
大値ゼロ点画像の帯域画素値として扱われる。なお便宜
上帯域数は1である。At step 1511, the maximum value among the band pixel values is detected according to the function B ij 1 ( x ) for each band pixel value of the zero point image. The detected maximum band pixel value is treated as a band pixel value of the maximum zero point image. Note that the number of bands is 1 for convenience.
【0158】ステップ1512で、最大値ゼロ点画像の
帯域画素値に対して関数Iijk(x)に従い0と1を反
転させる。反転された帯域画素値は基礎エッジ情報画像
の帯域画素値として扱われる。In step 1512, 0 and 1 are inverted with respect to the band pixel value of the maximum value zero point image according to the function I ijk ( x ). The inverted band pixel value is treated as a band pixel value of the basic edge information image.
【0159】ステップ1513で、入力した粗エッジ情
報画像113の帯域画素値は初め整形粗エッジ情報画像
の帯域画素値として扱われ、AOUijが近傍の配列演算
ユニット40と通信することにより、基礎エッジ情報画
像の帯域画素値を用いて、整形粗エッジ情報画像の帯域
画素値に対して関数Qijk(x,y)に従い整形を行
う。整形された帯域画素値は再び整形粗エッジ情報画像
の帯域画素値として扱われる。ここで関数Qijk(x,
y)は本来整形粗エッジ情報画像の帯域画素値が変化し
なくなるまで繰り返される。ただし計算時間の制約、入
力される粗エッジ情報画像113の品質、形成される形
成エッジ情報画像115に求められる品質などにより、
整形処理は適当な繰り返し回数で計算を打ち切った方が
良い。In step 1513, the input band pixel value of the coarse edge information image 113 is first treated as the band pixel value of the shaped coarse edge information image, and the AOU ij communicates with the neighboring array operation unit 40 to form the basic edge image. Using the band pixel value of the information image, the band pixel value of the shaped coarse edge information image is shaped according to the function Q ijk ( x , y ). The shaped band pixel value is treated again as a band pixel value of the shaped rough edge information image. Where the function Q ijk ( x ,
y ) is repeated until the band pixel value of the originally shaped rough edge information image does not change. However, due to restrictions on calculation time, the quality of the input rough edge information image 113, the quality required for the formed edge information image 115 to be formed, and the like,
It is better that the shaping process be terminated at an appropriate number of repetitions.
【0160】ステップ1514で、AOUijが近傍の配
列演算ユニット40と通信することにより、整形粗エッ
ジ情報画像の帯域画素値に対して関数Cijk(x)に従
い線幅補完を行う。補完された帯域画素値は形成エッジ
情報画像115の帯域画素値として扱われる。In step 1514, AOU ij communicates with the neighboring array operation unit 40 to perform line width complementation on the band pixel values of the shaped rough edge information image according to the function C ijk ( x ). The complemented band pixel values are treated as band pixel values of the formed edge information image 115.
【0161】ステップ1515で、形成エッジ情報画像
115の帯域画素値を出力する。その後ステップ150
3に戻る。At step 1515, the band pixel value of the formed edge information image 115 is output. Then step 150
Return to 3.
【0162】これにより、配列演算ユニット40から構
成されるデータ処理装置110を用いて、エッジ情報形
成手段15は粗エッジ情報画像113を形成エッジ情報
画像115に形成することができる。Thus, the edge information forming means 15 can form the rough edge information image 113 on the formed edge information image 115 using the data processing device 110 including the array operation unit 40.
【0163】ここで粗エッジ情報画像113から形成エ
ッジ情報画像115への形成とは、ある場面を撮影した
低解像度のデジタル画像111から生成されたエッジ情
報から、同じ場面を撮影した高解像度のデジタル画像1
11から生成されるべきエッジ情報を推定することであ
ると見なすことができる。そこで自然数nに対して、図
8に示すように、デジタル画像111の解像度を1/n
に低くした低解像度デジタル画像116から、エッジ情
報生成手段14を用いて低解像度粗エッジ情報画像11
7を生成した場合、低解像度粗エッジ情報画像117を
n倍拡大することにより粗エッジ情報画像113を生成
することができる。ただしデジタル画像111の解像度
を1/nにするためには、水平及び垂直方向に対して単
純にデジタル画像111の連続するn個のうち1個を抽
出すれば良い。また低解像度粗エッジ情報画像117を
n倍拡大するためには、水平及び垂直方向に対して単純
に低解像度粗エッジ情報画像117の連続する画素の間
に帯域画素値が0である画素をn−1個埋めれば良い。
このときnがあまり大きくなければ、エッジ情報形成手
段15を実現するデータ処理装置110が、低解像度粗
エッジ情報画像117を拡大した粗エッジ情報画像11
3を形成した形成エッジ情報画像115と、エッジ情報
形成手段15を実現するデータ処理装置110が、デジ
タル画像111から生成した粗エッジ情報画像113を
形成した形成エッジ情報画像115とは、ほとんど同じ
ものになる。この理由は、エッジ情報形成手段15がデ
ジタル画像111を用いて内部で生成したエッジ情報の
うちどのエッジ情報を利用するのか参考にするために、
エッジ情報形成手段15が粗エッジ情報画像113を用
いているだけだからである。したがって低解像度粗エッ
ジ情報画像117を拡大した粗エッジ情報画像113を
エッジ情報形成手段15に入力した場合、低解像度デジ
タル画像116から低解像度粗エッジ情報画像117を
生成するエッジ情報生成手段14を実現するデータ処理
装置110は計算量又はハードウェア量を低減すること
ができる。Here, the formation of the rough edge information image 113 into the formed edge information image 115 means that a high-resolution digital image of the same scene is taken from edge information generated from a low-resolution digital image 111 of a certain scene. Image 1
11 to estimate the edge information to be generated. Therefore, as shown in FIG. 8, the resolution of the digital image 111 is 1 / n with respect to the natural number n.
The low-resolution coarse edge information image 11 is obtained from the low-resolution digital image 116
7, the coarse edge information image 113 can be generated by expanding the low-resolution coarse edge information image 117 by n times. However, in order to reduce the resolution of the digital image 111 to 1 / n, it is sufficient to simply extract one of n consecutive digital images 111 in the horizontal and vertical directions. Further, in order to enlarge the low-resolution coarse edge information image 117 by n times, pixels having a band pixel value of 0 between consecutive pixels of the low-resolution coarse edge information image 117 in the horizontal and vertical directions are simply set to n. -1 should be filled.
At this time, if n is not too large, the data processing device 110 that realizes the edge information forming unit 15 can generate the coarse edge information image 11 obtained by enlarging the low resolution coarse edge information image 117.
3 is almost the same as the formed edge information image 115 in which the data processing device 110 that realizes the edge information forming means 15 forms the coarse edge information image 113 generated from the digital image 111. become. The reason for this is to refer to which edge information among the edge information internally generated by the edge information forming means 15 using the digital image 111,
This is because the edge information forming means 15 only uses the rough edge information image 113. Therefore, when the coarse edge information image 113 obtained by enlarging the low resolution coarse edge information image 117 is input to the edge information forming unit 15, the edge information generating unit 14 that generates the low resolution coarse edge information image 117 from the low resolution digital image 116 is realized. The data processing device 110 can reduce the amount of calculation or the amount of hardware.
【0164】さらにこの方法を発展させると、図9に示
すように、デジタル画像111の解像度を低くした低解
像度デジタル画像116から生成した低解像度粗エッジ
情報画像117のうち、粗エッジ情報112の周辺を切
り出した低解像度切出粗エッジ情報画像118を生成す
ることができる。この低解像度切出粗エッジ情報画像1
18を拡大した切出粗エッジ情報画像119と、デジタ
ル画像111のうち同じ領域を切り出した切出デジタル
画像120をエッジ情報形成手段15を実現するデータ
処理装置110に入力すると、切出形成エッジ情報画像
121を生成することができる。この場合、エッジ情報
形成手段15を実現するデータ処理装置110はハード
ウェア量を低減することができる。なお視覚装置2は、
切出デジタル画像120が常にデジタル画像111の中
央になるように移動カメラ1の向き及び倍率を変化させ
るためのものであると見なすこともできる。When this method is further developed, as shown in FIG. 9, in the low resolution coarse edge information image 117 generated from the low resolution digital image , A low-resolution cut-out coarse edge information image 118 can be generated. This low-resolution cut coarse edge information image 1
When a cut coarse edge information image 119 obtained by enlarging an image 18 and a cut digital image 120 obtained by cutting the same region of the digital image 111 are input to the data processing device 110 that realizes the edge information forming means 15, the cut formation edge information An image 121 can be generated. In this case, the data processing device 110 that implements the edge information forming unit 15 can reduce the amount of hardware. The visual device 2
It can also be considered that the direction and the magnification of the moving camera 1 are changed so that the cut-out digital image 120 is always at the center of the digital image 111.
【0165】図10に示すように、データ処理装置11
0によって実現される領域正規化手段27が物体領域1
41を含む物体領域画像142、及び物体領域141と
重なる分離物体領域143を含むデジタル画像111か
ら正規化領域144を含む正規化画像145を生成する
ために、格子状に配列された配列演算ユニット40は同
期して並列に動作する。格子上i行j列に配置された配
列演算ユニット40をAOUijとすると、AOUijのア
ルゴリズムは図11のようになる。As shown in FIG. 10, the data processing device 11
0, the region normalizing means 27 realizes the object region 1
In order to generate a normalized image 145 including a normalized region 144 from an object region image 142 including the object region 41 and a digital image 111 including a separated object region 143 overlapping the object region 141, an array operation unit 40 arranged in a grid pattern Work synchronously and in parallel. When the lattice i and a row j sequence arithmetic unit 40 arranged in columns and AOU ij, Algorithm of AOU ij is shown in Figure 11.
【0166】ステップ2701で、AOUijを格子上の
i行j列に配置する。これは論理的であれ物理的であ
れ、AOUijの近傍を決定するために必要である。At step 2701, AOU ij is arranged at the i-th row and the j-th column on the lattice. This is necessary to determine the neighborhood of AOU ij , whether logical or physical.
【0167】ステップ2702で、AOUijの近傍や変
数の初期値を設定する。近傍の設定においては、前記各
関数で使う近傍サイズqを個別に決めても良いし、全部
を統一しても良い。本発明の領域正規化手段27が生成
した正規化画像145の正確さを上げるためには近傍サ
イズqを全て大きな値に設定することが望ましい。しか
しながら分離物体領域143を正規化するための計算時
間の制約や、入力されるデジタル画像111のサイズな
どにより、領域正規化手段27は必要に応じて適宜近傍
サイズを変えることで対処することができる。At step 2702, the neighborhood of AOU ij and initial values of variables are set. In the setting of the neighborhood, the neighborhood size q used in each of the functions may be determined individually, or all may be unified. In order to increase the accuracy of the normalized image 145 generated by the area normalizing means 27 of the present invention, it is desirable to set all the neighborhood sizes q to large values. However, depending on the restriction of the calculation time for normalizing the separated object region 143, the size of the input digital image 111, etc., the region normalizing means 27 can cope with the situation by appropriately changing the neighborhood size as needed. .
【0168】ステップ2703で、順次入力される物体
領域画像142又はデジタル画像111が無くなったか
どうか判断する。もし物体領域画像142又はデジタル
画像111が無ければ(ステップ2703:YES)、
アルゴリズムを終了する。もし物体領域画像142又は
デジタル画像111があれば(ステップ2703:N
O)、ステップ2704に移行する。ただし特定の帯域
数及び画像サイズのみに対して配列演算ユニット40を
実装する場合には、無限ループにしても良い。In step 2703, it is determined whether or not the sequentially input object region image 142 or digital image 111 has disappeared. If there is no object area image 142 or digital image 111 (step 2703: YES),
End the algorithm. If there is the object area image 142 or the digital image 111 (step 2703: N
O), and proceed to step 2704. However, when the array operation unit 40 is implemented only for a specific number of bands and an image size, an infinite loop may be used.
【0169】ステップ2704で、物体領域画像142
のi行j列の画素を1帯域分と、デジタル画像111の
i行j列の画素を帯域数分を入力する。これは、AOU
ijが物体領域画像142のi行j列の画素とデジタル画
像111のi行j列の画素を一括して処理するためであ
る。このためAOUijは少なくとも総帯域数分の画像デ
ータを記憶するメモリ42を必要とする。At step 2704, the object area image 142
Of the i-th row and j-th column for one band, and the pixels of the i-th row and j-th column of the digital image 111 for the number of bands. This is AOU
ij is to collectively process the pixel at the i-th row and the j-th column of the object area image 142 and the pixel at the i-th row and the j-th column of the digital image 111. Therefore, AOU ij requires a memory 42 for storing at least image data for the total number of bands.
【0170】ステップ2705で、物体領域画像142
のi行j列の画素とデジタル画像111のi行j列の画
素を分離する。これは、AOUijが物体領域画像142
のi行j列の画素とデジタル画像111のi行j列の画
素を各々独立した画像の画素として処理するためであ
る。もし物体領域画像142のi行j列の画素とデジタ
ル画像111のi行j列の画素が初めから分離されて入
力されていれば、特に何もしない。物体領域画像142
及びデジタル画像111は各々更新物体領域画像及び更
新デジタル画像にコピーされる。At step 2705, the object area image 142
And the pixel at the i-th row and the j-th column of the digital image 111 are separated. This is because AOU ij is the object area image 142
Of the i-th row and the j-th column of the digital image 111 are processed as pixels of the independent image. If the pixel of the i-th row and the j-th column of the object area image 142 and the pixel of the i-th row and the j-th column of the digital image 111 are separated and input from the beginning, nothing is performed. Object area image 142
And the digital image 111 are copied to the updated object area image and the updated digital image, respectively.
【0171】ステップ2706で、AOUijが近傍の配
列演算ユニット40と通信することにより、更新物体領
域画像の各帯域画素値に対して関数Rij1(x)に従い
移動量を計算する。移動量を画像化した帯域画素値は移
動量画像の帯域画素値として扱われる。In step 2706, the AOU ij communicates with the neighboring array operation unit 40 to calculate the movement amount for each band pixel value of the updated object region image according to the function R ij1 ( x ). The band pixel value obtained by imaging the movement amount is treated as a band pixel value of the movement amount image.
【0172】ステップ2707で、AOUijが近傍の配
列演算ユニット40と通信することにより、更新物体領
域画像の各帯域画素値に対して関数Hijk(x,y)に
従い移動可能な移動先帯域画素値を見つけることができ
る。移動可能な移動先であるかどうかを表す値は移動可
能画像の帯域画素値として扱われる。In step 2707, the AOU ij communicates with the neighboring array operation unit 40, and the destination band pixel that can move according to the function H ijk ( x , y ) for each band pixel value of the updated object region image. You can find the value. The value indicating whether the destination is a movable destination is treated as a band pixel value of the movable image.
【0173】ステップ2708で、AOUijが近傍の配
列演算ユニット40と通信することにより、更新物体領
域画像の各帯域画素値に対して関数Uijk(x,y)に
従い移動可能先に移動させる。移動した帯域画素値は新
たに更新物体領域画像の帯域画素値として扱われる。In step 2708, AOU ij communicates with the neighboring array operation unit 40 to move each band pixel value of the updated object region image to a movable destination according to the function U ijk ( x , y ). The shifted band pixel value is newly treated as a band pixel value of the updated object region image.
【0174】ステップ2709で、AOUijが近傍の配
列演算ユニット40と通信することにより、更新デジタ
ル画像の各帯域画素値に対して関数Uijk(x,y)に
従い移動可能先に移動させる。移動した帯域画素値は新
たに更新デジタル画像の帯域画素値として扱われる。In step 2709, the AOU ij communicates with the neighboring array operation unit 40 to move each band pixel value of the updated digital image to a movable destination according to the function U ijk ( x , y ). The shifted band pixel value is newly treated as a band pixel value of the updated digital image.
【0175】ステップ2710で、ステップ2706か
らステップ2709までの繰り返し回数を表す移動回数
が指定回数に達したかどうか判断する。もし移動回数が
指定回数に達していなければ(ステップ2710:N
O)、ステップ2706に戻る。もし移動回数が指定回
数に達していれば(ステップ2710:YES)、ステ
ップ2711に移行する。なおこの指定回数はデジタル
画像111のサイズやデジタル画像111の分離物体領
域143のサイズ、さらには近傍のサイズqにより決定
される。利用目的に応じて適切なパラメータを設定すれ
ば、指定回数を大目に決定しても問題はないが、あまり
指定回数を多くしすぎると、正規化に要する時間が長く
なる。In step 2710, it is determined whether or not the number of movements representing the number of repetitions from step 2706 to step 2709 has reached the designated number. If the number of times of movement has not reached the specified number of times (step 2710: N
O), returning to step 2706; If the number of times of movement has reached the specified number of times (step 2710: YES), the process moves to step 2711. The designated number is determined by the size of the digital image 111, the size of the separated object region 143 of the digital image 111, and the size q of the neighborhood. If appropriate parameters are set according to the purpose of use, it does not matter if the specified number is overestimated, but if the specified number is too large, the time required for normalization becomes longer.
【0176】ステップ2711で、AOUijが近傍の配
列演算ユニット40と通信することにより、移動を完了
した更新物体領域画像の各帯域画素値に対して関数V
ijk(x,y)に従い近傍の平均値で補間する。なおx
とyは共に更新物体領域画像となる。平均値で埋められ
た帯域画素値は正規化された更新物体領域画像の帯域画
素値として扱われる。In step 2711, AOU ij communicates with the neighboring array operation unit 40, and a function V is applied to each band pixel value of the updated object region image that has completed the movement.
According to ijk ( x , y ), interpolation is performed using the average value in the vicinity. Note that x
And y are both updated object region images. The band pixel value filled with the average value is treated as a band pixel value of the normalized updated object region image.
【0177】ステップ2712で、AOUijが近傍の配
列演算ユニット40と通信することにより、移動を完了
した更新デジタル画像の各帯域画素値に対して関数V
ijk(x,y)に従い近傍の平均値で埋める。なおxは
更新デジタル画像となり、yは更新物体領域画像とな
る。平均値で埋められた帯域画素値は正規化された更新
デジタル画像の帯域画素値として扱われる。At step 2712, AOU ij communicates with the neighboring array operation unit 40, and the function V is applied to each band pixel value of the updated digital image that has completed the movement.
Fill with the average value of the neighborhood according to ijk ( x , y ). Note that x is an updated digital image, and y is an updated object area image. The band pixel value filled with the average value is treated as a band pixel value of the normalized updated digital image.
【0178】ステップ2713で、ステップ2711か
らステップ2712までの繰り返し回数を表す補間回数
が指定回数に達したかどうか判断する。もし補間回数が
指定回数に達していなければ(ステップ2713:N
O)、ステップ2711に戻る。もし補間回数が指定回
数に達していれば(ステップ2713:YES)、ステ
ップ2714に移行する。一般的に補間回数は近傍サイ
ズqの半分程度の回数で十分である。In step 2713, it is determined whether or not the number of interpolations representing the number of repetitions from step 2711 to step 2712 has reached the designated number. If the number of interpolations has not reached the designated number (step 2713: N
O), and return to step 2711. If the number of times of interpolation has reached the designated number of times (step 2713: YES), the process moves to step 2714. Generally, the number of times of interpolation is about half of the neighborhood size q is sufficient.
【0179】ステップ2714で、ステップ2706か
らステップ2713までの繰り返し回数を表す継続回数
が指定回数に達したかどうか判断する。もし継続回数が
指定回数に達していなければ(ステップ2714:N
O)、ステップ2706に戻る。もし継続回数が指定回
数に達していれば(ステップ2714:YES)、ステ
ップ2715に移行する。なおこの指定回数はデジタル
画像111のサイズやデジタル画像111の分離物体領
域143のサイズ、さらには近傍のサイズqにより決定
される。利用目的に応じて適切なパラメータを設定すれ
ば、指定回数を大目に決定しても問題はないが、あまり
指定回数を多くしすぎると、正規化に要する時間が長く
なる。At step 2714, it is determined whether the number of continuations representing the number of repetitions from step 2706 to step 2713 has reached the designated number. If the continuation number has not reached the specified number (step 2714: N
O), returning to step 2706; If the continuation number has reached the specified number (step 2714: YES), the process moves to step 2715. The designated number is determined by the size of the digital image 111, the size of the separated object region 143 of the digital image 111, and the size q of the neighborhood. If appropriate parameters are set according to the purpose of use, it does not matter if the specified number is overestimated, but if the specified number is too large, the time required for normalization becomes longer.
【0180】ステップ2715で、更新デジタル画像の
帯域画素値を正規化画像145の帯域画素値として出力
する。その後ステップ2703に戻る。At step 2715, the band pixel value of the updated digital image is output as the band pixel value of the normalized image 145. Thereafter, the flow returns to step 2703.
【0181】これにより、配列演算ユニット40から構
成されるデータ処理装置110を用いて、領域正規化手
段27が物体領域画像142及びデジタル画像111か
ら正規化画像145を生成することができる。Thus, the area normalizing means 27 can generate the normalized image 145 from the object area image 142 and the digital image 111 using the data processing device 110 including the array operation unit 40.
【0182】図12に示すように、データ処理装置11
0によって実現される位置/大きさ検出手段17が粗エ
ッジ情報112を画素とする粗エッジ情報画像113か
ら重複情報131を画素とする重複情報画像132を生
成するために、格子状に配列された配列演算ユニット4
0は同期して並列に動作する。格子上i行j列に配置さ
れた配列演算ユニット40をAOUijとすると、AOU
ijのアルゴリズムは図13のようになる。As shown in FIG. 12, the data processing device 11
The position / size detection means 17 realized by 0 is arranged in a grid pattern in order to generate a duplicate information image 132 having pixels of the duplicate information 131 from the coarse edge information image 113 having the coarse edge information 112 as pixels. Array operation unit 4
0 operates synchronously and in parallel. If the array operation unit 40 arranged at the i-th row and the j-th column on the lattice is AOU ij , AOU ij
The algorithm of ij is as shown in FIG.
【0183】ステップ1701で、AOUijを格子上の
i行j列に配置する。これは論理的であれ物理的であ
れ、AOUijの近傍を決定するために必要である。At step 1701, AOU ij is arranged at the i-th row and the j-th column on the lattice. This is necessary to determine the neighborhood of AOU ij , whether logical or physical.
【0184】ステップ1702で、AOUijの近傍や変
数の初期値を設定する。近傍の設定においては、前記各
関数で使う近傍サイズqを個別に決めても良いし、全部
を統一しても良い。本発明のデータ処理装置110が生
成した重複情報画像132の正確さを上げるためには近
傍サイズqを全て大きな値に設定することが望ましい。
しかしながら物体の粗エッジ情報112の重心を計算す
るための計算時間の制約や、入力される粗エッジ情報画
像113のサイズなどにより、位置/大きさ検出手段1
7は必要に応じて適宜近傍サイズを変えることで対処す
ることができる。At step 1702, the neighborhood of AOU ij and initial values of variables are set. In the setting of the neighborhood, the neighborhood size q used in each of the functions may be determined individually, or all may be unified. In order to increase the accuracy of the duplicated information image 132 generated by the data processing device 110 of the present invention, it is desirable to set all the neighborhood sizes q to large values.
However, the position / size detecting means 1 depends on the calculation time for calculating the center of gravity of the rough edge information 112 of the object and the size of the input rough edge information image 113.
7 can be dealt with by changing the neighborhood size as needed.
【0185】ステップ1703で、順次入力される粗エ
ッジ情報画像113が無くなったかどうか判断する。も
し粗エッジ情報画像113が無ければ(ステップ170
3:YES)、アルゴリズムを終了する。もし粗エッジ
情報画像113があれば(ステップ1703:NO)、
ステップ1704に移行する。ただし特定の画像サイズ
のみに対して配列演算ユニット40を実装する場合に
は、無限ループにしても良い。At step 1703, it is determined whether or not the sequentially input rough edge information image 113 has disappeared. If there is no rough edge information image 113 (step 170)
3: YES), end the algorithm. If there is a rough edge information image 113 (step 1703: NO),
Move to step 1704. However, when the array operation unit 40 is implemented only for a specific image size, an infinite loop may be used.
【0186】ステップ1704で、粗エッジ情報画像1
13のi行j列の画素を1帯域分入力する。このためA
OUijは少なくとも1帯域分の画像データを記憶するメ
モリ42を必要とする。At step 1704, the rough edge information image 1
Thirteen pixels in row i and column j are input for one band. Therefore A
OU ij requires a memory 42 for storing at least one band of image data.
【0187】ステップ1705で、粗エッジ情報画像1
13の粗エッジ情報112を重複情報画像132の重複
情報131に変換する。重複情報131は1か0に相当
する帯域画素値となる。At step 1705, the rough edge information image 1
The 13 rough edge information 112 is converted into the overlap information 131 of the overlap information image 132. The overlap information 131 is a band pixel value corresponding to 1 or 0.
【0188】ステップ1706で、AOUijが近傍の配
列演算ユニット40と通信することにより、重複情報画
像132の各帯域画素値に対して関数Δij1(x)に従
い移動量を計算する。移動量を画像化した帯域画素値は
移動量画像の帯域画素値として扱われる。At step 1706, AOU ij communicates with the neighboring array operation unit 40 to calculate the amount of movement for each band pixel value of the overlap information image 132 according to the function Δ ij1 ( x ). The band pixel value obtained by imaging the movement amount is treated as a band pixel value of the movement amount image.
【0189】ステップ1707で、AOUijが近傍の配
列演算ユニット40と通信することにより、重複情報画
像132の各帯域画素値に対して関数Λij1(x)に従
い移動させる。移動した帯域画素値は新たに重複情報画
像132の帯域画素値として扱われる。At step 1707, AOU ij communicates with the neighboring array operation unit 40 to move each band pixel value of the overlapping information image 132 according to the function Λ ij1 ( x ). The shifted band pixel value is newly treated as a band pixel value of the overlapping information image 132.
【0190】ステップ1708で、ステップ1705か
らステップ1707までの繰り返し回数を表す移動回数
が指定回数に達したかどうか判断する。もし移動回数が
指定回数に達していなければ(ステップ1708:N
O)、ステップ1705に戻る。もし移動回数が指定回
数に達していれば(ステップ1708:YES)、ステ
ップ1709に移行する。なおこの指定回数は形成エッ
ジ情報画像115のサイズや形成エッジ情報114が表
す物体のサイズ、さらには近傍のサイズqにより決定さ
れる。利用目的に応じて適切なパラメータを設定すれ
ば、指定回数を大目に決定しても問題はないが、あまり
指定回数を多くしすぎると、位置及び大きさの検出に要
する時間が長くなる。At step 1708, it is determined whether or not the number of movements representing the number of repetitions from step 1705 to step 1707 has reached the designated number. If the number of times of movement has not reached the specified number of times (step 1708: N
O), returning to step 1705; If the number of times of movement has reached the specified number of times (step 1708: YES), the process moves to step 1709. Note that the designated number is determined by the size of the formed edge information image 115, the size of the object represented by the formed edge information 114, and the size q of the neighborhood. If appropriate parameters are set according to the purpose of use, it does not matter if the designated number is overestimated, but if the designated number is too large, the time required to detect the position and size increases.
【0191】ステップ1709で、AOUijが近傍の配
列演算ユニット40と通信することにより、重複情報画
像132の各帯域画素値に対して関数Δ’ij1(x)に
従い移動量を計算する。移動量を画像化した帯域画素値
は移動量画像の帯域画素値として扱われる。At step 1709, AOU ij communicates with the neighboring array operation unit 40 to calculate the movement amount for each band pixel value of the overlapping information image 132 according to the function Δ ′ ij1 ( x ). The band pixel value obtained by imaging the movement amount is treated as a band pixel value of the movement amount image.
【0192】ステップ1710で、AOUijが近傍の配
列演算ユニット40と通信することにより、重複情報画
像132の各帯域画素値に対して関数Λ’ij1(x)に
従い移動させる。移動した帯域画素値は新たに重複情報
画像132の帯域画素値として扱われる。At step 1710, AOU ij communicates with the neighboring array operation unit 40 to move each band pixel value of the overlap information image 132 according to the function Λ ′ ij1 ( x ). The shifted band pixel value is newly treated as a band pixel value of the overlapping information image 132.
【0193】ステップ1711で、重複情報画像132
の帯域画素値を出力する。その後ステップ1703に戻
る。At step 1711, the duplicate information image 132
Is output. Thereafter, the flow returns to step 1703.
【0194】なお重複情報画像132の各重複情報13
1はその位置を中心とした周辺にある粗エッジ情報11
2の総数を表すので、結果的にその位置を中心とした物
体の大きさを意味することになる。[0194] Each duplicate information 13 of the duplicate information image 132
1 is the coarse edge information 11 around the position
Since it represents the total number of 2, it means the size of the object centered on its position as a result.
【0195】これにより、配列演算ユニット40から構
成されるデータ処理装置110を用いて、位置/大きさ
検出手段17は粗エッジ情報画像113から重複情報画
像132を生成することができる。Thus, the position / size detecting means 17 can generate the overlapping information image 132 from the rough edge information image 113 by using the data processing device 110 including the array operation unit 40.
【0196】さて、ここまでは画像記憶手段12、エッ
ジ情報生成手段14、エッジ情報形成手段15、物体/
背景分離手段16、領域正規化手段27及び位置/大き
さ検出手段17のアルゴリズムを記述してきた。これら
の手段は全て近傍処理によって実現できるので、これら
の手段は格子状に配列した配列演算ユニット40から構
成されるデータ処理装置110を用いることができた。
しかしながら画像認識手段29を近傍処理のみで実現す
ることは困難である。そこで画像認識手段29におい
て、格子状に配列した配列演算ユニット40から構成さ
れるデータ処理装置110が利用できるかどうか検討す
るために、画像認識手段29の処理を詳しく分類する。The image storage means 12, the edge information generation means 14, the edge information formation means 15, the object /
The algorithm of the background separating means 16, the area normalizing means 27 and the position / size detecting means 17 has been described. Since all of these means can be realized by neighborhood processing, these means could use the data processing device 110 composed of the array operation units 40 arranged in a lattice.
However, it is difficult to realize the image recognizing means 29 only by the neighborhood processing. Therefore, in order to examine whether the data processing device 110 including the array operation units 40 arranged in a lattice pattern can be used in the image recognition unit 29, the processing of the image recognition unit 29 is classified in detail.
【0197】画像認識手段29では、正規化画像145
(図10参照)全体に渡って拡大された移動物体又は静
止物体を事前に用意された候補の中から特定し、認識結
果を生成することが求められる。移動物体又は静止物体
を特定する最も基本的な方法は、移動物体又は静止物体
のテンプレート画像146(図14参照)を可能な限り
多数用意して、正規化画像145をテンプレート画像1
46と比較することにより、正規化画像145に最も似
ているテンプレート画像146を見つけ出することであ
る。しかしながら画像認識手段29は、正規化画像14
5及びテンプレート画像146から任意の画素を抽出し
て比較しただけでは、正規化画像145に最も似ている
テンプレート画像146を見つけることができないの
で、正規化画像145及びテンプレート画像146の全
画素を比較する必要がある。そのため画像認識手段29
は最小自乗法やニューラルネットワークなどの大域処理
を必要とする。データ処理装置110は近傍処理に適し
た構造をしているので、データ処理装置110のみを用
いて画像認識手段29を実現することは難しい。In the image recognition means 29, the normalized image 145
(See FIG. 10) It is required to identify a moving object or a stationary object enlarged over the whole of the candidates prepared in advance and generate a recognition result. The most basic method for identifying a moving object or a stationary object is to prepare as many template images 146 (see FIG. 14) of the moving object or the stationary object as possible and to convert the normalized image 145 to the template image 1.
By comparing with 46, the template image 146 most similar to the normalized image 145 is found. However, the image recognizing means 29 uses the normalized image 14
Since the template image 146 most similar to the normalized image 145 cannot be found only by extracting and comparing arbitrary pixels from the template image 146 and the template image 146, all pixels of the normalized image 145 and the template image 146 are compared. There is a need to. Therefore, the image recognition means 29
Requires global processing such as least squares and neural networks. Since the data processing device 110 has a structure suitable for neighborhood processing, it is difficult to realize the image recognition unit 29 using only the data processing device 110.
【0198】ところで画像認識手段29は正規化画像1
45から認識結果を生成する過程全般に渡って大域処理
をする必要はない。つまり正規化画像145及びテンプ
レート画像146から任意の画素を抽出して比較した結
果から認識結果を生成する過程において画像認識手段2
9は大域処理を必要とするが、正規化画像145及びテ
ンプレート画像146から任意の画素を抽出して比較す
る過程において画像認識手段29は必ずしも大域処理を
必要としない。ここで正規化画像145及びテンプレー
ト画像146から任意の画素を抽出して比較する過程は
最も基本的なパターンマッチングとなるので、このパタ
ーンマッチングが近傍処理によって実現できれば、この
パターンマッチングの結果から認識結果を生成する過程
のみを、多数決など簡単な数値計算を実行する汎用プロ
セッサによって実現することができる。そこで以下で
は、データ処理装置110によってパターンマッチング
を実現する方法について説明する。By the way, the image recognizing means 29 outputs the normalized image 1
There is no need to perform global processing throughout the process of generating a recognition result from 45. That is, in the process of generating a recognition result from the result of extracting and comparing arbitrary pixels from the normalized image 145 and the template image 146, the image recognition unit 2
9 requires global processing, but in the process of extracting and comparing arbitrary pixels from the normalized image 145 and the template image 146, the image recognition means 29 does not necessarily require global processing. Here, the process of extracting and comparing arbitrary pixels from the normalized image 145 and the template image 146 is the most basic pattern matching. If this pattern matching can be realized by neighborhood processing, the recognition result is obtained from the result of the pattern matching. Can be realized by a general-purpose processor that executes a simple numerical calculation such as a majority decision. Therefore, a method of implementing pattern matching by the data processing device 110 will be described below.
【0199】まず正規化画像145をxとし、n個のテ
ンプレート画像146をy 1、y 2、、、y h、、、y nと
する。自然数gを用いると、マッチング結果画像147
のi行j列のマッチング結果δij1は、数式36に従っ
て正規化画像145及びテンプレート画像146のi行
j列の画素を比較し、正規化画像145の画素に最も似
ている画素を有するテンプレート画像146の番号を指
し示す。なおマッチング結果画像147は単帯域画像と
なるので、便宜上帯域数1の画像として取り扱うことに
する。したがってマッチング結果δij1の第3添字は1
となっている。[0199] First, the normalized image 145 and x, n pieces of template image 146 and y 1, y 2 ,,, y h ,,, y n. Using the natural number g, the matching result image 147
The matching result δ ij1 of the i-th row and the j-th column of the normalized image 145 is compared with the pixel of the i-th row and the j-th column of the template image 146 according to Expression 36. 146. Since the matching result image 147 is a single band image, it is handled as an image having one band for convenience. Therefore, the third subscript of the matching result δ ij1 is 1
It has become.
【0200】[0200]
【数36】 [Equation 36]
【0201】ここで数式36に従って生成されたマッチ
ング結果δij1はマッチング結果画像147全体におい
て必ずしも統一されていない。テンプレート画像146
が多数ある場合、マッチング結果画像147はむしろモ
ザイク状になる可能性が高い。そこでデータ処理装置1
10がマッチング結果δij1とそのq近傍内のマッチン
グ結果に対するヒストグラムを計算し、マッチング結果
δij1を収斂する方法を以下に示す。Here, the matching result δ ij1 generated according to Expression 36 is not necessarily unified in the entire matching result image 147. Template image 146
If there are many, the matching result image 147 is more likely to be mosaic. Therefore, the data processing device 1
A method 10 calculates a histogram for the matching result δ ij1 and the matching result in the vicinity of q, and converges the matching result δ ij1 will be described below.
【0202】任意の単帯域画像xがマッチング結果画像
147である場合、自然数g、実数uとvを用いると、
マッチング結果画像147は数式37及び38に従って
更新される。なおマッチング結果画像147は単帯域画
像となるので、便宜上帯域数1の画像として取り扱うこ
とにする。したがって関数Ψij1(x)の第3添字は1
となっている。When an arbitrary single-band image x is the matching result image 147, using a natural number g and real numbers u and v,
The matching result image 147 is updated according to Equations 37 and 38. Since the matching result image 147 is a single band image, it is handled as an image having one band for convenience. Therefore, the third subscript of the function Ψ ij1 ( x ) is 1
It has become.
【0203】[0203]
【数37】 (37)
【0204】[0204]
【数38】 (38)
【0205】マッチング結果画像147が変化しなくな
るまでデータ処理装置110が数式37及び38を繰り
返し計算することにより、マッチング結果画像147全
体のマッチング結果を収斂することができる。このとき
正規化画像145とテンプレート画像146の組み合わ
せにより、マッチング結果は次のように収斂する。もし
正規化画像145の約半分の画素が特定のテンプレート
画像146の画素に最も類似していれば、マッチング結
果画像147の殆んどのマッチング結果はこの特定のテ
ンプレート画像146の番号に収斂する。しかしながら
正規化画像145の幾つかの画素の塊が幾つかの異なる
テンプレート画像146の画素の塊と類似していれば、
マッチング結果画像147には0で囲まれた幾つかのテ
ンプレート画像146の番号の塊ができる。さらに正規
化画像145がテンプレート画像146の集合と相関が
なければ、マッチング結果画像147のマッチング結果
は殆んど0となる。したがってデータ処理装置110に
よって実現されるパターンマッチングは、正規化画像1
45に最も似ているテンプレート画像146を特定する
ことは難しいが、テンプレート画像146の中から幾つ
かの似ているテンプレート画像146を選択することが
できると考えられる。そこでパターンマッチングの結果
から認識結果を生成する過程では、パターンマッチング
によって生成されたマッチング結果画像147が列挙す
るテンプレート画像146の類似候補の中から、最も有
力な候補1つを選択するだけで良い。The data processing apparatus 110 repeatedly calculates Equations 37 and 38 until the matching result image 147 no longer changes, so that the matching result of the entire matching result image 147 can be converged. At this time, the matching result converges as follows by the combination of the normalized image 145 and the template image 146. If about half of the pixels in the normalized image 145 are most similar to the pixels in the particular template image 146, most of the matching results in the matching result image 147 will converge to this particular template image 146 number. However, if some clusters of pixels in the normalized image 145 are similar to clusters of pixels in several different template images 146, then
In the matching result image 147, clusters of numbers of several template images 146 surrounded by 0 are formed. Further, if the normalized image 145 has no correlation with the set of template images 146, the matching result of the matching result image 147 becomes almost zero. Therefore, the pattern matching realized by the data processing device 110 is based on the normalized image 1
Although it is difficult to specify the template image 146 most similar to 45, it is considered that some similar template images 146 can be selected from the template images 146. Therefore, in the process of generating the recognition result from the result of the pattern matching, it is only necessary to select one of the most influential candidates from the similar candidates of the template images 146 enumerated by the matching result image 147 generated by the pattern matching.
【0206】図14に示すように、データ処理装置11
0によって実現されるパターンマッチングが、テンプレ
ート画像146のうち正規化画像145に最も似ている
画像の番号を示すマッチング結果から構成されるマッチ
ング結果画像147を生成するために、格子状に配列さ
れた配列演算ユニット40は同期して並列に動作する。
格子上i行j列に配置された配列演算ユニット40をA
OUijとすると、AOUijのアルゴリズムは図15のよ
うになる。[0206] As shown in FIG.
The pattern matching realized by 0 is arranged in a lattice pattern to generate a matching result image 147 including a matching result indicating the number of the image most similar to the normalized image 145 among the template images 146. The array operation units 40 operate synchronously and in parallel.
The array operation unit 40 arranged at i-th row and j-th column on the
If OU ij is used, the algorithm of AOU ij is as shown in FIG.
【0207】ステップ2901で、AOUijを格子上の
i行j列に配置する。これは論理的であれ物理的であ
れ、AOUijの近傍を決定するために必要である。At step 2901, AOU ij is arranged at the i-th row and the j-th column on the lattice. This is necessary to determine the neighborhood of AOU ij , whether logical or physical.
【0208】ステップ2902で、AOUijの近傍や変
数の初期値を設定する。近傍の設定においては、前記各
関数で使う近傍サイズqを個別に決めても良いし、全部
を統一しても良い。本発明のデータ処理装置110が生
成したマッチング結果画像147の正確さを上げるため
には近傍サイズqを全て大きな値に設定することが望ま
しい。しかしながらマッチング結果を更新するための計
算時間の制約や、入力される正規化画像145のサイズ
などにより、パターンマッチングは必要に応じて適宜近
傍サイズを変えることで対処することができる。At step 2902, the neighborhood of AOU ij and initial values of variables are set. In the setting of the neighborhood, the neighborhood size q used in each of the functions may be determined individually, or all may be unified. In order to increase the accuracy of the matching result image 147 generated by the data processing device 110 of the present invention, it is desirable to set all the neighborhood sizes q to large values. However, the pattern matching can be dealt with by appropriately changing the neighborhood size as necessary, due to restrictions on the calculation time for updating the matching result, the size of the input normalized image 145, and the like.
【0209】ステップ2903で、順次入力されるテン
プレート画像146が無くなったかどうか判断する。も
しテンプレート画像146が無ければ(ステップ290
3:YES)、ステップ2905に移行する。もしテン
プレート画像146があれば(ステップ2903:N
O)、ステップ2904に移行する。At step 2903, it is determined whether or not the template images 146 sequentially inputted have disappeared. If there is no template image 146 (step 290)
3: YES), proceed to step 2905. If there is a template image 146 (step 2903: N
O), proceed to step 2904.
【0210】ステップ2904で、テンプレート画像1
46のi行j列の画素を帯域数分入力する。このためA
OUijは少なくとも帯域数とテンプレート画像146の
数を掛けた分の画像データを記憶するメモリ42を必要
とする。その後ステップ2903に戻る。At step 2904, template image 1
Forty-six pixels in row i and column j are input for the number of bands. Therefore A
OU ij requires a memory 42 for storing at least image data obtained by multiplying the number of bands by the number of template images 146. Thereafter, the flow returns to step 2903.
【0211】ステップ2905で、順次入力される正規
化画像145が無くなったかどうか判断する。もし正規
化画像145が無ければ(ステップ2905:YE
S)、アルゴリズムを終了する。もし正規化画像145
があれば(ステップ2905:NO)、ステップ290
6に移行する。ただし特定の画像サイズのみに対して配
列演算ユニット40を実装する場合には、無限ループに
しても良い。At step 2905, it is determined whether or not the normalized image 145 sequentially inputted has disappeared. If there is no normalized image 145 (step 2905: YE
S), end the algorithm. If the normalized image 145
If there is (step 2905: NO), step 290
Move to 6. However, when the array operation unit 40 is implemented only for a specific image size, an infinite loop may be used.
【0212】ステップ2906で、正規化画像145の
i行j列の画素を帯域数分入力する。このためAOUij
は少なくとも帯域数分の画像データを記憶するメモリ4
2を必要とする。At step 2906, the pixels of the i-th row and the j-th column of the normalized image 145 are inputted for the number of bands. Therefore, AOU ij
Is a memory 4 for storing image data of at least the number of bands.
2 required.
【0213】ステップ2907で、正規化画像145と
テンプレート画像146からマッチング結果画像147
のマッチング結果δij1を計算する。マッチング結果は
正規化画像145に最も近いテンプレート画像146の
番号を表す帯域画素値となる。At step 2907, a matching result image 147 is obtained from the normalized image 145 and the template image 146.
Δ ij1 is calculated. The matching result is a band pixel value indicating the number of the template image 146 closest to the normalized image 145.
【0214】ステップ2908で、AOUijが近傍の配
列演算ユニット40と通信することにより、マッチング
結果画像147の各帯域画素値に対して関数Ψ
ij1(x)に従いマッチング結果を更新する。更新され
た帯域画素値は再びマッチング結果画像147の帯域画
素値として扱われる。ここで関数Ψij1(x)は本来マ
ッチング結果画像147の帯域画素値が変化しなくなる
まで繰り返される。ただし計算時間の制約、入力される
正規化画像145の品質、更新されたマッチング結果画
像147に求められる品質などにより、更新処理は適当
な繰り返し回数で計算を打ち切った方が良い。At step 2908, AOU ij communicates with the neighboring array operation unit 40, and the function Ψ is applied to each band pixel value of the matching result image 147.
Update the matching result according to ij1 ( x ). The updated band pixel value is treated as a band pixel value of the matching result image 147 again. Here, the function Ψ ij1 ( x ) is repeated until the band pixel value of the matching result image 147 no longer changes. However, it is better to terminate the update process at an appropriate number of repetitions due to the restrictions on the calculation time, the quality of the input normalized image 145, the quality required for the updated matching result image 147, and the like.
【0215】ステップ2909で、マッチング結果画像
147の帯域画素値を出力する。その後ステップ290
5に戻る。At step 2909, the band pixel value of the matching result image 147 is output. Then step 290
Return to 5.
【0216】これにより、配列演算ユニット40から構
成されるデータ処理装置110を用いて、画像認識手段
29中のパターンマッチングは正規化画像145からマ
ッチング結果画像147を生成することができる。Thus, the pattern matching in the image recognizing means 29 can generate a matching result image 147 from the normalized image 145 by using the data processing device 110 including the array operation unit 40.
【0217】ここまでは配列演算ユニット40から構成
されるデータ処理装置110を用いて、近傍処理のみか
らなる画像処理を行う方法について説明してきた。以下
では配列演算ユニット40から構成されるデータ処理装
置110を用いて、近傍処理のみで物体/背景分離手段
16について説明する。Up to this point, a method of performing image processing including only neighborhood processing using the data processing device 110 including the array operation unit 40 has been described. Hereinafter, the object / background separation unit 16 will be described using only the neighborhood processing using the data processing device 110 including the array operation unit 40.
【0218】まず非線形振動子は一般に引き込み現象を
起こす。この引き込み現象とは、リミットサイクルやア
トラクタなどのような周期的挙動において、異なる周期
を持つ非線形振動子が相互作用して簡単な定数比の周期
で振動するよう制約される現象である。このとき1つの
非線形振動子の振動を変化させると他の非線形振動子の
振動も合わせて変化するので、これらの非線形振動子は
同期している。しかも非線形振動子の相互作用を調整す
ることにより、お互いの振動の位相差を極力小さくさせ
たり大きくさせたりできる。そこでこの相互作用を操作
すると、非線形振動子の一群を、異なる位相を持つ複数
のグループに分割することができる。物体/背景分離手
段16はこのような非線形振動子の引き込み現象を利用
して、エッジ情報画像中のエッジ情報を境界とするよう
に物体と背景を分離して、物体領域141を表す物体領
域画像142を生成する。なお、ここでは非線形振動子
としてファン・デル・ポールを用いた場合を例に説明す
る。First, a nonlinear oscillator generally causes a pull-in phenomenon. The pull-in phenomenon is a phenomenon in which nonlinear oscillators having different periods interact with each other in a periodic behavior such as a limit cycle or an attractor so that they are restricted so as to oscillate at a period of a simple constant ratio. At this time, when the vibration of one nonlinear vibrator is changed, the vibrations of the other nonlinear vibrators also change, so that these nonlinear vibrators are synchronized. In addition, by adjusting the interaction of the nonlinear oscillators, the phase difference between the vibrations can be made as small or large as possible. By manipulating this interaction, a group of nonlinear oscillators can be divided into a plurality of groups having different phases. The object / background separation means 16 uses such a nonlinear oscillator pull-in phenomenon to separate the object and the background so that the edge information in the edge information image is used as a boundary, and an object area image representing the object area 141. 142 is generated. Here, a case where Van der Pol is used as the nonlinear oscillator will be described as an example.
【0219】まず、格子状に配列した非線形振動子から
構成される非線形振動子ネットワークにおいて、i行j
列にある非線形振動子をωijとすると、非線形振動子ω
ijのq近傍にある非線形振動子の集合Ωij(q)は数式
39によって表される。ただしqは4、8、24、4
8、80、120、(2r+1)2−1と続く数列であ
り、rは自然数である。なおネットワークサイズをはみ
出した非線形振動子が近傍集合Ωij(q)に含まれる場
合には、非線形振動子ωijを代用するものとする。これ
により辺縁処理は自動的に行われる。したがって近傍集
合Ωij(q)の要素の数は常にqとなる。なおこのこと
から判る通り、非線形振動子ネットワークは単帯域画像
と同じ扱いになる。表現を簡単にするため、非線形振動
子ネットワークでは添字は幅方向と高さ方向の2つのみ
を使う。First, in a non-linear oscillator network composed of non-linear oscillators arranged in a lattice, i-th row j
Assuming that the nonlinear oscillator in the column is ω ij , the nonlinear oscillator ω
The set Ω ij (q) of non-linear oscillators near q of ij is represented by Expression 39. Where q is 4, 8, 24, 4
It is a sequence of numbers that follows 8, 80, 120, (2r + 1) 2 -1, and r is a natural number. When a nonlinear oscillator that exceeds the network size is included in the neighborhood set Ω ij (q), the nonlinear oscillator ω ij is substituted. Thereby, the edge processing is automatically performed. Therefore, the number of elements of the neighborhood set Ω ij (q) is always q. As can be seen from this, the nonlinear oscillator network is treated the same as a single-band image. For simplicity of expression, in the nonlinear oscillator network, only two subscripts are used: the width direction and the height direction.
【0220】[0220]
【数39】 [Equation 39]
【0221】次に、非線形振動子はqa近傍に含まれる
近傍集合Ωij(qa)にある非線形振動子との間で数式
40に従い計算される結合値τijklによって結合され
る。なお対数表を用いない場合には数式41による近似
も可能である。またμ、νは適当な正の定数である。[0221] Next, the nonlinear oscillator is coupled by a coupling value tau ijkl which are calculated in accordance with Equation 40 with the nonlinear oscillators in a neighbor set Ω ij (q a) contained in the vicinity of q a. When the logarithmic table is not used, approximation by Expression 41 is also possible. Μ and ν are appropriate positive constants.
【0222】[0222]
【数40】 (Equation 40)
【0223】[0223]
【数41】 [Equation 41]
【0224】非線形振動子ネットワークの全ての非線形
振動子が完全に同位相で同期した場合、プロセッサ41
で計算する限り、非線形振動子ωijは永久に同位相のま
ま動作し続けてしまう。そこで外乱ρijを与えればこの
ような状態を回避することができる。外乱としては疑似
乱数を用いることもできるが、数式42のような簡単な
式で求めても十分である。なおζijはエッジ情報画像の
i行j列のエッジ情報の有無を表す。エッジ情報があれ
ば1とし、なければ0とする。またκは適当な正の定数
である。If all the non-linear oscillators of the non-linear oscillator network are completely synchronized in phase, the processor 41
As long as the calculation is made, the nonlinear oscillator ω ij continues to operate forever with the same phase. Therefore, if a disturbance ρ ij is given, such a state can be avoided. Although a pseudo random number can be used as the disturbance, a simple expression such as Expression 42 is sufficient. Note that ζ ij represents the presence / absence of edge information on the i-th row and the j-th column of the edge information image. If there is edge information, it is set to 1, otherwise 0. Κ is an appropriate positive constant.
【0225】[0225]
【数42】 (Equation 42)
【0226】非線形振動子ωijが近傍集合Ωij(qa)
の非線形振動子ωklと同期するために、数式43に従い
近傍入力合計σijを計算する。When the nonlinear oscillator ω ij is in the neighborhood set Ω ij (q a )
In order to synchronize with the nonlinear oscillator ω kl , the neighboring input sum σ ij is calculated in accordance with Expression 43.
【0227】[0227]
【数43】 [Equation 43]
【0228】ファン・デル・ポール非線形振動子ωijを
構成する2つのパラメータφijとψ ijは数式44及び4
5に従って計算される。なおγ、εは適当な正の定数で
ある。The Van der Pol nonlinear oscillator ωijTo
Two parameters φ to configureijAnd ψ ijEquations 44 and 4
Calculated according to 5. Note that γ and ε are appropriate positive constants
is there.
【0229】[0229]
【数44】 [Equation 44]
【0230】[0230]
【数45】 [Equation 45]
【0231】非線形振動子を物体領域141と背景領域
に分離するためには全ての非線形振動子の位相のずれを
計算する必要があるが、単純に物体領域141と背景領
域の2つに分離するだけであるので、パラメータψijが
しきい値θ以上か未満かで位相ずれを計算する。物体領
域141と背景領域を分離した結果を出力する出力λ ij
は数式46によって求められる。なおθは適当な正の定
数である。[0231] The non-linear oscillator is divided into the object area 141 and the background area.
In order to separate the nonlinear oscillator into
It is necessary to calculate, but simply the object area 141 and the background area
Since only the two regions are separated, the parameter ψijBut
The phase shift is calculated based on the threshold value θ or more. Object area
Output λ that outputs the result of separating the area 141 from the background area ij
Is obtained by Expression 46. Θ is an appropriate positive constant
Is a number.
【0232】[0232]
【数46】 [Equation 46]
【0233】エッジ情報が物体と背景を分離するのに不
十分であった場合にはエッジ情報を補間しなければなら
ない。そのために非線形振動子ωijのqb近傍にある非
線形振動子の集合Ωij(qb)中でいくつの非線形振動
子が位相ずれを起こしているか求める必要がある。そこ
で数式47によって輪郭パラメータηijを計算する。If the edge information is not enough to separate the object from the background, the edge information must be interpolated. For this purpose, it is necessary to find out how many non-linear oscillators are out of phase in the set of non-linear oscillators Ω ij (q b ) near q b of the non-linear oscillator ω ij . Therefore, the contour parameter η ij is calculated by Expression 47.
【0234】[0234]
【数47】 [Equation 47]
【0235】この結果を基にエッジ情報の補間割合を示
す境界パラメータξijを数式48によって計算する。な
おα、β、ηmin、ηmaxは適当な正の定数である。Based on the result, the boundary parameter ij ij indicating the interpolation ratio of the edge information is calculated by Expression 48. Note that α, β, η min , and η max are appropriate positive constants.
【0236】[0236]
【数48】 [Equation 48]
【0237】ここでは非線形振動子としてファン・デル
・ポールの場合を説明したが、この他にブラッセレータ
のようなリミットサイクルで安定する非線形振動子や、
ローレンツアトラクタやレスラー方程式のアトラクタを
発生するカオス振動子など、引き込み現象を起こす任意
の非線形振動子でも動作可能である。その場合はパラメ
ータφijとψijを各々の非線形振動子のパラメータで置
き換えるなり追加すれば良い。その際に適当なパラメー
タに近傍入力合計σijと外乱ρijを加えるだけである。
但し、カオス振動子の場合には特に外乱ρijを必要とし
ない。Here, the case of van der Pol as a nonlinear oscillator has been described. In addition, a nonlinear oscillator that is stable in a limit cycle such as a brasserator,
Any non-linear oscillator that causes a pull-in phenomenon, such as a chaotic oscillator that generates a Lorenz attractor or a wrestler equation attractor, can be operated. In this case, the parameters φ ij and ij ij may be replaced or added with the parameters of the respective nonlinear oscillators. At that time, it is only necessary to add the neighborhood input sum σ ij and the disturbance ρ ij to appropriate parameters.
However, in the case of a chaotic oscillator, no disturbance ρ ij is required.
【0238】数式39から数式48までを用いることに
より、物体/背景分離手段16を実装することができる
データ処理装置110の全ての配列演算ユニット40の
アルゴリズムを記述することができる。以下では、デー
タ処理装置110中の任意の配列演算ユニット40のア
ルゴリズムを用いて、物体/背景分離手段16について
説明する。By using Expressions 39 to 48, it is possible to describe the algorithms of all the array operation units 40 of the data processing device 110 on which the object / background separation means 16 can be mounted. Hereinafter, the object / background separation unit 16 will be described using an algorithm of an arbitrary array operation unit 40 in the data processing device 110.
【0239】図16に示すように、データ処理装置11
0によって実現される物体/背景分離手段16が、三角
形のエッジ情報151を用いて三角形の内側領域152
と三角形の外側領域153に分離するために、格子状に
配列された配列演算ユニット40は同期して並列に動作
する。格子上i行j列に配置された配列演算ユニット4
0をAOUijとすると、AOUijのアルゴリズムは図1
7のようになる。[0239] As shown in FIG.
0, the object / background separation means 16 uses the triangle edge information 151
The array operation units 40 arranged in a lattice form operate synchronously and in parallel in order to separate the data into the outer region 153 of the triangle. Array operation unit 4 arranged at i row and j column on the lattice
If AOU ij is 0, the algorithm of AOU ij is shown in FIG.
It looks like 7.
【0240】ステップ1601で、AOUijを格子上の
i行j列に配置する。At step 1601, AOU ij is arranged at the i-th row and the j-th column on the grid.
【0241】ステップ1602で、数式40及び41に
基づいて近傍同士ωijとωklを結合値τijklで接続す
る。At step 1602, the neighbors ω ij and ω kl are connected by a joint value τ ijkl based on equations 40 and 41.
【0242】ステップ1603で、非線形振動子のパラ
メータφijとψijに適当な初期値を設定する。In step 1603, appropriate initial values are set for the parameters φ ij and ψ ij of the nonlinear oscillator.
【0243】ステップ1604で、順次入力される形成
エッジ情報画像115が無くなったかどうか判断する。
もし形成エッジ情報画像115が無ければ(ステップ1
604:YES)、アルゴリズムを終了する。もし形成
エッジ情報画像115があれば(ステップ1604:N
O)、ステップ1605に移行する。ただし特定の帯域
数及び画像サイズのみに対して配列演算ユニット40を
実装する場合には、無限ループにしても良い。In step 1604, it is determined whether or not there is no formed edge information image 115 input sequentially.
If there is no formed edge information image 115 (step 1
604: YES), end the algorithm. If the formed edge information image 115 exists (step 1604: N
O), proceed to step 1605; However, when the array operation unit 40 is implemented only for a specific number of bands and an image size, an infinite loop may be used.
【0244】ステップ1605で、形成エッジ情報11
4のζijを入力する。At step 1605, the formed edge information 11
Input ζ ij of 4.
【0245】ステップ1606で、直前に入力した形成
エッジ情報114のζijから数式42に従って外乱ρij
を計算する。In step 1606, a disturbance ρ ij is obtained from ζ ij of the formed edge information 114 input immediately before according to the equation (42).
Is calculated.
【0246】ステップ1607で、近傍集合Ω
ij(qa)中の非線形振動子ωklがある配列演算ユニッ
ト40のAOUklからζkl、ξkl、ψklを入力して、合
計値σijを数式43に従って計算する。In step 1607, the neighborhood set Ω
ζ kl , ξ kl , ψ kl are input from AOU kl of the array operation unit 40 where the nonlinear oscillator ω kl in ij (q a ) is located, and the total value σ ij is calculated in accordance with Equation 43.
【0247】ステップ1608で、非線形振動子のパラ
メータφij、ψijを数式44及び45に従って計算す
る。即ち、これらの数式に示す微分方程式をルンゲ・ク
ッタ法で解く。In step 1608, the parameters φ ij and ψ ij of the nonlinear oscillator are calculated according to equations (44) and (45). That is, the differential equations shown in these equations are solved by the Runge-Kutta method.
【0248】ステップ1609で、非線形振動子の出力
λijを数式46に従って計算する。ここで、ψij≧θで
あればλij=1とし、それ以外であればλij=0とす
る。At step 1609, the output λ ij of the non-linear oscillator is calculated according to equation (46). Here, λ ij = 1 if ψ ij ≧ θ, and λ ij = 0 otherwise.
【0249】ステップ1610で、近傍集合Ω
ij(qb)中の非線形振動子ωklがある配列演算ユニッ
ト40のAOUklからλklを入力して、輪郭パラメータ
ηijを数式47に従って計算する。At step 1610, the neighborhood set Ω
λ kl is input from AOU kl of the array operation unit 40 where the non-linear oscillator ω kl in ij (q b ) is located, and the contour parameter η ij is calculated according to Equation 47.
【0250】ステップ1611で、境界パラメータξij
を数式48に従って計算する。即ち、この数式に示す微
分方程式を差分法若しくはルンゲ・クッタ法で解く。At step 1611, the boundary parameter ξ ij
Is calculated according to Equation 48. That is, the differential equation represented by this equation is solved by the difference method or the Runge-Kutta method.
【0251】ステップ1612で、ステップ1606か
らステップ1611までの繰り返し回数を表す分離回数
が指定回数に達したかどうか判断する。もし分離回数が
指定回数に達していなければ(ステップ1612:N
O)、ステップ1606に戻る。もし分離回数が指定回
数に達していれば(ステップ1612:YES)、ステ
ップ1613に移行する。At step 1612, it is determined whether or not the number of separations representing the number of repetitions from step 1606 to step 1611 has reached the designated number. If the number of separations has not reached the specified number of times (step 1612: N
O), returning to step 1606; If the number of separations has reached the specified number of times (step 1612: YES), the flow shifts to step 1613.
【0252】ステップ1613で、物体領域画像142
の帯域画素値となる非線形振動子の出力λijを出力す
る。その後ステップ1604に戻る。At step 1613, the object area image 142
The output λ ij of the non-linear oscillator having the pixel value of the band is output. Thereafter, the flow returns to step 1604.
【0253】なおステップ1612での分離回数を求め
るには、次のような方法を用いることができる。物体/
背景分離手段16では、画像サイズが一定であれば非線
形振動子の初期状態に関わらずおおよそ全ての形成エッ
ジ情報114においてある一定時間で分離が終了するの
で、事前にこの時間を計っておいてステップ1606か
らステップ1611までの繰り返し回数を求めておけば
良い。これは非線形振動子の初期状態が一定の範囲内に
あれば、引き込み現象により非線形振動子が同期するま
での時間はあまり大差がないからである。The following method can be used to determine the number of separations in step 1612. object/
In the background separating means 16, if the image size is constant, the separation ends in a certain fixed time in almost all formed edge information 114 regardless of the initial state of the nonlinear oscillator. The number of repetitions from 1606 to step 1611 may be obtained. This is because if the initial state of the nonlinear oscillator is within a certain range, there is not much difference in the time until the nonlinear oscillator is synchronized by the pull-in phenomenon.
【0254】このように非線形振動子を計算するだけ
で、三角形のエッジ情報151を用いて三角形の内側領
域152と三角形の外側領域153を分離することがで
きるのは、非線形振動子の性質である引き込み現象を利
用しているからである。つまり、2つの非線形振動子を
正の結合値で結合した場合は同位相になろうとし、負の
結合値で結合した場合は位相差が極力大きくなろうとす
る。この性質を用いると、格子状に並んだ非線形振動子
を近傍同士正の結合値で結合することで、直接結合して
いない非線形振動子同士が同位相になる。さらに形成エ
ッジ情報114を挟む画素の場所にある非線形振動子同
士を負の結合値で結合すると、エッジ情報の両側がお互
いに位相を極力ずらし合う。このようにすることで、全
ての非線形振動子を結合することもなく三角形のエッジ
情報151の内側と外側とで各々異なる位相集合ができ
る。したがって物体/背景分離手段16は図16のよう
な三角形の内側領域152と三角形の外側領域153に
分離する。このとき三角形の内側領域152と三角形の
外側領域153の位相差は90度を越えて可能な限り1
80度に近づき、三角形と背景領域が分離できる。It is a property of the nonlinear oscillator that it is possible to separate the inner region 152 of the triangle and the outer region 153 of the triangle using the edge information 151 of the triangle only by calculating the nonlinear oscillator. This is because the pull-in phenomenon is used. That is, when two nonlinear oscillators are coupled with a positive coupling value, they tend to be in phase, and when coupled with a negative coupling value, the phase difference tends to be as large as possible. When this property is used, nonlinear oscillators that are not directly coupled to each other have the same phase by coupling the nonlinear oscillators arranged in a lattice with neighboring components with a positive coupling value. Further, when the nonlinear oscillators located at the pixels sandwiching the formed edge information 114 are connected with each other with a negative connection value, both sides of the edge information are shifted from each other in phase as much as possible. In this way, different sets of phases can be formed on the inside and outside of the triangular edge information 151 without connecting all the nonlinear oscillators. Therefore, the object / background separation means 16 separates the object into a triangular inner area 152 and a triangular outer area 153 as shown in FIG. At this time, the phase difference between the inner region 152 of the triangle and the outer region 153 of the triangle exceeds 90 degrees and is as small as possible 1
As it approaches 80 degrees, the triangle and the background area can be separated.
【0255】ここで重要なことは、本実施形態では、形
成エッジ情報114が得られる度に次に示すような方法
で結合値を擬似的に変更していることである。まず数式
40及び41で定めたように、非線形振動子ωklを非線
形振動子ωijに結合するための結合値をτijklとする
(ステップ1602参照)。形成エッジ情報114のう
ちζijとζklは共に、エッジがある場合には1、ない場
合には0である。形成エッジ情報114のうちζijとζ
klを入力したら(ステップ1605参照)、配列演算ユ
ニット40のAOUklからAOUijに形成エッジ情報1
14ζklが転送され、AOUijでは結合値τijkl(1−
ζkl)を計算して結合値τijklの代用とする(ステップ
1607参照)。この代用された結合値τijkl(1−ζ
kl)に対して境界パラメータξijが0から1までの倍率
として作用する(ステップ1607参照)。What is important here is that, in the present embodiment, each time the formed edge information 114 is obtained, the connection value is changed in a pseudo manner by the following method. First, as determined by Equations 40 and 41, a coupling value for coupling the nonlinear oscillator ω kl to the nonlinear oscillator ω ij is set to τ ijkl (see Step 1602). Both ζ ij and ζ kl of the formed edge information 114 are 1 when there is an edge and 0 when there is no edge. Ζ ij and ζ in the formed edge information 114
When kl is input (see step 1605), the formation edge information 1 is transferred from AOU kl to AOU ij of the array operation unit 40.
14Zeta kl is transferred, AOU ij in binding value tau ijkl (1-
ζ kl ) is calculated and used as a substitute for the joint value τ ijkl (see step 1607). The substitute value τ ijkl (1-ζ
kl ), the boundary parameter ij ij acts as a scaling factor from 0 to 1 (see step 1607).
【0256】図18に示す通り、形成エッジ情報114
が破線状態の三角形のエッジ情報154となった場合に
は破線の補間をする必要がある。まず初めに破線状態の
三角形のエッジ情報154を用いてシステムを動作させ
る(ステップ1605参照)と、破線状態の三角形のエ
ッジ情報154の内側と外側で位相差がおよそ90度を
越えるようになるが、三角形の内側と外側の境界部分は
不明確である。そこで各AOUijが非線形振動子の出力
λijを計算する(ステップ1609参照)。この出力λ
ijが1の場合、近傍の非線形振動子のうちλklが1であ
る非線形振動子をωklとすると、パラメータψijとψkl
が共にθ以上となる。つまりλijとλklはおよそ同位相
であり、θが正値であれば最悪でも位相差が90度を越
えることはない。この位相差の最大値はθの値によって
決まり、λijとλklが共に1となる範囲でθを大きくし
ていくと、この位相差は0度に近づいていく。したがっ
てλijとλklと用いると、近傍の非線形振動子うちおよ
そ同位相であるものの数を表す輪郭パラメータηijは数
式47に従って計算される(ステップ1610参照)。
続いてこの輪郭パラメータηijが近傍全体のうち、およ
そ半分であれば結合値の倍率である境界パラメータξij
を数式48に従って減少させ、それ以外であれば数式4
8に従って増加させる(ステップ1611参照)。例え
ば、8近傍の場合は3から5の間であれば数式48に従
って境界パラメータを減少させるとよい。この過程を繰
り返し動作させ続けると、図18に示す破線状態の三角
形のエッジ情報154が与えられた場合、破線三角形の
内側領域155と破線三角形の外側領域156に分離さ
れる。As shown in FIG. 18, the formed edge information 114
Becomes the triangle edge information 154 in a broken line state, it is necessary to interpolate the broken line. First, when the system is operated using the edge information 154 of the dashed triangle (see step 1605), the phase difference between the inside and the outside of the edge information 154 of the dashed triangle exceeds about 90 degrees. The boundary between the inside and outside of the triangle is unclear. Therefore, each AOU ij calculates the output λ ij of the nonlinear oscillator (see step 1609). This output λ
If ij is 1, let ω kl be the nonlinear oscillator of which λ kl is 1 among the nearby nonlinear oscillators, and let the parameters ψ ij and ψ kl
Are both equal to or greater than θ. That is, λ ij and λ kl are approximately in phase, and the phase difference does not exceed 90 degrees at worst if θ is a positive value. The maximum value of this phase difference is determined by the value of θ, and when θ is increased in a range where both λ ij and λ kl are 1, this phase difference approaches 0 degree. Therefore, when λ ij and λ kl are used, the contour parameter η ij representing the number of neighboring non-linear oscillators having approximately the same phase is calculated according to Equation 47 (see step 1610).
Subsequently, if the contour parameter η ij is approximately half of the entire neighborhood, the boundary parameter ξ ij which is the magnification of the joint value
Is reduced according to Equation 48, otherwise Equation 4
8 (see step 1611). For example, in the case of the vicinity of 8, if the value is between 3 and 5, the boundary parameter may be reduced according to Expression 48. When this process is repeatedly performed, when the edge information 154 of the dashed triangle shown in FIG. 18 is given, the process is separated into the inner region 155 of the dashed triangle and the outer region 156 of the dashed triangle.
【0257】図19に示す通り、2つの三角形が重なり
あっている場合は、前方の三角形のエッジ情報157と
後方の三角形のエッジ情報158が得られる。このとき
前方三角形の内側領域159と後方三角形の内側領域1
60と二重三角形の背景領域161の3つの領域の非線
形振動子の位相がお互いにずれることにより、3つの領
域に分離される。また図20に示す通り、2つの重なっ
た円形のエッジ情報162が破線であっても、前方円形
の内側領域163と後方円形の内側領域164と二重円
の背景領域165の3つに分離される。As shown in FIG. 19, when two triangles overlap each other, edge information 157 of the front triangle and edge information 158 of the rear triangle are obtained. At this time, the inside area 159 of the front triangle and the inside area 1 of the back triangle
The non-linear oscillators in the three regions 60 and the double triangular background region 161 are separated from each other by shifting the phase of each other. Also, as shown in FIG. 20, even if the two overlapping circular edge information 162 are broken lines, they are separated into three parts: a front circular inner area 163, a rear circular inner area 164, and a double circular background area 165. You.
【0258】これにより、配列演算ユニット40から構
成されるデータ処理装置110を用いて、物体/背景分
離手段16は形成エッジ情報画像115の形成エッジ情
報114を境界として物体領域141と背景を分離する
ことができる。Thus, the object / background separation means 16 separates the object area 141 from the background using the formation edge information 114 of the formation edge information image 115 as a boundary by using the data processing device 110 composed of the array operation unit 40. be able to.
【0259】ここまで視覚装置2について説明してき
た。当然のことながらこれらの視覚装置2は汎用のコン
ピュータによって実装することができるが、移動物体を
探索の対象とする場合、移動物体の移動速度によっては
前記手段の各々を高速に実行する必要がある。特にフレ
ーム画像の画像サイズ若しくは解像度を上げたとき、画
像自体を処理対象とする画像記憶手段12、エッジ情報
生成手段14、エッジ情報形成手段15、物体/背景分
離手段16、領域正規化手段27、位置/大きさ検出手
段17、及び画像認識手段29は、幅方向及び高さ方向
の各々に対して画像サイズ若しくは解像度に比例して計
算量が増大する。したがって視覚装置2は用途によって
は望みうる性能を達成できない可能性がある。The visual device 2 has been described so far. Naturally, these visual devices 2 can be implemented by a general-purpose computer, but when a moving object is to be searched, it is necessary to execute each of the means at high speed depending on the moving speed of the moving object. . In particular, when the image size or resolution of the frame image is increased, the image storage unit 12, the edge information generation unit 14, the edge information formation unit 15, the object / background separation unit 16, the area normalization unit 27, The amount of calculation for the position / size detection unit 17 and the image recognition unit 29 increases in each of the width direction and the height direction in proportion to the image size or the resolution. Therefore, the visual device 2 may not be able to achieve the desired performance in some applications.
【0260】そこでデジタル技術を用いて画像記憶手段
12、エッジ情報生成手段14、エッジ情報形成手段1
5、物体/背景分離手段16、領域正規化手段27、位
置/大きさ検出手段17、及び画像認識手段29を実装
するために、配列演算ユニット40はデータ処理装置1
10中で図3のように格子状に配列され、さらに配列演
算ユニット40はデータ処理装置110中の隣接する配
列演算ユニット40だけと相互に通信できるように配線
される。つまり4近傍同士が直接配線されることにな
る。これにより8近傍同士を配線する場合に比べて、少
ない電子部品と配線量で、同程度に高速に動作し、しか
も将来近傍サイズを拡張する場合にも簡単に拡張性を有
することができる。The image storage means 12, the edge information generation means 14, the edge information formation means 1
5. In order to implement the object / background separation means 16, the area normalization means 27, the position / size detection means 17, and the image recognition means 29, the array operation unit 40
3, the array operation units 40 are wired so as to be able to communicate only with the adjacent array operation units 40 in the data processing device 110. That is, the four neighborhoods are directly wired. As a result, as compared with the case where the eight neighborhoods are wired, it is possible to operate at the same high speed with a small number of electronic components and the amount of wiring, and to easily have expandability even when the neighborhood size is expanded in the future.
【0261】配列演算ユニット40は図21に示す通
り、画像処理における数式を計算するためのプロセッサ
(PROCESSOR)41と、数式で使われる全てのパラメー
タ、定数、関数及びオペレータを記憶するためのメモリ
(MEMORY)42と、近傍の配列演算ユニット40と通信
するためのコントローラ(CONTROLER)43から構成さ
れ、プロセッサ41はアドレスバス51で指定したアド
レス(ADDRESS)によりメモリ42及びコントローラ4
3の任意のメモリ素子及びレジスタを選択することがで
きる。またプロセッサ41はデータバス52を介してメ
モリ42及びコントローラ43と双方向に通信可能に接
続され、アドレスバス51で指定された任意のメモリ素
子及びレジスタのデータ(DATA)にアクセスすることが
できる。配列演算ユニット40が1つ以上の入力画素か
ら構成される前入力データ群(FRONT INPUT DATA SET)
を入力すると、コントローラ43は前入力データ群をメ
モリ42に記憶させる。またコントローラ43は、関数
により作成されたメモリ42中の計算データを隣接する
配列演算ユニット40に送信すると共に、隣接する配列
演算ユニット40から受信した計算データをメモリ42
に記憶させ、さらに必要ならば、入力した以外の配列演
算ユニット40に転送する。最終的にコントローラ43
は、出力画像の画像データを結果データ(RESULT DAT
A)として出力する。As shown in FIG. 21, the array operation unit 40 includes a processor (PROCESSOR) 41 for calculating a mathematical expression in image processing, and a memory for storing all parameters, constants, functions and operators used in the mathematical expression. MEMORY) 42 and a controller (CONTROLER) 43 for communicating with the array operation unit 40 in the vicinity. The processor 41 uses the address (ADDRESS) specified by the address bus 51 to control the memory 42 and the controller 4.
Three arbitrary memory elements and registers can be selected. The processor 41 is bidirectionally communicable with the memory 42 and the controller 43 via the data bus 52, and can access data (DATA) of any memory element and register specified by the address bus 51. Previous input data group (FRONT INPUT DATA SET) in which the array operation unit 40 is composed of one or more input pixels
Is input, the controller 43 causes the memory 42 to store the previous input data group. Further, the controller 43 transmits the calculation data in the memory 42 created by the function to the adjacent array operation unit 40, and transmits the calculation data received from the adjacent array operation unit 40 to the memory 42.
And, if necessary, transfer it to the array operation unit 40 other than the input. Finally the controller 43
Converts the image data of the output image to the result data (RESULT DAT
Output as A).
【0262】このように各配列演算ユニット40にコン
トローラ43を搭載する理由は、配列演算ユニット40
同士が通信している間にプロセッサ41が動作できるの
で、プロセッサ41は通信による待ち時間中にも計算す
ることができて高速処理が実現できるからと、近傍の配
列演算ユニット40の数を変化させてもハードウェアを
変更する必要もないからと、コントローラ43が画像の
辺縁処理、つまり画像中の縁の画素に対する例外処理を
自動的に行えるので、プロセッサ41のプログラムは辺
縁処理をする必要がなくなり極めて単純になるからであ
る。The reason why the controller 43 is mounted on each array operation unit 40 is as follows.
Since the processor 41 can operate while communicating with each other, the processor 41 can calculate even during the waiting time due to communication and realize high-speed processing. However, since there is no need to change the hardware, the controller 43 can automatically perform the edge processing of the image, that is, the exception processing for the edge pixels in the image, so that the program of the processor 41 needs to perform the edge processing. Is very simple.
【0263】プロセッサ41とメモリ42は汎用的なデ
ジタル回路を用いることができる。コントローラ43の
具体的な回路図は図22に示す通りである。アドレスバ
ッファ(ADDRESS BUFFER)53はアドレスバス(ADDRES
S BUS)51を介してプロセッサ41からアドレス(ADD
RESS)を受取り、アドレスデコーダ(ADDRESS DECODE
R)54によって各レジスタ及びその他の機能ブロック
を選択する。データバッファ(DATA BUFFER)55はデ
ータバス(DATA BUS)52を介してプロセッサ41から
データ(DATA)を受取り、アドレスデコーダ54で選択
されたレジスタと内部データバス56を介して排他的に
通信する。通信方向は読み出し(READ)によって指定さ
れる。アドレスがフラグレジスタ(FLAG REGISTER)5
7を指定した場合、データはフラグレジスタ57に記憶
され、フラグデコーダ(FLAG DECODER)58によってデ
コードされ、複数信号(SIGNALS)として隣接する配列
演算ユニット40に送信される。複数信号はフラグエン
コーダ(FLAG ENCODER)59によって受信され、解析さ
れた後にステータスレジスタ(STATUS REGISTER)60
に記憶され、また受領(RECEIVE)として送信元の配列
演算ユニット40に返送される。受領は複数信号の送信
元のフラグエンコーダ59で受信され、結果として複数
信号の送信完了が確認される。アドレスによってステー
タスレジスタ60が選択されると、ステータスレジスタ
60の内容がデータバス52を介してデータとしてプロ
セッサ41に送信される。1つ以上の入力画像(INPUT
IMAGE)に対応した1つ以上の前入力送達(FRONT INPUT
SEND)をフラグエンコーダ59が受信すると1つ以上
の入力画像からなる前入力データ群(FRONT INPUT DATA
SET)が必要な記憶容量分用意された前入力データレジ
スタ(FRONT INPUT DATA REGISTER)61に読み込まれ
る。アドレスによって前入力データレジスタ61が選択
されると、前入力データレジスタ61の内容がデータと
してプロセッサ41に送信される。プロセッサ41が計
算を完了したら、アドレスによって結果データレジスタ
(RESULT DATA REGISTER)62が選択され、結果データ
レジスタ62が出力画像の画像データを結果データ(RE
SULT DATA)として読み込む。これと同時に、フラグエ
ンコーダ59が結果送達(RESULT SEND)を送信する。As the processor 41 and the memory 42, general-purpose digital circuits can be used. A specific circuit diagram of the controller 43 is as shown in FIG. The address buffer (ADDRESS BUFFER) 53 is connected to the address bus (ADDRES).
S (BUS) 51 from the processor 41 via the address (ADD)
RESS) and an address decoder (ADDRESS DECODE)
R) 54 selects each register and other functional blocks. The data buffer (DATA BUFFER) 55 receives data (DATA) from the processor 41 via the data bus (DATA BUS) 52 and exclusively communicates with the register selected by the address decoder 54 via the internal data bus 56. The communication direction is specified by reading (READ). Address is flag register (FLAG REGISTER) 5
When 7 is specified, the data is stored in the flag register 57, decoded by the flag decoder (FLAG DECODER) 58, and transmitted to the adjacent array operation unit 40 as a plurality of signals (SIGNALS). A plurality of signals are received by a flag encoder (FLAG ENCODER) 59, and after being analyzed, a status register (STATUS REGISTER) 60
And is returned to the source array operation unit 40 as reception (RECEIVE). The reception is received by the flag encoder 59 of the transmission source of the plurality of signals, and as a result, completion of transmission of the plurality of signals is confirmed. When the status register 60 is selected by the address, the contents of the status register 60 are transmitted to the processor 41 as data via the data bus 52. One or more input images (INPUT
IMAGE) one or more front input delivery (FRONT INPUT)
SEND) received by the flag encoder 59, the previous input data group (FRONT INPUT DATA) including one or more input images.
SET) is read into the front input data register (FRONT INPUT DATA REGISTER) 61 prepared for the required storage capacity. When the previous input data register 61 is selected by the address, the contents of the previous input data register 61 are transmitted to the processor 41 as data. When the processor 41 completes the calculation, the result data register (RESULT DATA REGISTER) 62 is selected according to the address, and the result data register 62 converts the image data of the output image into the result data (RE
(SULT DATA). At the same time, the flag encoder 59 transmits a result transmission (RESULT SEND).
【0264】近傍の配列演算ユニット40から計算に必
要なデータを求められたら、アドレスとして出力データ
レジスタ(OUTPUT DATA REGISTER)63を選択し、近傍
の配列演算ユニット40に送信すべきデータを計算デー
タ(CALCURATION DATA)として出力データレジスタ63
に読み込む。その後、隣接する全ての配列演算ユニット
40に計算データとして送信される。上側の配列演算ユ
ニット40から複数信号(SIGNALS)を受信したら計算
データを上入力データレジスタ(UPPER INPUT DATA REG
ISTER)64に読み込む。その後、アドレスにより上入
力データレジスタ64が選択されたら、上入力データレ
ジスタ64の内容が計算データとして送信される。下
側、左側、右側の配列演算ユニット40から複数信号を
受信した場合も同様であり、下入力データレジスタ6
5、左入力データレジスタ66、右入力データレジスタ
67が同様に動作する。When the data necessary for calculation is obtained from the neighboring array operation unit 40, the output data register (OUTPUT DATA REGISTER) 63 is selected as an address, and the data to be transmitted to the nearby array operation unit 40 is calculated. CALCURATION DATA) as output data register 63
Read in. After that, it is transmitted as calculation data to all adjacent array operation units 40. When a plurality of signals (SIGNALS) are received from the upper array operation unit 40, the calculation data is transferred to the upper input data register (UPPER INPUT DATA REG).
ISTER) 64. Thereafter, when the upper input data register 64 is selected by the address, the contents of the upper input data register 64 are transmitted as calculation data. The same applies to the case where a plurality of signals are received from the lower, left and right array operation units 40.
5, the left input data register 66 and the right input data register 67 operate similarly.
【0265】各種バッファ、各種レジスタ、アドレスデ
コーダ54の各ブロックは汎用的な電子回路である。フ
ラグデコーダ58とフラグエンコーダ59は具体的には
図23と図24に示すような入出力信号を有する。種別
(TYPE)は出力データレジスタ(OUTPUT DATA REGISTE
R)63に読み込まれた内容の種類を5ビットで表す。
このビット数は配列演算ユニット40が送受信すべき全
ての計算データを区別するのに十分な値である。カウン
ト−X(COUNT-X)及びカウント−Y(COUNT-Y)は各々
4ビットの符号なし整数を表し、配列演算ユニット40
の間の転送回数を示す。配列演算ユニット40が計算デ
ータを送信する場合には各々のカウントが0となり、左
右の配列演算ユニット40から送信された計算データを
再度送信する場合にはフラグエンコーダ59のカウント
−Xに1を足した値となり、上下の配列演算ユニット4
0から送信された計算データを再度送信する場合にはフ
ラグエンコーダ59のカウント−Yに1を足した値とな
る。プロセッサ41が上下左右のうちどの方向に出力デ
ータレジスタ63の内容を送信するかをフラグレジスタ
57の送達フラグ(SEND FLAG)に指定した後で、出力
データレジスタ63を指定するアドレスデコーダ54の
中央デコーディング(CENTRAL DECODING)をフラグデコ
ーダ58が受信すると、フラグデコーダ58が送達(SE
ND)を送達フラグの指定方向に合わせて出力する。送達
フラグは4ビットで表し、配列演算ユニット40の計算
データを四方の配列演算ユニット40に送信する場合に
はプロセッサ41が1111と設定し、右側の配列演算
ユニット40から送信された計算データを上下左側に転
送する場合はプロセッサ41が1110と設定し、左側
から上下右側に転送する場合は1101と設定し、下側
から上側に転送する場合は1000と設定し、上側から
下側に転送する場合は0100と設定する。これによ
り、転送に重複がなくなり効率的に転送できるだけでな
く、転送方向の決定規則が明確になっているので、種
別、カウント−X及びカウント−Yを組み合わせること
により、フラグエンコーダ59はどの配列演算ユニット
40からどの種別の計算データが送信されたかを判定す
ることができる。結果データレジスタ62に計算データ
が結果データとして読み込まれると同時にフラグデコー
ダ58は、結果デコーディング(RESULT DECODING)を
受信し、結果送達(RESULT SEND)を送信する。Each block of various buffers, various registers, and the address decoder 54 is a general-purpose electronic circuit. Specifically, the flag decoder 58 and the flag encoder 59 have input / output signals as shown in FIGS. Type is OUTPUT DATA REGISTE
R) The type of content read into 63 is represented by 5 bits.
This number of bits is a value sufficient to distinguish all calculation data to be transmitted and received by the array operation unit 40. The count-X (COUNT-X) and the count-Y (COUNT-Y) each represent a 4-bit unsigned integer, and the array operation unit 40
Indicates the number of transfers during the period. When the array operation unit 40 transmits the calculation data, each count becomes 0. When the calculation data transmitted from the left and right array operation units 40 is transmitted again, 1 is added to the count -X of the flag encoder 59. And the upper and lower array operation units 4
When the calculation data transmitted from 0 is transmitted again, it becomes a value obtained by adding 1 to the count -Y of the flag encoder 59. After the processor 41 specifies in which direction the contents of the output data register 63 are to be transmitted, up, down, left and right, in the transmission flag (SEND FLAG) of the flag register 57, the central data of the address decoder 54 that specifies the output data register 63 is specified. When the coding (CENTRAL DECODING) is received by the flag decoder 58, the flag decoder 58 transmits (SE)
ND) according to the direction specified by the delivery flag. The delivery flag is represented by 4 bits, and when the calculation data of the array operation unit 40 is transmitted to the array operation units 40 on the four sides, the processor 41 sets it to 1111 and the calculation data transmitted from the array operation unit 40 on the right is When transferring to the left side, the processor 41 sets 1110; when transferring from the left side to the upper and lower right sides, it is set to 1101; when transferring from the lower side to the upper side, setting is 1000; and when transferring from the upper side to the lower side. Is set to 0100. As a result, the transfer can be efficiently performed without duplication, and the rules for determining the transfer direction are clear. Therefore, by combining the type, the count-X and the count-Y, the It is possible to determine which type of calculation data has been transmitted from the unit 40. At the same time that the calculation data is read into the result data register 62 as the result data, the flag decoder 58 receives the result decoding (RESULT DECODING) and transmits the result delivery (RESULT SEND).
【0266】フラグエンコーダ59は四方のうちいずれ
かでも送達を受信したら、受信方向の種別とカウント−
X、カウント−Yを受信し、その部分のステータスレジ
スタ60の内容を更新する。この更新と同時に受信方向
に受領を1にして送信する。送信元の配列演算ユニット
40のフラグエンコーダ59では受領が1になった瞬間
に受信し、ステータスレジスタ60の受領ステータス
(RECEIVE STATUS)を更新する。これにより各配列演算
ユニット40ではプロセッサ41がステータスレジスタ
60の受領ステータスを検査するだけで、どの入力デー
タレジスタに有効な計算データが記憶されているか判断
することができる。そこで例えば上入力データレジスタ
64に計算データが読み込まれていれば、プロセッサ4
1がアドレスを指定することにより上入力データレジス
タ64からデータを読み込むことができるが、同時にア
ドレスデコーダ54から上デコーディング(UPPER DECO
DING)がフラグエンコーダ59に送信され、受領ステー
タスのうち上部分が0に戻され、上側に向いた受領が0
として送信される。下左右側の場合も同様に動作する。
フラグエンコーダ59が1つでも入力画像用の前入力送
達を受信したら、ステータスレジスタ60のうち受信し
た前入力送達に対応する入力画像用の前入力送達ステー
タス(FRONT INPUT SEND STATUS)を1にする。またプ
ロセッサ41が入力画像用の前入力データレジスタ61
からデータを読み込むとき、アドレスデコーダ54がフ
ラグエンコーダ59に前デコーディング(FRONT DECODI
NG)を送信し、受信した前入力送達に対応する前入力送
達ステータスを0にする。プロセッサ41はステータス
レジスタ60の内容を読み込むことにより、前入力デー
タレジスタ61に最新の入力画像が記憶されているかど
うか判断することができる。When the flag encoder 59 receives the delivery in any one of the four directions, the flag encoder 59 determines the type of the receiving direction and counts.
X and count-Y are received, and the contents of the status register 60 of that part are updated. At the same time as this update, the reception is set to 1 in the receiving direction and transmitted. The flag encoder 59 of the array operation unit 40 of the transmission source receives the data at the moment when the reception becomes 1, and updates the reception status (RECEIVE STATUS) of the status register 60. Accordingly, in each array operation unit 40, the processor 41 can determine which input data register stores valid calculation data only by checking the reception status of the status register 60. Therefore, for example, if the calculation data is read into the upper input data register 64, the processor 4
1 can read the data from the upper input data register 64 by specifying the address, but at the same time, the upper decoder (UPPER DECO
DING) is transmitted to the flag encoder 59, the upper part of the reception status is returned to 0, and the reception directed upward is 0.
Sent as The same operation is performed on the lower left and right sides.
When at least one of the flag encoders 59 receives the previous input delivery for the input image, the status register 60 sets the front input delivery status (FRONT INPUT SEND STATUS) for the input image corresponding to the received previous input delivery to 1. In addition, the processor 41 is provided with a previous input data register 61 for an input image.
When data is read from the FRONT DECODI
NG), and sets the pre-input delivery status corresponding to the received pre-input delivery to 0. By reading the contents of the status register 60, the processor 41 can determine whether or not the latest input image is stored in the previous input data register 61.
【0267】プロセッサ41がコントローラ43を介し
て四方の配列演算ユニット40に計算データを送信する
場合のアルゴリズムを図25に示す。図25は、プロセ
ッサ41によるプログラム制御と、フラグデコーダ58
及びフラグエンコーダ59によるハードウェアロジック
との混成による処理を示すものである。図25に対し
て、ステップ71では、プロセッサ41がステータスレ
ジスタ60の内容を読み込む。ステップ72では、読み
込んだ内容のうち受領ステータスが全て0であるか否か
を判断する。NOなら処理を終了する。YESならステ
ップ73に移行する。ステップ73では、プロセッサ4
1が隣接する配列演算ユニット40に送信するデータの
種別とカウンタと送信方向を決定し、その内容をフラグ
レジスタ57に書き込む。ステップ74では、プロセッ
サ41が隣接する配列演算ユニット40に送信するデー
タを出力データレジスタ63に書き込む。ステップ75
では、出力データレジスタ63の内容を計算データとし
て、隣接する配列演算ユニット40に送信する。ステッ
プ76では、フラグレジスタ57の送達フラグで指定さ
れた方向にのみ送達を1にして送信する。これによりプ
ロセッサ41の1回の送信アルゴリズムは終了する。プ
ロセッサ41は、送信すべきデータがメモリ42内で更
新される度にこの送信アルゴリズムを開始する。FIG. 25 shows an algorithm when the processor 41 transmits calculation data to the array operation units 40 on the four sides via the controller 43. FIG. 25 shows the program control by the processor 41 and the flag decoder 58.
And a process by the flag encoder 59 for mixing with hardware logic. 25, in step 71, the processor 41 reads the contents of the status register 60. In step 72, it is determined whether or not the reception status of the read contents is all zero. If NO, the process ends. If YES, the process moves to step 73. In step 73, the processor 4
1 determines the type of data to be transmitted to the adjacent array operation unit 40, the counter, and the transmission direction, and writes the content to the flag register 57. In step 74, the processor 41 writes data to be transmitted to the adjacent array operation unit 40 in the output data register 63. Step 75
Then, the contents of the output data register 63 are transmitted to adjacent array operation units 40 as calculation data. In step 76, the transmission is set to 1 only in the direction specified by the transmission flag of the flag register 57 and transmitted. Thus, one transmission algorithm of the processor 41 ends. The processor 41 starts this transmission algorithm each time data to be transmitted is updated in the memory 42.
【0268】コントローラ43が上側の配列演算ユニッ
ト40から計算データを受信する場合のアルゴリズムを
図26に示す。図26は、フラグデコーダ58及びフラ
グエンコーダ59によるハードウェアロジックによる処
理を示すものである。図26に対して、ステップ81で
は、フラグエンコーダ59が送達を入力する。ステップ
82では、送達が1であるか否かをフラグエンコーダ5
9が判断する。NOなら処理を終了する。YESならス
テップ83に移行する。ステップ83では、上入力デー
タレジスタ64が上側から送信された計算データを読み
込む。ステップ84では、フラグエンコーダ59がステ
ータスレジスタ60のうち上側用の受領ステータスを1
にすると同時に受領を1にして上側の配列演算ユニット
40に送信する。下左右側の場合も同様である。これに
よりコントローラ43の1回の受信アルゴリズムは終了
する。コントローラ43は常時上下左右の配列演算ユニ
ット40からの送達を監視し、この送達を受信する度に
この受信アルゴリズムを開始する。FIG. 26 shows an algorithm when the controller 43 receives calculation data from the upper array operation unit 40. FIG. 26 shows processing by hardware logic by the flag decoder 58 and the flag encoder 59. 26, in step 81, the flag encoder 59 inputs the delivery. In step 82, the flag encoder 5 determines whether the delivery is 1 or not.
9 makes a decision. If NO, the process ends. If YES, the process moves to step 83. In step 83, the upper input data register 64 reads the calculation data transmitted from the upper side. In step 84, the flag encoder 59 sets the reception status for the upper side of the status register 60 to 1
At the same time, the reception is set to 1 and transmitted to the upper array operation unit 40. The same applies to the lower left and right sides. Thus, one reception algorithm of the controller 43 ends. The controller 43 constantly monitors the delivery from the array operation units 40 in the up, down, left, and right directions, and starts the receiving algorithm each time the delivery is received.
【0269】プロセッサ41が上入力データレジスタ6
4からデータを受信する場合のアルゴリズムを図27に
示す。図27は、プロセッサ41によるプログラム制御
と、フラグデコーダ58及びフラグエンコーダ59によ
るハードウェアロジックとの混成による処理を示すもの
である。図27に対して、ステップ91では、プロセッ
サ41がステータスレジスタ60の内容を読み込む。ス
テップ92では、読み込んだ内容のうち上側用の受領ス
テータスが1であるか否かを判断する。NOなら処理を
終了する。YESならステップ93に移行する。ステッ
プ93では、プロセッサ41が上入力データレジスタ6
4からデータを読み込む。ステップ94では、フラグエ
ンコーダ59がステータスレジスタ60のうち上側用の
受領ステータスを0にすると同時に受領を0にして上側
の配列演算ユニット40に送信する。下左右側の場合も
同様である。これによりプロセッサ41の1回の受信ア
ルゴリズムは終了する。プロセッサ41は一定間隔でス
テータスレジスタ60の内容を監視し、上下左右いずれ
かの受領ステータスが1である度にこの受信アルゴリズ
ムを開始する。またプロセッサ41が一定間隔でステー
タスレジスタ60の内容を監視しなくても、割り込み処
理により実装することもできる。The processor 41 sets the upper input data register 6
FIG. 27 shows an algorithm when data is received from No.4. FIG. 27 shows processing by hybridizing program control by the processor 41 and hardware logic by the flag decoder 58 and the flag encoder 59. 27, in step 91, the processor 41 reads the contents of the status register 60. In step 92, it is determined whether or not the reception status for the upper side of the read contents is 1. If NO, the process ends. If YES, the process moves to step 93. In step 93, the processor 41 sets the upper input data register 6
Read the data from 4. In step 94, the flag encoder 59 sets the reception status for the upper side of the status register 60 to 0, and simultaneously sets the reception to 0 and transmits it to the upper array operation unit 40. The same applies to the lower left and right sides. Thus, the one-time reception algorithm of the processor 41 ends. The processor 41 monitors the contents of the status register 60 at regular intervals, and starts this receiving algorithm every time the reception status of one of the upper, lower, left, and right is 1. Even if the processor 41 does not monitor the contents of the status register 60 at regular intervals, it can be implemented by interrupt processing.
【0270】なおこの配列演算ユニット40は、主に1
つ以上の入力画像から1つの出力画像を生成することを
前提に記述したが、用途に応じては計算途中の計算デー
タを出力できるように回路を変更する必要がある。その
際には、出力すべき計算データの数だけフラグデコーダ
58の結果送達を増やし、結果データレジスタ62に読
み込まれた計算データに対応する結果送達のみを1にす
るようにプログラムを変更するだけで良い。The array operation unit 40 mainly includes
Although the description has been made on the assumption that one output image is generated from one or more input images, it is necessary to change the circuit so that calculation data in the middle of calculation can be output depending on the application. At this time, the program is simply changed so that the result delivery of the flag decoder 58 is increased by the number of calculation data to be output, and only the result delivery corresponding to the calculation data read into the result data register 62 is set to 1. good.
【0271】ここまでは視覚装置2について説明してき
た。以下では中央制御装置8を3つのグループ、つまり
視覚装置2から出力された環境地図を音声合成装置5に
出力される地図テキストに変換するグループと、音声認
識装置7から出力された命令テキストを視覚装置2に出
力される制御命令に変換するグループと、移動カメラ1
から出力されるビデオ信号に地図テキスト及び命令テキ
ストを挿入するグループと、に分けて説明する。The visual device 2 has been described so far. In the following, the central control device 8 is divided into three groups, namely, a group for converting the environmental map output from the visual device 2 into a map text output to the voice synthesizing device 5, and a command text output from the voice recognizing device 7. A group for converting to a control command output to the device 2 and a mobile camera 1
And a group for inserting the map text and the instruction text into the video signal output from the group.
【0272】第一のグループには環境地図入力手段30
1、地図/テキスト変換手段302及び地図テキスト保
持手段303が含まれる。まず物体領域141の種別、
位置及び位置の変化を表す環境データから構成される環
境地図が視覚装置2から出力される度に、環境地図入力
手段301がこの環境地図を入力し、バッファに順次記
憶する。地図/テキスト変換手段302が入力可能にな
ると、環境地図入力手段301は入力順番に従って環境
データ毎に出力する。地図/テキスト変換手段302は
環境データを入力すると、物体領域141の種別、位置
及び位置の変化を文字列(地図テキスト)に変換する。
この際に地図/テキスト変換手段302は、利用者の位
置を原点とし、物体の位置及び位置の変化を利用者が常
時見ている方向、つまり正面を基準とした座標に変換し
て、しかも、前、後、右、左、上、下、近く、遠く、近
付く、遠退く、横切る、すれ違う、追い越す、など利用
者が判りやすい言葉に変更する。さらにエスケープシー
ケンス及び特殊記号などを用いることにより、地図/テ
キスト変換手段302は環境地図に含まれる移動カメラ
1の向き及び倍率を基にした位置を原点とした座標に変
換して、前述の言葉に変更した後地図テキストに追加す
る。これにより、地図テキストは同じ物体領域141の
位置を異なる座標で表すことができる。地図テキスト保
持手段303は地図/テキスト変換手段302によって
変換された地図テキストをバッファに順次記憶し、音声
合成装置5に出力する。In the first group, the environment map input means 30
1, a map / text conversion unit 302 and a map text holding unit 303 are included. First, the type of the object area 141,
Every time an environmental map composed of environmental data representing the position and the change of the position is output from the visual device 2, the environmental map input means 301 inputs this environmental map and sequentially stores it in a buffer. When the map / text conversion unit 302 becomes capable of inputting, the environment map input unit 301 outputs each environment data according to the input order. When the environment data is input, the map / text converter 302 converts the type, position, and change in position of the object area 141 into a character string (map text).
At this time, the map / text conversion means 302 converts the position of the object and the change in the position into a coordinate that is based on the user's constant viewing direction, that is, the front, with the user's position as the origin. Change to words that are easy for the user to understand, such as front, back, right, left, up, down, near, far, approaching, retreating, crossing, passing, passing, etc. Further, by using an escape sequence, special symbols, and the like, the map / text conversion unit 302 converts the position based on the orientation and magnification of the mobile camera 1 included in the environmental map into coordinates using the origin as the origin, and converts the coordinates into the aforementioned words. Add to map text after making changes. Thus, the map text can represent the position of the same object area 141 with different coordinates. The map text holding unit 303 sequentially stores the map text converted by the map / text conversion unit 302 in a buffer and outputs the map text to the speech synthesizer 5.
【0273】第二のグループには命令テキスト入力手段
304、テキスト/命令変換手段305及び制御命令保
持手段306が含まれる。まず利用者が指示した命令の
認識結果である、前、後、右、左、上、下、近く、遠
く、もっと、もう少し、などの文字列(命令テキスト)
が音声認識装置7から出力される度に命令テキスト入力
手段304がこの命令テキストを入力し、バッファに順
次記憶する。テキスト/命令変換手段305が入力可能
になると、命令テキスト入力手段304は入力順番に従
って命令テキスト毎に出力する。テキスト/命令変換手
段305は命令テキストを入力すると、命令テキストを
視覚装置2にとって入力可能な制御命令に変換する。こ
の際にテキスト/命令変換手段305は、命令テキスト
を移動カメラ1の向き、つまりディスプレイ3の中心
と、移動カメラ1の倍率を基にした位置を原点とした座
標に変換して、移動カメラ1の現在位置からの相対的な
移動量を算出する。これにより利用者はディスプレイ3
を見ながら簡単に移動カメラ1を制御することができ
る。制御命令保持手段306はテキスト/命令変換手段
305によって変換された制御命令をバッファに順次記
憶し、視覚装置2に出力する。The second group includes a command text input means 304, a text / command conversion means 305, and a control command holding means 306. First, a character string (instruction text) that is the recognition result of the instruction given by the user, such as front, back, right, left, up, down, near, far, more, and a little more.
Every time is output from the voice recognition device 7, the instruction text input means 304 inputs this instruction text and stores it sequentially in the buffer. When the text / command conversion means 305 becomes capable of inputting, the command text input means 304 outputs each command text according to the input order. Upon input of the command text, the text / command conversion unit 305 converts the command text into a control command that can be input to the visual device 2. At this time, the text / command conversion means 305 converts the command text into coordinates using the orientation of the moving camera 1, that is, the center of the display 3 and the position based on the magnification of the moving camera 1 as the origin. Is calculated relative to the current position. This allows the user to display 3
The user can easily control the mobile camera 1 while watching. The control command holding unit 306 sequentially stores the control commands converted by the text / command conversion unit 305 in a buffer and outputs the control commands to the visual device 2.
【0274】第三のグループにはビデオ信号入力手段3
07、テキスト挿入手段308及びビデオ信号出力手段
309が含まれる。まずビデオ信号入力手段307は移
動カメラ1が生成したNTSC、PAL、HDTV、V
GA、MPEGフォーマットなどのビデオ信号を入力
し、フレーム画像を順次切り出した後にテキスト挿入手
段308に出力する。テキスト挿入手段308は地図/
テキスト変換手段302から地図テキストを入力する
か、又は命令テキスト入力手段304から命令テキスト
を入力する毎に、市販のスーパーインポーズ回路又はス
ーパーインポーズ機能を実現するソフトウェアを用いて
地図テキスト及び命令テキストをフレーム画像に挿入す
る。テキスト挿入手段308は地図テキスト及び命令テ
キストの有無を問わず、フレーム画像をビデオ信号出力
手段309に出力する。ビデオ信号出力手段309はテ
キスト挿入手段308からフレーム画像を入力すると、
NTSC、PAL、HDTV、VGA、MPEGフォー
マットなどのビデオ信号に変換し、ディスプレイ3に出
力する。The third group includes video signal input means 3
07, a text insertion means 308 and a video signal output means 309. First, the video signal input means 307 receives the NTSC, PAL, HDTV, V
A video signal of a GA, MPEG format or the like is input, and a frame image is sequentially cut out and output to the text inserting unit 308. The text inserting means 308 has a map /
Each time a map text is input from the text conversion means 302 or a command text is input from the command text input means 304, a map text and a command text are input using a commercially available superimpose circuit or software for realizing a superimpose function. Is inserted into the frame image. The text inserting unit 308 outputs the frame image to the video signal output unit 309 regardless of the presence or absence of the map text and the instruction text. When the video signal output unit 309 receives the frame image from the text insertion unit 308,
The video signal is converted into a video signal of NTSC, PAL, HDTV, VGA, MPEG format or the like, and output to the display 3.
【0275】ここまでは中央制御装置8について説明し
てきた。以下では図を用いて、自動車321を例にした
移動カメラ1及び視覚装置2の設置位置について説明す
る。The central controller 8 has been described so far. Hereinafter, the installation positions of the mobile camera 1 and the visual device 2 using the automobile 321 as an example will be described with reference to the drawings.
【0276】図29に示す通り、請求項4に従い自動車
321の後部バンパー中央322に移動カメラ1及び視
覚装置2を設置した場合、運転者は死角になっている場
所を確認することができる。つまり警戒装置が移動カメ
ラ1を自動的にパン、チルト及びズームして撮影範囲3
26を変更することにより、運転者は自動車321の後
方を横切る歩行者324、自転車、オートバイ325及
び別の自動車321と、自動車321のトランク付近で
遊んでいる子供と、を見付けることができる。したがっ
て死角が多い駐車場及び車庫などで運転者は安全に後進
することができる。また請求項4に従い自動車321の
天井後部中央323に移動カメラ1及び視覚装置2を設
置した場合、運転者はバックミラー及びサイドミラーで
確認しずらい場所(特に遠方など)と、体を捻らないと
注意を向けることができない場所と、を広範囲に確認す
ることができる。つまり警戒装置が移動カメラ1を自動
的にパン、チルト及びズームして撮影範囲326を変更
することにより、運転者は自動車321の後方から近付
いてくる歩行者324、自転車、オートバイ325及び
別の自動車321を見付けることができる。したがって
運転者は安全にドアを開けたり運転することができる。As shown in FIG. 29, when the mobile camera 1 and the visual device 2 are installed at the center 322 of the rear bumper of the automobile 321 according to claim 4, the driver can check the place where the blind spot is present. That is, the security device automatically pans, tilts, and zooms the moving camera 1 to set the shooting range 3
By changing 26, the driver can find a pedestrian 324, a bicycle, a motorcycle 325, and another car 321 crossing the back of the car 321, and a child playing near the trunk of the car 321. Therefore, the driver can safely move backward in a parking lot or a garage having many blind spots. When the mobile camera 1 and the visual device 2 are installed at the rear center 323 of the ceiling of the automobile 321 according to claim 4, the driver does not twist the body in places (especially distant places) where it is difficult for the driver to check with the rearview mirror and the side mirror. And where you can't pay attention. That is, the alert device automatically pans, tilts, and zooms the moving camera 1 to change the shooting range 326, so that the driver can approach the pedestrian 324, the bicycle, the motorcycle 325, and another vehicle approaching from behind the automobile 321. 321 can be found. Therefore, the driver can safely open the door and drive.
【0277】図29では、請求項4に従い移動カメラ1
及び視覚装置2が自動車321の後部に設置された場合
について説明したが、自動車321の側部及び前部につ
いても同様である。請求項5に従い自動車321のドア
及び天井側部に移動カメラ1及び視覚装置2を設置した
場合、運転者はドア付近で遊んでいる子供及び路側帯を
確認することができる。また請求項6に従い自動車32
1の前部バンパー中央及び天井前部に移動カメラ1及び
視覚装置2を設置した場合、運転者は自動車321の前
方を横切る歩行者324、自転車、オートバイ325及
び別の自動車321と、自動車321のボンネット付近
で遊んでいる子供と、を見付けることができる。したが
って死角が多い駐車場、車庫及び細い路地の交差点で運
転者は安全に前進することができる。In FIG. 29, the moving camera 1 according to claim 4
Although the case where the visual device 2 is installed at the rear of the automobile 321 has been described, the same applies to the side and front of the automobile 321. When the mobile camera 1 and the visual device 2 are installed on the door and the ceiling side of the car 321 according to claim 5, the driver can check the child playing near the door and the roadside zone. Also, according to claim 6, the vehicle 32
When the moving camera 1 and the visual device 2 are installed in the center of the front bumper and the front of the ceiling of the vehicle 321, the pedestrian 324, the bicycle, the motorcycle 325, and another vehicle 321 crossing the front of the vehicle 321, and the vehicle 321. You can find a child playing near the hood. Therefore, the driver can safely move forward at the intersection of a parking lot, a garage, and a narrow alley with many blind spots.
【0278】この他に、図30に示すように、請求項4
に従い移動カメラ1及び視覚装置2を1つにまとめた撮
影部332を車イスの座席331の背もたれの後に設置
し、ディスプレイ3、スピーカー4、音声合成装置5、
マイクロフォン6、音声認識装置7及び中央制御装置8
を1つにまとめたインターフェース部333を車イスの
座席331の手すりに設置することにより、利用者は車
イスの後方から近づいてくる物体を体を捻ることなく確
認することができる。特に車イスの利用者は体を自由に
動かすことができなかったり、車イスを動かすために姿
勢が前屈みになるなど、利用者は後方を確認することが
難しい。しかしながら車イスの利用者が本発明を利用す
ることにより、安全に移動することができる。さらに請
求項5及び6に従い、撮影部332を座席331の上方
に設置したり、又は前方に設置することにより、移動カ
メラ1は信号機及び道路標識などをより広範囲に撮影す
ることができる。またインターフェース部333を座席
331の上部に設置か、又はインターフェース部333
としてウェラブルコンピュータを利用することにより、
視力の弱い利用者でもディスプレイ3の映像を見ること
ができるし、聴力の弱い利用者でもスピーカー4の音を
聞くことができるし、声の小さい利用者でもマイクロフ
ォン6に向かってカメラの向き及び倍率を指示すること
ができる。In addition, as shown in FIG.
The photographing unit 332 in which the moving camera 1 and the visual device 2 are integrated into one is installed behind the back of the seat 331 of the wheelchair, and the display 3, the speaker 4, the voice synthesizing device 5,
Microphone 6, voice recognition device 7, and central control device 8
By installing the interface unit 333 in which the information is integrated into the handrail of the seat 331 of the wheelchair, the user can check an object approaching from behind the wheelchair without twisting the body. In particular, it is difficult for the user of the wheelchair to check his / her back, for example, he / she cannot move his / her body freely, or the posture of the wheelchair leans forward to move the wheelchair. However, a user of a wheelchair can move safely by using the present invention. Further, according to the fifth and sixth aspects of the present invention, by installing the photographing unit 332 above the seat 331 or in front of the seat 331, the mobile camera 1 can photograph a traffic light, a road sign, and the like in a wider range. Also, the interface unit 333 is installed above the seat 331 or the interface unit 333 is installed.
By using a wearable computer as
Even a user with low vision can see the image on the display 3, a user with low hearing can hear the sound of the speaker 4, and even a user with low voice has a camera orientation and magnification toward the microphone 6. Can be indicated.
【0279】ここまでは車両を例にして、警戒装置の設
置位置と警戒範囲について説明してきたが、船舶につい
ても同様である。以下では図面を用いて、複数の移動カ
メラ1が撮影した映像を複数のディスプレイ3に表示す
る警戒装置について説明する。Up to this point, the position of the security device and the range of the security have been described using a vehicle as an example, but the same applies to a ship. Hereinafter, a security device that displays images captured by a plurality of mobile cameras 1 on a plurality of displays 3 will be described with reference to the drawings.
【0280】例として、図31に示すように、4個の移
動カメラ1が撮影した映像を3個のディスプレイ3に表
示する場合を考える。交換器311は、電話交換機及び
コンピュータのバスなどで用いられているクロスバスイ
ッチのようなデジタル技術により中央制御装置8に内蔵
され、4個の移動カメラ1が撮影した映像の中から順次
3つを選択してディスプレイ3に送信する。ただし図3
1では、スピーカー4、音声合成装置5、マイクロフォ
ン6及び音声認識装置7と、中央制御装置8の地図/テ
キスト変換手段302、地図テキスト保持手段303、
命令テキスト入力手段304、テキスト/命令変換手段
305、制御命令保持手段306、ビデオ信号入力手段
307及びビデオ信号出力手段309が省略されてい
る。As an example, as shown in FIG. 31, it is assumed that images taken by four mobile cameras 1 are displayed on three displays 3. The exchange 311 is built in the central controller 8 by digital technology such as a crossbar switch used in a telephone exchange and a computer bus, and sequentially switches three of the images captured by the four mobile cameras 1. Select and send to display 3. However, FIG.
1, a speaker 4, a speech synthesizer 5, a microphone 6, and a speech recognizer 7, a map / text converter 302, a map text holder 303 of the central controller 8,
Instruction text input means 304, text / command conversion means 305, control command holding means 306, video signal input means 307, and video signal output means 309 are omitted.
【0281】地図/テキスト変換手段302によって変
換される地図テキストの中に、移動カメラ1が現在撮影
している位置の付近に物体があることが記述されていれ
ば、交換器311はこの移動カメラ1が撮影している映
像をディスプレイ3に表示できるようにスイッチを変更
する。このような記述は地図/テキスト変換手段302
によって地図テキストに容易に追加され得る。さらに地
図/テキスト変換手段302が移動カメラ1の番号を地
図テキストに追加すれば、テキスト挿入手段308によ
りこの移動カメラ1の番号がディスプレイ3に表示され
る。つまり利用者は現在ディスプレイ3に表示されてい
る映像がどの移動カメラ1によって撮影されてものか容
易に知ることができるし、特定の映像を撮影する移動カ
メラ1を選択することもできる。ディスプレイ3の数よ
りも少ない数の移動カメラ1だけが物体を撮影している
場合、交換器311は空いている回線を使って適当な移
動カメラ1の映像をディスプレイ3に送信することがで
きる。ディスプレイ3の数よりも多くい数の移動カメラ
1が物体を撮影している場合、交換器311は現在繋が
っている回線を一定時間経った後に遮断することによ
り、別の移動カメラ1が撮影した映像をディスプレイ3
に表示することができる。ただし移動カメラ1の映像を
ディスプレイ3に表示し続けるように利用者から音声で
指示があった場合、交換器311はこの指示に従う。な
お音声合成装置5は全ての地図/テキスト変換手段30
2から地図テキストを入力し、順次スピーカー4に音声
信号を送信するが、利用者が音声で移動カメラ1の番号
の幾つかを指定することにより、音声合成装置5は指定
された番号に対応する地図テキストのみを処理すること
もできる。If the map text converted by the map / text conversion means 302 describes that there is an object near the position where the mobile camera 1 is currently photographing, the exchange 311 will use this mobile camera. The switch is changed so that the image taken by the camera 1 can be displayed on the display 3. Such a description is stored in the map / text conversion means 302.
Can be easily added to the map text. Further, when the map / text conversion unit 302 adds the number of the mobile camera 1 to the map text, the number of the mobile camera 1 is displayed on the display 3 by the text insertion unit 308. In other words, the user can easily know which mobile camera 1 has captured the video currently displayed on the display 3 and can select the mobile camera 1 that captures a specific video. When only a smaller number of mobile cameras 1 than the number of displays 3 are shooting an object, the exchange 311 can transmit an image of the appropriate mobile camera 1 to the display 3 using an empty line. When a larger number of mobile cameras 1 than the number of displays 3 are shooting an object, the exchange 311 cuts off the currently connected line after a certain period of time, so that another mobile camera 1 shoots. Display video 3
Can be displayed. However, when a user gives an instruction by voice to keep displaying the image of the mobile camera 1 on the display 3, the exchanger 311 follows the instruction. The voice synthesizing device 5 includes all map / text conversion means 30.
2, a voice signal is sequentially transmitted to the speaker 4, and when the user specifies some of the numbers of the mobile cameras 1 by voice, the voice synthesizer 5 corresponds to the specified number. Only map text can be processed.
【0282】一方で音声認識装置7が移動カメラ1の番
号及び、すべて、全部、次、固定、解除、ストップ、な
どの言葉を認識して、番号を命令テキストに追加するこ
とにより、利用者は移動カメラ1を選択することができ
るようになる。テキスト/命令変換手段305が命令テ
キストの中から番号を抽出すると、テキスト/命令変換
手段305は次の番号を抽出するまで現在選択されてい
る移動カメラ1の視覚装置2に対して制御命令を送信す
る。またテキスト/命令変換手段305が、現在選択さ
れている移動カメラ1の番号及び、固定、解除、ストッ
プ、などの言葉に対応する信号を音声合成装置5に送信
することにより、音声合成装置5は前述した動作を実行
することができる。On the other hand, the voice recognition device 7 recognizes the number of the mobile camera 1 and words such as all, all, next, fixed, release, stop, etc., and adds the number to the instruction text. The mobile camera 1 can be selected. When the text / command conversion unit 305 extracts a number from the command text, the text / command conversion unit 305 sends a control command to the visual device 2 of the currently selected mobile camera 1 until the next number is extracted. I do. Further, the text / command conversion unit 305 transmits a signal corresponding to the number of the currently selected mobile camera 1 and words such as “fixed”, “release”, and “stop” to the speech synthesizer 5, so that the speech synthesizer 5 The operations described above can be performed.
【0283】ここまでは警戒装置が複数の移動カメラ1
が撮影した映像を複数のディスプレイ3に表示する場合
について説明してきた。以下では、紫外線反射塗料が塗
られた物体及び紫外線反射フィルムが張られた物体を探
索する方法について説明する。Up to this point, the security device has a plurality of mobile cameras 1
Has described the case where the captured video is displayed on the plurality of displays 3. Hereinafter, a method for searching for an object coated with an ultraviolet reflective paint and an object coated with an ultraviolet reflective film will be described.
【0284】一般に道路及び歩道には道路標識、信号
機、レーンマーク及びマーカーなど安全な交通を確保す
るためのものが多数設置されている。しかしながらこれ
らの他にも道路及び歩道には、歩行者324、自転車、
自動車321、広告看板、建物及び樹木などが至るとこ
ろに存在している。そのため自動車321、バスなどの
車両の運転者は、運転中に歩行者324、自転車、自動
車321、広告看板、建物及び樹木などに注意を払わな
ければならないため、現実に道路標識、信号機、レーン
マーク及びマーカーなどを見落としてしまうことがあ
る。まして車イス、電動三輪車、歩行補助機、ミニカー
など車高が低い車両の利用者にとって、道路標識、信号
機、レーンマーク及びマーカーなどはとても見難い。そ
こで運転者が見落としがちな道路標識、信号機、レーン
マーク及びマーカーなどを警戒装置が効率的に見付ける
ために、請求項8に従いこれらの物体に紫外線反射塗料
を塗るか又は紫外線反射フィルムを張り、移動カメラ1
にはBeeカメラのような可視光線撮像素子及び紫外線
撮像素子を組み込む。紫外線反射塗料には日焼け止めク
リームのように透明なものがあり、しかも太陽光線に含
まれる紫外線を反射することができる。紫外線反射フィ
ルムも同様である。そこで紫外線反射塗料が塗られた物
体及び紫外線反射フィルムが張られた物体が太陽光線に
当ると、これらの物体は紫外線を反射するので、紫外線
撮像素子がこれらの物体から反射した紫外線を捉えるこ
とにより、視覚装置2がこれらの物体を撮影できるよう
に移動カメラ1の向き及び倍率を制御する。夜間、曇り
及び雨天の場合にはヘッドライトが点灯すると共に、請
求項9に従い、紫外線蛍光灯及びブラックライトなどの
紫外線放射装置がこれらの物体に向けて紫外線を照射す
ることにより、視覚装置2がこれらの物体を撮影できる
ように移動カメラ1の向き及び倍率を制御する。したが
って自動車321、バス、車イス、電動三輪車、歩行補
助機、ミニカーなどの車両の運転者及び利用者は、警戒
装置を利用することにより道路標識、信号機、レーンマ
ーク及びマーカーなどを見逃し難くなる。In general, many roads and sidewalks are provided with road signs, traffic lights, lane marks, markers and the like for ensuring safe traffic. However, besides these, pedestrians 324, bicycles,
Cars 321, billboards, buildings, trees and the like are everywhere. Therefore, a driver of a vehicle such as a car 321 or a bus must pay attention to a pedestrian 324, a bicycle, a car 321, a billboard, a building, a tree, and the like while driving. And may overlook markers and the like. Moreover, it is very difficult for a user of a vehicle having a low height such as a wheelchair, an electric tricycle, a walking assist device, and a minicar to see road signs, traffic lights, lane marks, and markers. In order for the warning device to efficiently find road signs, traffic lights, lane marks, markers, and the like that the driver tends to overlook, these objects are coated with an ultraviolet reflective paint or a UV reflective film is applied to these objects in accordance with claim 8 to move. Camera 1
Incorporates a visible light image sensor and an ultraviolet image sensor such as a Bee camera. Some UV-reflective paints are transparent, such as sunscreen creams, and can reflect UV light contained in sunlight. The same applies to the ultraviolet reflection film. Therefore, when an object coated with an ultraviolet-reflective paint and an object covered with an ultraviolet-reflective film are exposed to sunlight, these objects reflect ultraviolet light, so that the ultraviolet image pickup device captures the ultraviolet light reflected from these objects. , The orientation and the magnification of the moving camera 1 are controlled so that the visual device 2 can photograph these objects. At night, in the case of cloudy and rainy weather, the headlights are turned on, and according to claim 9, the visual device 2 is illuminated with ultraviolet light emitting devices such as ultraviolet fluorescent lamps and black lights. The direction and magnification of the mobile camera 1 are controlled so that these objects can be photographed. Therefore, drivers and users of vehicles such as the automobile 321, buses, wheelchairs, electric tricycles, walking aids, and minicars are less likely to miss road signs, traffic lights, lane marks, markers, and the like by using the warning device.
【0285】以上、本実施形態を説明したが、本発明は
上述の実施形態には限定されることはなく、当業者であ
れば種々なる態様を実施可能であり、本発明の技術的思
想を逸脱しない範囲において本発明の構成を適宜改変で
きることは当然であり、このような改変も、本発明の技
術的範囲に属するものである。Although the present embodiment has been described above, the present invention is not limited to the above-described embodiment, and those skilled in the art can implement various aspects, and understand the technical idea of the present invention. It goes without saying that the configuration of the present invention can be appropriately modified without departing from the scope of the present invention, and such modifications also belong to the technical scope of the present invention.
【0286】[0286]
【発明の効果】請求項1記載の発明によれば、本発明の
利用者は、現在の位置から遠距離にある物体と、障害物
により直接見えない物体と、利用者の体が固定されてい
て見ることができない物体と、鏡を用いて物体の一部分
を間接的にしか見ることができない物体と、を移動カメ
ラ1とディスプレイ3を用いて鮮明に見ることができ
る。しかも本発明は視覚装置2を用いてこれらの物体を
自動的に見つけ出し、スピーカー4と音声合成装置5を
用いてこれらの物体の種別、位置及び位置の変化を利用
者に知らせるので、利用者は現在直接見ている物体と異
なる物体の情報を得ることができ、不慮の事故を未然に
防ぐことができる。さらに本発明はマイクロフォン6と
音声認識装置7を用いて移動カメラ1の向きと倍率を制
御することができるので、視覚装置2が撮影対象として
選択した物体と異なる物体と、視覚装置2が見付け損ね
た物体と、利用者が見続けたい物体と、を移動カメラ1
が適切な倍率で撮影することができる。例えば家屋の入
り口に移動カメラ1を設置することにより、家屋の中で
来客又は泥棒を確認することができる。特に音声により
移動カメラ1の向き及び倍率を制御することができるの
で、寝たきり老人や身体障害者でも本発明を利用するこ
とができる。According to the first aspect of the present invention, the user of the present invention has an object at a long distance from the current position, an object not directly visible due to an obstacle, and a user's body fixed. An object that cannot be seen through the camera and an object that can only partially be seen indirectly using a mirror can be clearly seen using the moving camera 1 and the display 3. Moreover, the present invention automatically finds these objects using the visual device 2 and informs the user of the type, position and change in position of these objects using the speaker 4 and the speech synthesizer 5, so that the user can It is possible to obtain information on an object that is different from the object currently being viewed directly, thereby preventing an unexpected accident. Furthermore, since the present invention can control the direction and magnification of the mobile camera 1 using the microphone 6 and the voice recognition device 7, the visual device 2 cannot find an object different from the object selected as the imaging target by the visual device 2. Moving object 1 and the object that the user wants to keep watching
Can be taken at an appropriate magnification. For example, by installing the mobile camera 1 at the entrance of a house, a visitor or a thief can be confirmed inside the house. In particular, since the direction and the magnification of the mobile camera 1 can be controlled by voice, even a bedridden elderly person or a physically handicapped person can use the present invention.
【0287】請求項2記載の発明によれば、視覚装置2
は屋内のみならず屋外において移動物体及び静止物体を
探索することができる。さらに音声認識装置7から利用
者の指示が入力されたとき、視覚装置2はその指示に従
い優先的に移動カメラ1の向き及び倍率を制御すること
ができるので、利用者は手を使うこと無く見たい物体を
見たい大きさで見続けることができる。また視覚装置2
は並列化及びハードウェア化が容易であるので、動画像
の画像サイズが大きくなっても本発明は実時間で物体を
探索することができる。According to the invention of claim 2, the visual device 2
Can search for moving and stationary objects not only indoors but also outdoors. Further, when a user's instruction is input from the voice recognition device 7, the visual device 2 can preferentially control the direction and magnification of the mobile camera 1 in accordance with the instruction, so that the user can view the image without using his hand. You can continue to see the object you want at the size you want. Visual device 2
Since parallelization and hardware implementation are easy, the present invention can search for an object in real time even if the image size of a moving image increases.
【0288】請求項3記載の発明によれば、利用者は音
声合成装置5に接続されたスピーカー4を介して常時見
ている方向、つまり正面を原点とした座標に変換された
物体の位置を知ることができる。これにより利用者はデ
ィスプレイ3を見ることなく物体の位置を直感的に知る
ことができる。同時に利用者はディスプレイ3を介し
て、移動カメラ1が撮影している物体のみならず、他の
物体の種別、位置及び位置の変化と、自分が指示した命
令と、を知ることができる。特に環境地図が表す位置を
現在の移動カメラ1の向き及び倍率を原点とした座標に
変換して地図テキストに追加することにより、利用者は
移動カメラ1が撮影している物体からの相対的な方向、
つまり前、後、右、左、もっと、もう少しなどの言葉を
警戒装置に指示することができる。そこで利用者は、移
動カメラ1が撮影している物体と異なる物体を見るため
に、若しくは今後警戒が必要な位置を移動カメラ1が撮
影するために、警戒装置に適切な命令を指示することが
できる。According to the third aspect of the present invention, the user always changes the direction of the viewing direction through the speaker 4 connected to the voice synthesizing device 5, that is, the position of the object converted into coordinates having the front as the origin. You can know. Thus, the user can intuitively know the position of the object without looking at the display 3. At the same time, the user can know, via the display 3, not only the object being photographed by the mobile camera 1, but also the type, position, and change in position of other objects, and the command given by the user. In particular, by converting the position represented by the environmental map into coordinates using the current orientation and magnification of the mobile camera 1 as the origin and adding the coordinates to the map text, the user can make a relative movement from the object being captured by the mobile camera 1. direction,
That is, words such as front, rear, right, left, more, and a little more can be instructed to the alert device. Therefore, the user may instruct the security device to issue an appropriate command to view an object different from the object being captured by the mobile camera 1 or to allow the mobile camera 1 to capture a position that needs to be monitored in the future. it can.
【0289】請求項4記載の発明によれば、車両の運転
者及び船舶の操縦者は、車両及び船舶の後方から近づい
てくる車両及び船舶をいち早く見つけ出すことができる
ので、安全に車線変更及び旋回をすることができる。特
に本発明を車両に設置した場合、運転者は、後部バンパ
ーの陰で遊んでいる子供を見付けたり、ドアを開ける前
に後方から近づいてくる車両に気付いたり、駐車場を後
進で出庫する際に人物や車両の通行を確認したりするこ
とができるなど、本発明は交通安全に有効である。また
本発明を車いす(電動式を含む)及びミニカーに設置し
た場合、利用者の体は固定され、しかもバックミラーは
とても小さいので、利用者は後方を殆んど見ることがで
きない。そこで本発明は後方から近づいてくる人物及び
車両を探索することにより、利用者が安全に移動できる
ように補助する。According to the invention described in claim 4, the driver of the vehicle and the operator of the ship can quickly find the vehicle and the ship approaching from behind the vehicle and the ship, so that the lane change and turning can be performed safely. Can be. Especially when the present invention is installed in a vehicle, the driver can find a child playing behind the rear bumper, notice a vehicle approaching from behind before opening the door, or leave the parking lot backward. The present invention is effective for traffic safety, for example, it is possible to confirm the traffic of persons and vehicles. Further, when the present invention is installed in a wheelchair (including an electric type) and a minicar, the user's body is fixed and the rearview mirror is very small, so that the user can hardly see the rear. Therefore, the present invention searches for a person and a vehicle approaching from behind, thereby assisting the user to move safely.
【0290】請求項5記載の発明によれば、車両の運転
者及び船舶の操縦者は、車両及び船舶と並走している車
両及び船舶をいち早く見つけ出すことができるので、安
全に車線変更及び旋回をすることができる。特に本発明
を車両に設置した場合、運転者は、前輪と後輪の間で遊
んでいる子供を見付けたり、右折時及び左折時の巻き込
み事故を防止したりすることができるなど、本発明は交
通安全及び事故防止に有効である。According to the fifth aspect of the present invention, the driver of the vehicle and the operator of the ship can quickly find the vehicle and the ship running in parallel with the vehicle and the ship, so that the lane change and turning can be performed safely. Can be. In particular, when the present invention is installed in a vehicle, the driver can find a child playing between the front wheel and the rear wheel, and prevent a tangling accident at the time of right turn and left turn. It is effective for traffic safety and accident prevention.
【0291】請求項6記載の発明によれば、車両の運転
者及び船舶の操縦者は、車両及び船舶の前方から近づい
てくる車両及び船舶をいち早く見つけ出すことができる
ので、安全に右折、左折及び旋回をすることができる。
特に本発明を車両に設置した場合、運転者は、前部バン
パーの陰で遊んでいる子供を見付けたり、路地及び交差
点で前進する際に人物や車両の通行を確認したりするこ
とができるなど、本発明は交通安全及び事故防止に有効
である。また本発明を車いす(電動式を含む)及びミニ
カーに設置した場合、利用者の体は固定されているの
で、利用者は前方上部を殆んど見ることができない。そ
こで本発明は前方の信号機及び標識を探索することによ
り、利用者が安全に移動できるように補助する。According to the invention as set forth in claim 6, the driver of the vehicle and the operator of the ship can quickly find the vehicle and the ship approaching from the front of the vehicle and the ship, so that the vehicle can safely turn right, left, and turn left. You can make a turn.
In particular, when the present invention is installed in a vehicle, a driver can find a child playing behind a front bumper, or check the traffic of a person or a vehicle when moving forward at an alley or an intersection. The present invention is effective for traffic safety and accident prevention. Further, when the present invention is installed in a wheelchair (including an electric type) and a minicar, since the user's body is fixed, the user can hardly see the upper front part. Therefore, the present invention assists the user in traveling safely by searching for a traffic light and a sign ahead.
【0292】請求項7記載の発明によれば、本発明の利
用者は異なる位置にある複数の物体を同時に見付けるこ
とができる。本発明を家屋に設置した場合、泥棒の侵入
を監視することができる。本発明を店舗に設置した場
合、管理者はお客及び店員の位置及び動作を確認するこ
とができる。特に本発明は盗難、万引きの防止に役に立
つ。本発明を自動車321に設置した場合、運転者は同
時に見ることができない周囲の状況を確認しながら運転
することができる。本発明を大型船舶に設置した場合、
操縦者及び船長は、タグボート及びヨットなどの小型船
舶の位置を確認しながら航行することができる。本発明
を鉄道車両に設置した場合、運転手及び車掌は、ドアに
挟まれている人物と、鉄道車両に巻き込まれるぐらい近
くにいる人物と、を発車前に見付けることができる。移
動カメラ1が前後左右上下を撮影できるように本発明を
航空機及びヘリコプターに設置した場合、操縦者及び搭
乗者は、誘導員、牽引車及びタラップなどを視認するこ
とができるし、編隊を組んでいる別の航空機の位置を確
認したり、近くにある不審な航空機や飛行物体を見付け
ることができる。特に本発明は雪山での遭難者及び海上
での漂流者を見付けることに役に立つ。本発明を潜水艇
及び深海探査船に設置した場合、操縦者及び船長は、タ
グボート、ドック及びクレーンなどを視認することがで
きるし、近くを泳いでいる生物及び浮遊している物体を
見付けることができる。特に本発明は海底に隠れている
生物、沈没船及び墜落した飛行機の残骸などを見付ける
ことに役に立つ。移動カメラ1が前後左右上下を撮影で
きるように本発明を宇宙船及び宇宙ステーションに設置
した場合、操縦者及び搭乗者は、他の宇宙船及び宇宙ス
テーション、人工衛星及び浮遊物を視認することができ
る。特に本発明が大勢の宇宙飛行士及びロボットが作業
している宇宙空間を監視することにより、本発明は命綱
の切断により浮遊している宇宙飛行士、ロボット及び建
材などをいち早く見付け出すことに役立つ。According to the invention described in claim 7, the user of the present invention can simultaneously find a plurality of objects at different positions. When the present invention is installed in a house, the intrusion of a thief can be monitored. When the present invention is installed in a store, the manager can check the positions and operations of the customer and the clerk. In particular, the present invention is useful for preventing theft and shoplifting. When the present invention is installed in the automobile 321, the driver can drive while checking surrounding conditions that cannot be seen at the same time. When the present invention is installed in a large ship,
The pilot and the captain can navigate while checking the positions of small boats such as tug boats and yachts. When the present invention is installed in a railway vehicle, a driver and a conductor can find a person sandwiched between doors and a person close enough to get caught in the railway vehicle before departure. When the present invention is installed in an aircraft and a helicopter so that the mobile camera 1 can photograph the front, rear, left, right, up and down, the pilot and the passenger can visually recognize the guide man, the towing vehicle, the ramp, etc., and form a formation. You can see the location of another aircraft, or find suspicious aircraft or flying objects nearby. In particular, the invention is useful for finding victims on snowy mountains and drifters on the sea. When the present invention is installed in a submersible craft and a deep sea exploration boat, the pilot and the captain can visually recognize tugs, docks, cranes, etc., and can find creatures swimming nearby and floating objects. it can. In particular, the invention is useful for finding creatures hiding on the sea floor, wreckage of shipwrecks and remnants of crashed airplanes. When the present invention is installed in a spacecraft and a space station so that the mobile camera 1 can photograph the front, rear, left, right, up and down, the pilot and the passenger can visually recognize other spacecraft and space stations, artificial satellites and floating objects. it can. In particular, the present invention monitors the space where a large number of astronauts and robots are working, and the present invention is useful for quickly finding astronauts, robots, building materials, etc., which are floating due to the cutting of a lifeline. .
【0293】請求項8及び9記載の発明によれば、警戒
装置は昼夜、曇り及び雨天を問わず素早く的確に道路標
識、信号機、レーンマーク及びマーカーなどを見付け出
すことができる。そこで本発明の利用者は道路標識、信
号機、レーンマーク及びマーカーなどを見逃し難くなる
など、本発明は交通安全及び事故防止に有効である。特
に車高が低い車イス、電動三輪車、歩行補助機、ミニカ
ーの利用者にとっては道路標識、信号機、レーンマーク
及びマーカーなどが見え易くなる。According to the eighth and ninth aspects of the present invention, the warning device can quickly and accurately find a road sign, a traffic light, a lane mark, a marker, and the like irrespective of daytime, cloudy weather, or rainy weather. Therefore, the present invention is effective for traffic safety and accident prevention, as it is difficult for a user of the present invention to overlook road signs, traffic lights, lane marks, markers, and the like. In particular, a road sign, a traffic light, a lane mark, a marker, and the like can be easily seen by a user of a wheelchair, an electric tricycle, a walking assist device, and a minicar having a low vehicle height.
【図1】警戒装置のブロック図である。FIG. 1 is a block diagram of a security device.
【図2】移動カメラを制御して環境地図を生成する視覚
装置のブロック図である。FIG. 2 is a block diagram of a visual device that controls a moving camera to generate an environment map.
【図3】格子状に配置された配列演算ユニットのブロッ
ク図である。FIG. 3 is a block diagram of an array operation unit arranged in a lattice.
【図4】本実施形態の画像記憶手段のアルゴリズムを示
すフローチャートである。FIG. 4 is a flowchart illustrating an algorithm of an image storage unit of the embodiment.
【図5】本実施形態のエッジ情報生成手段のアルゴリズ
ムを示すフローチャートである。FIG. 5 is a flowchart illustrating an algorithm of an edge information generating unit according to the embodiment.
【図6】デジタル画像を用いて粗エッジ情報を形成エッ
ジ情報に形成する場合の説明図である。FIG. 6 is an explanatory diagram in a case where rough edge information is formed into formed edge information using a digital image.
【図7】本実施形態のエッジ情報形成手段のアルゴリズ
ムを示すフローチャートである。FIG. 7 is a flowchart illustrating an algorithm of an edge information forming unit according to the embodiment.
【図8】低解像度デジタル画像から生成された低解像度
粗エッジ情報を形成エッジ情報に形成する場合の説明図
である。FIG. 8 is an explanatory diagram in a case where low-resolution coarse edge information generated from a low-resolution digital image is formed as formed edge information.
【図9】低解像度デジタル画像から生成された低解像度
粗エッジ情報の領域を切り出してから形成エッジ情報に
形成する場合の説明図である。FIG. 9 is an explanatory diagram of a case where an area of low-resolution coarse edge information generated from a low-resolution digital image is cut out and then formed as formed edge information.
【図10】デジタル画像の切出領域を正規化する場合の
説明図である。FIG. 10 is an explanatory diagram in a case where a cut-out area of a digital image is normalized.
【図11】本実施形態の領域正規化手段のアルゴリズム
を示すフローチャートである。FIG. 11 is a flowchart showing an algorithm of a region normalizing means of the present embodiment.
【図12】エッジ情報画像中の物体の位置及び大きさを
検出する場合の説明図である。FIG. 12 is an explanatory diagram for detecting the position and size of an object in an edge information image.
【図13】本実施形態の位置/大きさ検出手段のアルゴ
リズムを示すフローチャートである。FIG. 13 is a flowchart illustrating an algorithm of a position / size detection unit according to the present embodiment.
【図14】正規化画像に対してテンプレート画像の中か
らパターンマッチングをする場合の説明図である。FIG. 14 is an explanatory diagram of a case where pattern matching is performed on a normalized image from among template images.
【図15】本実施形態の画像認識手段のうちパターンマ
ッチングのアルゴリズムを示すフローチャートである。FIG. 15 is a flowchart showing an algorithm of pattern matching in the image recognition means of the embodiment.
【図16】三角形のエッジ情報が三角形の内側領域と外
側領域に分離する状態を示す説明図である。FIG. 16 is an explanatory diagram showing a state where edge information of a triangle is separated into an inner area and an outer area of the triangle;
【図17】本実施形態の物体/背景分離手段のアルゴリ
ズムを示すフローチャートである。FIG. 17 is a flowchart illustrating an algorithm of an object / background separation unit according to the present embodiment.
【図18】破線状態の三角形のエッジ情報が破線三角形
の内側領域と外側領域に分離する状態を示す説明図であ
る。FIG. 18 is an explanatory diagram illustrating a state where edge information of a triangle in a broken line is separated into an inner region and an outer region of the broken triangle;
【図19】三角形を2つ重ねたエッジ情報が2つの三角
形領域と背景領域に分離する状態を示す説明図である。FIG. 19 is an explanatory diagram showing a state where edge information obtained by overlapping two triangles is separated into two triangle regions and a background region.
【図20】2つの円形物体領域を重ねた時の破線状態の
エッジ情報が2つの円形領域と背景領域に分離した状態
を示す説明図である。FIG. 20 is an explanatory diagram showing a state in which edge information in a broken line state when two circular object regions are superimposed is separated into two circular regions and a background region.
【図21】配列演算ユニットの内部構造のブロック図で
ある。FIG. 21 is a block diagram of the internal structure of the array operation unit.
【図22】コントローラのブロック図である。FIG. 22 is a block diagram of a controller.
【図23】フラグデコーダの入出力信号を示す説明図で
ある。FIG. 23 is an explanatory diagram showing input / output signals of the flag decoder.
【図24】フラグエンコーダの入出力信号を示す説明図
である。FIG. 24 is an explanatory diagram showing input / output signals of a flag encoder.
【図25】プロセッサがコントローラを介して隣接する
配列演算ユニットにデータを送信するアルゴリズムを示
すフローチャートである。FIG. 25 is a flowchart illustrating an algorithm by which a processor transmits data to an adjacent array operation unit via a controller.
【図26】コントローラが隣接する配列演算ユニットか
らデータを受信するアルゴリズムを示すフローチャート
である。FIG. 26 is a flowchart illustrating an algorithm in which a controller receives data from an adjacent array operation unit.
【図27】プロセッサが上入力レジスタからデータを受
信するアルゴリズムを示すフローチャートである。FIG. 27 is a flowchart showing an algorithm by which a processor receives data from an upper input register.
【図28】移動カメラ、視覚装置、ディスプレイ、音声
合成装置及び音声認識装置と通信する中央制御装置のブ
ロック図である。FIG. 28 is a block diagram of a central controller communicating with a mobile camera, a visual device, a display, a speech synthesizer, and a speech recognizer.
【図29】自動車の後部に移動カメラ及び視覚装置を設
置した場合の説明図である。FIG. 29 is an explanatory diagram in the case where a moving camera and a visual device are installed at the rear of an automobile.
【図30】車イスの後部に移動カメラ及び視覚装置を設
置した場合の説明図である。FIG. 30 is an explanatory diagram in the case where a moving camera and a visual device are installed at a rear portion of a wheelchair.
【図31】4個の移動カメラが撮影した映像を3個のデ
ィスプレイに表示する場合の警戒装置のブロック図であ
る。FIG. 31 is a block diagram of a security device in a case where images captured by four mobile cameras are displayed on three displays.
1 移動カメラ 2 視覚装置 3 ディスプレイ 4 スピーカー 5 音声合成装置 6 マイクロフォン 7 音声認識装置 8 中央制御装置 11 画像取得手段 12 画像記憶手段 14 エッジ情報生成手段 15 エッジ情報形成手段 16 物体/背景分離手段 17 位置/大きさ検出手段 20 カメラ/環境座標変換手段 21 画像/環境座標変換手段 22 位置選択手段 23 運動制御手段 24 制御命令入力手段 25 振動命令生成手段 26 カメラ命令生成手段 27 領域正規化手段 29 画像認識手段 31 環境理解手段 32 計時手段 33 環境地図保持手段 34 物体位置推定手段 37 幾何解析手段 40 配列演算ユニット 41 プロセッサ 42 メモリ 43 コントローラ 51 アドレスバス 52 データバス 53 アドレスバッファ 54 アドレスデコーダ 55 データバッファ 56 内部データバス 57 フラグレジスタ 58 フラグデコーダ 59 フラグエンコーダ 60 ステータスレジスタ 61 前入力データレジスタ 62 結果データレジスタ 63 出力データレジスタ 64 上入力データレジスタ 65 下入力データレジスタ 66 左入力データレジスタ 67 右入力データレジスタ 110 データ処理装置 111 デジタル画像 112 粗エッジ情報 113 粗エッジ情報画像 114 形成エッジ情報 115 形成エッジ情報画像 116 低解像度デジタル画像 117 低解像度粗エッジ情報画像 118 低解像度切出粗エッジ情報画像 119 切出粗エッジ情報画像 120 切出デジタル画像 121 切出形成エッジ情報画像 131 重複情報 132 重複情報画像 141 物体領域 142 物体領域画像 143 分離物体領域 144 正規化領域 145 正規化画像 146 テンプレート画像 147 マッチング結果画像 151 三角形のエッジ情報 152 三角形の内側領域 153 三角形の外側領域 154 破線状態の三角形のエッジ情報 155 破線三角形の内側領域 156 破線三角形の外側領域 157 前方の三角形のエッジ情報 158 後方の三角形のエッジ情報 159 前方三角形の内側領域 160 後方三角形の内側領域 161 二重三角形の背景領域 162 2つの重なった円形のエッジ情報 163 前方円形の内側領域 164 後方円形の内側領域 165 二重円の背景領域 301 環境地図入力手段 302 地図/テキスト変換手段 303 地図テキスト保持手段 304 命令テキスト入力手段 305 テキスト/命令変換手段 306 制御命令保持手段 307 ビデオ信号入力手段 308 テキスト挿入手段 309 ビデオ信号出力手段 311 交換器 321 自動車 322 後部バンパー中央 323 天井後部中央 324 歩行者 325 オートバイ 326 撮影範囲 331 座席 332 撮影部 333 インターフェース部 DESCRIPTION OF SYMBOLS 1 Moving camera 2 Visual device 3 Display 4 Speaker 5 Speech synthesizer 6 Microphone 7 Speech recognition device 8 Central control device 11 Image acquisition means 12 Image storage means 14 Edge information generation means 15 Edge information formation means 16 Object / background separation means 17 Position / Size detection means 20 camera / environment coordinate conversion means 21 image / environment coordinate conversion means 22 position selection means 23 movement control means 24 control command input means 25 vibration command generation means 26 camera command generation means 27 area normalization means 29 image recognition Means 31 Environmental understanding means 32 Clocking means 33 Environment map holding means 34 Object position estimating means 37 Geometric analysis means 40 Array operation unit 41 Processor 42 Memory 43 Controller 51 Address bus 52 Data bus 53 Address buffer 54 Address data Coder 55 Data buffer 56 Internal data bus 57 Flag register 58 Flag decoder 59 Flag encoder 60 Status register 61 Previous input data register 62 Result data register 63 Output data register 64 Upper input data register 65 Lower input data register 66 Left input data register 67 Right input data register 110 Data processing device 111 Digital image 112 Coarse edge information 113 Coarse edge information image 114 Formed edge information 115 Formed edge information image 116 Low resolution digital image 117 Low resolution coarse edge information image 118 Low resolution cut out coarse edge information image 119 cut-out coarse edge information image 120 cut-out digital image 121 cut-out formed edge information image 131 overlap information 132 overlap information image 141 object area 142 object Area image 143 Separated object area 144 Normalized area 145 Normalized image 146 Template image 147 Matching result image 151 Triangular edge information 152 Triangular inner area 153 Triangular outer area 154 Triangular edge information in broken line state 155 Broken triangular inner area 156 Outside area of broken line triangle 157 Front triangle edge information 158 Back triangle edge information 159 Front triangle inside area 160 Back triangle inside area 161 Double triangle background area 162 Two overlapping circular edge information 163 Front Circular inner area 164 Back circular inner area 165 Double circle background area 301 Environmental map input means 302 Map / text conversion means 303 Map text holding means 304 Command text input means 305 Text / command conversion means 3 06 Control command holding means 307 Video signal input means 308 Text insertion means 309 Video signal output means 311 Exchanger 321 Car 322 Center of rear bumper 323 Center of ceiling rear 324 Pedestrian 325 Motorcycle 326 Shooting range 331 Seat 332 Shooting section 333 Interface section
───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 5B057 AA06 AA16 AA19 BA02 BA04 CE03 CE05 CH03 DA07 DA08 DA15 DA16 DB02 DC09 DC16 DC32 5C054 AA01 AA05 CF05 DA01 EB05 FC12 FC14 FE22 GB01 HA19 HA30 5C087 AA09 AA24 AA25 AA40 AA44 CC51 DD05 DD14 DD16 DD17 DD24 DD49 EE05 EE14 EE18 FF01 FF02 FF19 FF20 GG02 GG11 GG12 GG18 GG20 GG21 GG23 GG29 GG30 GG32 GG54 GG66 5L096 BA02 BA04 CA04 DA03 DA04 EA06 FA06 FA69 GA05 GA08 HA04 LA15 9A001 BB04 EE05 GG04 HH17 HH18 HH21 HH25 HH28 HH30 HH34 JJ77 KK56 ──────────────────────────────────────────────────続 き Continued on the front page F-term (reference) DD16 DD17 DD24 DD49 EE05 EE14 EE18 FF01 FF02 FF19 FF20 GG02 GG11 GG12 GG18 GG20 GG21 GG23 GG29 GG30 GG32 GG54 GG66 5L096 BA02 BA04 CA04 DA03 DA04 EA06 FA06 FA69 GA05 GA08 HA04 H15HH GG
Claims (9)
警戒装置であって、 移動カメラを用いて前記物体の動画像を生成する手段
と、 視覚装置を用いて、前記動画像から前記物体の位置及び
大きさを検出し、前記物体の種別を認識し、及び制御命
令を入力することにより、前記移動カメラの向き及び倍
率を制御する手段と、 ディスプレイを用いて前記動画像を表示する手段と、 音声合成装置を用いて地図テキストを人工音声に変換す
る手段と、 スピーカーを用いて前記人工音声を出力する手段と、 マイクロフォンを用いて利用者の音声を入力する手段
と、 音声認識装置を用いて前記利用者の前記音声を認識して
命令テキストに変換する手段と、 中央制御装置を用いて、前記物体の前記種別、前記位置
及び前記位置の変化を前記地図テキストに変換し、前記
命令テキストを前記制御命令に変換し、前記動画像に前
記地図テキスト及び前記命令テキストを挿入することに
より、前記移動カメラ、前記ディスプレイ、前記視覚装
置、前記音声合成装置及び前記音声認識装置の間の通信
を媒介する手段と、を有する警戒装置。1. An alerting device for searching for an object within 1000 meters, comprising: a means for generating a moving image of the object using a moving camera; and a position and the position of the object from the moving image using a visual device. Means for controlling the direction and magnification of the moving camera by detecting the size, recognizing the type of the object, and inputting a control command; means for displaying the moving image using a display; Means for converting map text into artificial voice using a synthesizer, means for outputting the artificial voice using a speaker, means for inputting a user's voice using a microphone, and Means for recognizing the user's voice and converting it to a command text; and using a central controller, the type of the object, the position, and the change in the position are displayed on the map text. By converting the command text into the control command, and inserting the map text and the command text into the moving image, so that the moving camera, the display, the visual device, the voice synthesizer, and the voice Means for mediating communication between the recognition devices.
の物体に対して、 前記動画像のフレーム画像を取得する手段と、 前記フレーム画像をデジタル画像として順次記憶する手
段と、 前記デジタル画像から粗エッジ情報画像を生成する手段
と、 前記デジタル画像を用いて前記粗エッジ情報画像から形
成エッジ情報画像を生成する手段と、 前記形成エッジ情報画像を用いて背景から前記物体領域
を分離する手段と、 前記物体領域を正規化して正規化画像を生成する手段
と、 前記形成エッジ情報画像を幾何解析する手段と、 前記正規化画像から前記物体領域の種別を認識する手段
と、 前記粗エッジ情報画像によって区分される前記物体領域
の位置及び大きさを検出する手段と、 前記移動カメラの向き及び倍率を環境座標の位置に変換
する手段と、 前記物体領域の前記位置及び前記大きさを前記環境座標
の前記位置に変換する手段と、 前記環境座標で表された環境地図を生成する手段と、 前記環境地図を用いて前記物体の前記位置を推定する手
段と、 複数の前記物体領域に対する前記環境座標の前記位置の
中から1つを選択する手段と、 外部から制御命令を入力する手段と、 前記移動カメラを振動させる振動命令を生成する手段
と、 前記移動カメラが移動すべき前記環境座標の前記位置を
決定する手段と、 前記移動カメラを制御するカメラ命令を生成する手段
と、を有する視覚装置を特徴とする警戒装置。2. A means for acquiring a frame image of the moving image for an object in the moving image captured by a moving camera; a means for sequentially storing the frame image as a digital image; Means for generating an edge information image; means for generating a formed edge information image from the coarse edge information image using the digital image; means for separating the object region from the background using the formed edge information image; Means for normalizing the object area to generate a normalized image; means for geometrically analyzing the formed edge information image; means for recognizing the type of the object area from the normalized image; and the coarse edge information image. Means for detecting the position and size of the divided object area; and means for converting the orientation and magnification of the moving camera into environmental coordinate positions. Means for converting the position and the size of the object area into the position of the environment coordinates; means for generating an environment map represented by the environment coordinates; and Means for estimating a position; means for selecting one of the environmental coordinates with respect to the plurality of object regions; means for inputting a control command from outside; generation of a vibration command for vibrating the mobile camera An alerting device, comprising: means for determining the position of the environmental coordinates to which the mobile camera should move; and means for generating camera instructions for controlling the mobile camera.
音声合成装置及び音声認識装置と接続された中央制御装
置であって、 前記視覚装置が生成した環境地図を入力する手段と、 前記環境地図に記載された物体領域の種別、位置及び前
記位置の変化を地図テキストに変換する手段と、 前記音声合成装置に出力される前記地図テキストを保持
する手段と、 前記音声認識装置が出力する命令テキストを入力する手
段と、 前記命令テキストを前記視覚装置用の制御命令に変換す
る手段と、 前記制御命令を保持する手段と、 前記移動カメラが生成したビデオ信号を入力する手段
と、 前記ビデオ信号に前記地図テキスト及び前記命令テキス
トを挿入する手段と、 前記地図テキスト及び前記命令テキストが挿入された前
記ビデオ信号を前記ディスプレイに出力する手段と、を
有する前記中央制御装置を特徴とする警戒装置。3. A moving camera, a display, a visual device,
A central control device connected to a voice synthesis device and a voice recognition device, a unit configured to input an environment map generated by the visual device, and a type, a position, and a change in the position of an object region described in the environment map. Means for converting the command text into map text; means for holding the map text output to the speech synthesizer; means for inputting a command text output by the speech recognition device; and Means for converting to a control command; means for holding the control command; means for inputting a video signal generated by the mobile camera; means for inserting the map text and the command text into the video signal; and the map Means for outputting, to the display, the video signal into which the text and the instruction text have been inserted. Alert device to.
及び船舶の正面から時計回りで90〜270度の範囲を
撮影可能な位置に前記移動カメラ及び前記視覚装置を設
置し、前記車両の運転席及び前記船舶の操縦席に前記デ
ィスプレイ、前記マイクロフォン、前記スピーカー、前
記中央制御装置、前記音声合成装置及び前記音声認識装
置を設置することにより、 前記移動カメラから1000メートル以内にある前記物
体と、 前記移動カメラに向かって近づいてくる前記物体と、 前記移動カメラから遠ざかる前記物体と、を探索する警
戒方法。4. The vehicle according to claim 1, wherein the mobile camera and the visual device are installed at a position where a range of 90 to 270 degrees can be taken clockwise from the front of the vehicle and the ship. By installing the display, the microphone, the speaker, the central control device, the voice synthesizer, and the voice recognition device in the driver's seat and the cockpit of the ship, the object within 1000 meters from the moving camera An alerting method for searching for the object approaching the moving camera and the object moving away from the moving camera.
及び船舶の正面から時計回りで0〜180度、又は18
0〜360度の範囲を撮影可能な位置に前記移動カメラ
及び前記視覚装置を設置し、前記車両の運転席及び前記
船舶の操縦席に前記ディスプレイ、前記マイクロフォ
ン、前記スピーカー、前記中央制御装置、前記音声合成
装置及び前記音声認識装置を設置することにより、 前記移動カメラから1000メートル以内にある前記物
体と、 前記移動カメラに向かって近づいてくる前記物体と、 前記移動カメラから遠ざかる前記物体と、を探索する警
戒方法。5. The security device according to claim 1, wherein the vehicle and the ship are clockwise from 0 to 180 degrees or 18 from the front.
The moving camera and the visual device are installed at a position capable of photographing a range of 0 to 360 degrees, and the display, the microphone, the speaker, the central control device, the central control device, and the driver's seat of the vehicle and the cockpit of the ship are installed. By installing a speech synthesis device and the speech recognition device, the object within 1000 meters from the moving camera, the object approaching the moving camera, and the object moving away from the moving camera A vigilant way to explore.
及び船舶の正面から時計回りで0〜90度、及び270
〜360度の範囲を撮影可能な位置に前記移動カメラ及
び前記視覚装置を設置し、前記車両の運転席及び前記船
舶の操縦席に前記ディスプレイ、前記マイクロフォン、
前記スピーカー、前記中央制御装置、前記音声合成装置
及び前記音声認識装置を設置することにより、 前記移動カメラから1000メートル以内にある前記物
体と、 前記移動カメラに向かって近づいてくる前記物体と、 前記移動カメラから遠ざかる前記物体と、を探索する警
戒方法。6. The security device according to claim 1, wherein the angle is 0 to 90 degrees clockwise and 270 degrees from the front of the vehicle and the ship.
The mobile camera and the visual device are installed at a position capable of photographing a range of up to 360 degrees, and the display, the microphone, and the driver's seat of the vehicle and the cockpit of the ship are installed.
By installing the speaker, the central control device, the speech synthesizer, and the speech recognition device, the object within 1000 meters from the moving camera, the object approaching the moving camera, An alerting method for searching for an object moving away from a moving camera.
り、1〜200個の前記物体を同時に探索する警戒装
置。7. The alerting device according to claim 1, wherein 2 to 200 of the moving cameras and the visual device, and 1 to 200 of the displays are used. A security device that searches for objects at the same time.
動カメラに対して、可視光線撮像素子及び紫外線撮像素
子を組み込むことにより、 紫外線反射塗料が塗られた前記物体と、 紫外線反射フィルムが張られた前記物体と、を選択的に
探索する警戒方法。8. An object coated with an ultraviolet-reflective paint and an ultraviolet-reflective film by incorporating a visible light image pickup device and an ultraviolet image pickup device into the moving camera of the security device according to claim 1. An alerting method for selectively searching for the stretched object.
線放射装置を用いて紫外線を放射することにより、前記
紫外線反射塗料を塗られた前記物体を選択的に探索する
警戒方法。9. An alerting method according to claim 8, wherein the object which is coated with the ultraviolet reflecting paint is selectively searched for by emitting ultraviolet rays using an ultraviolet emitting device.
Priority Applications (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP33936099A JP2001157196A (en) | 1999-11-30 | 1999-11-30 | System and method for security |
EP00977947A EP1248465A4 (en) | 1999-11-30 | 2000-11-24 | Data acquisition system, artificial eye, vision device, image sensor and associated device |
PCT/JP2000/008334 WO2001041448A1 (en) | 1999-11-30 | 2000-11-24 | Data acquisition system, artificial eye, vision device, image sensor and associated device |
CNB008147329A CN100355284C (en) | 1999-11-30 | 2000-11-24 | Data acquisition system artificial eye, vision device, image sensor and associated device |
AU15521/01A AU1552101A (en) | 1999-11-30 | 2000-11-24 | Data acquisition system, artificial eye, vision device, image sensor and associated device |
CNB2006100657273A CN100442819C (en) | 1999-11-30 | 2000-11-24 | Interlock device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP33936099A JP2001157196A (en) | 1999-11-30 | 1999-11-30 | System and method for security |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2001157196A true JP2001157196A (en) | 2001-06-08 |
Family
ID=18326739
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP33936099A Pending JP2001157196A (en) | 1999-11-30 | 1999-11-30 | System and method for security |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2001157196A (en) |
CN (1) | CN100442819C (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1675377A3 (en) * | 2004-12-27 | 2006-09-06 | Kyocera Corporation | Mobile camera system |
JP2017072889A (en) * | 2015-10-05 | 2017-04-13 | 株式会社コムテック | Wandering monitor system |
CN110588643A (en) * | 2018-06-13 | 2019-12-20 | 本田技研工业株式会社 | Recognition processing device, vehicle control device, recognition control method, and storage medium |
CN111402874A (en) * | 2020-02-26 | 2020-07-10 | 中国民航大学 | Intelligent driving control system of aircraft tractor based on combination of voice and vision |
CN111820865A (en) * | 2020-07-24 | 2020-10-27 | 安徽猫头鹰科技有限公司 | On-line monitoring system for eye vision data acquisition |
WO2022181428A1 (en) * | 2021-02-24 | 2022-09-01 | 株式会社Space Power Technologies | Power transmission device, power transmission control method, power transmission control program, power transmission control device, and wireless power supply system |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS5937773A (en) * | 1982-08-26 | 1984-03-01 | Canon Inc | Run-length coding and decoding device |
JPH0918870A (en) * | 1995-06-30 | 1997-01-17 | Sony Corp | Timing detection circuit and method |
US6549242B1 (en) * | 1997-04-04 | 2003-04-15 | Harris Corporation | Combining adjacent TV channels for transmission by a common antenna |
-
1999
- 1999-11-30 JP JP33936099A patent/JP2001157196A/en active Pending
-
2000
- 2000-11-24 CN CNB2006100657273A patent/CN100442819C/en not_active Expired - Fee Related
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1675377A3 (en) * | 2004-12-27 | 2006-09-06 | Kyocera Corporation | Mobile camera system |
US8866908B2 (en) | 2004-12-27 | 2014-10-21 | Kyocera Corporation | Mobile camera system |
JP2017072889A (en) * | 2015-10-05 | 2017-04-13 | 株式会社コムテック | Wandering monitor system |
CN110588643A (en) * | 2018-06-13 | 2019-12-20 | 本田技研工业株式会社 | Recognition processing device, vehicle control device, recognition control method, and storage medium |
CN111402874A (en) * | 2020-02-26 | 2020-07-10 | 中国民航大学 | Intelligent driving control system of aircraft tractor based on combination of voice and vision |
CN111402874B (en) * | 2020-02-26 | 2023-07-07 | 中国民航大学 | Intelligent steering control system of aircraft tractor based on combination of voice and vision |
CN111820865A (en) * | 2020-07-24 | 2020-10-27 | 安徽猫头鹰科技有限公司 | On-line monitoring system for eye vision data acquisition |
CN111820865B (en) * | 2020-07-24 | 2024-05-17 | 安徽猫头鹰科技有限公司 | On-line monitoring system for eye vision data acquisition |
WO2022181428A1 (en) * | 2021-02-24 | 2022-09-01 | 株式会社Space Power Technologies | Power transmission device, power transmission control method, power transmission control program, power transmission control device, and wireless power supply system |
Also Published As
Publication number | Publication date |
---|---|
CN100442819C (en) | 2008-12-10 |
CN1848909A (en) | 2006-10-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10877485B1 (en) | Handling intersection navigation without traffic lights using computer vision | |
US20220343138A1 (en) | Analysis of objects of interest in sensor data using deep neural networks | |
JP4324327B2 (en) | Visual equipment | |
US11833966B2 (en) | Switchable display during parking maneuvers | |
KR102661363B1 (en) | Device and method for monitoring a berthing | |
US7031496B2 (en) | Method and apparatus for object recognition using a plurality of cameras and databases | |
JP4970516B2 (en) | Surrounding confirmation support device | |
CN107845104A (en) | A kind of method, associated processing system, passing vehicle detecting system and vehicle for detecting passing vehicle | |
US8379924B2 (en) | Real time environment model generation system | |
US11970156B1 (en) | Parking assistance using a stereo camera and an added light source | |
CN112639817A (en) | Data pipeline and deep learning system for autonomous driving | |
JP2007249841A (en) | Image recognition device | |
EP1553516B1 (en) | Pedestrian extracting apparatus | |
WO2004004320A1 (en) | Digital processing of video images | |
CA2638416A1 (en) | Method and apparatus for evaluating an image | |
US11161456B1 (en) | Using the image from a rear view camera in a three-camera electronic mirror system to provide early detection of on-coming cyclists in a bike lane | |
US11645779B1 (en) | Using vehicle cameras for automatically determining approach angles onto driveways | |
US11659154B1 (en) | Virtual horizontal stereo camera | |
JP2020065141A (en) | Vehicle overhead image generation system and method thereof | |
JP4752158B2 (en) | Environment complexity calculation device, environment recognition degree estimation device and obstacle alarm device | |
JP2001157196A (en) | System and method for security | |
JP3226699B2 (en) | Perimeter monitoring device for vehicles | |
JPH10105690A (en) | Wide area moving body following device | |
KR102240127B1 (en) | Surrounding situation monitoring device applying technology for overcoming low visibility situation based on deep learning | |
CN111345035B (en) | Information processing apparatus, information processing method, and medium containing information processing program |