JP2023106227A - Depth information processing device, depth distribution estimation method, depth distribution detection system, and trained model generation method - Google Patents
Depth information processing device, depth distribution estimation method, depth distribution detection system, and trained model generation method Download PDFInfo
- Publication number
- JP2023106227A JP2023106227A JP2022007432A JP2022007432A JP2023106227A JP 2023106227 A JP2023106227 A JP 2023106227A JP 2022007432 A JP2022007432 A JP 2022007432A JP 2022007432 A JP2022007432 A JP 2022007432A JP 2023106227 A JP2023106227 A JP 2023106227A
- Authority
- JP
- Japan
- Prior art keywords
- depth
- depth information
- period
- information
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000009826 distribution Methods 0.000 title claims abstract description 107
- 238000001514 detection method Methods 0.000 title claims abstract description 106
- 230000010365 information processing Effects 0.000 title claims abstract description 47
- 238000000034 method Methods 0.000 title claims description 38
- 238000012545 processing Methods 0.000 claims abstract description 17
- 230000003287 optical effect Effects 0.000 claims description 65
- 238000003384 imaging method Methods 0.000 claims description 63
- 238000010801 machine learning Methods 0.000 claims description 26
- 238000004088 simulation Methods 0.000 claims description 17
- 230000011218 segmentation Effects 0.000 claims description 2
- 230000015572 biosynthetic process Effects 0.000 claims 2
- 238000003786 synthesis reaction Methods 0.000 claims 2
- 238000005259 measurement Methods 0.000 abstract description 22
- 239000002131 composite material Substances 0.000 abstract description 12
- 238000006073 displacement reaction Methods 0.000 abstract description 2
- 238000004364 calculation method Methods 0.000 description 20
- 230000006870 function Effects 0.000 description 18
- 238000010586 diagram Methods 0.000 description 10
- 230000008569 process Effects 0.000 description 7
- 230000009471 action Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 5
- 230000001186 cumulative effect Effects 0.000 description 5
- 238000003491 array Methods 0.000 description 4
- 239000000284 extract Substances 0.000 description 4
- 239000004065 semiconductor Substances 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000001678 irradiating effect Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000005855 radiation Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 238000012883 sequential measurement Methods 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Images
Landscapes
- Optical Radar Systems And Details Thereof (AREA)
Abstract
Description
本開示は、深度情報処理装置、深度分布推定方法、深度分布検出システム及び学習済みモデル生成方法に関する。 The present disclosure relates to a depth information processing device, a depth distribution estimation method, a depth distribution detection system, and a trained model generation method.
物体の方位及び物体までの距離を測定するために、レーザレーダ等の走査型の測距装置が使用される。例えば、レーザレーダを用いて、自車両周囲にある物体までの距離及び方位を計測し、取得したデータ点列に基づき駐車車両の配置を判断する技術が開示されている(例えば、特許文献1参照)。 A scanning range finder, such as a laser radar, is used to measure the azimuth and distance to an object. For example, a technology has been disclosed that uses a laser radar to measure the distance and direction to objects around the vehicle and determines the placement of parked vehicles based on the obtained data point sequence (see, for example, Patent Document 1). ).
しかしながら、通常のレーザレーダは、レーザによる順次スキャンを行うため、カメラ映像に比べると解像度及びフレームレートが低くなる。また、走査型のレーザレーダにおいて、解像度を上げるために測定点を増やすと、走査時間が更に長くなる。さらに、検出対象が動体の場合、動体は、走査の最中に移動してしまう。このため、1フレームの測定の間の測定時刻の違いに起因して、深度分布に歪み及びずれが生じ、正確な計測ができなくなってしまうことがある。 However, since a normal laser radar performs sequential laser scanning, the resolution and frame rate are lower than those of camera images. In addition, in a scanning laser radar, if the number of measurement points is increased in order to increase the resolution, the scanning time will become longer. Furthermore, when the object to be detected is a moving object, the moving object moves during scanning. For this reason, due to the difference in measurement time during the measurement of one frame, the depth distribution may be distorted and deviated, making accurate measurement impossible.
したがって、これらの点に着目してなされた本開示の目的は、走査型の測距装置を用いた深度分布の測定において測定時刻の違いに起因する深度分布の歪み及びずれを低減することことにある。 Therefore, the object of the present disclosure, which focuses on these points, is to reduce the distortion and deviation of the depth distribution caused by the difference in measurement time in measuring the depth distribution using a scanning rangefinder. be.
本開示の実施形態の深度情報処理装置は、距離情報取得部と、画像取得部と、プロセッサとを備える。前記距離情報取得部は、走査型の測距装置から出力データを取得する。前記画像取得部は、前記測距装置の検出範囲と重複する範囲を撮像した画像を取得する。前記プロセッサは、前記出力データ及び前記画像に基づいて、前記測距装置の1フレームの期間である第1の期間内の所定のタイミングにおける深度分布を推定する。前記プロセッサは、前記出力データから、前記第1の期間を時間的に分割した複数の第2の期間のそれぞれについて、深度、該深度を検出した2次元方向の位置及び前記第2の期間に対応する時刻情報を含む複数の深度情報を生成する。前記プロセッサは、前記画像から、前記第2の期間のそれぞれについて、前記検出範囲の背景の領域と動体の領域とを分割する領域分割情報を生成する。前記プロセッサは、前記第2の期間のそれぞれについて、前記複数の深度情報を前記第1の期間に累積して得られる累積深度情報を前記背景の領域に含み、前記第2の期間の前記複数の深度情報を前記動体の領域に含む、合成深度情報を生成する。前記プロセッサは、さらに、複数の前記第2の期間の合成深度情報を入力とし、前記第1の期間内の前記所定のタイミングにおける深度分布を出力とする教師データを用いて学習させた学習済みモデルに、生成した前記合成深度情報を入力することにより前記深度分布を推定する。 A depth information processing apparatus according to an embodiment of the present disclosure includes a distance information acquisition section, an image acquisition section, and a processor. The distance information acquisition unit acquires output data from a scanning rangefinder. The image acquisition unit acquires an image of a range overlapping the detection range of the distance measuring device. Based on the output data and the image, the processor estimates a depth distribution at predetermined timing within a first period, which is a period of one frame of the range finder. The processor corresponds, from the output data, the depth, the two-dimensional position where the depth is detected, and the second period for each of a plurality of second periods obtained by temporally dividing the first period. Generate multiple pieces of depth information including time information for The processor generates area division information for dividing the detection range into a background area and a moving object area for each of the second periods from the image. For each of the second periods, the processor includes accumulated depth information obtained by accumulating the plurality of depth information in the first period in the background region, and the plurality of depth information in the second period. Composite depth information is generated that includes depth information in the region of the moving object. The processor further receives a plurality of synthetic depth information of the second period as input and learns a trained model using teacher data outputting the depth distribution at the predetermined timing within the first period. , the depth distribution is estimated by inputting the generated synthetic depth information.
本開示の実施形態の深度分布推定方法は、コンピュータのプロセッサが実行する方法である。前記方法は、走査型の測距装置から出力データを取得することと、前記測距装置の検出範囲と重複する範囲を撮像した画像を取得することとを含む。前記方法は、前記出力データから、前記第2の期間のそれぞれについて、前記測距装置の1フレームの期間である第1の期間を時間的に分割した複数の第2の期間のそれぞれについて、深度、該深度を検出した2次元方向の位置及び前記第2の期間に対応する時刻情報を含む複数の深度情報を生成することを含む。前記方法は、前記画像から、前記第2の期間のそれぞれについて、前記検出範囲の背景の領域と動体の領域とを分割する領域分割情報を生成することを含む。前記方法は、前記第2の期間のそれぞれについて、前記複数の深度情報を前記第1の期間に累積して得られる累積深度情報を前記背景の領域に含み、前記第2の期間の前記複数の深度情報を前記動体の領域に含む、合成深度情報を生成することを含む。前記方法は、複数の前記第2の期間の合成深度情報を入力とし、前記第1の期間内の所定のタイミングにおける深度分布を出力とする教師データを用いて学習させた学習済みモデルに、生成した前記合成深度情報を入力することにより前記深度分布を推定することを含む。 A depth distribution estimation method according to an embodiment of the present disclosure is a method executed by a processor of a computer. The method includes acquiring output data from a scanning rangefinder, and acquiring an image of a range overlapping a detection range of the rangefinder. According to the method, from the output data, for each of the second periods, depth and generating a plurality of pieces of depth information including time information corresponding to the position in the two-dimensional direction where the depth was detected and the second period. The method includes generating, from the image, segmentation information segmenting a background region and a moving object region of the detection range for each of the second time periods. The method includes, for each of the second periods, including accumulated depth information obtained by accumulating the plurality of depth information in the first period in the region of the background; generating synthetic depth information including depth information in the region of the moving object. In the method, a trained model trained using teacher data having as input a plurality of synthetic depth information of the second period and outputting a depth distribution at a predetermined timing within the first period is generated. estimating the depth distribution by inputting the synthesized depth information obtained by the method.
本開示の実施形態に係る深度分布検出システムは、走査型の測距装置と、撮像装置と、
深度情報処理装置とを含む。前記撮像装置は、前記測距装置の検出範囲と重複する範囲を撮像する。前記深度情報処理装置は、前記測距装置の出力データ及び前記撮像装置が撮像した画像に基づいて、前記測距装置の1フレームの期間である第1の期間内の所定のタイミングにおける深度分布を算出するプロセッサを含む。前記プロセッサは、前記出力データから、前記第1の期間を時間的に分割した複数の第2の期間のそれぞれについて、深度、該深度を検出した2次元方向の位置及び前記第2の期間に対応する時刻情報を含む複数の深度情報を生成する。前記プロセッサは、前記画像から、前記第2の期間のそれぞれについて、前記検出範囲の背景の領域と動体の領域とを分割する領域分割情報を生成する。前記プロセッサは、前記第2の期間のそれぞれについて、前記複数の深度情報を前記第1の期間に累積して得られる累積深度情報を前記背景の領域に含み、前記第2の期間の前記複数の深度情報を前記動体の領域に含む、合成深度情報を生成する。前記プロセッサは、複数の前記第2の期間の合成深度情報を入力とし、前記第1の期間内の前記所定のタイミングにおける深度分布を出力とする教師データを用いて学習させた学習済みモデルに、生成した前記合成深度情報を入力することにより前記深度分布を推定する。
A depth distribution detection system according to an embodiment of the present disclosure includes a scanning rangefinder, an imaging device,
and a depth information processor. The imaging device captures an image of a range that overlaps with the detection range of the distance measuring device. The depth information processing device calculates a depth distribution at a predetermined timing within a first period, which is a period of one frame of the range finder, based on the output data of the range finder and the image captured by the imaging device. Contains a computing processor. The processor corresponds, from the output data, the depth, the two-dimensional position where the depth is detected, and the second period for each of a plurality of second periods obtained by temporally dividing the first period. Generate multiple pieces of depth information including time information for The processor generates area division information for dividing the detection range into a background area and a moving object area for each of the second periods from the image. For each of the second periods, the processor includes accumulated depth information obtained by accumulating the plurality of depth information in the first period in the background region, and the plurality of depth information in the second period. Composite depth information is generated that includes depth information in the region of the moving object. The processor receives a plurality of synthetic depth information of the second period as input, and trains a trained model using teacher data outputting the depth distribution at the predetermined timing within the first period, The depth distribution is estimated by inputting the generated synthetic depth information.
本開示の実施形態に係る学習済みモデル生成方法は、コンピュータが実行する学習済みモデル生成方法である。前記方法は、走査型測距装置の1フレームの期間である第1の期間を時間的に分割した複数の第2の期間のそれぞれについて生成された複数の深度情報及び領域分割情報、並びに、前記第1の期間内の所定のタイミングにおける深度分布を組合せたデータを複数取得又は生成する。それぞれの前記深度情報は、深度、該深度を検出した2次元方向の位置及び前記第2の期間に対応する時刻情報を含み、前記領域分割情報は、前記測距装置の検出範囲の背景の領域と動体の領域とを分割する。前記方法は、前記第2の期間のそれぞれについて、前記複数の深度情報を前記第1の期間に累積して得られる累積深度情報を前記背景の領域に含み、前記第2の期間の前記複数の深度情報を前記動体の領域に含む、合成深度情報を生成する。前記方法は、前記複数の前記第2の期間の前記合成深度情報を入力とし、前記深度分布を出力とする教師データを用いて機械学習を行うことにより学習済みモデルを生成する。 A learned model generation method according to an embodiment of the present disclosure is a computer-executed learned model generation method. The method includes a plurality of depth information and area division information generated for each of a plurality of second periods obtained by temporally dividing a first period, which is a period of one frame of a scanning ranging device, and A plurality of pieces of data combining depth distributions at predetermined timings within the first period are acquired or generated. Each of the depth information includes depth, a position in the two-dimensional direction where the depth is detected, and time information corresponding to the second period, and the area division information is a background area of the detection range of the rangefinder. and moving object regions. The method includes, for each of the second periods, including accumulated depth information obtained by accumulating the plurality of depth information in the first period in the region of the background; Composite depth information is generated that includes depth information in the region of the moving object. The method receives the synthetic depth information of the plurality of second periods as input and generates a trained model by performing machine learning using teacher data having the depth distribution as output.
本開示の実施形態によれば、走査型の測距装置を用いた深度分布の測定において、測定時刻のずれに起因する深度分布の歪み及びずれを低減することができる。 According to the embodiments of the present disclosure, it is possible to reduce the distortion and deviation of the depth distribution due to the deviation of the measurement time in measuring the depth distribution using the scanning rangefinder.
以下、本開示の実施形態について、図面を参照して説明する。以下の説明で用いられる図は模式的なものである。図面上の寸法及び比率等は現実のものとは必ずしも一致していない。 Hereinafter, embodiments of the present disclosure will be described with reference to the drawings. The figures used in the following description are schematic. The dimensions, ratios, etc. on the drawings do not necessarily match the actual ones.
本開示の一実施形態に係る深度分布検出システム10は、図1に示すように、測距装置11、撮像装置12及び深度情報処理装置13を含む。なお、本願において、深度は測距装置11から対象までの距離を意味する。本願において、深度は距離と同義に用いられる。
A depth
測距装置11は、レーザレーダ等の走査型の測距装置である。レーザレーダは、検出範囲にレーザ光を照射し、反射されたレーザ光が戻ってくるまでの時間を計測する。レーザレーダは、LiDAR(Light Detection And Ranging)とも称される。撮像装置12は、撮像光学系及び撮像素子を有し、検出範囲の画像を取得する。撮像装置12は、測距装置11の検出範囲と重複する範囲を撮像するように構成される。
The rangefinder 11 is a scanning type rangefinder such as a laser radar. A laser radar irradiates a detection range with laser light and measures the time it takes for the reflected laser light to return. Laser radar is also called LiDAR (Light Detection And Ranging). The
測距装置11と撮像装置12とは、対象を観察する座標系が実質的に一致又は近接するように構成することができる。このため、測距装置11と撮像装置12とは、被写体を検出又は撮像する光学系14の光軸axが、一致するように構成されてよい。光学系14は、種々の構成のものが含まれる。また、測距装置11と撮像装置12とは、被写体を検出又は撮像する光学系の光軸が、互いに平行に近接して配置されてもよい。この場合、測距装置11と撮像装置12との光軸を一致させるための光学系14は無くてもよい。測距装置11と撮像装置12とでは、検出するデータ及び画像間に視差が無いか、又は、視差が小さい。測距装置11の出力する深度と撮像装置12の出力する画像とは、位置が対応するように重ね合わせることができる。
The distance measuring
測距装置11及び撮像装置12は、背景に対して固定して配置される。このため、測距装置11及び撮像装置12は、静止物に対して固定されてよい。例えば、深度分布検出システム10が屋外で使用される場合、測距装置11及び撮像装置12は、路側又は道路上部に設けられた構造物等に固定されてよい。
The
深度情報処理装置13は、コンピュータである。深度情報処理装置13は、汎用コンピュータ、ワークステーション、及び、PC(Personal Computer)等を含む種々のコンピュータの何れかであってよい。深度情報処理装置13は、専用のプログラム及びデータを読み込んで以下に説明する深度情報処理装置13の各機能を実行してよい。
The depth
深度情報処理装置13が取得する測距装置11からの出力データは、少なくとも測定対象の方向を示す2次元の位置情報と、距離の情報を含む。2次元の位置情報は、撮像装置12により撮像される画像上の位置に対応する。出力データは、さらに、深度を測定した時刻の情報を含んでよい。深度情報処理装置13は、さらに、撮像装置12から撮像装置12が撮像した画像を取得する。
The output data from the
深度情報処理装置13は、測距装置11から出力された出力データ及び撮像装置12から出力された画像に基づいて、測距装置11の1フレームの期間である第1の期間T1内の所定のタイミングにおける深度分布を推定する。本願において、「深度分布」は、測距装置11が観察する検出範囲を平面視したときの2次元的な深度の分布を表す。「深度分布」は、「深度マップ」と類似の意味に用いられる。「深度分布」は画像として表現される必要は無い。所定のタイミングは、例えば、測距装置11の1フレームの中央の時刻とすることができる。深度情報処理装置13が推定する深度分布は、測距装置11の測定時刻の違いに起因する歪み及びずれが低減されたものとなる。深度情報処理装置13は、機械学習による学習済みモデルを備えており、測距装置11から出力された出力データ及び撮像装置12から出力された画像を用いて、機械学習により深度分布を推定することができる。
Based on the output data output from the
深度分布検出システム10のより具体的な一例を、図2を参照して説明する。深度分布検出システム10は、測距装置11及び撮像装置12の機能を包含する検出装置21と、深度情報処理装置13とを含む。検出装置21は、測距装置11に対応する構成要素として、照射部22、反射部23、制御部24、第1の光学系25及び検出素子26を含む。また、検出装置21は、撮像装置12に対応する構成要素として、制御部24、第2の光学系27及び撮像素子28を含む。検出装置21は、さらに、切替部32を含む。
A more specific example of the depth
(深度情報の取得)
照射部22は、赤外線、可視光線、紫外線、および電波の少なくともいずれかの電磁波を放射する。一実施形態において、照射部22は、赤外線を放射する。照射部22は、放射する電磁波を、対象obに向けて、直接または反射部23を介して間接的に、照射する。図2に図示する実施形態において、照射部22は、放射する電磁波を、対象obに向けて、反射部23を介して間接的に照射する。
(Obtain depth information)
The
一実施形態においては、照射部22は、幅の細い、例えば0.5°のビーム状の電磁波を放射する。また、一実施形態において、照射部22は電磁波をパルス状に放射可能である。例えば、照射部22は、LED(Light Emitting Diode)およびLD(Laser Diode)などを含む。照射部22は、後述する制御部24の制御に基づいて、電磁波の放射および停止を切替える。
In one embodiment, the
反射部23は、照射部22から放射された電磁波を、向きを変えながら反射することにより、対象obに照射される電磁波の照射位置を変更する。照射位置は、測距装置11が距離を測定する検出位置に等しい。反射部23は、照射部22から放射される電磁波により、対象obを走査する。したがって、検出素子26は、反射部23と協同して、走査型の測距センサを構成する。
The reflecting
反射部23は、電磁波の照射位置を2次元方向に検出範囲で走査することができる。反射部23は、測距装置11が検出を行う照射位置を、プログレッシブ走査方式のように、水平方向に走査しながら順次垂直方向にずらしていく規則的な走査を行うことができる。また、反射部23は、電磁波の照射位置を、順次2次元方向にランダムな位置に設定してよい。本開示では、ランダムに照射位置を変えて順次測定を行うことも、「走査」に含む。反射部23は、他の任意の方法で、検出範囲を走査してよい。
The
反射部23は、照射部22から放射されて反射した電磁波の照射領域の少なくとも一部が、検出素子26の検出範囲に含まれるように構成されている。したがって、反射部23を介して対象obに照射される電磁波の少なくとも一部は、検出素子26において検出され得る。
The reflecting
反射部23は、例えば、MEMS(Micro Electro Mechanical Systems)ミラー、ポリゴンミラー、およびガルバノミラーなどを含む。
The
反射部23は、後述する制御部24の制御に基づいて、電磁波を反射する向きを変える。また、反射部23は、例えばエンコーダなどの角度センサを有してもよく、角度センサが検出する角度を、電磁波を反射する方向情報として、制御部24に通知してもよい。このような構成において、制御部24は、反射部23から取得する方向情報に基づいて、照射位置を算出し得る。また、制御部24は、反射部23に電磁波を反射する向きを変えさせるために入力する駆動信号に基づいて照射位置を算出し得る。
The
制御部24が、反射部23から取得する方向情報、又は、反射部23に入力する駆動信号に基づいて照射位置、すなわち深度を検出する検出位置を算出する場合、反射部23は、電磁波を走査する方向の中心軸が光軸axに実質的に平行且つ近接して配置することができる。この場合、測距装置11による検出軸は、反射部23により電磁波を走査する中心軸となる。
When the
制御部24は、1以上のプロセッサおよびメモリを含む。プロセッサは、特定のプログラムを読み込ませて特定の機能を実行する汎用のプロセッサ、および特定の処理に特化した専用のプロセッサの少なくともいずれかを含んでよい。専用のプロセッサは、特定用途向けIC(ASIC;Application Specific Integrated Circuit)を含んでよい。プロセッサは、プログラマブルロジックデバイス(PLD;Programmable Logic Device)を含んでよい。PLDは、FPGA(Field-Programmable Gate Array)を含んでよい。制御部24は、1つまたは複数のプロセッサが協働するSoC(System-on-a-Chip)、およびSiP(System In a Package)の少なくともいずれかを含んでもよい。
制御部24は、反射部23及び切替部32を制御可能に構成される。制御部24は、反射部23による電磁波の照射位置及び照射時刻に応じて、検出素子26が反射された電磁波を取得できるように切替部32を制御することができる。制御部24は、後述するように、検出素子26から検出情報を取得し、深度情報を生成することができる。また、制御部24は、撮像素子28から画像信号を取得することができる。制御部24は、深度情報及び画像信号を深度情報処理装置13に出力することができる。
The
第1の光学系25は、照射部22から照射され且つ反射部23により反射されることにより、検出範囲に向けて照射された電磁波の対象obからの反射波を、検出素子26に検出されるように進行させる。
The first
検出素子26は、照射部22から出射した電磁波を検出可能な素子を含む。例えば、検出素子26は、APD(Avalanche PhotoDiode)、PD(PhotoDiode)および測距イメージセンサなどの単一の素子を含む。検出素子26は、APDアレイ、PDアレイ、測距イメージングアレイ、および測距イメージセンサなどの素子アレイを含むものであってもよい。一実施形態において、検出素子26は、被写体からの反射波を検出したことを示す検出情報を信号として制御部24に送信する。検出素子26は、例えば、赤外線の帯域の電磁波を検出する。
The
なお、検出素子26は、上述した測距センサを構成する単一の素子である構成において、電磁波を検出できればよく、対象obが検出面において結像される必要はない。それゆえ、検出素子26は、第1の後段光学系30による結像位置である二次結像位置に設けられなくてもよい。すなわち、この構成において、検出素子26は、すべての画角からの電磁波が検出面上に入射可能な位置であれば、切替部32により第1の方向d1に進行した後に第1の後段光学系30を経由して進行する電磁波の経路上のどこに配置されてもよい。
Note that the
制御部24は、検出素子26が検出した電磁波に基づいて、深度を取得する。制御部24は、検出素子26が検出する検出情報に基づいて、以下に説明するように、ToF(Time-of-Flight)方式により、照射部22により照射される照射位置の深度を取得する。
The
制御部24は、照射部22に電磁波放射信号を入力することにより、照射部22にパルス状の電磁波を放射させる。照射部22は、入力された当該電磁波放射信号に基づいて電磁波を照射する。照射部22が放射し且つ反射部23が反射して任意の照射領域に照射された電磁波は、当該照射領域において反射する。そして、検出素子26は、当該照射領域において反射された電磁波を検出するとき、検出情報を制御部24に通知する。
By inputting an electromagnetic wave radiation signal to the
制御部24は、照射部22に電磁波を放射させた時刻から、検出情報を取得した時刻までの時間を計測する。制御部24は、当該時間に、光速を乗算し、且つ2で除算することにより、照射位置までの距離を算出する。検出素子26が単一の素子である場合、制御部24は、上述のように、反射部23から取得する方向情報、または自身が反射部23に出力する駆動信号に基づいて、照射位置を算出する。検出素子26が素子のアレイを含む場合、制御部24は、対象obにより反射された電磁波が素子アレイ上で検出される位置により、照射位置を算出することができる。この場合、撮像素子28から得られる画像と視差が無い略同じ座標軸で照射位置を特定できる。制御部24は、照射位置を変えながら、各照射位置までの距離を算出することにより深度と検出位置の情報を含む出力データを作成する。
The
(画像情報の取得)
第2の光学系27は、検出素子26の検出範囲、すなわち、測距装置11の検出範囲と重複する範囲の対象obの像を撮像素子28の検出面上に結像させる。
(Acquisition of image information)
The second
撮像素子28は、検出面において結像した像を電気信号に変換して、対象obを含む検出範囲の画像を生成する。撮像素子28は、CCDイメージセンサ(Charge-Coupled Device Image Sensor)及びCMOSイメージセンサ(Complementary MOS Image Sensor)の何れかを含んでよい。
The
撮像素子28は、生成した画像を制御部24に出力する。制御部24は、画像について、歪み補正、明度調整、コントラスト調整、ガンマ補正等の任意の処理を行ってもよい。制御部24は、検出素子26から出力される出力データの座標系と、撮像素子28から出力される画像の座標系との間にずれがある場合、これらが相互に近づけるように調整を行ってよい。
The
(光学系と切替部の構成)
第1の光学系25は、第2の光学系27と共通の前段光学系29と、切替部32の後段に位置する第1の後段光学系30を含む。第2の光学系27は、第1の光学系25と共通の前段光学系29と、切替部32の後段に位置する第2の後段光学系31を含む。前段光学系29は、例えば、レンズおよびミラーの少なくとも一方を含み、被写体となる対象obの像を結像させる。
(Configuration of optical system and switching unit)
The first
切替部32は、前段光学系29から所定の位置をおいて離れた対象obの像の、前段光学系29による結像位置である一次結像位置、又は当該一次結像位置近傍に、設けられていればよい。切替部32は、前段光学系29を通過した電磁波が入射する作用面asを有している。作用面asは、2次元状に沿って並ぶ複数の画素pxによって構成されている。作用面asは、後述する第1の状態および第2の状態の少なくともいずれかにおいて、電磁波に、例えば、反射および透過などの作用を生じさせる面である。
The switching
切替部32は、作用面asに入射する電磁波を、第1の方向d1に進行させる第1の状態と、第2の方向d2に進行させる第2の状態とに、画素px毎に切替可能である。第1の状態は、作用面asに入射する電磁波を、第1の方向d1に反射する第1の反射状態である。また、第2の状態は、作用面asに入射する電磁波を、第2の方向d2に反射する第2の反射状態である。
The switching
切替部32は、さらに具体的には、画素px毎に電磁波を反射する反射面を含んでいる。切替部32は、画素px毎の反射面の向きを変更することにより、第1の反射状態および第2の反射状態を画素px毎に切替える。一実施形態において、切替部32は、例えばDMD(Digital Micro mirror Device:デジタルマイクロミラーデバイス)を含む。DMDは、作用面asを構成する微小な反射面を駆動することにより、画素px毎に当該反射面を作用面asに対して所定の角度、例えば+12°および-12°のいずれかの傾斜状態に切替可能である。なお、作用面asは、DMDにおける微小な反射面を載置する基板の板面に平行である。
More specifically, the switching
切替部32は、制御部24の制御に基づいて、第1の状態および第2の状態を、画素px毎に切替える。例えば、切替部32は、同時に、一部の画素px1を第1の状態に切替えることにより当該画素px1に入射する電磁波を第1の方向d1に進行させ得、別の一部の画素px2を第2の状態に切替えることにより当該画素px2に入射する電磁波を第2の方向d2に進行させ得る。また、切替部32は、同一の画素pxを第1の状態から第2の状態に切替えることにより、当該画素pxに入射する電磁波を第1の方向d1の次に第2の方向d2に向けて進行させ得る。
The switching
図2に示すように、第1の後段光学系30は、切替部32から第1の方向d1に設けられている。第1の後段光学系30は、例えば、レンズおよびミラーの少なくとも一方を含む。第1の後段光学系30は、切替部32において進行方向を切替えられた電磁波を、検出素子26に入射させる。
As shown in FIG. 2 , the first post-stage
第2の後段光学系31は、切替部32から第2の方向d2に設けられている。第2の後段光学系31は、例えば、レンズおよびミラーの少なくとも一方を含む。第2の後段光学系31は、切替部32において進行方向を切替えられた電磁波としての対象obの画像を撮像素子28の検出面上に結像させる。
The second post-stage
以上のような構成により、検出装置21は、前段光学系29の光軸を、第1の状態において電磁波を進行させる第1の方向d1における第1の後段光学系30の光軸に、かつ第2の状態において電磁波を進行させる第2の方向d2における第2の後段光学系31の光軸に合わせることが可能となる。したがって、検出装置21は、切替部32の画素pxを第1の状態および第2の状態のいずれかに切替えることにより、素子アレイである場合の検出素子26が検出する深度と撮像素子28が撮像する画像との視差のずれを低減し得る。
With the configuration as described above, the
制御部24は、反射部23が照射位置を移動させるに従って、切替部32における一部の画素pxを第1の状態に切替え、且つ別の一部の画素pxを第2の状態に切替え得る。したがって、検出装置21は、一部の画素pxにおいて検出素子26に電磁波を検出させながら、同時に別の一部の画素pxにおいて撮像素子28に画像を検出させ得る。これにより、検出装置21は、同じ視野内の深度と電磁波の照射位置の近傍を除いた部分の画像とを実質的に同時に取得することができる。
The
なお、図2の構成例では、測距装置11の検出光軸と、撮像装置12の光軸とを一致又は近接させるために、切替部32を含む光学系を用いた。しかし、測距装置11と撮像装置12との光軸を一致又は近接させる方法は、これに限られない。例えば、図1の光学系14は、測距装置11の検出する光と撮像装置12の撮像する画像との波長の差異を利用し、ダイクロイックミラー又はダイクロイックプリズムを用いて、測距装置11の光学系の光軸と撮像装置12の光軸とを実質的に一致させる構成とすることができる。
In addition, in the configuration example of FIG. 2, an optical system including the
(深度情報処理装置)
一実施形態に係る深度情報処理装置13は、図3に示すように、距離情報取得部41、画像取得部42、制御部43、記憶部44及び出力部45を含む。
(depth information processing device)
The depth
距離情報取得部41は、測距装置11から出力データを取得する。距離情報取得部41は、測距装置11と通信する通信モジュールを含んでよい。図2の検出装置21の場合、距離情報取得部41は、測距装置11の一部を構成する制御部24から出力データを取得する。出力データは、少なくとも、検出範囲を平面視したときの検出位置を示す2次元の位置情報と、当該位置に位置する対象obまでの距離である深度の測定値を含む。出力データは、さらに、深度を検出した時刻の情報を含んでよい。時刻の情報は、深度情報処理装置13が出力データを取得した時刻に基づいて付与することもできる。
The distance
画像取得部42は、撮像装置12から画像を取得する。画像取得部42は、撮像装置12と通信する通信モジュールを含んでよい。図2の検出装置21の場合、画像取得部42は、撮像装置12の一部を構成する制御部24から画像を取得する。画像取得部42が取得する画像は、画像を撮像した時刻の情報を含むことができる。時刻の情報は、深度情報処理装置13が画像を取得した時刻に基づいて付与することもできる。測距装置11の出力データの時刻の情報と、画像の時刻の情報とは同期している必要がある。
The
制御部43は、検出装置21の制御部24と同様に、1以上のプロセッサ及びメモリを含む。制御部43は、検出装置21の制御部24と同様に、特定のプログラムを読み込ませて特定の機能を実行する汎用のプロセッサ、および特定の処理に特化した専用のプロセッサの少なくともいずれかを含んでよい。
The
制御部43は、深度情報処理装置13の全体を制御するとともに、距離情報取得部41で取得した出力データ及び画像取得部42で取得した画像に基づいて、所定のタイミングの深度分布を推定するための種々の処理を実行する。制御部43が実行する処理には、以下において説明する機械学習を用いた深度分布の推定が含まれる。
The
記憶部44は、半導体メモリ及び/又は磁気メモリを含む。記憶部44は、例えば主記憶装置、補助記憶装置、又はキャッシュメモリとして機能してもよい。記憶部44は、深度情報処理装置13の動作に用いられる任意の情報を記憶する。例えば、記憶部44は、システムプログラム、アプリケーションプログラム、管理データベース等を記憶してもよい。記憶部44は、距離情報取得部41で取得した出力データ及び画像取得部42で取得した画像、並びに、これらから加工して得られた情報を、一時的に保存することができる。
The
記憶部44は、他のコンピュータ(「学習用コンピュータ」とする)又は深度情報処理装置13で、機械学習により生成された学習済みモデル46を記憶する。学習済みモデル46は、距離情報取得部41で取得した出力データ及び画像取得部42で取得した画像を前処理したデータを入力とし、所定のタイミングの深度分布を出力とするデータセットを用いて機械学習により生成される。学習済みモデル46は、プログラム及びパラメータの形式で記憶されてよい。制御部43は、記憶部44から学習済みモデル46を読みだして使用することができる。
The
出力部45は、深度情報処理装置13から外部に情報を出力可能に構成される。出力部45は、ディスプレイ、外部のコンピュータに情報を送信する通信モジュール、記憶媒体に情報を出力する装置等の何れか一つ以上を含む。
The
(深度分布の推定処理)
以下に、制御部43が実行する深度分布の推定処理を、図4のフローチャートを用いて説明する。深度情報処理装置13は、以下に説明する制御部43が行う処理を、非一時的なコンピュータ可読媒体に記録されたプログラムを読み込んで実装するように構成されてよい。非一時的なコンピュータ可読媒体は、磁気記憶媒体、光学記憶媒体、光磁気記憶媒体、半導体記憶媒体を含むがこれらに限られない。
(Processing for estimating depth distribution)
Depth distribution estimation processing executed by the
まず、制御部43は、距離情報取得部41を介して測距装置11の出力データを取得し、画像取得部42を介して撮像装置12の撮像した画像を取得する(ステップS101)。
First, the
図5は、深度分布検出システム10の検出範囲内の場面の一例を示す図である。例えば、測距装置11及び撮像装置12又は検出装置21が、道路の横又は上方の構造物に固定され、道路上を走行する動体MOを検出しているものとする。動体MOは、例えば、自動車、自転車及び歩行者の何れかであってよい。図5は一つの動体MOを含むが、動体MOの数は一つに限られない。検出範囲において、動体MO以外の部分は、時間的に変化しない背景BGとなる。
FIG. 5 is a diagram showing an example of a scene within the detection range of the depth
測距装置11のフレームレート及び解像度は、撮像装置12のフレームレート及び解像度よりも低い。測距装置11の1フレームの期間を第1の期間T1とする。例えば、測距装置11のフレームレートは、3fpsであり、第1の期間T1は、1/3秒である。また、測距装置11が1フレームの間に、測定できる深度の数は、例えば、横方向120、縦方向20の合計2400とすることができる。例えば、動体MOが自動車の場合、測距装置11が1フレームの走査をする間に、動体MOは、測距装置11が測定を行う視野内で移動する。そのため、第1の期間T1の間に得られる深度を集めて深度分布を生成しても、測定時刻の違いに起因して、特定の時刻の瞬間的な深度分布を得ることができない。そのため、制御部43は以下の処理を行う。
The frame rate and resolution of the ranging
図6の下段に示すように、制御部43は、測距装置11の出力データに基づき、第1の期間T1を分割した複数の第2の期間T2のそれぞれについて、複数の深度を時刻情報と関連付けて抽出する(ステップS102)。制御部43は、例えば、第1の期間T1を100の第2の期間T2に分割することができる。例えば、第1の期間T1の長さが、1/3秒の場合、第2の期間T2の長さは、1/300秒とすることができる。第1の期間T1を第2の期間T2に分割する数nは、100に限られず任意の数とすることができる。
As shown in the lower part of FIG. 6, based on the output data of the
図6に示すように、それぞれの第2の期間T2について、それぞれの第2の期間T2に測距装置11で検出された深度が深度情報diとして抽出される。深度情報diは深度の測定値と、深度の検出位置を示す2次元の位置情報及び時刻情報とを関連付けた情報である。それぞれの第2の期間T2に検出された複数の深度情報diの集合を短期間深度情報分布SDk(k=1~n)とする。例えば、測距装置11が1フレームの間に、横方向120、縦方向20の合計2400の深度を測定し、n=100の場合、各短期間深度情報分布SDkに含まれる深度情報diの数は横方向12、縦方向2の合計24とすることができる。図6は単に説明のための図であるから、各短期間深度情報分布SDk内の深度情報diの数を少数の点で表示している。
As shown in FIG. 6, for each second period T2 , the depth detected by the
図6において、測距装置11は、検出範囲内でランダムな位置の深度を順次取得するものとしている。しかし、測距装置11は、検出範囲内で深度を規則的に走査して取得してよい。
In FIG. 6, the
また、制御部43は、第1の期間T1に渡って、1フレームの深度情報diを累積した情報を、累積深度情報ADとして生成してよい。累積深度情報ADは、深度情報diを検出範囲の2次元の座標に対応付けて画像として表現したとき、測定時刻の違いに起因する歪み及びずれのある画像となる情報である。
Further, the
各短期間深度情報分布SDk(k=1~n)に含まれる深度情報diには、それぞれの各短期間深度情報分布SDk(k=1~n)に応じた時刻情報が付与される。一例として、各短期間深度情報分布SDk(k=1~n)に属する深度情報diには、第2の期間T2の終了する時刻が時刻情報として付与されてよい。例えば、第1の期間T1の開始時刻を0とする場合、短期間深度情報分布SDk(k=1~n)に含まれる深度情報diには、t=T1×k/nの時刻情報が付与される。なお、測距装置11が出力する出力データに深度を測定した時刻の情報が含まれる場合、これをそのまま深度情報diの時刻情報としてもよい。このようにして、各深度情報diに含まれる深度の測定値は、検出範囲を平面視したときの検出位置を示す2次元の座標と時刻情報とを含む3次元のボクセル(Voxel)に対応付けられる。
Depth information di included in each short-term depth information distribution SDk (k=1 to n) is provided with time information corresponding to each short-term depth information distribution SDk (k=1 to n). As an example, the depth information di belonging to each short-term depth information distribution SDk (k=1 to n) may be provided with the end time of the second period T2 as time information. For example, when the start time of the first period T 1 is 0, the depth information di included in the short-term depth information distribution SDk (k=1 to n) contains time information of t=T 1 ×k/n. is given. If the output data output by the
次に、制御部43は、第2の期間T2のそれぞれについて、撮像装置12から取得した画像に基づいて、検出範囲の背景BGの領域と動体MOの領域とを分割する領域分割情報SIk(k=1~n)(図7参照)を生成する(ステップS103)。このため、制御部43は、撮像装置12から取得した画像から、第1の期間T1の所定のタイミングで画像を抽出する。例えば、図6に示すように、制御部43は、第1の期間T1の開始時刻をt=0とするとき、t=0のときの画像IM1と、第1の期間T1の終了時刻であるt=T1のときの画像IM2とを取得してよい。
Next, for each second period T2 , based on the image acquired from the
制御部43は、撮像装置12から取得した時系列の画像に対してオプティカルフロー法を用いて、それぞれの第2の期間T2の終了時刻における、動体MOの位置を推定する。すなわち、制御部43は、図7に示すように、第1の画像MI1から動体MOを抽出し、第2の画像MI2から同じ動体MO(図7において、MO’とする)を抽出する。制御部43は、動体MOの特徴点を抽出し第1の画像MI1と第2の画像MI2との間の特徴点の変位ベクトルvを算出する。制御部43は、各特徴点が等速で移動することを想定して、それぞれの第2の期間T2に対応する時刻の動体MOの位置を推定する。
The
制御部43は、それぞれの第2の期間T2における動体MOの位置に基づいて、領域分割情報SIk(k=1~n)を決定する。領域分割情報SIk(k=1~n)は、動体MOが存在する領域である動体領域MAと、動体領域MA以外の背景BGの領域である背景領域BAとの境界を示す領域境界ABの情報を含む。図7では、単に説明のために領域境界ABは、長方形で示しているが、領域境界は動体MOを平面視した外形に沿うものとする。
The
なお、領域分割情報SIk(k=1~n)を生成する方法は、オプティカルフローを用いるものに限られない。例えば、制御部43はそれぞれの第2の期間T2に対応する時刻t=T1・k/nに撮像された画像を取得し、直前の第2の期間T2の画像と差分をとることができる。制御部43は、差分が実質的に0の領域を、画像が変化していないので背景領域BAであると判断しうる。また、制御部43は、差分が実質的に0以外の領域を、画像が変化しているので動体領域MAであると判断しうる。なお、差分が実質的に0であるとは、差分が0であるか検出誤差範囲内の僅かな値であることを示す。
Note that the method of generating the region division information SIk (k=1 to n) is not limited to using optical flow. For example, the
また、制御部43は、各画素について複数の画像から輝度のヒストグラムを生成し、このヒストグラムに基づいて領域分割情報SIk(k=1~n)を生成することができる。ヒストグラムは、横軸に輝度、縦軸に頻度をとったグラフとして表現される。複数の画像に基づき、特定の輝度の頻度が所定値よりも高い画素の位置は、背景領域BAに該当すると判断することができる。輝度の頻度が広く分布している画素の位置は、動体領域MAと判断することができる。
In addition, the
さらに、制御部43は、図8に示すように、第2の期間T2のそれぞれについて、累積深度情報ADを背景領域BAに含み、第2の期間T2の複数の深度情報diを動体領域MAに含む、合成深度情報CDk(k=1~n)を生成する(ステップS104)。
Furthermore, as shown in FIG. 8, the
すなわち、制御部43は、第2の期間T2のそれぞれについてステップS103で生成した領域分割情報SIk(k=1~n)を適用して、測距装置11の検出範囲を平面視した2次元領域を分割する。制御部43は、動体領域MAには、短期間深度情報分布SDk(k=1~n)の深度情報diを採用し、背景領域BAには累積深度情報ADの深度情報diを採用して、合成深度情報CDk(k=1~n)を生成する。その結果、合成深度情報CDk(k=1~n)の背景領域BAは、1フレームの深度情報diを反映した、高密度の深度情報diを含む。背景領域BAでは、時間と共に検出対象が変化しないので、このように1フレームわたり累積した多数の深度情報diを使用することができる。一方、動体領域MAでは、深度情報diが時間と共に変化するので、各第2の期間T2の低解像度の深度情報diを使用する。なお、図8は単に説明のための図なので、深度情報diを少数の点で表している。深度情報diはより高密度に取得することができる。
That is, the
このように、背景領域BAの深度情報diの密度を高くすることにより、合成深度情報CDk(k=1~n)を機械学習の入力として使用する場合に、深度分布の推定精度を向上させることができる。 By increasing the density of the depth information di of the background area BA in this way, it is possible to improve the estimation accuracy of the depth distribution when using the composite depth information CDk (k=1 to n) as input for machine learning. can be done.
次に、制御部43は、ステップS104で生成したn個の合成深度情報CDk(k=1~n)を学習済みモデル46に入力して、所定のタイミングにおける深度分布を推定する(ステップS105)。所定のタイミングは、第1の期間T1の間の任意の時刻に設定することができる。例えば、所定のタイミングは、第1の期間T1内の略中央の時刻に設定することができる。すなわち、第1の期間T1の開始時刻をt=0とするとき、所定のタイミングは、t=T1/2の近傍とすることができる。例えば、所定のタイミングがT1×0.4以上T1×0.6以下であれば、所定のタイミングは、第1の期間T1内の略中央の時刻ということができる。制御部43は、推定した所定のタイミングの深度分布を記憶部44に記憶することができる。また、制御部43は、推定した所定のタイミングの深度分布を、出力部45から出力することができる。
Next, the
(学習用コンピュータ)
深度情報処理装置13の深度分布の推定に使用される学習済みモデル46は、予め学習用コンピュータ50により生成される。学習用コンピュータ50は、深度情報処理装置13と異なるコンピュータとすることができる。あるいは、深度情報処理装置13が、学習用コンピュータ50の機能を有してもよい。一実施形態において、学習用コンピュータ50は、シミュレーションにより機械学習の教師データを生成し、この教師データを使用して学習済みモデル46を生成する。
(learning computer)
The trained
学習用コンピュータ50は、仮想的な3次元空間内で仮想的な動体MOを移動させ、仮想空間内の所定の位置に配置した測距装置11及び撮像装置12により検出される出力データ及び画像を算出する。学習用コンピュータ50は、CG(Computer Graphics)により画像を生成することができる。また、学習用コンピュータ50は、所定のタイミングにおける遅延の無い深度分布をシミュレーション演算により算出する。
The learning
学習用コンピュータ50は、例えば、図9に示すように、入力部51、演算部52、記憶部53及び出力部54を含む。
The learning
入力部51は、シミュレーションに使用する各種のデータの入力を受ける。入力部51は、キーボード、マウス等の入力装置、通信モジュール及び/又は記憶媒体の読取装置を含む。例えば、入力部51は、仮想空間に配置される静止物又は背景の位置、大きさ等の情報の入力を受ける。また、入力部51は、仮想空間に配置される動体MOの位置、大きさ、移動方向及び速度の入力を受ける。さらに、入力部51は、仮想空間に配置される測距装置11及び撮像装置12の位置及び向きの情報の入力を受ける。さらに、入力部51は、シミュレーションを行うための各種条件の設定を受けてよい。例えば、入力部51は、第1の期間T1及び第2の期間T2の設定を受ける。
The
演算部52は、学習済みモデル46を生成するための各種演算を実行する。演算部52は、検出装置21の制御部24及び深度情報処理装置13の制御部43と同様に、一つ以上のプロセッサを含んで構成される。演算部52は、シミュレーションを行うシミュレーション部55と機械学習を行う関数近似器56とを含んでよい。関数近似器56は、複数の入力と出力とを組み合わせたデータセットである教師データから入力と出力との関係を推定する。関数近似器56は、例えば、ニューラルネットワークである。なお、本実施形態では、シミュレーションと機械学習とを同一の学習用コンピュータ50で行うものとしたが、これらは別個のコンピュータにより実行されてよい。
The
記憶部53は、半導体メモリ及び/又は磁気メモリを含む。記憶部53は、学習用コンピュータ50の動作に使用される任意の情報及び学習用コンピュータ50が出力する任意の情報を記憶することができる。例えば、記憶部53は、入力部51から取得したシミュレーションの各種設定情報、及び、機械学習の結果生成された学習済みモデル46を記憶することができる。
The
出力部54は、学習用コンピュータ50から外部に情報を出力可能に構成される。出力部54は、ディスプレイ、外部のコンピュータに情報を送信する通信モジュール、記憶媒体に情報を出力する装置等を含む。
The
(学習済みモデルの生成)
以下に、演算部52が実行する学習済みモデル46の生成処理を、図10のフローチャートを用いて説明する。学習用コンピュータ50は、以下に説明する演算部52が行う処理の一部又は全部を、非一時的なコンピュータ可読媒体に記録されたプログラムを読み込んで実装するように構成されてよい。非一時的なコンピュータ可読媒体は、磁気記憶媒体、光学記憶媒体、光磁気記憶媒体、半導体記憶媒体を含むがこれらに限られない。
(Generation of trained model)
The generation processing of the learned
演算部52は、シミュレーションにより、仮想空間における測距装置11の出力データ及び撮像装置12の出力する画像並びに第1の期間T1の所定のタイミングにおける深度分布を生成する。以下において、所定のタイミングの深度分布を目標深度分布と呼ぶ。目標深度分布は、測距装置11の1フレーム内の測定時刻の違いに起因するずれを含まない、所定のタイミングにおける正しい深度の分布である。演算部52は、実際の測距装置11が深度測定を可能な頻度に従って、出力データを生成する。演算部52は、1フレームの期間である第1の期間T1に実際に測距装置11が検出可能な深度情報diの数よりも大きい数の深度情報diを含む目標深度分布を生成してよい。例えば、測距装置11が、第1の期間T1の間に横方向に120、縦方向に20配列された検出位置の深度情報diを取得する場合、シミュレーションで算出する目標深度分布は、横方向に240、縦方向に40配列された検出位置の深度の分布とすることができる。すなわち、目標深度分布は、測距装置11が実際に検出可能な深度情報diより高い解像度の深度情報diを含むことができる。
The
次に、演算部52は、シミュレーションの結果得られた測距装置11の出力データを第1の期間T1を分割した第2の期間T2のそれぞれについて、複数の深度情報diを時刻情報と関連付けて抽出する(ステップS202)。この処理は、図4のフローチャートにおけるステップS102と同じ処理である。ここで使用される第1の期間T1及び第2の期間T2は、ステップS102において使用される第1の期間T1及び第2の期間T2と同じに設定される。
Next, the
演算部52は、第2の期間T2のそれぞれについて、シミュレーションの結果得られた画像に基づいて、検出範囲の背景BGの領域と動体MOの領域とを分割する領域分割情報SIk(k=1~n)を生成する(ステップS203)。この処理は、図4のフローチャートにおけるステップS103と同じ処理である。 Based on the image obtained as a result of the simulation, the calculation unit 52 generates area division information SIk (k=1 ˜n) are generated (step S203). This process is the same process as step S103 in the flowchart of FIG.
さらに、演算部52は、第2の期間T2のそれぞれについて、複数の深度情報diを第1の期間T1に累積して得られる累積深度情報ADを背景領域BAに含み、第2の期間T2の複数の深度情報diを動体領域MAに含む、合成深度情報CDk(k=1~n)を生成する(ステップS204)。この処理は、図4のフローチャートにおけるステップS104と同じ処理である。
Furthermore, for each of the second periods T2 , the
すなわち、演算部52は、シミュレーションにより得られた測距装置11の出力データ及び撮像装置12の画像に対して、深度情報処理装置13が機械学習により推論を行う前段階で行う処理と同じ処理を行って、合成深度情報CDk(k=1~n)を生成する。
That is, the
演算部52は、1フレームのデータに対応する複数の合成深度情報CDk(k=1~n)と目標深度分布との組合せを一つのデータとし、これを複数含む教師データを生成する(ステップS205)。演算部52は、上記ステップS201~S204において、複数のデータを平行して生成してよい。演算部52は、機械学習のために多数の、例えば、1000組から10000組のデータからなるデータセットを生成する。
The
演算部52は、関数近似器56により、合成深度情報CDk(k=1~n)を入力とし、目標深度分布を出力とする機械学習を実行し、学習済みモデル46を生成する(ステップS206)。演算部52は、学習済みモデル46を記憶部53に記憶し、及び/又は、出力部54から出力する。学習済みモデル46は、複数の深度情報処理装置13で使用することができる。
The
(機械学習の演算方法)
関数近似器56は、例えば、ニューラルネットワークである。ネットワーク
不確実性は、機械学習の出力を正規分布の確率表現として算出する場合における分散を表す。関数近似器56は、数式(2)の損失関数L(θ)を算出する演算を行い、この損失関数L(θ)を最小化するように学習を行う。
Uncertainty represents the variance in calculating the output of machine learning as a probability representation of a normal distribution. The
ここで、iは、教師データに含まれるそれぞれのデータを示す。また、Diは、教師データの深度である。式(2)で用いた不確実性は、推定が難しいデータの程度を表す。 Here, i indicates each data included in the teacher data. Also, Di is the depth of the teacher data. The uncertainty used in Equation (2) represents the extent of data that are difficult to estimate.
数式(2)の第2項は、不確実性(分散)を小さくする方向に作用する。一方で第1項の指数関数exp()は、不確実性(分散)を大きくする方向に作用する。演算部52は、損失関数L(θ)が小さくなるよう学習を行うので、第1項と第2項との間でバランスを取って学習を行うことができる。すなわち、本実施形態によれば、学習済みモデル46の生成において不確実性が考慮される。不確実性を用いて学習することにより、空間的には遠方及び物体の境界付近、時間的には目的の時刻に遠い時刻、並びに、移動物体のように深度推定が困難な深度測定値に対して、頑健な出力となることが期待できる。
The second term of Equation (2) acts to reduce the uncertainty (variance). On the other hand, the exponential function exp() of the first term acts to increase the uncertainty (variance). Since the
本実施形態では、学習用コンピュータ50は、上述のように、それぞれの第2の期間T2の深度情報diに、第1の期間T1よりも高い分解度の時刻情報を持たせて機械学習の入力となる合成深度情報CDk(k=1~n)を生成した。また、学習用コンピュータ50は、測定時刻のずれに基づく歪を含まない目標深度分布をシミュレーションにより生成して機械学習の出力とした。これによって、生成された学習済みモデル46を使用することにより、深度情報処理装置13は、実際の測距装置11からの出力データ及び撮像装置12からの画像から生成した合成深度情報CDk(k=1~n)を学習済みモデル46に入力して、所定のタイミングの深度分布を推定することが可能になる。推定された深度分布は、測距装置11の測定時刻のずれに起因する深度分布の歪み及びずれを低減したものとなる。
In the present embodiment, as described above, the learning
また、本実施形態では、学習用コンピュータ50による学習と、深度情報処理装置13による推定の両段階において、機械学習の入力として背景領域BAに深度情報diを第1の期間T1に渡り累積して得られる累積深度情報ADを含むようにした。これにより、単に、1フレームの測距情報を、n個に分割した短期間深度情報分布SDk(k=1~n)を機械学習の入力に用いるよりも、入力情報を高密度化することができる。これによって、機械学習の精度が向上するので、所定のタイミングにおける深度分布の予測精度が向上する。
Further, in the present embodiment, in both stages of learning by the learning
さらに、本実施形態では、機械学習の学習段階において、学習済みモデル46を生成するために不確実性を含む演算を行った。これによって、深度情報diの推定が困難な位置及び時間の条件についても、不確実性をより小さくすることができる。これによって、深度分布の推定精度をさらに向上させることができる。
Furthermore, in this embodiment, in the learning stage of machine learning, calculations involving uncertainty are performed to generate the trained
実際に、本願の発明者がシミュレーションにより行った実験によれば、機械学習の入力となる深度情報diを時間的に分割して時刻情報を持たせることにより、深度分布の推定精度を向上させる効果が確認された。また、背景領域BAに1フレームの間累積した深度情報diを持たせて高密度化することによっても、深度分布の推定精度を向上させる効果が確認された。さらに、機械学習の学習段階で不確実性を考慮することによっても、深度分布の推定精度を向上させる効果が確認された。これらの手法は、併用して実行することにより、深度分布の推定精度がさらに向上することも確認された。 In fact, according to an experiment conducted by the inventor of the present application by simulation, the effect of improving the estimation accuracy of the depth distribution by dividing the depth information di that is the input of machine learning in terms of time and giving it time information was confirmed. It was also confirmed that the background area BA has the depth information di accumulated for one frame to increase the density of the background area BA, thereby improving the estimation accuracy of the depth distribution. Furthermore, it was confirmed that considering uncertainty in the learning stage of machine learning also has the effect of improving the estimation accuracy of the depth distribution. It was also confirmed that the estimation accuracy of the depth distribution is further improved by executing these methods in combination.
また、本実施形態によれば、学習段階で使用する出力としての目標深度分布の深度情報diの数を、第1の期間T1に1フレームの深度情報diとして測距装置11から出力される深度情報diの数より大きくした。これによって、深度情報処理装置13は、所定のタイミングの深度分布として、測距装置11が1フレームの間に取得できる深度分布よりも高い密度の深度分布を取得することができる。また、これにより、深度分布に基づいて、深度マップを生成する場合、深度情報処理装置13は、測距装置11から出力される深度分布を高解像度化した深度マップを生成することができる。
Further, according to the present embodiment, the number of depth information di of the target depth distribution as an output used in the learning stage is output from the
本開示に係る実施形態について、諸図面及び実施例に基づき説明してきたが、当業者であれば本開示に基づき種々の変形又は修正を行うことが容易であることに注意されたい。従って、これらの変形又は修正は本開示の範囲に含まれることに留意されたい。例えば、各構成部又は各ステップなどに含まれる機能などは論理的に矛盾しないように再配置可能であり、複数の構成部又はステップなどを1つに組み合わせたり、或いは分割したりすることが可能である。本開示に係る実施形態は装置が備えるプロセッサにより実行される方法、プログラム、又はプログラムを記録した記憶媒体としても実現し得るものである。本開示の範囲にはこれらも包含されるものと理解されたい。 Although the embodiments of the present disclosure have been described with reference to the drawings and examples, it should be noted that those skilled in the art can easily make various variations or modifications based on the present disclosure. Therefore, it should be noted that these variations or modifications are included within the scope of this disclosure. For example, functions included in each component or each step can be rearranged so as not to be logically inconsistent, and multiple components or steps can be combined into one or divided. is. Embodiments according to the present disclosure can also be implemented as a method, a program, or a storage medium recording a program executed by a processor provided in an apparatus. It should be understood that these are also included within the scope of the present disclosure.
10 深度分布検出システム
11 測距装置
12 撮像装置
13 深度情報処理装置
14 光学系
21 検出装置
22 照射部
23 反射部
24 制御部
25 第1の光学系
26 検出素子
27 第2の光学系
28 撮像素子
29 前段光学系
30 第1の後段光学系
31 第2の後段光学系
32 切替部
41 距離情報取得部
42 画像取得部
43 制御部
44 記憶部
45 学習済みモデル
50 学習用コンピュータ
51 入力部
52 演算部
53 記憶部
54 出力部
55 シミュレーション部
56 関数近似器
ax 光軸
MO 動体
BG 背景
T1 第1の期間
T2 第2の期間
IM1 第1の画像
IM2 第2の画像
di 深度情報
SDk(k=1~n) 短期間深度情報分布
AD 累積深度情報
SIk(k=1~n) 領域分割情報
CDk(k=1~n) 合成深度情報
REFERENCE SIGNS
Claims (11)
前記測距装置の検出範囲と重複する範囲を撮像した画像を取得する画像取得部と、
前記出力データ及び前記画像に基づいて、前記測距装置の1フレームの期間である第1の期間内の所定のタイミングにおける深度分布を推定するプロセッサであって、
前記プロセッサは、
前記出力データから、前記第1の期間を時間的に分割した複数の第2の期間のそれぞれについて、深度、該深度を検出した2次元方向の位置及び前記第2の期間に対応する時刻情報を含む複数の深度情報を生成し、
前記画像から、前記第2の期間のそれぞれについて、前記検出範囲の背景の領域と動体の領域とを分割する領域分割情報を生成し、
前記第2の期間のそれぞれについて、前記複数の深度情報を前記第1の期間に累積して得られる累積深度情報を前記背景の領域に含み、前記第2の期間の前記複数の深度情報を前記動体の領域に含む、合成深度情報を生成し、
複数の前記第2の期間の合成深度情報を入力とし、前記第1の期間内の前記所定のタイミングにおける深度分布を出力とする教師データを用いて学習させた学習済みモデルに、生成した前記合成深度情報を入力することにより前記深度分布を推定するプロセッサと
を備える深度情報処理装置。 a distance information acquisition unit that acquires output data from a scanning rangefinder;
an image acquisition unit that acquires an image of a range that overlaps the detection range of the distance measuring device;
A processor for estimating a depth distribution at a predetermined timing within a first period, which is a period of one frame of the range finder, based on the output data and the image,
The processor
From the output data, for each of a plurality of second periods obtained by temporally dividing the first period, the depth, the position in the two-dimensional direction where the depth was detected, and time information corresponding to the second period are obtained. Generate multiple depth information containing,
generating area division information for dividing the detection range into a background area and a moving object area for each of the second periods from the image;
For each of the second periods, the background area includes accumulated depth information obtained by accumulating the plurality of depth information in the first period, and the plurality of depth information in the second period is included in the generate synthetic depth information, including in the region of the moving object;
The synthesized depth information of a plurality of the second periods is input, and the generated synthesis is applied to the trained model trained using teacher data whose output is the depth distribution at the predetermined timing within the first period. A depth information processing apparatus comprising: a processor that estimates the depth distribution by inputting depth information.
走査型の測距装置から出力データを取得し、
前記測距装置の検出範囲と重複する範囲を撮像した画像を取得し、
前記出力データから、前記測距装置の1フレームの期間である第1の期間を時間的に分割した複数の第2の期間のそれぞれについて、深度、該深度を検出した2次元方向の位置及び前記第2の期間に対応する時刻情報を含む複数の深度情報を生成し、
前記画像から、前記第2の期間のそれぞれについて、前記検出範囲の背景の領域と動体の領域とを分割する領域分割情報を生成し、
前記第2の期間のそれぞれについて、前記複数の深度情報を前記第1の期間に累積して得られる累積深度情報を前記背景の領域に含み、前記第2の期間の前記複数の深度情報を前記動体の領域に含む、合成深度情報を生成し、
複数の前記第2の期間の合成深度情報を入力とし、前記第1の期間内の所定のタイミングにおける深度分布を出力とする教師データを用いて学習させた学習済みモデルに、生成した前記合成深度情報を入力することにより前記深度分布を推定する、方法。 A depth distribution estimation method executed by a computer processor,
Acquire output data from a scanning rangefinder,
Acquiring an image of a range overlapping the detection range of the rangefinder,
From the output data, the depth, the position in the two-dimensional direction where the depth was detected, and the generating a plurality of depth information including time information corresponding to the second period;
generating area division information for dividing the detection range into a background area and a moving object area for each of the second periods from the image;
For each of the second periods, the background area includes accumulated depth information obtained by accumulating the plurality of depth information in the first period, and the plurality of depth information in the second period is included in the generate synthetic depth information, including in the region of the moving object;
The generated synthetic depth is added to a trained model that has been trained using teacher data that receives a plurality of synthetic depth information of the second period as an input and outputs a depth distribution at a predetermined timing within the first period. A method of estimating the depth distribution by inputting information.
前記測距装置の検出範囲と重複する範囲を撮像する撮像装置と、
前記測距装置の出力データ及び前記撮像装置が撮像した画像に基づいて、前記測距装置の1フレームの期間である第1の期間内の所定のタイミングにおける深度分布を算出するプロセッサを含む深度情報処理装置と
を備え、
前記プロセッサは、
前記出力データから、前記第1の期間を時間的に分割した複数の第2の期間のそれぞれについて、深度、該深度を検出した2次元方向の位置及び前記第2の期間に対応する時刻情報を含む複数の深度情報を生成し、
前記画像から、前記第2の期間のそれぞれについて、前記検出範囲の背景の領域と動体の領域とを分割する領域分割情報を生成し、
前記第2の期間のそれぞれについて、前記複数の深度情報を前記第1の期間に累積して得られる累積深度情報を前記背景の領域に含み、前記第2の期間の前記複数の深度情報を前記動体の領域に含む、合成深度情報を生成し、
複数の前記第2の期間の合成深度情報を入力とし、前記第1の期間内の前記所定のタイミングにおける深度分布を出力とする教師データを用いて学習させた学習済みモデルに、生成した前記合成深度情報を入力することにより前記深度分布を推定する、深度分布検出システム。 a scanning rangefinder;
an imaging device that captures an image of a range that overlaps with the detection range of the distance measuring device;
Depth information including a processor that calculates a depth distribution at a predetermined timing within a first period, which is a period of one frame of the range finder, based on the output data of the range finder and the image captured by the imaging device. a processing device;
The processor
From the output data, for each of a plurality of second periods obtained by temporally dividing the first period, the depth, the position in the two-dimensional direction where the depth was detected, and time information corresponding to the second period are obtained. Generate multiple depth information containing,
generating area division information for dividing the detection range into a background area and a moving object area for each of the second periods from the image;
For each of the second periods, the background area includes accumulated depth information obtained by accumulating the plurality of depth information in the first period, and the plurality of depth information in the second period is included in the generate synthetic depth information, including in the region of the moving object;
The synthesized depth information of a plurality of the second periods is input, and the generated synthesis is applied to the trained model trained using teacher data whose output is the depth distribution at the predetermined timing within the first period. A depth distribution detection system that estimates the depth distribution by inputting depth information.
走査型の測距装置の1フレームの期間である第1の期間を時間的に分割した複数の第2の期間のそれぞれについて生成された複数の深度情報及び領域分割情報、並びに、前記第1の期間内の所定のタイミングにおける深度分布を組合せたデータであって、それぞれの前記深度情報は、深度、該深度を検出した2次元方向の位置及び前記第2の期間に対応する時刻情報を含み、前記領域分割情報は、前記測距装置の検出範囲の背景の領域と動体の領域とを分割する、前記データを複数取得又は生成し、
前記第2の期間のそれぞれについて、前記複数の深度情報を前記第1の期間に累積して得られる累積深度情報を前記背景の領域に含み、前記第2の期間の前記複数の深度情報を前記動体の領域に含む、合成深度情報を生成し、
前記複数の前記第2の期間の前記合成深度情報を入力とし、前記深度分布を出力とする教師データを用いて機械学習を行うことにより学習済みモデルを生成する、
学習済みモデル生成方法。 A trained model generation method executed by a computer,
a plurality of pieces of depth information and region division information generated for each of a plurality of second periods obtained by temporally dividing a first period, which is a period of one frame of a scanning rangefinder; data obtained by combining depth distributions at predetermined timings within a period, wherein each of the depth information includes depth, a position in the two-dimensional direction where the depth is detected, and time information corresponding to the second period; the area division information obtains or generates a plurality of data for dividing the detection range of the rangefinder into a background area and a moving object area;
For each of the second periods, the background area includes accumulated depth information obtained by accumulating the plurality of depth information in the first period, and the plurality of depth information in the second period is included in the generate synthetic depth information, including in the region of the moving object;
generating a learned model by performing machine learning using the synthetic depth information of the plurality of the second periods as input and teacher data having the depth distribution as output;
Trained model generation method.
3. When generating said trained model using said teacher data, an operation including uncertainty is performed, and said uncertainty represents a variance in the case of calculating an output of machine learning as a probability expression of normal distribution. 11. The learned model generation method according to 10.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022007432A JP2023106227A (en) | 2022-01-20 | 2022-01-20 | Depth information processing device, depth distribution estimation method, depth distribution detection system, and trained model generation method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022007432A JP2023106227A (en) | 2022-01-20 | 2022-01-20 | Depth information processing device, depth distribution estimation method, depth distribution detection system, and trained model generation method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023106227A true JP2023106227A (en) | 2023-08-01 |
Family
ID=87473171
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022007432A Pending JP2023106227A (en) | 2022-01-20 | 2022-01-20 | Depth information processing device, depth distribution estimation method, depth distribution detection system, and trained model generation method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2023106227A (en) |
-
2022
- 2022-01-20 JP JP2022007432A patent/JP2023106227A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110596721B (en) | Flight time distance measuring system and method of double-shared TDC circuit | |
US10419741B2 (en) | Systems and methods for compression of three dimensional depth sensing | |
JP4405154B2 (en) | Imaging system and method for acquiring an image of an object | |
US9303989B2 (en) | System and method for providing 3D imaging | |
TW201421074A (en) | Depth imaging method and apparatus with adaptive illumination of an object of interest | |
TW202014990A (en) | Depth estimation apparatus, autonomous vehicle using the same, and depth estimation method thereof | |
KR20130106094A (en) | Depth camera, multi-depth camera system, and synchronizing method thereof | |
US20240012114A1 (en) | Electromagnetic wave detection apparatus, program, and information acquisition system | |
JP6850173B2 (en) | Electromagnetic wave detectors, programs, and electromagnetic wave detection systems | |
US20220392220A1 (en) | Vision based light detection and ranging system using dynamic vision sensor | |
US20230177818A1 (en) | Automated point-cloud labelling for lidar systems | |
JP2018021776A (en) | Parallax calculation system, mobile body, and program | |
JP6776692B2 (en) | Parallax calculation system, mobiles and programs | |
JP2004152133A (en) | Virtual view image generation method, virtual view image generation apparatus, virtual view image generation program and recording medium | |
WO2022195954A1 (en) | Sensing system | |
JP2014130086A (en) | Range image sensor, processor and program | |
US20230057655A1 (en) | Three-dimensional ranging method and device | |
JP2023106227A (en) | Depth information processing device, depth distribution estimation method, depth distribution detection system, and trained model generation method | |
WO2023162730A1 (en) | Information processing device, information processing method, and program | |
Kong et al. | High-resolution single-photon LiDAR without range ambiguity using hybrid-mode imaging | |
CN112364741B (en) | Monocular remote obstacle detection method and device for unmanned aerial vehicle and unmanned aerial vehicle | |
US20230003894A1 (en) | Time-of-flight imaging circuitry, time-of-flight imaging system, time-of-flight imaging method | |
JP2015215200A (en) | Information processing apparatus, measurement method, and program | |
JP7140091B2 (en) | Image processing device, image processing method, image processing program, and image processing system | |
US20230066857A1 (en) | Dynamic laser emission control in light detection and ranging (lidar) systems |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240517 |