JP7557753B1 - Distance Detection Device - Google Patents
Distance Detection Device Download PDFInfo
- Publication number
- JP7557753B1 JP7557753B1 JP2024011348A JP2024011348A JP7557753B1 JP 7557753 B1 JP7557753 B1 JP 7557753B1 JP 2024011348 A JP2024011348 A JP 2024011348A JP 2024011348 A JP2024011348 A JP 2024011348A JP 7557753 B1 JP7557753 B1 JP 7557753B1
- Authority
- JP
- Japan
- Prior art keywords
- light
- distance
- carrier
- light receiving
- receiving element
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 155
- 230000003287 optical effect Effects 0.000 claims abstract description 80
- 238000005286 illumination Methods 0.000 claims abstract description 65
- 238000003384 imaging method Methods 0.000 claims abstract description 57
- 230000007246 mechanism Effects 0.000 claims abstract description 46
- 230000002123 temporal effect Effects 0.000 claims abstract description 18
- 230000009467 reduction Effects 0.000 claims abstract description 15
- 238000004891 communication Methods 0.000 claims description 38
- 230000002452 interceptive effect Effects 0.000 claims description 7
- 238000006243 chemical reaction Methods 0.000 claims description 5
- 238000000034 method Methods 0.000 description 44
- 238000005070 sampling Methods 0.000 description 19
- 230000006870 function Effects 0.000 description 18
- 230000008859 change Effects 0.000 description 16
- 238000012545 processing Methods 0.000 description 13
- 230000008901 benefit Effects 0.000 description 12
- 241000282412 Homo Species 0.000 description 9
- 238000004364 calculation method Methods 0.000 description 7
- 239000004065 semiconductor Substances 0.000 description 7
- 230000035945 sensitivity Effects 0.000 description 7
- 238000013459 approach Methods 0.000 description 6
- 230000007423 decrease Effects 0.000 description 6
- 230000000694 effects Effects 0.000 description 6
- 238000000605 extraction Methods 0.000 description 6
- 230000004048 modification Effects 0.000 description 6
- 238000012986 modification Methods 0.000 description 6
- 230000004913 activation Effects 0.000 description 5
- 238000013527 convolutional neural network Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 239000013307 optical fiber Substances 0.000 description 5
- 238000012549 training Methods 0.000 description 5
- 229910000530 Gallium indium arsenide Inorganic materials 0.000 description 4
- 238000005259 measurement Methods 0.000 description 4
- 230000008447 perception Effects 0.000 description 4
- 230000003595 spectral effect Effects 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 230000033228 biological regulation Effects 0.000 description 3
- 230000004397 blinking Effects 0.000 description 3
- 230000001186 cumulative effect Effects 0.000 description 3
- 230000005684 electric field Effects 0.000 description 3
- 239000000835 fiber Substances 0.000 description 3
- 230000033001 locomotion Effects 0.000 description 3
- 238000011176 pooling Methods 0.000 description 3
- 230000001629 suppression Effects 0.000 description 3
- 239000013598 vector Substances 0.000 description 3
- 230000005428 wave function Effects 0.000 description 3
- 238000012935 Averaging Methods 0.000 description 2
- 230000002238 attenuated effect Effects 0.000 description 2
- 238000005314 correlation function Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000012880 independent component analysis Methods 0.000 description 2
- 238000003909 pattern recognition Methods 0.000 description 2
- 238000000513 principal component analysis Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000002310 reflectometry Methods 0.000 description 2
- 210000001525 retina Anatomy 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 241000276498 Pollachius virens Species 0.000 description 1
- 235000009413 Ratibida columnifera Nutrition 0.000 description 1
- 241000510442 Ratibida peduncularis Species 0.000 description 1
- 238000010521 absorption reaction Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 230000001427 coherent effect Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000013144 data compression Methods 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 230000010429 evolutionary process Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 238000012886 linear function Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000037361 pathway Effects 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 230000002688 persistence Effects 0.000 description 1
- 230000010287 polarization Effects 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 229920006395 saturated elastomer Polymers 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 210000000857 visual cortex Anatomy 0.000 description 1
Images
Landscapes
- Optical Radar Systems And Details Thereof (AREA)
Abstract
【課題】 物体までの距離に関わらず高い距離検出精度と方位分解能を有し、距離検出装置間の妨害や外乱に強く、小型、低価格で、撮像装置と一体化される距離検出装置を提供すること。【解決手段】 距離検出装置は、キャリア光の振幅変調にチャープ変調を施した照明光を生成する光源と、キャリア光の振幅変調に照明光と同一のチャープ変調を施した参照光を生成する光源と、チャープ変調は、チャープ変調信号により変調され、チャープ変調信号の時間コヒーレンスと空間コヒーレンスを保持しつつ、キャリア光の両方、又は一方の時間コヒーレンスと空間コヒーレンスを低減させるコヒーレンス低減機構と、照明光で照明した物体からの反射光を受光素子に結像する結像光学系と、反射光と参照光を合波する合波器と、を有し、受光素子は、合波された反射光と参照光を受光し、照明光と参照光のチャープ変調信号間のヘテロダインで生じた干渉縞信号を検出する。【選択図】図3[Problem] To provide a distance detection device that has high distance detection accuracy and azimuth resolution regardless of the distance to an object, is resistant to interference and disturbance between distance detection devices, is small and low-cost, and is integrated with an imaging device. [Solution] The distance detection device has a light source that generates illumination light obtained by subjecting the amplitude modulation of a carrier light to chirp modulation, a light source that generates reference light obtained by subjecting the amplitude modulation of the carrier light to the same chirp modulation as that of the illumination light, the chirp modulation is modulated by a chirp modulation signal, a coherence reduction mechanism that reduces the temporal coherence and spatial coherence of both or one of the carrier lights while maintaining the temporal coherence and spatial coherence of the chirp modulation signal, an imaging optical system that images the reflected light from an object illuminated with the illumination light on a light receiving element, and a multiplexer that multiplexes the reflected light and the reference light, and the light receiving element receives the multiplexed reflected light and reference light, and detects an interference fringe signal generated by heterodyning between the chirp modulation signals of the illumination light and the reference light. [Selected Figure] Figure 3
Description
本発明は、自動運転、ロボット、ドローンなどで使用する距離検出装置に関する。 The present invention relates to a distance detection device for use in autonomous driving, robots, drones, etc.
自動運転用の距離検出装置は、以下の要求を満たすことが望ましい。
・数センチ(cm)から数百メートル(m)に渡って高い距離検出精度と方位分解能を有すること。
・距離検出装置間の妨害や外乱に強いこと。
・小型、低価格で、撮像装置と一体化されること。
It is desirable for a distance detection device for autonomous driving to satisfy the following requirements:
- High distance detection accuracy and azimuth resolution ranging from a few centimeters (cm) to several hundred meters (m).
- Resistant to interference and disturbance between distance detection devices.
- It must be small, low-cost, and integrated with an imaging device.
従来の距離検出装置として、ステレオカメラ、ToFカメラ、LiDAR、ミリ波レーダー、超音波センサーなどが知られている(例えば、非特許文献1参照)。それぞれの距離検出装置のメリットとデメリットは後述する。 Conventional distance detection devices include stereo cameras, ToF cameras, LiDAR, millimeter wave radar, and ultrasonic sensors (see, for example, Non-Patent Document 1). The advantages and disadvantages of each distance detection device will be described later.
従来の距離検出装置は、上記の要求をすべて同時に満足することは困難である。このため、現状では、撮像装置に加えて、3~4種類の距離検出装置を併用し、それぞれのデメリットを補って使用している。 It is difficult for conventional distance detection devices to simultaneously satisfy all of the above requirements. For this reason, currently, three or four types of distance detection devices are used in addition to an imaging device, compensating for the disadvantages of each.
本発明は、かかる事情に鑑みてなされたものである。すなわち、本発明は、物体までの距離に関わらず高い距離検出精度と方位分解能を有し、距離検出装置間の妨害や外乱に強く、小型、低価格で、撮像装置と一体化される距離検出装置を提供することを目的とする。 The present invention has been made in consideration of these circumstances. That is, the object of the present invention is to provide a distance detection device that has high distance detection accuracy and azimuth resolution regardless of the distance to the object, is resistant to interference and disturbance between distance detection devices, is small and low-cost, and can be integrated with an imaging device.
上述した課題を解決し、目的を達成するために、本発明の距離検出装置に係る第1の態様は、
キャリア光の振幅変調にチャープ変調を施した照明光を生成する光源と、
キャリア光の振幅変調に照明光と同一のチャープ変調を施した参照光を生成する光源と、
チャープ変調は、チャープ変調信号により変調され、
チャープ変調信号の時間コヒーレンスと空間コヒーレンスを保持しつつ、キャリア光の両方、又は一方の時間コヒーレンスと空間コヒーレンスを低減させるコヒーレンス低減機構と、
照明光で照明した物体からの反射光を受光素子に結像する結像光学系と、
反射光と参照光を合波する合波器と、を有し、
受光素子は、合波された反射光と参照光を受光し、照明光と参照光の線形チャープ変調信号間のヘテロダインで生じた干渉縞信号を検出する。
In order to solve the above-mentioned problems and achieve the object, a first aspect of the distance detection device of the present invention is to
a light source for generating illumination light in which chirp modulation is applied to amplitude modulation of carrier light;
a light source for generating a reference light obtained by performing the same chirp modulation as the illumination light on the amplitude modulation of a carrier light;
Chirp modulation is modulated by a chirp modulation signal,
a coherence reduction mechanism that reduces the temporal coherence and the spatial coherence of both or one of the carrier lights while maintaining the temporal coherence and the spatial coherence of the chirp modulation signal;
an imaging optical system that forms an image of reflected light from an object illuminated with illumination light on a light receiving element;
a combiner for combining the reflected light and the reference light,
The light receiving element receives the combined reflected light and reference light, and detects an interference fringe signal generated by heterodyning between the linear chirp modulated signals of the illumination light and the reference light.
さらに、上述した課題を解決し、目的を達成するために、本発明の距離検出装置の第2の態様は、
キャリア光の振幅変調にチャープ変調を施した照明光を生成する光源と、
照明光で照明した物体からの反射光を受光素子に結像する結像光学系と、を有し、
さらに、チャープ変調の電気信号に対して照明光と同一のチャープ変調信号を乗じて干渉縞信号を検出する混合器と、又は、照明光と同一のチャープ変調信号による直接スイッチングによって混合器の機能を兼ね備える受光素子を有し、
受光素子は、反射光を検波し、反射光のチャープ変調を電気信号に変換する。
Furthermore, in order to solve the above-mentioned problems and achieve the object, a second aspect of the distance detection device of the present invention is
a light source for generating illumination light in which chirp modulation is applied to amplitude modulation of carrier light;
an imaging optical system that forms an image of reflected light from an object illuminated with illumination light on a light receiving element;
Further, the optical fiber has a mixer for detecting an interference fringe signal by multiplying the chirp-modulated electrical signal by the same chirp-modulated signal as the illumination light, or a light-receiving element that also functions as a mixer by direct switching using the same chirp-modulated signal as the illumination light,
The light receiving element detects the reflected light and converts the chirp modulation of the reflected light into an electrical signal.
本発明の距離検出装置に係る第3の態様は、第1又は第2の態様の距離検出装置であって、2次元配列された前記受光素子により、
又は、1次元配列された前記受光素子を、前記結像光学系の結像面を前記1次元配列方向と交差する方向に1次元走査することにより、
又は、単一の前記受光素子を、前記結像面を2次元走査することにより、
又は、1次元配列された前記受光素子を前記結像面に設置し、前記照明光の前記1次元配列と交差する方向の指向性を高めて前記物体を前記方向に1次元走査することにより、
又は、単一の前記受光素子を前記結像面に設置し、前記照明光の指向性をビーム状に高めて前記物体を2次元走査することにより、
前記物体の画像を撮像するのと同時に、前記干渉縞信号を2次元の位置で検出する2次元検出機構を備える。
A third aspect of the distance detection device of the present invention is the distance detection device of the first or second aspect, wherein the light receiving elements are two-dimensionally arranged,
Alternatively, the light receiving elements arranged one-dimensionally are scanned in a direction intersecting the one-dimensional arrangement direction across the image forming surface of the image forming optical system,
Alternatively, a single light receiving element is two-dimensionally scanned across the image forming surface,
Alternatively, the light receiving elements are arranged in a one-dimensional array on the imaging surface, and the directivity of the illumination light in a direction intersecting the one-dimensional array is increased to one-dimensionally scan the object in the direction.
Alternatively, a single light receiving element is disposed on the imaging plane, and the illumination light is increased in directivity to a beam to two-dimensionally scan the object,
A two-dimensional detection mechanism is provided for capturing an image of the object and simultaneously detecting the interference fringe signal in two-dimensional positions.
本発明の距離検出装置に係る第4の態様は、第3の態様の距離検出装置であって、前記2次元検出機構で撮像した画像から、前記物体の距離の検出を妨害する妨害光の位置を検出し、前記物体の距離の検出を行う局所位置を判定する判定機構と、を有し、
前記妨害光を回避して前記物体の局所位置の距離を検出する。
A fourth aspect of the distance detection device of the present invention is the distance detection device of the third aspect, further comprising a determination mechanism that detects a position of interference light that interferes with detection of the distance to the object from an image captured by the two-dimensional detection mechanism and determines a local position where the distance to the object is detected,
The distance to the local position of the object is detected while avoiding the interfering light.
本発明の距離検出装置に係る第5の態様は、第3又は第4の態様の距離検出装置であって、前記2次元検出機構で撮像した画像から、光無線通信の受信を妨害する妨害光の位置を判定し、前記光無線通信を受信する光無線通信装置の送信機の位置を判定する判定機構と、を有し、
前記妨害光を回避して前記光無線通信を受信する。
A fifth aspect of the distance detection device of the present invention is the distance detection device of the third or fourth aspect, further comprising a determination mechanism that determines a position of interference light that interferes with reception of optical wireless communication from an image captured by the two-dimensional detection mechanism, and determines a position of a transmitter of an optical wireless communication device that receives the optical wireless communication,
The optical wireless communication is received while avoiding the interfering light.
光の振幅をチャープ変調する方式によって、数センチから数百メートルの広い範囲に渡り、高い方位分解能と距離検出精度を得ることができる。また、撮像素子を使用して、カラー画像と距離画像を同時に検出することができ、小型、低価格の視覚センサーを実現できる。 By using a method of chirp modulation of the light amplitude, it is possible to obtain high lateral resolution and distance detection accuracy over a wide range of several centimeters to several hundred meters. In addition, by using an imaging element, it is possible to simultaneously detect color images and distance images, making it possible to realize a small, low-cost visual sensor.
また、撮像装置と距離検出装置は、それぞれ自動運転に必須の視覚センサーである。これら2つのセンサーの情報から、人工知能(以下、適宜「AI」、「判定機構」という)が、外界の物体検出(object detection)を行い、自動運転の判断を行う。自動運転の物体検出は、車両の周囲に存在する物体を識別し、そのなかで、自動運転に関わる物体の大きさと位置、又は、領域を検出し、それらの物体と車両の相対的な位置と速度、方向を検出する。自動運転のレベルが上位になるほど、これら2つのセンサーの重要度が増す。 The imaging device and distance detection device are both visual sensors essential for autonomous driving. Using the information from these two sensors, artificial intelligence (hereinafter referred to as "AI" or "determination mechanism" as appropriate) performs object detection in the external world and makes autonomous driving decisions. Object detection for autonomous driving identifies objects around the vehicle, detects the size and position or area of objects related to autonomous driving, and detects the relative position, speed, and direction of those objects and the vehicle. The higher the level of autonomous driving, the more important these two sensors become.
以下に本発明にかかる実施形態及び変形例の作用効果を説明する。なお、本実施形態及び変形例の作用効果を具体的に説明するに際しては、具体的な例を示して説明することになる。しかし、それらの例示される実施形態及び変形例はあくまでも本発明に含まれる例のうちの一部に過ぎず、その態様には数多くのバリエーションが存在する。したがって、本発明は例示される実施形態及び変形例に限定されるものではない。 The effects of the embodiments and modifications of the present invention are described below. Specific examples will be given to specifically explain the effects of the embodiments and modifications. However, these exemplified embodiments and modifications are merely a part of the examples included in the present invention, and there are many variations in its aspects. Therefore, the present invention is not limited to the exemplified embodiments and modifications.
以下、実施形態及び変形例の説明に先立って、ステレオカメラ、ToFカメラ、LiDAR、ミリ波レーダー、超音波センサーの各距離検出装置のメリットとデメリットを説明する。 Before describing the embodiments and variations, the advantages and disadvantages of each distance detection device, including a stereo camera, a ToF camera, LiDAR, a millimeter wave radar, and an ultrasonic sensor, will be explained below.
(ステレオカメラ)
ステレオカメラによる距離検出は、人間の双眼視による距離認知と同じであり、三角測量方式である。2つのカメラで撮像した画像のずれ量を画像の局所ごとに検出し、距離画像を得る。
(Stereo camera)
Distance detection using a stereo camera is the same as human distance perception using binocular vision, and is a triangulation method. The amount of misalignment between images captured by the two cameras is detected locally to obtain a distance image.
ステレオカメラのメリットは、カラー画像と同時に距離画像を検出できるところにある。また、パッシブ方式のためステレオカメラ間の妨害がない。 The advantage of a stereo camera is that it can detect color images and distance images at the same time. Also, because it is a passive system, there is no interference between the stereo cameras.
ステレオカメラのデメリットを説明する。ステレオカメラでは、2つのカメラで撮像した画像の局所ごとのずれ量を相関演算によって検出する。そして、距離画像を得る。このため、画像の局所ごとの周波数成分に基づいて、距離検出精度と方位分解能が変動する。 The disadvantages of stereo cameras are explained below. With stereo cameras, the amount of deviation in each local area of the images captured by the two cameras is detected by correlation calculations. A distance image is then obtained. As a result, the distance detection accuracy and azimuth resolution vary based on the frequency components in each local area of the image.
例えば、局所部分に輝度の変化が少ない場合、距離検出精度と方位分解能が低下する。局所部分に輝度の周期的な変化がある場合、誤検出を生ずる。また、ステレオカメラは、パッシブ方式のため、夜間など暗い場所での精度が低い。 For example, if there is little change in brightness in a local area, distance detection accuracy and azimuth resolution will decrease. If there is periodic change in brightness in a local area, false detection will occur. Also, because stereo cameras are passive, their accuracy is low in dark places such as at night.
また、ステレオカメラは、原理上、2つのカメラの6軸空間の位置に関して高い精度が要求される。よって、経時変化や温度変化によって距離検出精度の劣化が起きやすい。 In principle, stereo cameras require high precision regarding the six-axis spatial position of the two cameras. Therefore, the accuracy of distance detection is prone to degradation due to changes over time and temperature.
また、ステレオカメラは、物体がカメラに対して遠方になるに従って、ステレオ角が小さくなる。ステレオ角が小さくなると、2つの画像のずれ量が分数関数状に小さくなる。このため、距離検出精度が急速に低下する。 In addition, the stereo angle of a stereo camera becomes smaller as the object becomes farther away from the camera. When the stereo angle becomes smaller, the amount of deviation between the two images becomes smaller as a fractional function. This causes the accuracy of distance detection to rapidly decrease.
ステレオ角を大きくして、遠方の物体に関して、距離検出精度を上げようとすると、カメラ全体が大きくなる。よって、2つのカメラの位置精度が更に厳しくなる。このため、ステレオカメラの距離検出精度と方位分解能は、他の距離検出装置に比較して、一般的に低い。 Increasing the stereo angle to improve distance detection accuracy for distant objects results in a larger camera as a whole. This makes the positional accuracy of the two cameras even more difficult. For this reason, the distance detection accuracy and azimuth resolution of stereo cameras are generally lower than those of other distance detection devices.
以上のデメリットを緩和するために、自己相関性の高いパターンを照射するアクティブ方式のステレオカメラがある。しかし、遠方の物体の距離検出精度が低いことは変わらず、また、ステレオカメラ間の妨害が生じてしまう。 To mitigate the above disadvantages, there are active stereo cameras that project highly autocorrelated patterns. However, the accuracy of detecting the distance to distant objects remains low, and interference between the stereo cameras occurs.
また、「単一のカメラ映像から、AIによって距離を検出する方式」が報告されている。物体と車両の相対位置によって変化する物体の様々な画像情報、例えば、物体の大きさ、形状、テクスチャー、焦点ボケ、運動視差による重なりなどの変化に関するデータを、AIが大量に学習する。これにより、物体までの距離を検出する方式である。 A method has also been reported that uses AI to detect distance from footage captured by a single camera. The AI learns large amounts of data on various image information about an object that changes depending on the relative position of the object and the vehicle, such as changes in the object's size, shape, texture, out-of-focus, and overlap due to motion parallax. This is how the method detects the distance to an object.
この方式は、人の双眼視における距離認知は遠方の物体で急速に低下することを補うために、視野皮質の背側経路で行われる空間認知処理と類似する。あくまでも、空間認知処理の多くは、単眼視差の三角測量に基づいている。このため、上述と同様の理由で、精度の高い距離検出は困難である。人間は、片目を閉じた場合でも、過去の経験から物体までの距離を概略把握できる。しかし、片目(単眼)で車を運転する場合、多くの経験を積んだ場合でも極めて危険である。 This method is similar to the spatial perception processing that takes place in the dorsal pathway of the visual cortex to compensate for the fact that distance perception in human binocular vision rapidly declines for distant objects. However, most spatial perception processing is based on triangulation of monocular disparity. For the same reasons as mentioned above, therefore, highly accurate distance detection is difficult. Even with one eye closed, humans can roughly grasp the distance to an object based on past experience. However, driving a car with one eye (monocular) is extremely dangerous, even with a lot of experience.
仮に、経験を積むことで、単眼の映像から必要な距離情報が得られるようになるとすれば、人間は進化の過程で双眼を選択してこなかったはずである。同様に、AIが如何に学習を重ねても、単一カメラの情報から高精度の距離画像を検出することは難しい。 If it were possible to obtain the necessary distance information from monocular images with experience, humans would not have chosen binoculars during the evolutionary process. Similarly, no matter how much AI learns, it will be difficult to detect highly accurate distance images from information from a single camera.
人間よりも遥かに速く動く車両を、人間に代わって、人間よりも、早く、正確に、かつ、安全に操作するには、人間の視覚を充分に超えた高精度な距離検出が必要とされる。以上に述べたデメリットから、ステレオカメラの自動運転への適用は限界があるとされる。ましてや、「単一のカメラ映像から、AIによって距離画像を検出する方式」は、それ以上に難しいといえる。 To operate a vehicle that moves much faster than humans, faster, more accurately, and safely than humans, in place of humans, highly accurate distance detection that far exceeds human vision is required. Due to the disadvantages mentioned above, it is said that there are limitations to the application of stereo cameras to autonomous driving. Furthermore, it can be said that a method of "detecting distance images using AI from a single camera image" is even more difficult.
ToFカメラの距離検出は、ToF(time of flight)方式である。ToF方式では、照明光の光強度を一定の周波数で変調して計測空間を照明する。照明された物体からの反射光を光学系で結像する。撮像素子で受光するときに、撮像素子の画素ごとに、同一周波数でスイッチング検波を行う。得られた電荷量から、反射光を変調している信号の位相(反射の遅延時間)を画素ごとに検出する。そして、距離画像を得る。 The ToF camera uses the ToF (time of flight) method for distance detection. In the ToF method, the light intensity of the illumination light is modulated at a constant frequency to illuminate the measurement space. The reflected light from the illuminated object is imaged by the optical system. When the light is received by the image sensor, switching detection is performed at the same frequency for each pixel of the image sensor. From the obtained charge amount, the phase of the signal modulating the reflected light (reflection delay time) is detected for each pixel. A distance image is then obtained.
ToFカメラのメリットは、光学系で結像できるため、方位分解能の高い距離画像が得られること、距離に関わらず距離検出精度が一定で、小型、低価格であることである。 The advantages of a ToF camera are that it can form an image using an optical system, so it can obtain distance images with high lateral resolution, its distance detection accuracy is consistent regardless of distance, and it is small and low-cost.
ToFカメラのデメリットは、撮像素子の受光部の検波速度に限界があるため、SN比の点で、至近距離と遠距離の計測が難しいことである。また、ToF方式は、原理上、背景光(太陽光など)の影響を強く受け、ToFカメラ間の妨害が大きい。 The disadvantage of a ToF camera is that the detection speed of the light receiving section of the image sensor is limited, making it difficult to measure close and long distances in terms of the signal-to-noise ratio. Also, in principle, the ToF method is strongly affected by background light (sunlight, etc.), which causes significant interference between ToF cameras.
LiDARの距離検出は、ToF方式を主とする。LiDARでは、ToF方式で距離を計測しながら、波長1550nmの赤外レーザービームを2次元に走査して距離画像を得る。 LiDAR primarily uses the ToF method for distance detection. With LiDAR, distance is measured using the ToF method, while an infrared laser beam with a wavelength of 1550 nm is scanned two-dimensionally to obtain a distance image.
LiDARのメリットは、方位分解能が高いことと、単一の受光センサーには、検波速度が速く、感度とSN比の高いものがあるのと、波長1550nmの赤外光が外界光に少ないこともあり、近距離および遠距離の計測においてToFカメラを上回る。 The advantages of LiDAR are that it has high azimuth resolution, and some single light receiving sensors have fast detection speeds, high sensitivity and high signal-to-noise ratios, and because infrared light with a wavelength of 1550 nm is rare in external light, it outperforms ToF cameras in measuring both short and long distances.
また、赤外レーザービームの指向性が高いため、LiDAR間でビームが重なる確率が低く、LiDAR間の妨害を受けにくい。 In addition, because the infrared laser beam is highly directional, there is a low probability of beams overlapping between LiDARs, making it less susceptible to interference between LiDARs.
LiDARのデメリットは、2次元走査機構が必要になることと、受光センサーが高価なため、耐久性の面、コストの面での課題がある。そして、ミリ波レーダーに関して後述する理由から、ToF方式のLiDARは、遠距離の検出において、チャープ変調方式のミリ波レーダーに精度が劣る。 The disadvantages of LiDAR are that it requires a two-dimensional scanning mechanism, and the light receiving sensor is expensive, which raises issues in terms of durability and cost. Furthermore, for reasons that will be described later regarding millimeter wave radar, ToF LiDAR is less accurate than chirp modulation millimeter wave radar when it comes to long-distance detection.
ミリ波レーダーの距離検出は、線形チャープ変調方式である。ミリ波の周波数に線形チャープ変調を施し、アンテナで送受信する。受信波に送信波と同じチャープ変調の参照信号を乗じ、ヘテロダイン検波を行う。物体の距離に比例した周波数の干渉縞信号(IF信号)に変換する。そして、干渉縞信号をFFT(高速フーリエ変換)によって周波数成分に変換する。周波数成分のピーク値を検出することで、物体までの距離を計測する。 Millimeter-wave radar uses a linear chirp modulation method for distance detection. Linear chirp modulation is applied to the millimeter-wave frequency, which is then transmitted and received via an antenna. The received wave is multiplied by a reference signal that has the same chirp modulation as the transmitted wave, and heterodyne detection is performed. The signal is converted into an interference fringe signal (IF signal) with a frequency proportional to the distance to the object. The interference fringe signal is then converted into frequency components using an FFT (fast Fourier transform). The distance to the object is measured by detecting the peak value of the frequency component.
ミリ波レーダーの距離検出は、距離分解能は低いが、SN比が高いため、ピーク値検出によってLiDARと同程度の距離検出精度を得られる。 Although millimeter wave radar has low distance resolution for distance detection, its high signal-to-noise ratio allows it to achieve the same level of distance detection accuracy as LiDAR by detecting peak values.
ミリ波レーダーのメリットは、チャープ変調という自己相関性の高い符号化にある。チャープ変調方式は、変調の帯域幅とチャープ時間に比例して、距離検出の電力SN比が向上し、距離の検出に際して外乱光のスペクトルが拡散される。このため、妨害に強い。 The advantage of millimeter wave radar is its highly autocorrelated coding technique known as chirp modulation. The chirp modulation method improves the power signal-to-noise ratio for distance detection in proportion to the modulation bandwidth and chirp time, and spreads the spectrum of external light when detecting distance. This makes it resistant to jamming.
また、反射率と反射距離の違いから雨や霧などの不要反射を除外して物体までの距離を検出することが可能である。このため、雨中における、ミリ波の減衰と波長1550nmの赤外線の減衰が、同程度の減衰量であるにも拘わらず(非特許文献1の第1図)、遠距離の検出において、ミリ波レーダーはLiDARを大きく上回る。また、簡便な手段によって物体との相対速度が検出できることと、装置が比較的低価格であることというメリットも大きい。 In addition, the difference in reflectivity and reflection distance makes it possible to detect the distance to an object while excluding unwanted reflections from rain, fog, etc. For this reason, even though the attenuation of millimeter waves and infrared rays with a wavelength of 1550 nm in rain is about the same (Figure 1 of Non-Patent Document 1), millimeter wave radar far surpasses LiDAR in long-distance detection. Other major advantages include the ability to detect the relative speed of an object using simple means and the relatively low cost of the device.
そして、ミリ波レーダーの最大のメリットは、レーダーや通信で培われた様々な妨害抑制技術を応用できるところにある。チャープ変調という自己相関性の高い符号化がなされるため、妨害信号の周波数成分が拡散されて抑制される。また、特殊な符号化を二重に施すことで、妨害を更に抑制することができ、否定妨害に加えて意図的な妨害(欺瞞妨害)を回避することが可能である。 The greatest advantage of millimeter wave radar is that it can apply various jamming suppression technologies developed in radar and communications. Chirp modulation, a highly autocorrelated coding technique, is used, which spreads and suppresses the frequency components of the jamming signal. In addition, by applying a special double coding technique, jamming can be further suppressed, making it possible to avoid intentional jamming (deceptive jamming) in addition to denial jamming.
ミリ波レーダーのデメリットは、アンテナの現実的な大きさと電波の波長から、LiDARに比べて、方位分解能(指向性)が2桁以上低く、小さい物体や近接した物体の識別が難しいことである。特に、近距離において、サイドローブによる地面やガードレールからのクラッタを免れることが困難である。 The disadvantage of millimeter wave radar is that, due to the practical size of the antenna and the wavelength of the radio waves, the azimuth resolution (directivity) is more than two orders of magnitude lower than that of LiDAR, making it difficult to identify small objects or objects that are close by. In particular, at close ranges, it is difficult to avoid clutter from the ground or guardrails due to side lobes.
また、光学画像と異なる反射率の物体が存在する。また、距離画像を得るのに、機械的な2次元走査や、アレイアンテナによる電子走査を必要とする。また、ミリ波レーダーは、様々な用途に適用する場合、電波防護規制によって設計の自由度が制限されるデメリットが大きい。 In addition, there are objects whose reflectivity differs from that of optical images. Also, obtaining a distance image requires mechanical two-dimensional scanning or electronic scanning using an array antenna. Furthermore, when applying millimeter wave radar to various applications, there is a major disadvantage in that design freedom is limited by radio wave protection regulations.
以上のデメリット(課題)を解決するために、LiDARのレーザー光の周波数にチャープ変調を施して距離検出を行うことが知られている。これにより、光学画像と同等の方位分解能が得られ、ミリ波レーダーと同様にチャープ変調方式による様々なメリットが得られる。半面、数百mの距離検出に対応するコヒーレンス長を有しており、直線性の高いチャープ変調を可能とするレーザー光源は、大変大型で高価なものになる。そして、高価な高感度センサーと2次元の走査機構を必要とするデメリットは、そのまま残ってしまう。 To solve the above disadvantages (issues), it is known to perform distance detection by chirp-modulating the frequency of LiDAR's laser light. This provides azimuth resolution equivalent to that of optical images, and similar to millimeter-wave radar, the chirp modulation method offers various benefits. On the other hand, laser light sources that have a coherence length corresponding to distance detection of several hundred meters and enable highly linear chirp modulation are very large and expensive. And the disadvantage of requiring an expensive highly sensitive sensor and a two-dimensional scanning mechanism remains.
超音波センサーの距離検出は、パルスレーダー方式である。超音波のパルスを送信し受信するまでの時間から、物体までの距離を検出する。メリットは、小型、低価格な点である。しかし、超音波は、空気中の減衰が大きく、方位分解能が低いため、複数のセンサーを使用して、ごく至近距離の検出に使用されている。 Ultrasonic sensors use a pulse radar method for distance detection. The distance to an object is detected from the time it takes for an ultrasonic pulse to be transmitted and received. The advantages are that it is small and low-cost. However, ultrasonic waves are highly attenuated in the air and have low lateral resolution, so multiple sensors are used to detect objects at very close ranges.
(第1実施形態)
次に、本願の実施形態に関して説明する。
First Embodiment
Next, an embodiment of the present application will be described.
第1実施形態に係る距離検出装置(撮像装置)は、キャリア光の振幅変調にチャープ変調を施した照明光を生成する光源と、
キャリア光の振幅変調に照明光と同一のチャープ変調を施した参照光を生成する他の光源と、
チャープ変調は、線形チャープ変調信号により変調され、
チャープ変調信号の時間コヒーレンスと空間コヒーレンスを保持しつつ、キャリア光の両方、又は一方の時間コヒーレンスと空間コヒーレンスを低減させるコヒーレンス低減機構と、
照明光で照明した物体からの反射光を受光素子に結像する結像光学系と、
反射光と参照光を合波する合波器と、を有し、
受光素子は、合波された反射光と参照光を受光し、照明光と参照光のチャープ変調信号間のヘテロダインで生じた干渉縞信号を検出する。
The distance detection device (imaging device) according to the first embodiment includes a light source that generates illumination light in which chirp modulation is performed on the amplitude modulation of carrier light;
another light source that generates a reference light obtained by performing the same chirp modulation as the illumination light on the amplitude modulation of the carrier light;
The chirp modulation is modulated by a linear chirp modulation signal,
a coherence reduction mechanism that reduces the temporal coherence and the spatial coherence of both or one of the carrier lights while maintaining the temporal coherence and the spatial coherence of the chirp modulation signal;
an imaging optical system that forms an image of reflected light from an object illuminated with illumination light on a light receiving element;
a combiner for combining the reflected light and the reference light,
The light receiving element receives the combined reflected light and reference light, and detects an interference fringe signal generated by heterodyning between the chirp modulation signals of the illumination light and the reference light.
本実施形態では、感度と妨害抑制に優れた線形チャープ変調方式を用いて距離検出を行う。ただし、ミリ波レーダーのように電波ではなく、光をキャリアとしてチャープ変調信号の送受信を行う。そして、キャリア光の周波数をチャープ変調する代わりに、キャリア光の振幅を変調する周波数に対してチャープ変調を行う。 In this embodiment, distance detection is performed using a linear chirp modulation method that has excellent sensitivity and interference suppression. However, chirp-modulated signals are transmitted and received using light as a carrier, rather than radio waves as in millimeter-wave radar. And, instead of chirp-modulating the frequency of the carrier light, chirp modulation is performed on the frequency that modulates the amplitude of the carrier light.
図1は、キャリア光の振幅の時間的な変化を示す。具体的には、図1に示すように、キャリア光の光源に小型、低価格で、高速スイッチングが可能な発光ダイオードを使用し、発光ダイオードの光をon-offし、on-offする周波数に対して線形チャープ変調を行う。 Figure 1 shows the change in the amplitude of the carrier light over time. Specifically, as shown in Figure 1, a small, low-cost light-emitting diode capable of high-speed switching is used as the light source of the carrier light, and the light from the light-emitting diode is turned on and off, with linear chirp modulation being performed on the on-off frequency.
図2は、チャープ変調の周波数を示す。図2を用い、チャープ変調方式を用いた距離検出方法について述べる。 Figure 2 shows the frequency of chirp modulation. Using Figure 2, we will explain the distance detection method using the chirp modulation method.
直線1は、時間に対して周波数が直線的に変化する参照用(基準用)のチャープ信号を示す。直線2は、距離を計測する物体から反射したチャープ信号を示す。反射したチャープ信号2は、参照チャープ信号である直線1に対して、物体までの往復距離に応じた時間遅延3を生じる。このため、チャープ信号間のヘテロダインによって、チャープ信号間の周波数の差4に応じた低い周波数の干渉縞信号を生じる。
チャ-プ変調の直線性が高いと、干渉縞信号の周波数は、チャープ時間に渡って一定となる。図2から分かるように、光路差が大きくなると時間遅延3が増える。チャープ信号間の周波数の差4が大きくなって干渉縞信号の周波数が高くなる。このように、干渉縞信号の周波数が物体までの距離に比例する。また、図2から、干渉縞信号の周波数は、チャープ変調の帯域幅5が広くなると高くなり、チャープ時間6が長くなると低くなることが分かる。
When the chirp modulation has high linearity, the frequency of the interference fringe signal remains constant over the chirp time. As can be seen from Figure 2, as the optical path difference increases, the
図3は、第1実施形態に係る距離検出装置10Aの構成を示す。キャリア光7の振幅に、振幅変調器8を用いて、チャープ変調信号9によって線形チャープ変調を施す。そして、照明光10として、距離を検出する物体11を照明する。光学系13は、物体11からの反射光12を受光素子14に結像する。参照光15を合波器16によって反射光12に合波する。受光素子14は、合波した光を受光する。
Figure 3 shows the configuration of a
受光素子14で受光すると、キャリア光間のヘテロダインとチャープ信号間のヘテロダインが生じる。参照光15は、振幅変調器21を用い、チャープ変調信号9によってキャリア光17の振幅に線形チャープ変調を施して生成する。
When light is received by the
キャリア光7とキャリア光17の干渉性が低いと、キャリア光間のヘテロダイン振幅が、受光素子の時間平均によって、それぞれの電力値の積の一定値に近づく。一定値は、チャープ信号間のヘテロダインで生じた干渉縞信号の係数となり、干渉縞信号18を安定して検出することができる。
When the coherence of
干渉縞信号18の周波数が、物体11までの距離に比例する。キャリア光7とキャリア光17の干渉性が高いと、キャリア光間のヘテロダイン振幅が、特定の周波数を生じて、干渉縞信号を検出できなくなる、または干渉縞信号と同等の周波数成分が生じて、干渉縞信号の雑音になる。
The frequency of the
キャリア光の生成と振幅変調に、高速の振幅変調が得意なLD(laser diode)などの高コヒーレンス光源を使用する場合、キャリア光7とキャリア光17の両方、又は、一方の時間コヒーレンスと空間コヒーレンスを、コヒーレンス低減機構19とコヒーレンス低減機構20によって低減させる。そして、キャリア光間のヘテロダイン振幅を、それぞれの電力値の積の一定値に近づけて、干渉縞信号18のSN比を確保する。コヒーレンス低減機構19、20の具体的な構成について後述する。
When a high-coherence light source such as an LD (laser diode) that excels at high-speed amplitude modulation is used for generating and modulating the carrier light, the temporal coherence and spatial coherence of both or one of the
チャープ信号間のヘテロダインで生じた干渉縞信号18を、図示に無いFFTなどの周波数変換器によって周波数成分に変換し、周波数成分のピーク値を、図示に無い相関器と補間回路によって検出し、物体までの距離に変換する。相関器の処理について後述する。
The
本実施形態では、撮像素子を使用してカラー画像と距離画像を同時に検出することができ、撮像装置と一体となった小型、低価格の視覚センサーを実現できる。 In this embodiment, the image sensor can be used to simultaneously detect color images and distance images, making it possible to realize a small, low-cost visual sensor integrated with an image capture device.
(第2実施形態)
第2実施形態に係る距離検出装置20Aは、
キャリア光の振幅変調にチャープ変調を施した照明光を生成する光源と、
前記照明光で照明した物体からの反射光を受光素子に結像する結像光学系と、を有し、
さらに、前記チャープ変調の電気信号に対して前記照明光と同一のチャープ変調信号を乗じて干渉縞信号を検出する混合器と、又は、前記照明光と同一のチャープ変調信号による直接スイッチングによって前記混合器の機能を兼ね備える前記受光素子を有し、
前記受光素子は、前記反射光を検波し、前記反射光のチャープ変調を電気信号に変換することを特徴とする。
Second Embodiment
The
a light source for generating illumination light in which chirp modulation is applied to amplitude modulation of carrier light;
an imaging optical system that forms an image of reflected light from an object illuminated with the illumination light on a light receiving element;
Further, the optical fiber includes a mixer that detects an interference fringe signal by multiplying the chirp-modulated electrical signal by a chirp-modulated signal that is the same as that of the illumination light, or the light receiving element that also functions as the mixer by direct switching using the chirp-modulated signal that is the same as that of the illumination light,
The light receiving element detects the reflected light and converts the chirp modulation of the reflected light into an electrical signal.
図4は、第2実施形態に係る距離検出装置20Aの構成を示す。
キャリア光22の振幅に、変調器23を用いて、チャープ変調信号24によって線形チャープ変調を施す。そして、照明光として、距離を検出する物体25を照明する。物体25からの反射光26を光学系27で受光素子28に結像する。高速検波が可能な受光素子28によって直接検波を行い、反射光26のチャープ変調信号を電気信号に変換する。
FIG. 4 shows the configuration of a
A
その後、混合器(ミキサー)29によって、チャープ変調信号24を参照信号として乗じ、干渉縞信号30に変換する。そして、第一の実施形態と同様に、図示に無い周波数変換器、相関器、補間回路の処理を経て、物体までの距離に変換する。
Then, a
このとき、受光素子28と混合器29の代わりに、直接スイッチングが可能な受光素子を用い、チャープ変調信号24によってスイッチングすることでヘテロダイン検波を行ない、干渉縞信号30を検出してもよい。
In this case, instead of the
発光ダイオードによる光源は、コヒーレンスが高いほど、直接スイッチングによる高速の振幅変調や、マッハツェンダ素子などの外部素子による高速の振幅変調が可能である。第2実施形態の場合、キャリア光が高コヒーレンス光でよい。このため、そのような高コヒーレンスの発光ダイオードや光源を使用し、チャープ変調の帯域幅を広くすることができる。そして、精度の高い距離検出を行うことが可能である。 The higher the coherence of a light-emitting diode light source, the more possible high-speed amplitude modulation by direct switching or by an external element such as a Mach-Zehnder element is. In the second embodiment, the carrier light may be high-coherence light. Therefore, by using such a high-coherence light-emitting diode or light source, the bandwidth of the chirp modulation can be widened. This makes it possible to perform highly accurate distance detection.
第1実施形態に係る距離検出装置、第2実施形態に係る距離検出装置の効果を述べる。
第1実施形態に係る距離検出装置、第2実施形態に係る距離検出装置は、距離検出装置に対する要求をすべて満足することができ、従来の距離検出装置が抱える課題(デメリット)を解決することができる。
The effects of the distance detection device according to the first embodiment and the distance detection device according to the second embodiment will be described.
The distance detection device of the first embodiment and the distance detection device of the second embodiment can satisfy all the requirements for a distance detection device and can solve the problems (disadvantages) encountered in conventional distance detection devices.
例えば、波長1550nmの赤外光をキャリア光とする場合、ミリ波レーダーと同程度の遠距離検出が可能になる。また、結像光学系を使用できるため、ミリ波レーダーよりも遥かに高い方位分解能が得られる。 For example, when infrared light with a wavelength of 1550 nm is used as the carrier light, long-distance detection is possible at the same level as millimeter-wave radar. In addition, because an imaging optical system can be used, a much higher azimuth resolution can be obtained than with millimeter-wave radar.
オートフォーカスやパンフォーカスなどによって至近距離から遠距離まで高い方位分解能を得ることができる。このため、ミリ波レーダーのようなサイドローブによる近距離におけるゴースト反射(クラッタ)などが一切無い。 High azimuth resolution can be achieved from close to long distances using autofocus and pan focus. This means that there is no ghost reflection (clutter) at close range caused by side lobes, as with millimeter wave radar.
また、チャープ変調方式は、照明光を照射するための電力をチャープ変調に従ってチャープ変調時間内に拡散(分散)して送信する。このため、照明光の強度が同じであっても、時間軸を含めた照明のトータルの電力は、ToF方式より2~3桁ほど大きくなり、距離検出の電力SN比が、その分高くなる。同じSN比を得るために、ToF方式のLiDARやカメラの照明光の強度(電力)を大きくすると、近距離の物体からの反射光が大きくなり過ぎ、受光回路がすぐに飽和してしまう。このように、ToF方式では、ダイナミックレンジ(SN比)に余裕が少ないため、数cm~数百mなどの広い範囲の距離計測が不可能となる。 In addition, the chirp modulation method transmits the power for irradiating the illumination light by diffusing (dispersing) it within the chirp modulation time according to the chirp modulation. For this reason, even if the intensity of the illumination light is the same, the total power of the illumination, including the time axis, is two to three orders of magnitude larger than the ToF method, and the power S/N ratio of distance detection is accordingly higher. If the intensity (power) of the illumination light of a ToF LiDAR or camera is increased to achieve the same S/N ratio, the reflected light from nearby objects becomes too large, and the light receiving circuit quickly becomes saturated. Thus, the ToF method has little room for dynamic range (S/N ratio), making it impossible to measure distances over a wide range, such as from a few centimeters to several hundred meters.
このように、チャープ変調方式は、照明光の電力をチャープ変調時間に拡散して照明するため、受光する回路系のダイナミックレンジに余裕があり、ToF方式のような近距離の強い反射による回路系の飽和などを回避でき、数cmから数百mの広い範囲に渡って、高い精度の距離検出が可能である。 In this way, the chirp modulation method spreads the power of the illumination light over the chirp modulation time, which allows for a generous dynamic range in the light-receiving circuit system and avoids saturation of the circuit system caused by strong reflections at close range, as occurs with the ToF method, making it possible to detect distances with high accuracy over a wide range from a few centimeters to several hundred meters.
また、キャリア光の振幅をチャープ変調する方式のため、レーダーの妨害抑制技術だけでなく、光通信の混信回避技術を二重に適用することができる。また、方位分解能が高いことを利用し、AIなどの判定機構と連動することで、他の車両の距離検出センサーの照明光や強い外光による妨害を回避して距離を検出することができる。 In addition, because the method involves chirp modulation of the carrier light amplitude, it is possible to apply not only radar jamming suppression technology but also optical communication interference avoidance technology in a dual manner. In addition, by taking advantage of the high azimuth resolution and linking it with a determination mechanism such as AI, it is possible to detect distances while avoiding interference from the illumination light of distance detection sensors on other vehicles or strong external light.
また、第1実施形態によれば、撮像素子を使用してカラー画像と距離画像を同時に検出することができ、撮像装置と一体となった小型、低価格のセンサーを実現できる。 Furthermore, according to the first embodiment, it is possible to simultaneously detect a color image and a distance image using an imaging element, and it is possible to realize a small, low-cost sensor integrated with an imaging device.
また、電波防護規制のような規制が無いため、設計の自由度が高く、ロボットやドローンなど、様々な用途への適用が容易である。 In addition, since there are no regulations such as radio wave protection regulations, there is a high degree of freedom in design, making it easy to apply to a variety of uses, such as robots and drones.
また、方位分解能が高いことを利用し、AIなどの判定機構と連動することで、光無線通信の受信を行うことができる。 In addition, by taking advantage of its high azimuth resolution and linking it with a determination mechanism such as AI, it is possible to receive optical wireless communications.
図5は、第1実施形態の変形例を示す。
シンセサイザー発振器31などで生成した、例えば、0.1~1.1GHzの線形チャープ変調信号32によって、照明光源33の出力光をon-offし、照明光34として、距離を検出する物体35を照明する。
FIG. 5 shows a modification of the first embodiment.
The output light of an
照明光源33は、中心波長1550nmの赤外線LDやSLD(super luminescent diode)などの高速スイッチングが可能な発光ダイオードを使用する。
The
赤外LDは、光通信などの流通量から低価格なものが多い。また、波長1550nmの赤外線は、人間の目の安全性が高く、外界光に少なく、大気中の減衰が少なく、雨中における減衰が76~77GHzのミリ波レーダーとほとんど変わらないという特徴を持つ。 Infrared LDs are often low-priced due to their widespread use in optical communications and other fields. In addition, infrared light with a wavelength of 1550 nm is safe for human eyes, has little external light, is attenuated little in the atmosphere, and has almost the same attenuation in rain as 76-77 GHz millimeter wave radar.
照明光源33の出力光のon-offは、上記した発光ダイオードの直接スイッチング、又は、EA(Electro-Absorption)変調器、マッハツェンダ(MZ)変調器などの外部接合素子を用いて行われる。
The output light of the
物体35からの反射光36を、撮像光学系37で撮像素子38に結像する。その際に、参照光源39の出力光を線形チャープ変調信号32によってon-offした参照光40を、合波器41によって反射光36に合波する。
Reflected light 36 from an
そして、撮像素子38で受光すると、チャープ信号間のヘテロダインによって、物体35の距離画像に対応した周波数の干渉縞信号が、撮像素子38の各受光画素に生じる。参照光源39として、中心波長1550nmの赤外線LDやSLDなどが使用されている。
When the light is received by the
このとき、参照光源39の位置を、撮像光学系37の射出瞳の位置と光学的に共役になるように、光学系42によって設定する。それによって、撮像素子38の各画素に結像する主光線と参照光の波面の進行方向を一致させ、ヘテロダインの効率を向上させて画素ごとの強度のムラを抑制することができる。
At this time, the position of the
そして、撮像素子38の撮像を高速に繰り返すことで、前述の干渉縞信号を全画素並列にサンプリングして電気信号(干渉縞信号)43に変換する。
Then, by repeatedly capturing images using the
図6は、電気信号43の処理の流れを示す。FFTなどの周波数変換器44によって画素ごとに周波数成分に変換する。相関器48と距離変換部49によって周波数成分のピーク値を検出し、距離画像に変換する。相関器48の処理について後述する。
Figure 6 shows the flow of processing the
反射光36のキャリア光と、参照光40のキャリア光の時間コヒーレンスと空間コヒーレンスが十分に低い場合、キャリア光間のヘテロダイン振幅が、撮像素子38のサンプリング撮像の露光時間平均と受光画素上の面積分によって、それぞれの電力の積に近づく。そして、SN比の高い干渉縞信号を検出することができる。
When the time coherence and spatial coherence of the carrier light of the reflected
そのときの反射光36と参照光40のヘテロダイン出力Iは、次式で示される。
I=K・Ps PL・{1/2・cos[φ(t+d)-φ(t)]+1} (A)
となる。
The heterodyne output I of the reflected
I = K·Ps PL・{1/2・cos[φ(t+d)−φ(t)]+1} (A)
Becomes.
ヘテロダイン出力Iが(A)式で示される理由を後述する。
上式において、
Psは、反射光36のキャリア光の電力、
PLは、参照光40のキャリア光の電力、
φ(t)は、線形チャープ(変調)信号32の位相、
tは、時間、
dは、反射光36と参照光40の光路差による時間遅延、
Kは、受光画素の特性で決まる定数、を示す。
The reason why the heterodyne output I is expressed by equation (A) will be described later.
In the above formula,
Ps is the power of the carrier light of the reflected
PL is the power of the carrier light of the
φ(t) is the phase of the linear chirp (modulation)
t is time,
d is the time delay due to the optical path difference between the reflected
K denotes a constant determined by the characteristics of the light-receiving pixel.
(A)式によれば、チャープ信号間のヘテロダインによって物体までの距離(dに比例)に比例した干渉縞信号が各画素に生じる。それらの振幅が、各画素の反射光36の電力Psに比例し、参照光の電力PLによって増幅されることになる。 According to equation (A), heterodyning between chirp signals produces interference fringe signals at each pixel that are proportional to the distance to the object (proportional to d). The amplitude of these signals is proportional to the power Ps of the reflected light 36 at each pixel, and is amplified by the power PL of the reference light.
(A)式に沿った具体例を述べる。高速回転する物体をストロボスコープで照明したとき、ストロボ光の点滅が回転の周期と一致すると物体が止まって見える。ストロボ光の点滅が回転の周期よりも僅かに低くなると物体がゆっくり回転する。ストロボ光の点滅が回転の周期よりも僅かに高くなると物体が逆回転して見える。 Here is a concrete example that follows formula (A). When a rapidly rotating object is illuminated with a stroboscope, if the blinking rate of the strobe light matches the rotational period, the object will appear to be stationary. If the blinking rate of the strobe light is slightly slower than the rotational period, the object will rotate more slowly. If the blinking rate of the strobe light is slightly faster than the rotational period, the object will appear to rotate in the opposite direction.
このとき、観察者の網膜上の一点に結像される光は、室内照明光による物体からの反射光が、物体の回転で輝度変調されていて、それにストロボ点滅で輝度変調された物体からの反射光が加わる形になっている。 At this time, the light that is imaged at a point on the observer's retina is a mixture of the light reflected from the object by the room lighting, which is brightness-modulated by the object's rotation, and the light reflected from the object that is brightness-modulated by the flashing strobe.
網膜が反射光を受光すると、2つの変調信号間のヘテロダインが生じ、目の残像効果により時間平均される。そして、物体の回転とストロボ点滅の差の低い周波数の輝度変調が残り、上記の現象が観察される。 When the retina receives the reflected light, a heterodyne between the two modulated signals occurs, which is time-averaged by the persistence of vision effect in the eye. This leaves a low-frequency intensity modulation that is the difference between the rotation of the object and the flashing of the strobe, resulting in the phenomenon observed above.
室内照明光とストロボ光は、インコヒーレント光のため干渉性を有さない。物体像の明るさは、室内の照明光とストロボ光の明るさ(光強度)の積に比例して変わる。室内光を明るくしても、ストロボ光を明るくしても物体像は明るくなる。そのとき、物体像や回転の動きは変化しない。ここで、室内光とストロボ光にわざと干渉性を持たせると、物体像の明るさが変動したり、干渉縞が生じたり、回転の動きが変動して見えたりするようになる。 Indoor lighting and strobe light are incoherent lights and therefore have no coherence. The brightness of the object image changes in proportion to the product of the brightness (light intensity) of the indoor lighting and strobe light. The object image becomes brighter whether the indoor light or strobe light is made brighter. In that case, the object image and rotational movement do not change. Now, if the indoor light and strobe light are intentionally made coherent, the brightness of the object image will fluctuate, interference fringes will appear, and the rotational movement will appear to fluctuate.
撮像素子38の代わりに1次元配列の受光センサーを使用しても良い。撮像光学系37の結像面を、1次元配列受光センサーを配列方向と交差する方向に1次元に走査しながら干渉縞信号をサンプリングし、上述の処理を行っても距離画像を得ることができる。
A one-dimensional array of light receiving sensors may be used instead of the
さらに、以下(a)、(b)、(c)の何れかの構成でも良い。
(a)単体の受光素子を使用し、撮像光学系37の結像面を2次元に走査して距離画像を得ることもできる。
(b)1次元配列のセンサーを結像面に設置し、センサーの配列方向と交差する方向の照明光の指向性を高めて物体35を照明し、配列方向と交差する方向に1次元に走査することで距離画像を得ることもできる。
(c)単体の受光素子を撮像光学系37の結像面に設置し、ビーム状に収束した照明光によって物体35を2次元に走査することで距離画像を得ることもできる。
Furthermore, any one of the following configurations (a), (b), and (c) may be used.
(a) It is also possible to obtain a distance image by using a single light receiving element and two-dimensionally scanning the imaging surface of the imaging
(b) A distance image can also be obtained by placing a one-dimensional array sensor on the imaging plane, increasing the directivity of the illumination light in a direction intersecting the sensor array direction to illuminate
(c) A distance image can also be obtained by placing a single light receiving element on the imaging plane of the imaging
このように、2次元配列された受光素子により、
又は、1次元配列された受光素子を、結像光学系の結像面を1次元配列方向と交差する方向に1次元走査することにより、
又は、単一の受光素子を、結像面を2次元走査することにより、
又は、1次元配列された受光素子を結像面に設置し、照明光の1次元配列と交差する方向の指向性を高めて物体を方向に1次元走査することにより、
又は、単一の受光素子を結像面に設置し、照明光の指向性をビーム状に高めて物体を2次元走査することにより、
物体の画像を撮像するのと同時に、干渉縞信号を2次元の位置で検出する2次元検出機構を備えることが望ましい。
In this way, the two-dimensional array of light-receiving elements allows
Alternatively, the one-dimensionally arranged light receiving elements are scanned one-dimensionally in a direction intersecting the one-dimensional arrangement direction across the imaging surface of the imaging optical system,
Alternatively, a single light receiving element is scanned two-dimensionally across the image plane,
Alternatively, a one-dimensional array of light receiving elements is placed on the imaging plane, and the directivity of the illumination light in the direction intersecting the one-dimensional array is increased to perform one-dimensional scanning of the object in the direction.
Alternatively, a single light receiving element is placed on the imaging plane, and the illumination light is increased in directivity to a beam to scan the object in two dimensions.
It is desirable to provide a two-dimensional detection mechanism that detects interference fringe signals in two-dimensional positions while simultaneously capturing an image of the object.
図6に示した相関器48の処理について説明する。
干渉縞信号43は、周波数変換器44によって周波数成分45に変換される。周波数軸上において、相関器48によって干渉縞信号の周波数成分45と複素共役となる参照信号(基準信号)47との相関演算が行われる。
The processing of the
The
そして、相関器48の出力は、距離変換部49において、データ補間がされる。そして、ピーク値が検出され、後述する(8)式に従って、物体35までの距離Lに変換される。
The output of the
図7は、高調波を示す。参照信号47を生成する参照信号生成部46について述べる。キャリア光をスイッチングしてチャープ変調を行う矩形波の周波数成分は、図7に示すように、基本波53に加えて、基本波の2n+1(n:0を含む自然数)倍の高調波を有している。
Figure 7 shows harmonics. We will now describe the reference
図7の符号(第一高調波)54は、n=1のときの第一高調波である。n=2以上の高調波の振幅は小さく、更に、光源のスイッチングの応答時間によって抑えられるため無視できる。また、光源のスイッチングの立上りと立下りの時間が異なると、2nの位置にも高調波が出現するが、これも振幅が小さく無視できる。 Symbol 54 (first harmonic) in Figure 7 is the first harmonic when n = 1. The amplitude of harmonics for n = 2 and above is small, and can be ignored because it is suppressed by the response time of the light source switching. In addition, if the rise and fall times of the light source switching are different, a harmonic also appears at position 2n, but this also has a small amplitude and can be ignored.
図8は、干渉縞信号の周波数を示す。上述したように、干渉縞信号の周波数成分45は、基本波53のチャープ信号のヘテロダインで生じる干渉縞信号の周波数55と、第一高調波54のチャープ信号のヘテロダインで生じる干渉縞信号の周波数(成分)56を有する。
Figure 8 shows the frequency of the interference fringe signal. As described above, the
この2つの干渉縞信号の周波数(成分)55、56が、物体35までの距離に応じて、図8に示すように変化する。そして、物体35の距離が遠くなり、第一高調波54のチャープ信号で生じた干渉縞信号の周波数56が、サンプリングのナイキスト周波数57を超えると、折返し成分58が生じる。折返し成分58が、0周波数を下回ると、更に折返し成分59が生じる。
The frequencies (components) 55, 56 of these two interference fringe signals change according to the distance to the
以上のように、物体35の距離に応じて干渉縞信号の周波数成分56が変化する。このため、相関器48で相関演算を行う参照信号47を、干渉縞信号の周波数成分56の変化に合わせて変化させる。
As described above, the
このように、物体35の距離に応じて変化する干渉縞信号の周波数成分45と、それを考慮した参照信号47との相関演算を行う。そして、距離変換部49においてデータ補間を行ってピーク値を検出すると、高調波成分をピーク値に集約することができる。この結果、干渉縞信号のSN比を上げることができる。後述するように、距離検出精度は、距離分解能とSN比に比例し、例えば、SN比が40dBのとき、距離検出精度は、距離分解能の1/40程度の値になる。
In this way, a correlation calculation is performed between the
また、干渉縞信号の周波数55と初期位相は、後述する(6)式によって算出することができる。干渉縞信号の周波数56についても、(6)式のaとf0を3倍にすることできるので。(7)式によって算出することができる。
Furthermore, the
それらの算出結果から折返し成分を算出することができる。それらの振幅を正規化して位相共役をとれば、参照信号47を算出することができる。
The aliasing components can be calculated from these calculation results. By normalizing the amplitudes and taking the phase conjugate, the
又は、反射体を適切な距離に置き、干渉縞信号の周波数成分を前もって計測し、それ以外の距離の参照信号を補間によって算出してもよい。温度変化によってLDのスイッチング波形の立ち上がりと立下り時間が変化すると、高調波の振幅が僅かに変化したり、基本波の2倍の周波数の高調波が生じたりする。ここで、それらの振幅は小さいため無視できる。 Alternatively, the reflector can be placed at an appropriate distance, the frequency components of the interference fringe signal can be measured in advance, and reference signals at other distances can be calculated by interpolation. If the rise and fall times of the LD switching waveform change due to temperature changes, the amplitude of the harmonics can change slightly, or harmonics with twice the frequency of the fundamental wave can be generated. Here, these amplitudes are small and can be ignored.
チャープ信号間のヘテロダインによって干渉縞信号が生じる理由と、キャリア光のコヒーレンスが低いと、キャリア光間のヘテロダイン振幅が一定値に近づく理由を説明する。 Explains why heterodyning between chirp signals produces an interference fringe signal, and why the heterodyne amplitude between carrier lights approaches a constant value when the coherence of the carrier lights is low.
キャリア光のコヒーレンスが低く、空間的にもランダムな位相を有する場合、それらの受光画素上の空間コヒーレンスによって、反射光36と参照光40のヘテロダイン出力が異なる。
When the carrier light has low coherence and a spatially random phase, the heterodyne outputs of the reflected
そこで、反射光36のキャリア光の電場成分と、参照光40(図5参照)のキャリア光の電場成分を、時間tと受光素子の受光面上の位置rの関数とする。チャープ信号の場合は、基本波の波長が受光素子の大きさの104倍ほどの大きさである。このため、位置rの変化に対する位相変化が極めて小さく、時間tのみの関数として説明する。
Therefore, the electric field component of the carrier light of the reflected
ここで、
反射光36のキャリア光をAs(r,t)、
参照光40のキャリア光をAL(r,t)、
キャリア光As(r,t)とAL(r,t)の振幅をチャープ変調している振幅1の矩形波関数を、それぞれ、S(t+d)、S(t)、とすると、
受光画素上の位置rに結像された反射光36の電場成分と参照光40の電場成分は、それぞれ、As(r,t)S(t+d)と、AL(r,t)S(t)となる。
dは、反射光36と参照光40の光路差に応じた遅延時間を示す。
Where:
The carrier light of the reflected
The carrier light of the
If the square wave functions with an amplitude of 1 that chirp modulate the amplitudes of the carrier lights As(r,t) and AL(r,t) are S(t+d) and S(t), respectively, then
The electric field components of the reflected
d indicates a delay time according to the optical path difference between the reflected
このとき、反射光36と参照光40を合波して受光したときのへテロダイン振幅H(r,t)は、
H(r,t)=As(r,t) S(t+d)・AL(r,t) S(t) (B)
となる。
At this time, the heterodyne amplitude H(r, t) when the reflected
H(r,t)=As(r,t) S(t+d)・AL(r,t) S(t) (B)
It becomes.
(B)式のS(t+d)とAL(r,t)を入れ替えて、
H(r,t)=As(r,t) AL(r,t)・S(t+d) S(t) (C)
とする。
(B) By replacing S(t+d) and AL(r,t)
H(r,t)=As(r,t) AL(r,t)・S(t+d) S(t) (C)
Let us assume that.
As(r,t) AL(r,t)が、反射光36と参照光40のキャリア光間のヘテロダイン振幅を示し、S(t+d) S(t)が、チャープ信号間のヘテロダイン振幅を示す。
As(r,t) AL(r,t) indicates the heterodyne amplitude between the carrier light of the reflected
このとき、キャリア光As(r,t) AL(r,t)の両方、もしくは一方の受光画素上の相関距離が、空間的、及び、時間的に極めて短いとき、後述するように、キャリア光間のヘテロダイン振幅As(r,t) AL(r,t)は、サンプリング撮像の露光時間平均によって受光画素上の位置に関わりなく一定値に近づく。そして、受光画素上の面積分によって、それぞれの電力値の積に収束し、S(t+d) S(t)のヘテロダインで生じた干渉縞信号をSN比を良く検出することができる。 In this case, when the correlation distance on the light receiving pixel of both or either of the carrier lights As(r,t) AL(r,t) is extremely short in space and time, as described below, the heterodyne amplitude As(r,t) AL(r,t) between the carrier lights approaches a constant value regardless of the position on the light receiving pixel due to the exposure time average of the sampling imaging. Then, due to the surface integral on the light receiving pixel, it converges to the product of the respective power values, and the interference fringe signal generated by the heterodyne of S(t+d) S(t) can be detected with a good S/N ratio.
ここで、
受光画素上の2つの位置をr1、r2、
サンプリング撮像の露光時間をτ、としたとき、
H(r1,t)とH(r2,t)の相関関数C(r1,r2)は、
Where:
The two positions on the light-receiving pixel are r1 and r2.
When the exposure time of the sampling image is τ,
The correlation function C(r1,r2) between H(r1,t) and H(r2,t) is
反射光36と参照光40のヘテロダイン出力Iは、相関関数C(r1,r2)を、受光画素上のr1とr2について、次式の積分を行うことで得られる。Kは、撮像素子38の受光画素の特性で決まる定数を示す。
The heterodyne output I of the reflected
振幅1の矩形波関数S(t+d)とS(t)は、2乗しても同じ矩形波関数になる。このため、(1)式のH(r1,t) H(r2,t)を、
H(r1,t) H(r2,t)=As(r1,t) AL(r1,t)・As(r2,t) AL(r2,t)・S(t+d) S(t) (D)
とする。
Square wave functions S(t+d) and S(t) with an amplitude of 1 become the same square wave function even when squared. Therefore, H(r1,t) and H(r2,t) in equation (1) can be written as follows:
H(r1,t) H(r2,t)=As(r1,t) AL(r1,t)・As(r2,t) AL(r2,t)・S(t+d) S(t) (D)
Let us assume that.
さらに、S(t+d)とS(t)を、それらの周波数成分の基本波と直流成分の式、cosφ(t+d)+1とcosφ(t)+1に置き換えて説明する。 Furthermore, we will explain by replacing S(t+d) and S(t) with the equations for the fundamental wave and DC component of those frequency components, cosφ(t+d)+1 and cosφ(t)+1.
S(t+d)とS(t)の高調波成分で生じる干渉縞信号についても同じ考え方を以って説明することができる。ここで、振幅の係数は説明上意味を持たないので省略する。 The same idea can be used to explain the interference fringe signals that arise from the harmonic components of S(t+d) and S(t). Here, the amplitude coefficients are omitted because they are meaningless for the purposes of explanation.
(D)式のS(t+d)とS(t)を、cosφ(t+d)+1とcosφ(t)+1に置き換え、AL(r1,t)とAs(r2,t)の位置を入れ換えて、
H(r1,t) H(r2,t)=As(r1,t) As(r2,t)・AL(r1,t) AL(r2,t)・[cosφ(t+d)+1] [cosφ(t)+1] (E)
とする。
(D) Replace S(t+d) and S(t) with cosφ(t+d)+1 and cosφ(t)+1, and swap the positions of AL(r1,t) and As(r2,t),
H(r1,t) H(r2,t)=As(r1,t) As(r2,t)・AL(r1,t) AL(r2,t)・[cosφ(t+d)+1] [cosφ(t)+1] (E)
Let us assume that.
(E)式の[cosφ(t+d)+1] [cosφ(t)+1]を三角関数の積和の式で展開してから、(1)式を経て(2)式に代入する。キャリア光、As(r,t)とAL(r,t)の時間コヒーレンスと空間コヒーレンスが十分に低い場合、受光素子上のキャリア光、As(r1,t) とAs(r2,t)、および、AL(r1,t) とAL(r2,t)の空間的相関距離が極めて短く、上式のAs(r1,t) As(r2,t)とAL(r1,t) AL(r2,t)のヘテロダイン振幅は、rの位置に関わりなく時間軸上で2乗検波がなされる。よって、サンプリング撮像の時間平均によって一定値に近づく。 After expanding [cosφ(t+d)+1] [cosφ(t)+1] in equation (E) using a product-sum formula for trigonometric functions, substitute it into equation (2) via equation (1). When the time coherence and spatial coherence of the carrier light, As(r,t) and AL(r,t), are sufficiently low, the spatial correlation distance of the carrier light, As(r1,t) and As(r2,t), and AL(r1,t) and AL(r2,t) on the photodetector is extremely short, and the heterodyne amplitudes of As(r1,t) As(r2,t) and AL(r1,t) AL(r2,t) in the above equations are squared on the time axis regardless of the position of r. Therefore, they approach a constant value due to the time averaging of the sampling imaging.
そのとき、周波数の低い干渉縞信号を示す以下の項が残る。
As(r1,t) As(r2,t)・AL(r1,t) AL(r2,t)・{1/2・cos[φ(t+d)-φ(t)]+1}
その他の項は、サンプリング撮像の時間平均によって0に収束する。
We are then left with the following terms, which represent the low frequency interference fringe signal:
As(r1,t) As(r2,t)・AL(r1,t) AL(r2,t)・{1/2・cos[φ(t+d)−φ(t)]+1}
The other terms converge to zero by time averaging of the sampling images.
そして、1/2・cos[φ(t+d)-φ(t)]+1は、変数rを持たない。このため、(2)式の積分から外れて係数項となる。上式のAs(r1,t) As(r2,t)・AL(r1,t) AL(r2,t)が、(1)式の時間平均と(2)式の受光画素上の積分によって、受光画素上のキャリア光の全電力の積、K Ps PLに収束する。 And 1/2 cos[φ(t+d)-φ(t)]+1 does not have the variable r. Therefore, it is excluded from the integral in equation (2) and becomes a coefficient term. In the above equation, As(r1,t) As(r2,t) AL(r1,t) AL(r2,t) is calculated by the time average in equation (1) and the integration on the photosensitive pixel in equation (2), and is the product of the total power of the carrier light on the photosensitive pixel, K Ps Converges to PL.
結果として、反射光36と参照光40のヘテロダイン出力Iは、前述した式と同じ、
I=K Ps PL {1/2・cos[φ(t+d)-φ(t)]+1} (3)
となる。
As a result, the heterodyne output I of the reflected
I = K Ps PL {1/2・cos[φ(t+d)-φ(t)]+1} (3)
Becomes.
(3)式から、チャープ信号間のヘテロダインによって、遅延時間d(図2の符号3)に対応した低い周波数(図2の符号2)の干渉縞信号が生じ、その振幅は、反射光の電力Psに比例し、参照光の電力PLによって増幅されることが分かる。 From equation (3), we can see that heterodyning between chirp signals generates an interference fringe signal of low frequency (2 in Figure 2) corresponding to the delay time d (3 in Figure 2), the amplitude of which is proportional to the power Ps of the reflected light and is amplified by the power PL of the reference light.
本例において干渉縞信号のSN比を確保する方法について述べる。
反射光36と参照光40を合波して受光し、干渉縞信号を検出する際に、キャリア光のコヒーレンスが十分低くないと、キャリア光間のヘテロダインによって干渉縞信号と同等の低い周波数成分が一部生じてしまう。そして、サンプリング撮像の露光時間で平均化されずに、干渉縞信号の雑音(ビート雑音、スペックル雑音)として残る。
In this example, a method for ensuring the S/N ratio of the interference fringe signal will be described.
When the reflected
反射光36と参照光40のキャリア光の受光画素上の空間周波数成分の帯域幅を広くすると、キャリア光間のヘテロダイン振幅の空間周波数成分が、それらの畳み込み積分によって更に広くなる。そして、(3)式の干渉縞信号の係数K Ps PLが大きくなる。それに対して、雑音電力の帯域幅は、サンプリング露光時間が一定のため変わらず、干渉縞信号の電力SN比が上がる。
When the bandwidth of the spatial frequency components of the carrier light of the reflected
ここで、光の時間コヒーレンスは、光の進行方向の空間周波数成分の帯域幅の逆数に比例し、空間コヒーレンスは、光の進行方向を法線とする面の空間周波数成分の帯域幅の逆数に比例する。 Here, the temporal coherence of light is proportional to the inverse of the bandwidth of the spatial frequency components in the direction of light propagation, and the spatial coherence is proportional to the inverse of the bandwidth of the spatial frequency components of a plane normal to the direction of light propagation.
このため、上記の「反射光36と参照光40のキャリア光の受光画素上の空間周波数成分の帯域幅を広くすると、干渉縞信号の電力SN比が上がる」ということは、「受光画素上のキャリア光の時間コヒーレンスと空間コヒーレンスを低くすると、干渉縞信号のSN比が上がる」と言い換えることができる。
Therefore, the above statement that "widening the bandwidth of the spatial frequency components of the carrier light of the reflected
波長1550nmの赤外LDは、GHz単位の直接スイッチングが可能で、小型、低価格のため、on-offスイッチングによってチャープ変調を行う際の光源に適する。 Infrared LDs with a wavelength of 1550 nm are capable of direct switching in the GHz range, and are small and low-cost, making them suitable as light sources for chirp modulation using on-off switching.
出力光の時間コヒーレンスと空間コヒーレンスが、それなりに高いため、周波数帯域幅は15GHzと狭い。検出する最長距離を150m、チャープ時間を15ms、帯域幅を1GHzとすると、後述する(7)式から干渉縞信号の周波数は67kHzとなる。 The time coherence and spatial coherence of the output light are relatively high, so the frequency bandwidth is narrow at 15 GHz. If the maximum detection distance is 150 m, the chirp time is 15 ms, and the bandwidth is 1 GHz, the frequency of the interference fringe signal is 67 kHz according to equation (7) described below.
サンプリング周波数は、その2倍以上の150kHz程度が必要となる。そのときのキャリア光の周波数帯域幅と、サンプリング露光によるローパスカットオフ周波数の帯域幅の比、即ち電力SN比は94dBとなる。 The sampling frequency must be more than twice as high, at about 150 kHz. At that time, the ratio of the frequency bandwidth of the carrier light to the bandwidth of the low-pass cutoff frequency due to sampling exposure, i.e., the power S/N ratio, is 94 dB.
干渉縞信号の振幅SN比は、その半分の47dBになる。遠距離での干渉縞信号の減衰を考慮したとき、60dBのSN比が必要と考えると、12dBほど不足していることになる。そこで、以下に示す方法を講じて、キャリア光の広帯域化を図り、SN比を確保する。 The amplitude SNR of the interference fringe signal is half that, at 47 dB. When considering the attenuation of the interference fringe signal over long distances, if an SNR of 60 dB is required, this is about 12 dB short. Therefore, the following method is used to broaden the bandwidth of the carrier light and ensure the SNR.
次に、キャリア光の時間コヒーレンスと空間コヒーレンスを低減させる方法を述べる。
光源の光強度確保を兼ね、光源光の主軸を法線とする面に、複数のLD光源を2次元に配置し、出力光を合成することで、コヒーレンスを低減させることができる。
Next, a method for reducing the temporal and spatial coherence of the carrier light will be described.
In order to ensure the light intensity of the light source, multiple LD light sources are arranged two-dimensionally on a plane whose normal line is the principal axis of the light from the light source, and the output light is synthesized, thereby reducing coherence.
2次元に配置されるLD光源から照射される光源光の径の大きさに直線的に比例して、合成光のコヒーレンスを低下することができる。このときの空間コヒーレンスの低減は、時間コヒーレンスよりも遥かに効率が高い。 The coherence of the composite light can be reduced in linear proportion to the diameter of the light emitted from the two-dimensionally arranged LD light sources. In this case, the reduction in spatial coherence is much more efficient than the reduction in temporal coherence.
受光画素面上で合波された複数のLD光の空間周波帯域幅が、広く均一になるように、LD光源の周波数帯域幅(波長帯域幅)とその包絡線の波形を鑑みて、2次元に配置されるLD光源間の間隔を適宜選択する。 The spacing between the two-dimensionally arranged LD light sources is appropriately selected in consideration of the frequency bandwidth (wavelength bandwidth) of the LD light source and the waveform of its envelope so that the spatial frequency bandwidth of the multiple LD light beams combined on the light-receiving pixel surface is wide and uniform.
このとき、スタガ同調と同様に、複数のLDの中心波長をずらしながら、周波数帯域の一部を重ねて広く均一になるように合成すると、時間コヒーレンスを含めて、空間コヒーレンスの低減を、更に効率良く行なうことができる。 In this case, similar to staggered tuning, by shifting the central wavelengths of multiple LDs and overlapping parts of the frequency bands to create a wide, uniform combination, it is possible to reduce spatial coherence, including temporal coherence, even more efficiently.
光源のアッセンブルの構造上、光源間の間隔を広くせざるを得ない場合、コリメータ光学系とフライアイ光学系とケーラー照明光学系を使用して、光源を細かい配置に分割する。更に、それを上記の方法と組み合わせることで、コヒーレンスの低減を効率良く行なうことができる。そのとき、フライアイレンズの長さをランダムにして、時間コヒーレンスを含めて低減できる。 When the structure of the light source assembly requires a wide spacing between light sources, the light sources are divided into a fine arrangement using collimator optics, fly's eye optics, and Kohler illumination optics. Furthermore, by combining this with the above method, it is possible to efficiently reduce coherence. In that case, the length of the fly's eye lens can be made random, allowing reduction including time coherence.
また、スイッチングスピードが許せば、LDの代わりに、面発光型のSLDやLEDなどの低コヒーレンスの発光ダイオードを使用してもよい。これらの低コヒーレンスの発光ダイオードは、近年、可視光通信や光無線、Li-Fi(Light Fidelity)などへの期待から、更なる高出力化とスイッチングの高速化が進められている。 In addition, if the switching speed allows, low-coherence light-emitting diodes such as surface-emitting SLDs and LEDs may be used instead of LDs. In recent years, efforts have been made to further increase the output and switching speed of these low-coherence light-emitting diodes in anticipation of visible light communication, optical wireless, Li-Fi (Light Fidelity), and other applications.
また、直接スイッチングの代わりに、EA素子のような外部スイッチング素子を使用して高速スイッチングを行うこともできる。ただし、これらの低コヒーレンス光源は、時間コヒーレンスは低いが、空間コヒーレンスが高い(点光源性を有する)ものが多いため、上記した空間コヒーレンスを低減させる手段と組み合わせる必要がある。 Instead of direct switching, high-speed switching can also be achieved by using an external switching element such as an EA element. However, since these low-coherence light sources often have low temporal coherence but high spatial coherence (point source properties), they must be combined with the above-mentioned means for reducing spatial coherence.
また、照明光と参照光のキャリア光の光源を別にすることで、キャリア光間の位相と偏波面をランダムにして、ビート雑音を広帯域に拡散させることができる。 In addition, by using separate light sources for the illumination light and the carrier light for the reference light, the phase and polarization plane between the carrier lights can be made random, allowing the beat noise to be spread over a wide bandwidth.
また、照明光を分波器で分波してファイバー束で導光し、参照光として使用することもできる。LDのコヒーレンス長は10cm程度である。このため、物体までの往復距離が1m以上になる場合、反射光の時間コヒーレンスが既に十分崩れており、また、マルチモードのファイバー束などを使用して、ファイバー束の長さと径を調節することで、時間コヒーレンスと空間コヒーレンスを更に低減させることができる。 Also, the illumination light can be split by a splitter and guided through a fiber bundle to be used as reference light. The coherence length of an LD is about 10 cm. Therefore, when the round-trip distance to the object is 1 m or more, the temporal coherence of the reflected light is already sufficiently broken. In addition, by using a multimode fiber bundle, etc., and adjusting the length and diameter of the fiber bundle, the temporal and spatial coherence can be further reduced.
上記した方法以外にも、キャリア光のコヒーレンスを低減させる手段が多数存在するが、一つの手法でインコヒーレントに近い光を実現できる手段はない。用途に応じて、幾つかの手法を組合せて、必要十分なキャリア光のコヒーレンス低減を図り、前述したビート雑音に対する干渉縞信号のSN比を確保することになる。 In addition to the methods mentioned above, there are many other ways to reduce the coherence of the carrier light, but no single method can produce light that is close to incoherent. Depending on the application, several methods can be combined to achieve a sufficient reduction in the coherence of the carrier light and ensure the signal-to-noise ratio of the interference fringe signal to the beat noise mentioned above.
図9は、キャリア光のコヒーレンスと光源大きさの関係を示す。いずれの場合も、照明光と参照光の発光部の大きさを、図9に示す範囲61に設定する。そして、照明光と参照光に同一のチャープ変調を施すことで、チャープ信号の時間コヒーレンスと空間コヒーレンスを保持しつつ、キャリア光の時間コヒーレンスと空間コヒーレンスを必要十分に低減することが必要である。
Figure 9 shows the relationship between the coherence of the carrier light and the size of the light source. In either case, the size of the light emitting portion of the illumination light and the reference light is set to the
図9において、グラフ62は、発光部の大きさに対するキャリア光の空間コヒーレンスの低下を示し、グラフ63は、チャープ信号の空間コヒーレンスの低下を示す。図9では、紙面の都合上、範囲61が狭く表記されているが、キャリア光とチャープ信号の波長の比は5桁ほどあるので、実際の範囲61はかなり広く、以上に述べた設定を行うことは容易である。
In Figure 9,
反射光36のグラフ62は、物体35までの距離や倍率(画角)、受光画素の大きさによって変わる。このため、グラフ62は、最も条件の悪いときのコヒーレンス低減のグラフを使用し、チャープ信号のグラフ63は、コヒーレンスの低減が最も良い条件のときのグラフを使用する。
参照光40の場合は、光源から受光素子までの距離が短く一定のため、設定できる範囲61が広く、コヒーレンスの低減は容易である。
In the case of
次に、RGB画像と距離画像を同時に検出する撮像素子38について述べる。
400nm~1700nmの波長特性を有する134万画素の撮像素子が市販されている。受光部をInGaAsの半導体で構成し、読出し機構などの回路系がSiで構成され、それらを結合させた2層構造の撮像素子である。
Next, the
An image sensor with 1.34 million pixels and wavelength characteristics of 400 nm to 1700 nm is commercially available. The light receiving section is made of InGaAs semiconductor, and the circuit system such as the readout mechanism is made of Si, making it a two-layer structure image sensor.
図10は、撮像素子の正面構成を示す。このような撮像素子を使用し、図10に示すように、RGBの色フィルタとIRの波長フィルタをモザイク状に配列する。IRフィルタの波長特性は、中心波長が1550nmで、不要な外光による雑音を防ぐために照明光34と参照光40の波長帯域に適合させてある。
Figure 10 shows the front configuration of the imaging element. Using such an imaging element, RGB color filters and IR wavelength filters are arranged in a mosaic pattern as shown in Figure 10. The wavelength characteristics of the IR filter have a central wavelength of 1550 nm, and are adapted to the wavelength bands of the
このような撮像素子38を高速駆動することで、IR画素で生じた干渉縞信号を全画素並列にサンプリングし、図6に示した周波数変換器44と相関器48、距離変換部49の処理を経て距離画像を検出する。
By driving such an
並行して、高速撮像で得られた多数のRGB画像とIR画像を、図示に無い累積加算器によって累積加算し、ダイナミックレンジの広いRGB画像とIR画像を得る。 In parallel, multiple RGB images and IR images obtained by high-speed imaging are cumulatively added by a cumulative adder (not shown) to obtain RGB images and IR images with a wide dynamic range.
このRGB画像とIR画像から、AI51が、外界の物体検出に加え、妨害となる他の車両の距離検出装置の照明光や外光の位置を判定し、その位置に対応する干渉縞信号の画素を除外できる。AI51は、自動運転やロボットの物体検出に欠かせない判定機構である。AI51の物体検出について後述する。 From these RGB and IR images, AI51 can detect objects in the outside world, as well as determine the position of interfering illumination light from distance detection devices on other vehicles and external light, and can eliminate pixels of interference fringe signals that correspond to those positions. AI51 is an essential judgment mechanism for autonomous driving and object detection by robots. Object detection by AI51 will be described later.
上記の距離画像を得る手段を、ロボットの視覚センサーに適用する場合について述べる。RGB画像とIR画像と距離画像を併合し、一画素当たり5チャネルの情報を有する画像としてAI51に学習させる。 We will now describe how to apply the above-mentioned method of obtaining a distance image to a robot's visual sensor. The RGB image, IR image, and distance image are merged, and the AI51 is trained to learn the image as one with five channels of information per pixel.
ロボットが扱う物体のなかにはRGB画像による形状や、テクスチャー、色だけで判別できないものも多い。このため、画像に加えて、距離検出によって得た3次元形状の情報(距離画像)から、作業対象物のカテゴリ分類(classification)の精度を上げることができる。そして、ロボットのハンドピースが把持する3次元位置を検出することができる。 Many of the objects handled by robots cannot be identified by their shape, texture, or color alone in RGB images. For this reason, the accuracy of classification of work objects can be improved by using three-dimensional shape information (distance image) obtained by distance detection in addition to the image. This makes it possible to detect the three-dimensional position of the object being grasped by the robot's handpiece.
例えば、作業対象物の距離検出の範囲を、0~0.3mと0.3~3mの2段階に分ける。距離が3mのときに、チャープ変調幅を3GHzに設定して距離検出精度を1.25mmにする。すると、干渉縞信号の周波数は4kHzとなる。撮像素子に必要なフレームレートは8000フレーム/秒となる。 For example, the range for detecting the distance to the work object is divided into two stages: 0 to 0.3 m and 0.3 to 3 m. When the distance is 3 m, the chirp modulation width is set to 3 GHz to achieve a distance detection accuracy of 1.25 mm. Then, the frequency of the interference fringe signal becomes 4 kHz. The frame rate required for the image sensor is 8000 frames/second.
そして、ロボットのハンドピースが0.3mに近づいたときに、チャープ変調帯域幅を30GHzに切換えて距離検出精度を125μmにすると、干渉縞信号の周波数が4kHzとなる。 When the robot handpiece approaches within 0.3 m, the chirp modulation bandwidth is switched to 30 GHz to set the distance detection accuracy to 125 μm, and the frequency of the interference fringe signal becomes 4 kHz.
撮像素子に必要なフレームレートは、同じく8000フレーム/秒となり、現状の撮像素子の高速撮像で実現できるレベルとなる。30GHzを超えるスイッチングは、LDの出力光をマッハツェンダ素子などでスイッチングすることで得られる。 The frame rate required for the image sensor will also be 8,000 frames per second, which is the level that can be achieved with current image sensors with high-speed imaging. Switching above 30 GHz can be achieved by switching the output light of the LD using a Mach-Zehnder element or similar.
そして、上述したように、5チャンネルの画像から、AI51が、ロボットの作業空間で使用される複数の距離センサーや外光による妨害を判定し、それらの影響を回避することができる。 And as mentioned above, from the five-channel images, AI51 can determine interference from multiple distance sensors used in the robot's workspace and external light, and avoid their effects.
次に、車両のように、RGB画像の検出と遠距離の距離検出を同時に行うときの撮像素子38の駆動について説明する。
Next, we will explain how the
車両の場合は、検出距離が150mと長いため、チャープ変調帯域幅を1GHzにしても、干渉縞信号の周波数は67kHzと高くなる。この干渉縞信号を撮像素子38の高速撮像によって全画素並列にサンプリングすると、サンプリング定理から134000フレーム/秒以上の高速撮像が必要になり、現状の撮像素子の高速撮像の限界を超えてしまう。
In the case of a vehicle, the detection distance is as long as 150 m, so even if the chirp modulation bandwidth is 1 GHz, the frequency of the interference fringe signal is high at 67 kHz. If this interference fringe signal is sampled in parallel for all pixels by the high-speed imaging of the
ただし、車両における物体検出は、自動運転に関わる物体35を検出し、その距離を検出すればよい。このため、自動運転に関わる物体の大きさと位置を検出するbounding boxや、領域と位置を検出するsemantic segmentationなどのAIの物体検出の手法を用いる。そして、物体35の距離検出が必要な局所部分に対応するIR画素の干渉縞信号だけを読み出すようにする。これにより、読み出す画素数が少なくなり、干渉縞信号をサンプリングするレートを十分高くできる。
However, object detection in a vehicle only requires detecting
図11は、物体が複数存在する状況を示す。図11に示すように、安全運転に関わる物体である自動車70A、70Bが複数存在する場合、RGB画像とIR画像から、AI 51が、妨害光75、76を回避して、それらの物体70A、70Bの距離を検出する複数の局所部分71、72、73、74を判定する。
Figure 11 shows a situation where multiple objects exist. As shown in Figure 11, when there are
図6の参照符号52は、AI51が、RGB画像とIR1画像から判定した干渉縞信号を検出する物体の局所位置の画素のアドレスと、IR2画像から判定した光無線通信を受信する位置の画素アドレスを、図5の撮像素子38の読出し機構に伝達する信号を示す。
その結果(図6の符号52)を受けて、撮像素子38の読出し機構が、AI51が判定した複数のIR画素の干渉縞信号を、同じサンプリングレートになるように、ランダムアクセスによって順次読み出すことを繰り返す。
Based on the result (
これによって、撮像素子38のフレームレートを一桁程度上げるだけで、必要なサンプリングレートを十分に確保できる。妨害光75と妨害光76は、妨害となる他の車両の距離検出装置の照明光源の位置を示している。
As a result, the required sampling rate can be sufficiently ensured by simply increasing the frame rate of the
図12は、撮像素子の水平ラインの画素の読出しを示すタイミングチャートである。撮像素子38によって、RGB画像とIR画像の読出しと同時に、AI51が判定したIR画素の干渉縞信号を高速にサンプリングする方法について述べる。
Figure 12 is a timing chart showing the reading of pixels on a horizontal line of the image sensor. We will describe a method for using the
撮像素子38の水平ラインの画素の読出しと、AI51が判定したIR画素が含まれる水平ラインの読出しを、順次繰り返すことで、RGB画像とIR画像の読出しと同時に、AI51が判定した複数のIR画素の干渉縞信号を高速にサンプリングすることができる。
By sequentially repeating the reading of the pixels of the horizontal line of the
撮像素子38にCMOS撮像素子を使用する場合、AI51が判定した距離検出が必要なIR画素(図11の符号71~74に対応)を含む水平ラインをm、n、o、pとしたとき、図12に示すように、先ず、水平ライン1のR画素とG画素の信号を、符号81のタイミングで撮像素子38の水平シフトレジスタに移す。そして、符号82のタイミングで蓄積電荷のリセットを行ない、R画素とG画素の水平読出しとフレーム周期83の露光を開始する。
When a CMOS image sensor is used for the
続けて、水平ラインm、n、o、pを順次選択する。符号84~87のタイミングでB画素とIR画素の信号を水平シフトレジスタに順次移しながら、符号88~91のタイミングで順次リセットを行う。B画素とIR画素の水平読出しとサンプリング周期92~95の露光を順次開始する。
Next, horizontal lines m, n, o, and p are selected in sequence. At the timings indicated by
次に、水平ライン2に移り、B画素とIR画素を、符号96のタイミングで水平シフトレジスタに移し、符号97のタイミングでリセットを行ない、B画素とIR画素の水平読出しとフレーム周期98の露光を開始する。
Next, moving to
続けて、再度、水平ラインm、n、o、pを順次選択し、B画素とIR画素の水平読出しとサンプリング周期の露光を開始する。以上の処理を、水平ラインの数だけ繰り返すことで、RGB画像とIR画像の検出と同時に、AI51が判定したIR画素の干渉縞信号のサンプリングを行う。 Next, horizontal lines m, n, o, and p are selected in sequence again, and horizontal readout of the B and IR pixels and exposure for the sampling period are started. By repeating the above process for the number of horizontal lines, the RGB and IR images are detected and at the same time, the interference fringe signal of the IR pixel determined by AI51 is sampled.
このとき、水平ラインm、n、o、pのB画素の露光時間が、干渉縞信号のサンプリング周期92~95になる。このため、フレーム期間内で累積加算を行い、水平ラインm、n、o、pにおけるB画像を得る。
At this time, the exposure time of the B pixels on horizontal lines m, n, o, and p is the
ただし、累積加算を行っても、水平シフトレジスタへの信号移転とリセットの時間の分、僅かに露光時間が不足するため、利得を調整して補正する。これによって、RGB画像とIR画像を得るのと同時に、AI51が、距離検出が必要と判定した4つの位置71~74に対応するIR画素の干渉縞信号を高速にサンプリングできる。検出したRGB画像とIR画像の情報は、AI51の次の判定に使用される。
However, even when cumulative addition is performed, there is a slight shortage in the exposure time due to the time it takes to transfer the signal to the horizontal shift register and to reset, so the gain is adjusted to compensate. This allows the RGB image and IR image to be obtained, and at the same time, the interference fringe signals of the IR pixels corresponding to the four
いま、チャープ変調帯域幅を1GHzと、
チャープ時間を15msと、
物体35までの最長検出距離を150mとしたとき、
干渉縞信号の最大周波数が67kHzになる。
Now, let's say the chirp modulation bandwidth is 1 GHz.
Chirp time is 15 ms,
When the maximum detection distance to the
The maximum frequency of the interference fringe signal is 67 kHz.
AI51が判定した画素が4つの場合、5倍の750kHz程度の水平走査周波数が必要になる。これをHD撮像素子のフレームレートに換算すると、600フレーム/秒程度となる。既存のHD撮像素子の高速撮像の技術で十分実現できるレベルにある。 If the AI51 determines that there are four pixels, a horizontal scanning frequency of about 750 kHz, five times the frequency, is required. Converting this to a frame rate of an HD image sensor, it is about 600 frames per second. This is a level that can be easily achieved with the high-speed imaging technology of existing HD image sensors.
このように、本実施形態の好ましい態様では、
2次元検出機構で撮像した画像から、物体の距離の検出を妨害する妨害光の位置を検出し、物体の距離の検出を行う局所位置を判定する判定機構と、を有し、
妨害光を回避して物体の局所位置の距離を検出することが望ましい。
また、本実施形態の好ましい態様によれば、
2次元検出機構で撮像した画像から、光無線通信の受信を妨害する妨害光の位置を判定し、光無線通信を受信する光無線通信装置の送信機の位置を判定する判定機構と、を有し、
妨害光を回避して光無線通信を受信することが望ましい。
Thus, in a preferred aspect of this embodiment,
a determination mechanism that detects a position of interference light that interferes with detection of the distance to the object from an image captured by the two-dimensional detection mechanism and determines a local position where the distance to the object is detected;
It is desirable to detect the distance to the local location of an object while avoiding interfering light.
According to a preferred aspect of this embodiment,
a determination mechanism that determines a position of interference light that interferes with reception of the optical wireless communication from an image captured by the two-dimensional detection mechanism, and determines a position of a transmitter of an optical wireless communication device that receives the optical wireless communication,
It is desirable to receive wireless optical communications while avoiding interfering light.
撮像素子38を使用して、光無線通信を受信する方法について述べる。
図13は、フィルタの正面構成を示す。撮像素子38が光無線通信の受信機能を兼ねる場合は、図13に示すように、撮像素子38の画素に、カラー画像検出用のRGBの色フィルタと、距離検出用のIR1のフィルタと、光無線通信用のIR2のフィルタをモザイク状に配列する。
A method of receiving optical wireless communications using the
Fig. 13 shows the front configuration of the filters. When the
これらの画素の読出しのタイミングは、図12のタイミングチャートに、光無線通信用のIR2画素の読出しとリセットのタイミングを追加したものとなる。AI51が判定したIR1画素とIR2画素が、それぞれ4つある場合、水平走査の繰返し周波数は、図12のタイミングチャートの9倍の1200kHzとなる。撮像素子のフレームレートに換算すると、1150フレーム/秒となり、既存のHD撮像素子の高速撮像の技術で実現できるレベルとなる。このとき、光無線通信の通信容量は、67kbpsとなる。 The timing for reading out these pixels is the timing chart in Figure 12 with the addition of the timing for reading out and resetting the IR2 pixel for optical wireless communication. If there are four IR1 pixels and four IR2 pixels determined by AI51, the horizontal scanning repetition frequency is 1200 kHz, nine times that of the timing chart in Figure 12. Converted into the frame rate of the image sensor, this is 1150 frames per second, a level that can be achieved with existing high-speed imaging technology for HD image sensors. In this case, the communication capacity of the optical wireless communication is 67 kbps.
又は、多板プリズムを使用し、ダイクロイックミラーによってRGB画像用の波長帯域と、距離計測用のIR1の波長帯域と、光無線通信用のIR2の波長帯域を分離、それぞれの検出に適した専用の撮像素子を設けてもよい。 Alternatively, a multi-plate prism can be used, and a dichroic mirror can be used to separate the wavelength bands for RGB images, the IR1 wavelength band for distance measurement, and the IR2 wavelength band for optical wireless communication, with dedicated imaging elements provided for each detection.
以上に、CMOS撮像素子の受光部の基本構成を変えずに、水平ラインをランダムに選択できるようにすることで、RGB画像とIR画像の検出と同時に、AI51が判定したIR画素の干渉縞信号の高速サンプリングと、光無線通信の受信を可能にする方法を述べた。 Above, we have described a method that allows random selection of horizontal lines without changing the basic configuration of the light receiving section of the CMOS image sensor, thereby enabling high-speed sampling of the interference fringe signal of the IR pixel determined by AI51 and reception of optical wireless communication at the same time as detecting the RGB image and IR image.
CMOS撮像素子の画素の半導体の構成と読出し機構を変更することで、更に高速のIR画素の干渉縞信号のサンプリングと光無線通信の受信を行うことができる。 By modifying the semiconductor configuration and readout mechanism of the pixels of the CMOS image sensor, it is possible to sample the interference fringe signals of the IR pixels at even higher speeds and receive optical wireless communication.
例えば、まず、CMOS撮像素子の水平走査回路と垂直走査回路を、画素をランダムに選択できる回路構成(デコーダー回路など)に変更する。加えて、水平ラインの画素の電荷をリセットする各画素のトランジスタに、垂直ラインをリセットするトランジスタを直列に配置(カスコード接続)する。これにより、画素ごとのリセットをXYマトリクススイッチで行う構成にする。 For example, first, the horizontal and vertical scanning circuits of the CMOS image sensor are changed to a circuit configuration (decoder circuit, etc.) that can randomly select pixels. In addition, a transistor that resets the vertical line is placed in series (cascode connection) with the transistor of each pixel that resets the charge of the pixels on the horizontal line. This creates a configuration in which resetting each pixel is performed by an XY matrix switch.
前述と同様な手順によって、撮像素子38の受光画素の読出しと、AI51が判定したIR画素の読出しを、画素単位で順次繰り返すことが可能になる。RGB画像とIR画像の検出に並行して、IR画素の干渉縞信号のサンプリングレートと光無線通信の受信容量を3桁ほど上げることができる。ただし、画素ごとに垂直ラインをリセットするトランジスタが一つ増えるのと、それを駆動する信号の配線が垂直ラインごとに一つ増えることになる。
Using a procedure similar to that described above, it becomes possible to read out the light-receiving pixels of the
また、このときに、受光部にInGaAsのPIN型半導体や、IRの受光画素に単一光子アバランシェダイオード(SPAD:single photon avalanche diode)などの半導体構成を用いれば、高い周波数の干渉縞信号を高感度に検出することができる。また、高いビットレートの光無線通信を高感度に受信できる。 In addition, if a semiconductor configuration such as an InGaAs PIN semiconductor is used for the light receiving section, or a single photon avalanche diode (SPAD) is used for the IR light receiving pixel, high frequency interference fringe signals can be detected with high sensitivity. Also, high bit rate optical wireless communication can be received with high sensitivity.
図14と図15は、それぞれ第2実施形態の変形例に係る測距装置の概略構成を示す。 Figures 14 and 15 each show a schematic configuration of a distance measuring device according to a modified example of the second embodiment.
シンセサイザー発振器101などで生成した、例えば、0.1―1.1GHzの線形チャープ信号119Aによって照明光源102の光をon―offする。サーキュレータ103を介した後、光学系104でビーム状に絞る。
The light from the
照明光105として、2次元走査機構106によって物体107を2次元に走査する。照明光源102には、中心波長1550nmのLDやSLDなど、高速スイッチングが可能な発光ダイオードが使用される。
The
物体107からの反射光108を、光学系104とサーキュレータ103を介した後、分波器109によってIR1、IR2、R、G、Bの波長帯域ごとに分波する。そして、光スイッチ115と光スイッチ116を介して、受光素子110、111、112、113、114に入力し、電気信号に変換する。
The reflected light 108 from the
符号IR1は、照明光源102で生成された中心波長1550nmの赤外光を示す。符号IR2は、外部の赤外通信用の光を示す。ここで、サーキュレータ103と、分波器109と、光スイッチ115と光スイッチ116、受光素子110、111、112、113、114は、光ファイバーで接続された光デバイスである。光ファイバー通信では同様な光デバイスが多用されている。
The symbol IR1 indicates infrared light with a central wavelength of 1550 nm generated by the
図15に示したAI120 が、妨害を回避しながら距離検出の必要な位置(図11の71―74)を判定する。そして、その指示121に従い、照明光105のビームの走査が、その位置(図11の71―74)に重なる時に、光スイッチ115が、受光素子117に接続を切り換える。
The
その位置(図11の71―74)以外は、受光素子110に接続し、符号IRIの画像信号を検出する。受光素子117は、InGaAsのPIN型半導体などで構成されていて、電流電圧変換型の増幅器を有し、SN比の高い高速の直接検波が可能である。
The other positions (71-74 in Figure 11) are connected to the
反射光108のチャープ信号を直接検波して電気信号に変換し、検波したチャープ信号に、混合器(ミキサー)118によって、チャープ信号119Aを参照信号として乗じ、干渉縞信号を検出する。
The chirp signal of the reflected light 108 is directly detected and converted into an electrical signal, and the detected chirp signal is multiplied by the
この干渉縞信号を、図6に示した処理と同様の処理を施し、物体107までの距離を検出する。そのとき、全画素の距離を検出するようにすれば、距離画像を得ることができる。
This interference fringe signal is processed in the same way as shown in Figure 6 to detect the distance to the
又は、受光素子117と混合器118の代わりに、アバランシェ効果によって単一光子の受光(ガイガーモード)が可能で、かつ、高速の直接スイッチングによってヘテロダイン検波が可能な受光素子、例えば、単一光子アバランシェダイオード(SPAD)などを使用する。ノイズフィギュアの高い受光増幅と同時に、チャープ信号119Aでスイッチングすることでヘテロダイン検波を直接行い、干渉縞信号を検出してもよい。
Alternatively, instead of the
同様に、AI120が、太陽光の強い反射などの妨害光(不図示)を回避しながら光無線通信を受信する位置(図11の符号77、78)を判定する。指示122に従い、位置(図11の符号77、78)に照明光105のビームの走査が重なる時に、光スイッチ116が、不図示の光無線受信機の入力端子に接続される光ファイバーの信号線に切り換える。
Similarly, the
図11の符号77、78は、それぞれ他の車両に設置された光無線送信機の位置を示している。又は、側道に設置された位置情報を提供する光無線送信機であってもよい。その場合、このような送信機が提供する位置情報と、本発明の距離検出装置によって検出した送信機と車両の相対位置から、GPSに代わって、センチ(cm)レベルの精度で現在位置を検出することができ、マップと電子的に照合することが可能になる。
位置(図11の符号77、78)以外は、受光素子111に接続し、IR2画素の画像信号を検出する。
Other than the positions (
分波されたR、G、Bの光も、カラー画像として受光素子112~114によって電気信号に変換される。そして、IR1、IR2、R、G、Bの信号は、5チャネル/画素の画像としてバッファメモリ119を介してAI120に入力される。
The separated R, G, and B light are also converted into electrical signals as a color image by light receiving elements 112-114. The IR1, IR2, R, G, and B signals are then input to
次のタイミングの物体検出、および、妨害光を回避する位置や、距離検出や光無線通信の受信が必要な位置の判定が行われる。 The next object detection is performed, and the position where interference light is avoided and where distance detection and reception of optical wireless communication are required are determined.
上記したように、図14の第2実施形態の変形例21Bは、ビーム状に絞った照明光105によって物体を2次元に走査することで、単一の受光素子117を使用して距離画像を検出する例である。
As described above, variant example 21B of the second embodiment in FIG. 14 is an example in which a distance image is detected using a single
更に、新たな第2実施形態の変形例として、図5の第1実施形態の変形例11Aの撮像素子38の画素の受光部に、InGaAsのPIN型半導体やSPADなどの高感度で、高速スイッチングが可能な半導体を使用しても良い。
Furthermore, as a new modified example of the second embodiment, a semiconductor capable of high sensitivity and high-speed switching, such as an InGaAs PIN-type semiconductor or a SPAD, may be used for the light receiving portion of the pixel of the
反射光36のチャープ信号を、高感度に受光しつつ、図5に示したチャープ変調の参照信号32によってスイッチングすることで、受光画素ごとにヘテロダイン検波を直接行って干渉縞信号を検出し、距離画像を得るようにしてもよい。そのとき、図5の照明光源33に高コヒーレンス光源を使用することができ、図5の参照光源39と合波器41が不要になる。
By receiving the chirp signal of the reflected light 36 with high sensitivity and switching it with the chirp-modulated
図6と図15に示したAI51やAI120について述べる。物体検出を行うAI51やAI120は、畳み込みニューラルネットワーク、CNN(convolutional neural network)が使用される。CNNは、画像認識のようなパターン認識が得意で、パターン認識をベースとする物体検出に適する。CNNの学習は、主に教師あり学習(supervised learning)によって行われる。 We will now describe AI51 and AI120 shown in Figures 6 and 15. AI51 and AI120, which perform object detection, use a convolutional neural network (CNN). CNN excels at pattern recognition such as image recognition, and is suitable for object detection based on pattern recognition. CNN learning is mainly performed by supervised learning.
判断の場の数が少ない特定領域では、学習データを収集し易く、学習量の差から、コンペティションでAIが人間に優るケースが増えている。AIは、判断の場の数の多い一般領域は、到底人間にかなわない。 In specific areas where the number of decision-making situations is small, it is easier to collect learning data, and there are an increasing number of cases where AI outperforms humans in competitions due to the difference in the amount of learning. In general areas where the number of decision-making situations is large, AI cannot possibly compete with humans.
AIが、特徴空間を仕切って判定を行う際に、学習に使用された画像の特徴ベクトル間の距離が均一でなく偏っていると、過学習や未学習が生じ、判定精度が落ちる。このため、学習データをセットアップするノウハウは重要である。 When AI divides up the feature space to make judgments, if the distances between the feature vectors of the images used for training are not uniform but biased, over-learning or under-learning will occur, resulting in reduced judgment accuracy. For this reason, know-how for setting up training data is important.
無作為に(ランダムに)データ量を増やせば、偏りが確率的に緩和され、学習データ量の対数値に比例して物体検出精度を上げることができる。しかし、膨大なデータ量をセットアップする必要が出てくる。学習データのセットアップを、特徴空間に基づいて効率化する提案が幾つかなされているが、現時点で決定打はない。 By randomly increasing the amount of data, bias can be mitigated probabilistically, and object detection accuracy can be improved in proportion to the logarithm of the amount of training data. However, this requires setting up a huge amount of data. Several proposals have been made to make the setup of training data more efficient based on feature space, but there is currently no conclusive solution.
AIが、疲れと忘却を知らず、膨大な学習量を昼夜問わずに電気のスピードでこなしてしまうのと、また、その学習量の差から人間に優るケースが増えている現状もあり、世の中の指向は、膨大な学習データをセットアップできるインフラ獲得のほうに向いている。 AI never tires or forgets, and can complete huge amounts of learning at the speed of light, day or night. In addition, there are an increasing number of cases where AI outperforms humans in terms of the amount of learning it can do. As a result, the world is now moving toward acquiring infrastructure that can set up huge amounts of learning data.
今後、学習データの収集方法が進化すれば、セットアップの考え方と方法が変わり、特定領域においてAIが人間に優るケースが急増することは間違いない。 As methods for collecting training data evolve in the future, the way we think about and the methods of setup will change, and there will undoubtedly be a sharp increase in cases where AI outperforms humans in certain areas.
CNNの処理回路の基本構成は、入力層、特徴抽出層、判定層、出力層で構成されるフィードフォワード型の処理回路である。 The basic configuration of a CNN processing circuit is a feedforward processing circuit consisting of an input layer, a feature extraction layer, a decision layer, and an output layer.
入力層は、1画素当たりの情報チャネル数を、画素数に乗じた入力端子数を有する。情報チャネル数は、RGB画像の場合、3チャネル/画素で、RGB画像と距離画像と速度画像を併合した画像の場合、5チャネル/画素になる。 The input layer has a number of input terminals equal to the number of information channels per pixel multiplied by the number of pixels. For RGB images, the number of information channels is 3 channels/pixel, and for images that combine RGB images, distance images, and velocity images, the number is 5 channels/pixel.
特徴抽出層は、畳み込み層、活性化関数、プーリング層のセットを多段に積み重ねて構成される。情報チャネル数とタスクが多い場合、特徴抽出層の層数を多くすることで、物体検出精度を確保することができる。 The feature extraction layer is composed of a set of convolutional layers, activation functions, and pooling layers stacked in multiple stages. When there are a large number of information channels and tasks, object detection accuracy can be ensured by increasing the number of feature extraction layers.
畳み込み層は、情報チャネル数を次元とする多次元フィルタであって、学習によって獲得したカーネル(ニューラルネットワークの重み係数)の畳み込み演算を行う。そして、特徴マップ(feature map)を抽出する。 The convolution layer is a multidimensional filter whose dimension is the number of information channels, and performs a convolution operation on the kernels (weighting coefficients of the neural network) acquired through learning. Then, a feature map is extracted.
近傍画素間の相関度が高い浅い層では、主成分分析に近い特徴マップが抽出され、深い層ほど、独立成分分析に近い特徴マップが抽出されるようになる。カーネルサイズは、層数と演算数のバランスから、RGB画像のように3チャネルの場合、3×3×3が多く用いられる。 In shallow layers where the correlation between neighboring pixels is high, feature maps close to principal component analysis are extracted, while deeper layers extract feature maps closer to independent component analysis. In order to strike a balance between the number of layers and the number of calculations, a kernel size of 3x3x3 is often used for three-channel images such as RGB images.
畳み込み層への入力チャネル数をnとすると、カーネルサイズが3nとなり、学習で獲得したカーネルの種類をmとすると、3nの畳み込み演算がm種類行われることになる。次段の畳み込み層の入力チャネル数nは、前段のカーネルの種類の数mである。 If the number of input channels to the convolutional layer is n, the kernel size is 3n , and if the number of kernel types acquired by learning is m, then m types of 3n convolution operations are performed. The number of input channels n of the next convolutional layer is the number of kernel types m of the previous stage.
活性化関数は、m種類の畳み込み演算の出力に、学習で得た重み係数を乗じ、バイアスを加え、非線形な関数変換を行うシンプルな構成である。ファジー論理演算に似た処理が行われることで、次層以降の高次の特徴抽出へ繋げる重要な役割を担っている。活性化関数にはいくつかの種類があり、物体検出では、演算規模とのバランスからrectified linear関数が用いられることが多い。 The activation function has a simple structure in which the output of m types of convolution operations is multiplied by weighting coefficients obtained through learning, a bias is added, and a nonlinear function transformation is performed. By performing processing similar to fuzzy logic operations, it plays an important role in linking to higher-level feature extraction from the next layer onwards. There are several types of activation functions, and for object detection, rectified linear functions are often used to balance the scale of operations.
プーリング層は、畳み込み層の出力(特徴マップ)の一定の範囲、例えば、2×2の範囲を一つに収斂(subsampling)するデータ圧縮に似た処理を行う。収斂は、2×2の範囲の信号の中で、独立成分分析(浅い層では主成分分析に近い)の第一主極となる最大値を選択(max pooling)することで行われる。 The pooling layer performs a process similar to data compression, which subsamples a certain range of the output (feature map) of the convolution layer, for example a 2x2 range, into one. The convergence is performed by selecting the maximum value (max pooling) that is the first principal pole of independent component analysis (similar to principal component analysis in shallow layers) from the 2x2 range of signals.
判定層と出力層はタスクに応じて構成される。カテゴリ分類の判定層は、用途に応じて、全結合層と活性化関数のセットを1~2層重ねて構成される。出力層は、カテゴリが多クラスの場合、クラス数と同じ数の出力端子が用意される。判定層と出力層の間に配置する活性化関数は、判定結果を確率で表すために、ソフトマックス関数が使用される。 The decision layer and output layer are configured according to the task. The decision layer for category classification is configured by stacking one or two fully connected layers and sets of activation functions depending on the application. When there are multiple categories, the output layer is provided with the same number of output terminals as the number of classes. The activation function placed between the decision layer and the output layer uses a softmax function to express the decision result as a probability.
自動運転の物体検出では、物体のカテゴリ分類の判定層と出力層に並列に、物体の大きさと位置を検出(bounding box)や、物体の領域を分類(semantic segmentation)する判定層と出力層が用意される。 In object detection for autonomous driving, in parallel with the decision layer and output layer for object category classification, there are decision layers and output layers for detecting the size and position of objects (bounding boxes) and classifying object regions (semantic segmentation).
入力層と特徴抽出層を、特徴ベクトルを抽出するエンコード機能とすると、判定層と出力層は、特徴ベクトルから目的に応じた出力を生成するデコード機能であって、タスクごとに柔軟に構成されることになる。例えば、物体領域を検出するU―Netの構成では、特徴抽出層の段ごとの出力を、ショートカットで取り出し、アンプ―リング(unpooling)と逆畳み込み演算(deconvolution)を行って、物体領域をデコードする。 If the input layer and feature extraction layer are encoding functions that extract feature vectors, then the decision layer and output layer are decoding functions that generate output according to the purpose from the feature vectors, and are flexibly configured for each task. For example, in the configuration of a U-Net that detects object regions, the output of each stage of the feature extraction layer is extracted using a shortcut, and unpooling and deconvolution are performed to decode the object region.
図6に示したAI51と、図15に示したAI120においても、自動運転に必要な物体検出の判定層と出力層に加えて、距離計測が必要な物体の局所位置や、光無線通信を受信する相手の送信機の位置を判定する判定層と出力層が並列に用意されている。 In AI51 shown in FIG. 6 and AI120 shown in FIG. 15, in addition to the judgment layer and output layer for object detection necessary for autonomous driving, judgment layers and output layers for judging the local position of an object that requires distance measurement and the position of the transmitter of the other party receiving the optical wireless communication are provided in parallel.
そして、RGB画像にIR1画像とIR2画像を併合した5チャンネル/画素の画像を学習データとしてAI51やAI120に学習させておき、本実施形態の距離検出装置で検出した5チャンネル/画素の画像をAI51やAI120に入力することで、AI 51やAI120が、検出が必要なIR1画素やIR2画素を判定し、それらの画素のアドレスを撮像素子38や、図14の光スイッチ115、116に伝えることになる。
Then, the 5-channel/pixel image obtained by merging the IR1 image and the IR2 image with the RGB image is learned by AI51 and AI120 as learning data, and the 5-channel/pixel image detected by the distance detection device of this embodiment is input to AI51 and AI120, whereby AI51 and AI120 determine the IR1 pixels and IR2 pixels that need to be detected and transmit the addresses of those pixels to the
干渉縞信号の周波数と初期位相、物体までの距離、距離分解能、距離計測精度について述べる。 We will discuss the frequency and initial phase of the interference fringe signal, the distance to the object, the distance resolution, and the distance measurement accuracy.
ここで、
f0は、線形チャープ変調の開始周波数、
fwは、初期位相をφ0、チャープ変調の帯域幅、
Tは、チャープ時間、
a=fw/Tは、チャープ変調の周波数の変化率、
tは、時間、とすると、チャープ信号の瞬時周波数f(t)は、
f(t)= a t + f0
となる。
Where:
f 0 is the starting frequency of the linear chirp modulation;
fw is the initial phase φ 0 , the bandwidth of the chirp modulation,
T is the chirp time.
a = fw/T is the rate of change of frequency of the chirp modulation.
If t is time, the instantaneous frequency f(t) of the chirp signal is
f(t) = at + f 0
It becomes.
参照光を変調しているチャープ信号の位相をφ(t)、初期位相をφ0とすると、φ(t)は、上式をtについて積分して、
φ(t)=2πf(t) t
=2π(1/2・a t+f0) t+φ0 (4)
となる。
If the phase of the chirp signal modulating the reference light is φ(t) and the initial phase is φ0 , then φ(t) is obtained by integrating the above equation with respect to t as follows:
φ(t)=2πf(t)
=2π(1/2・a t+f 0 ) t+φ 0 (4)
It becomes.
反射光と参照光の光路差に対応する時間遅延をdとすると、反射光のチャープ信号の位相φ(t+d)は、
φ(t+d)=2π[1/2・a (t+d)+f0](t+d)+φ0 (5)
と表せる。
If the time delay corresponding to the optical path difference between the reflected light and the reference light is d, the phase φ(t+d) of the chirp signal of the reflected light is
φ(t+d)=2π[1/2・a (t+d)+f 0 ](t+d)+φ 0 (5)
This can be expressed as:
式(4)と式(5)を、式(3)に代入すると、
I=K Ps PL cos [2π(a・d)t +πa・d2+2πf0・d] (6)
となる。
Substituting equations (4) and (5) into equation (3), we get
I=K Ps PL cos [2π(a・d)t +πa・d 2 +2πf 0・d] (6)
It becomes.
光速をC、物体までの距離をLとすると、L=C・d /2のため、
式(6)から、干渉縞信号の周波数fiは、
fi=a・d =(fw/T) d=2 fw L / C T (7)
となる。
If the speed of light is C and the distance to the object is L, then L = C d/2, so
From equation (6), the frequency fi of the interference fringe signal is given by
fi=a・d=(fw/T) d=2 fw L/CT (7)
It becomes.
干渉縞信号の周波数fiが、物体までの距離L(遅延時間d)とチャープ変調帯域幅fwに比例して高くなり、チャープ時間Tに比例して低くなることが分かる。 It can be seen that the frequency fi of the interference fringe signal increases in proportion to the distance to the object L (delay time d) and the chirp modulation bandwidth fw, and decreases in proportion to the chirp time T.
そして、干渉縞信号の初期位相φ0は、
φ0=πa・d2+2πf0・d=π/a・fi2+2πf0/a・fi
となる。
干渉縞の初期位相は、干渉縞の周波数fi(物体の距離)に比例して放物線状に変化する。
And the initial phase φ 0 of the interference fringe signal is
φ 0 =πa・d 2 +2πf 0・d=π/a・fi 2 +2πf 0 /a・fi
It becomes.
The initial phase of the interference fringes varies parabolically in proportion to the frequency fi of the interference fringes (the object distance).
また、物体までの距離Lは、L=C・d/2である。このため、式(7)から、
L=C・d/2=C・fi/2a=C・T fi /2fw (8)
となる。
距離Lは、干渉縞の周波数fi、チャープ変調帯域幅fw、チャープ時間Tを用いて算出できる。
In addition, the distance L to the object is L = C·d/2. Therefore, from equation (7),
L=C・d/2=C・fi/2a=C・T fi/2fw (8)
It becomes.
The distance L can be calculated using the frequency fi of the interference fringes, the chirp modulation bandwidth fw, and the chirp time T.
距離分解能ρは、距離方向に並んだ2つの物体を分解できる能力である。ここで、チャープ信号の包絡線が方形波の場合、干渉縞信号の包絡線も方形波になり、そのような干渉縞信号を周波数成分に変換すると、その包絡線の波形はsinc関数になる。 The distance resolution ρ is the ability to resolve two objects lined up in the distance direction. If the envelope of the chirp signal is a square wave, the envelope of the interference fringe signal will also be a square wave, and when such an interference fringe signal is converted into frequency components, the waveform of the envelope will be a sinc function.
そして、sinc関数の半値全幅1/Tが、周波数軸上におけるスペクトル分解能になる。スペクトル分解能1/Tは、距離分解能ρに相当する距離を光が往復したときのfiの変化になる。 The full width at half maximum of the sinc function, 1/T, is the spectral resolution on the frequency axis. The spectral resolution, 1/T, is the change in fi when light travels a distance equivalent to the distance resolution ρ.
このため、(7)式のfiとLを、1/Tとρに置き換えて整理すると、距離分解能ρは、
ρ=C/ 2fw (9)
となる。
Therefore, by replacing fi and L in equation (7) with 1/T and ρ, the distance resolution ρ is given by
ρ=C/2fw (9)
It becomes.
その包絡線の波形は、半値全幅1/Tが1/2fwのsinc関数になる。これから、距離分解能ρが、チャープ変調の帯域幅fwによって一義的に決まることが分かる。 The waveform of the envelope is a sinc function with a full width at half maximum of 1/T being 1/2fw. This shows that the distance resolution ρ is uniquely determined by the bandwidth fw of the chirp modulation.
距離検出精度は、物体までの距離Lを検出する際の精度で、距離分解能の波形のピークの位置が雑音によって揺らぐ幅になる。ゆえに、距離検出精度は、距離分解能とSN比の両方に比例して高くなる。 Distance detection accuracy is the accuracy when detecting the distance L to an object, and is the width by which the position of the peak of the distance resolution waveform fluctuates due to noise. Therefore, distance detection accuracy increases in proportion to both the distance resolution and the S/N ratio.
また、距離検出精度は、SN比が高いほど、距離分解能より十分小さい値になる。前述したように、相関器48によって参照信号47と相関演算を行い、ピーク値を検出すると、距離分解能の波形(sinc関数)がメキシカンハット関数に近くなる。
The higher the signal-to-noise ratio, the smaller the distance detection accuracy becomes. As mentioned above, when the
例えば、SN比が40dBある場合、距離検出精度の値は、距離分解能の1/40~1/50ほどになる。チャープ時間Tを長くすると干渉縞信号のスペクトル幅1/Tが狭くなり、スペクトル幅1/Tとチャープ変調の帯域幅fwの比の平方根に比例してSN比が上がる。
For example, if the S/N ratio is 40 dB, the distance detection accuracy is about 1/40 to 1/50 of the distance resolution. Increasing the chirp time T narrows the
チャープ変調の帯域幅fwを広くすると、距離分解能ρが上がるため、距離検出精度は、チャープ時間Tとチャープ変調の帯域幅fwの両方に比例して上がることになる。感度と距離検出精度において、チャープ変調方式が他の方式に優る理由はこれにある。 Increasing the chirp modulation bandwidth fw increases the distance resolution ρ, and so the distance detection accuracy increases in proportion to both the chirp time T and the chirp modulation bandwidth fw. This is why the chirp modulation method is superior to other methods in terms of sensitivity and distance detection accuracy.
以上のように、本発明は、物体までの距離に関わらず高い距離検出精度と方位分解能を有し、距離検出装置間の妨害や外乱に強く、小型、低価格で、撮像装置と一体化される距離検出装置に適している。 As described above, the present invention has high distance detection accuracy and azimuth resolution regardless of the distance to the object, is resistant to interference and disturbance between distance detection devices, is small and low-cost, and is suitable for distance detection devices that are integrated with an imaging device.
10A、20A 距離検出装置; 10 照明光; 11 物体; 12 反射光; 13 光学系; 14 受光素子; 15 参照光; 16 合波器; 17 キャリア光; 18 干渉縞信号; 19、20 コヒーレンス低減機構; 21 振幅変調器; 22 キャリア光; 23 変調器; 24 チャープ変調信号; 25 物体; 26 反射光; 27 光学系; 28 受光素子; 29 混合器; 30 干渉縞信号; 31 シンセサイザー発振器; 32 線形チャープ変調信号; 33 照明光源; 34 照明光; 35 物体; 36 反射光; 37 撮像光学系; 38 撮像素子; 39 参照光源; 40 参照光 41 合波器; 42 光学系; 43 干渉縞信号; 44 周波数変換器; 45 周波数成分; 46 参照信号生成部; 47 参照信号(基準信号); 48 相関器; 49 距離変換部; 51 AI; 52 参照符号; 53 基本波; 54 第1高調波; 70A、70B 物体(自動車); 71、72、73、74 局所部分; 75、76 妨害光; 101 シンセサイザー発振器; 102 照明光源; 103 サーキュレータ; 104 光学系 105 照明光 106 2次元走査機構; 107 物体; 108 反射光; 109 分波器; 110~114、117 受光素子; 115、116 光スイッチ; 118 ミキサー(混合器); 119 バッファメモリ; 119A 線形チャープ信号
10A, 20A Distance detection device; 10 Illumination light; 11 Object; 12 Reflected light; 13 Optical system; 14 Light receiving element; 15 Reference light; 16 Wave combiner; 17 Carrier light; 18 Interference fringe signal; 19, 20 Coherence reduction mechanism; 21 Amplitude modulator; 22 Carrier light; 23 Modulator; 24 Chirp modulation signal; 25 Object; 26 Reflected light; 27 Optical system; 28 Light receiving element; 29 Mixer; 30 Interference fringe signal; 31 Synthesizer oscillator; 32 Linear chirp modulation signal; 33 Illumination light source; 34 Illumination light; 35 Object; 36 Reflected light; 37 Imaging optical system; 38 Imaging element; 39 Reference light source; 40 Reference light 41 Wave combiner; Reference Signs List 42 Optical system; 43 Interference fringe signal; 44 Frequency converter; 45 Frequency component; 46 Reference signal generator; 47 Reference signal (reference signal); 48 Correlator; 49 Distance converter; 51 AI; 52 Reference symbol; 53 Fundamental wave; 54 First harmonic wave; 70A, 70B Object (automobile); 71, 72, 73, 74 Local part; 75, 76 Interference light; 101 Synthesizer oscillator; 102 Illumination light source; 103 Circulator; 104 Optical system 105 Illumination light 106 Two-dimensional scanning mechanism; 107 Object; 108 Reflected light; 109 Splitter; 110 to 114, 117 Light receiving element; 115, 116 Optical switch; 118 Mixer; 119 Buffer memory; 119A Linear chirp signal
Claims (6)
別のキャリア光の振幅を前記照明光と同一のチャープ信号により変調し、参照光を生成する光源と、
前記キャリア光の両方、又は一方の時間コヒーレンスと空間コヒーレンスを低減させるコヒーレンス低減機構と、
前記物体からの反射光を受光するための受光面を有する受光素子と、
前記受光素子に前記反射光を結像する結像光学系と、
前記反射光と前記参照光を合波する合波器と、を有し、
前記コヒーレンス低減機構は、前記キャリア光間のヘテロダインにより生じる干渉雑音の空間周波数成分を所定の帯域幅に広げ、前記受光素子が、合波された前記反射光と前記参照光を受光する受光時間の時間平均と前記受光面の面積分により前記干渉雑音の電力を低減し、前記照明光及び前記参照光のキャリア光のへテロダイン振幅を前記キャリア光間の全電力値の積の一定値に近づけることにより、前記反射光と前記参照光のチャープ信号間のヘテロダインで生じた干渉縞信号を所定のSN比を以って検出できることを特徴とする距離検出装置。 a light source that generates illumination light for illuminating an object whose distance is to be detected by modulating the amplitude of carrier light with a chirp signal;
a light source that generates a reference light by modulating the amplitude of another carrier light with the same chirp signal as the illumination light;
a coherence reduction mechanism for reducing temporal coherence and spatial coherence of both or one of the carrier lights;
a light receiving element having a light receiving surface for receiving reflected light from the object;
an imaging optical system that forms an image of the reflected light on the light receiving element;
a combiner that combines the reflected light and the reference light,
The coherence reduction mechanism expands the spatial frequency components of the interference noise generated by heterodyning between the carrier lights to a predetermined bandwidth, reduces the power of the interference noise by the time average of the receiving time when the photodetector receives the combined reflected light and reference light and the area integral of the light receiving surface, and brings the heterodyne amplitude of the carrier lights of the illumination light and the reference light closer to a constant value of the product of the total power values between the carrier lights, thereby enabling the interference fringe signal generated by the heterodyne between the chirp signals of the reflected light and the reference light to be detected with a predetermined signal-to-noise ratio.
前記キャリア光の波長は、前記カラー画像の波長と異なり、
前記2次元検出機構は、
前記キャリア光の波長を選択透過する波長フィルタが付加された前記受光素子を構成する第1の受光素子と、前記カラー画像の原色フィルタが付加された第2の受光素子と、を有し、前記第1及び第2の受光素子は、前記結像光学系の結像面にモザイク状に2次元配列され、又は、
ダイクロイックミラーの多板プリズムにより、前記キャリア光を選択透過できる結像面に、前記干渉縞信号を検出する2次元に配列される前記受光素子を構成する第3の受光素子と、その他の結像面に、カラー画像を検出する2次元に配列される第4の受光素子と、を有し、
前記2次元検出機構は、前記第1及び第2の受光素子から前記波長フィルタ及び前記原色フィルタを透過した出力ごとに分離し、又は前記第3及び第4の受光素子からの出力ごとに分離することを特徴とする請求項1に記載の距離検出装置。 a two-dimensional detection mechanism for detecting an image of external light having the same wavelength as the carrier light and a color image of the external light at the same time as detecting the interference fringe signal;
the wavelength of the carrier light is different from the wavelength of the color image;
The two-dimensional detection mechanism includes:
a first light receiving element constituting the light receiving element to which a wavelength filter that selectively transmits the wavelength of the carrier light is added, and a second light receiving element to which a primary color filter of the color image is added, the first and second light receiving elements being two-dimensionally arranged in a mosaic pattern on an imaging plane of the imaging optical system, or
a third light receiving element constituting the light receiving element arranged two-dimensionally to detect the interference fringe signal, on an imaging plane that can selectively transmit the carrier light by a multi-plate prism of a dichroic mirror; and a fourth light receiving element arranged two-dimensionally to detect a color image, on another imaging plane;
The distance detection device according to claim 1, characterized in that the two-dimensional detection mechanism separates the outputs from the first and second light receiving elements that have passed through the wavelength filter and the primary color filter, or separates the outputs from the third and fourth light receiving elements.
前記物体からの反射光を受光し、前記照明光と同一のチャープ信号により光電変換の動作をスイッチングすることで、混合器の機能を兼ね備え、前記チャープ信号のヘテロダインで生じる周波数の低い干渉縞信号に変換する受光素子と、
前記受光素子に前記反射光を結像する結像光学系と、
前記干渉縞信号を検出するのと同時に、前記キャリア光と同一波長の外界光の画像と、外界光のカラー画像と、を検出する2次元検出機構と、を有し、
前記キャリア光の波長は、前記カラー画像の波長と異なり、
前記2次元検出機構は、
前記キャリア光の波長を選択透過する波長フィルタが付加された前記受光素子を構成する第1の受光素子と、前記カラー画像の原色フィルタが付加された第2の受光素子と、を有し、前記第1及び第2の受光素子が前記結像光学系の結像面にモザイク状に2次元配列され、又は、
ダイクロイックミラーの多板プリズムにより、前記キャリア光を選択透過できる結像面に、前記干渉縞信号を検出する2次元に配列される前記受光素子を構成する第3の受光素子と、その他の結像面に、カラー画像を検出する2次元に配列される第4の受光素子と、を有し、
前記2次元検出機構は、前記第1及び第2の受光素子から前記波長フィルタ及び前記原色フィルタを透過した出力ごとに分離し、又は前記第3及び第4の受光素子からの出力ごとに分離することを特徴とする距離検出装置。 a light source that generates illumination light for illuminating an object whose distance is to be detected by modulating the amplitude of carrier light with a chirp signal;
a light receiving element that receives the reflected light from the object and switches the photoelectric conversion operation by the same chirp signal as the illumination light, thereby also functioning as a mixer and converting the reflected light into a low-frequency interference fringe signal generated by heterodyning the chirp signal;
an imaging optical system that forms an image of the reflected light on the light receiving element;
a two-dimensional detection mechanism for detecting an image of external light having the same wavelength as the carrier light and a color image of the external light at the same time as detecting the interference fringe signal;
the wavelength of the carrier light is different from the wavelength of the color image;
The two-dimensional detection mechanism includes:
a first light receiving element constituting the light receiving element to which a wavelength filter that selectively transmits the wavelength of the carrier light is added, and a second light receiving element to which a primary color filter of the color image is added, the first and second light receiving elements being two-dimensionally arranged in a mosaic pattern on an imaging plane of the imaging optical system, or
a third light receiving element constituting the light receiving element arranged two-dimensionally to detect the interference fringe signal, on an imaging plane that can selectively transmit the carrier light by a multi-plate prism of a dichroic mirror, and a fourth light receiving element arranged two-dimensionally to detect a color image, on another imaging plane;
A distance detection device characterized in that the two-dimensional detection mechanism separates the outputs from the first and second light receiving elements that have passed through the wavelength filter and the primary color filter, or separates the outputs from the third and fourth light receiving elements.
前記妨害光の位置を回避して前記物体の局所位置の距離を検出することを特徴とする請求項2又は3に記載の距離検出装置。 a first determination mechanism that determines, from an image of external light having the same wavelength as the carrier light detected by the two-dimensional detection mechanism and a color image of the external light, a position on the image of interference light that interferes with detection of the distance to the object, and a local position of the object;
4. The distance detection device according to claim 2, wherein the distance to the local position of the object is detected while avoiding the position of the interfering light.
前記2次元検出機構により検出された外界光のカラー画像と、光無線通信の光と同一波長の外界光の画像から、前記光無線通信の受信を妨害する妨害光の画像上の位置と、受信が必要な光無線通信の送信機の位置を判定する第2の判定機構を有し、前記2次元検出機構は前記妨害光の位置を回避して前記光無線通信の光を受信し、前記第2の判定機構は、
前記送信機の位置情報を前記光無線通信によって取得し、
前記第2の判定機構により検出された前記送信機と前記距離検出装置の相対的な位置情報と、前記物体と前記距離検出装置の相対的な位置情報から、前記物体と前記距離検出装置の現在の位置を算出することを特徴とする距離検出装置。
A distance detection device according to claim 5,
The present invention further includes a second determination mechanism that determines, from a color image of the outside light detected by the two-dimensional detection mechanism and an image of the outside light having the same wavelength as the light of the optical wireless communication, a position on the image of interference light that interferes with reception of the optical wireless communication and a position of a transmitter of the optical wireless communication that needs to be received, and the two-dimensional detection mechanism receives the light of the optical wireless communication while avoiding the position of the interference light, and the second determination mechanism:
acquiring location information of the transmitter through the optical wireless communication;
A distance detection device characterized by calculating the current positions of the object and the distance detection device from relative position information of the transmitter and the distance detection device detected by the second determination mechanism and relative position information of the object and the distance detection device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2024011348A JP7557753B1 (en) | 2024-01-29 | 2024-01-29 | Distance Detection Device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2024011348A JP7557753B1 (en) | 2024-01-29 | 2024-01-29 | Distance Detection Device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP7557753B1 true JP7557753B1 (en) | 2024-09-30 |
Family
ID=92900311
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2024011348A Active JP7557753B1 (en) | 2024-01-29 | 2024-01-29 | Distance Detection Device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7557753B1 (en) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003149341A (en) | 2001-11-09 | 2003-05-21 | Nikon Geotecs Co Ltd | Distance measuring device |
JP2011199798A (en) | 2010-03-24 | 2011-10-06 | Sony Corp | Physical information obtaining apparatus, solid-state imaging apparatus, and physical information obtaining method |
WO2017122637A1 (en) | 2016-01-12 | 2017-07-20 | 京セラ株式会社 | Rangefinder and rangefinding method |
US20210124050A1 (en) | 2019-10-28 | 2021-04-29 | Veoneer Us, Inc. | Lidar homodyne transceiver using pulse-position modulation |
JP2022035564A (en) | 2020-08-21 | 2022-03-04 | 国立大学法人東京農工大学 | Distance measuring device and distance measuring method |
JP2022172920A (en) | 2021-05-07 | 2022-11-17 | 国立大学法人 東京大学 | Measurement device |
JP2024030905A (en) | 2022-08-25 | 2024-03-07 | 株式会社小野測器 | Measurement device |
-
2024
- 2024-01-29 JP JP2024011348A patent/JP7557753B1/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003149341A (en) | 2001-11-09 | 2003-05-21 | Nikon Geotecs Co Ltd | Distance measuring device |
JP2011199798A (en) | 2010-03-24 | 2011-10-06 | Sony Corp | Physical information obtaining apparatus, solid-state imaging apparatus, and physical information obtaining method |
WO2017122637A1 (en) | 2016-01-12 | 2017-07-20 | 京セラ株式会社 | Rangefinder and rangefinding method |
US20210124050A1 (en) | 2019-10-28 | 2021-04-29 | Veoneer Us, Inc. | Lidar homodyne transceiver using pulse-position modulation |
JP2022035564A (en) | 2020-08-21 | 2022-03-04 | 国立大学法人東京農工大学 | Distance measuring device and distance measuring method |
JP2022172920A (en) | 2021-05-07 | 2022-11-17 | 国立大学法人 東京大学 | Measurement device |
JP2024030905A (en) | 2022-08-25 | 2024-03-07 | 株式会社小野測器 | Measurement device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6817387B2 (en) | LADAR system and method | |
Bronzi et al. | Automotive three-dimensional vision through a single-photon counting SPAD camera | |
CN104898125B (en) | The small-sized LIDAR of low cost for automobile | |
CN106597468B (en) | A kind of dual-mode laser imaging system and imaging method | |
US20110063437A1 (en) | Distance estimating device, distance estimating method, program, integrated circuit, and camera | |
US20090059201A1 (en) | Full-Field Light Detection and Ranging Imaging System | |
US11579264B2 (en) | Optoelectronic sensor, method and vehicle | |
WO2014136110A1 (en) | Free space optical communication system | |
CN110285788B (en) | ToF camera and design method of diffractive optical element | |
CN108037512B (en) | Half active correlation imaging tracking detection system of laser and method | |
CN114095718B (en) | Single pixel imaging system and method | |
CN106646510A (en) | Photon marking based first photon laser imaging system | |
CN109100743A (en) | Active-passive composite laser hologram radar | |
JP7557753B1 (en) | Distance Detection Device | |
CN110297255A (en) | 3D imaging system and 3D imaging method | |
CN111355535B (en) | Multichannel analog-to-digital converter device for a photoelectric sensor, signal modulation method and distance and/or speed sensor | |
WO2022008989A1 (en) | Multi-domain optical sensor | |
WO2019178136A1 (en) | Spectral-temporal lidar | |
US10587347B1 (en) | Heterodyne starring array active imager | |
US11099523B1 (en) | Digital holography range Doppler receiver | |
WO2022112360A9 (en) | Imaging system | |
Holmes | Applications of lasers to imaging of distant objects | |
CN116577803B (en) | Single photon-level vibration and three-dimensional imaging composite system | |
US11460551B2 (en) | Virtual array method for 3D robotic vision | |
CN216625742U (en) | Optical imaging and laser communication integrated system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240203 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240203 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20240203 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240225 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240321 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240422 Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240420 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240528 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240626 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240806 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240807 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240903 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240903 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7557753 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |