JP7557753B1 - Distance Detection Device - Google Patents

Distance Detection Device Download PDF

Info

Publication number
JP7557753B1
JP7557753B1 JP2024011348A JP2024011348A JP7557753B1 JP 7557753 B1 JP7557753 B1 JP 7557753B1 JP 2024011348 A JP2024011348 A JP 2024011348A JP 2024011348 A JP2024011348 A JP 2024011348A JP 7557753 B1 JP7557753 B1 JP 7557753B1
Authority
JP
Japan
Prior art keywords
light
distance
carrier
light receiving
receiving element
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2024011348A
Other languages
Japanese (ja)
Inventor
達夫 長▲崎▼
のりこ 安間
広朗 長▲崎▼
聡美 森久保
Original Assignee
Ipu株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ipu株式会社 filed Critical Ipu株式会社
Priority to JP2024011348A priority Critical patent/JP7557753B1/en
Application granted granted Critical
Publication of JP7557753B1 publication Critical patent/JP7557753B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Optical Radar Systems And Details Thereof (AREA)

Abstract

【課題】 物体までの距離に関わらず高い距離検出精度と方位分解能を有し、距離検出装置間の妨害や外乱に強く、小型、低価格で、撮像装置と一体化される距離検出装置を提供すること。【解決手段】 距離検出装置は、キャリア光の振幅変調にチャープ変調を施した照明光を生成する光源と、キャリア光の振幅変調に照明光と同一のチャープ変調を施した参照光を生成する光源と、チャープ変調は、チャープ変調信号により変調され、チャープ変調信号の時間コヒーレンスと空間コヒーレンスを保持しつつ、キャリア光の両方、又は一方の時間コヒーレンスと空間コヒーレンスを低減させるコヒーレンス低減機構と、照明光で照明した物体からの反射光を受光素子に結像する結像光学系と、反射光と参照光を合波する合波器と、を有し、受光素子は、合波された反射光と参照光を受光し、照明光と参照光のチャープ変調信号間のヘテロダインで生じた干渉縞信号を検出する。【選択図】図3[Problem] To provide a distance detection device that has high distance detection accuracy and azimuth resolution regardless of the distance to an object, is resistant to interference and disturbance between distance detection devices, is small and low-cost, and is integrated with an imaging device. [Solution] The distance detection device has a light source that generates illumination light obtained by subjecting the amplitude modulation of a carrier light to chirp modulation, a light source that generates reference light obtained by subjecting the amplitude modulation of the carrier light to the same chirp modulation as that of the illumination light, the chirp modulation is modulated by a chirp modulation signal, a coherence reduction mechanism that reduces the temporal coherence and spatial coherence of both or one of the carrier lights while maintaining the temporal coherence and spatial coherence of the chirp modulation signal, an imaging optical system that images the reflected light from an object illuminated with the illumination light on a light receiving element, and a multiplexer that multiplexes the reflected light and the reference light, and the light receiving element receives the multiplexed reflected light and reference light, and detects an interference fringe signal generated by heterodyning between the chirp modulation signals of the illumination light and the reference light. [Selected Figure] Figure 3

Description

本発明は、自動運転、ロボット、ドローンなどで使用する距離検出装置に関する。 The present invention relates to a distance detection device for use in autonomous driving, robots, drones, etc.

自動運転用の距離検出装置は、以下の要求を満たすことが望ましい。
・数センチ(cm)から数百メートル(m)に渡って高い距離検出精度と方位分解能を有すること。
・距離検出装置間の妨害や外乱に強いこと。
・小型、低価格で、撮像装置と一体化されること。
It is desirable for a distance detection device for autonomous driving to satisfy the following requirements:
- High distance detection accuracy and azimuth resolution ranging from a few centimeters (cm) to several hundred meters (m).
- Resistant to interference and disturbance between distance detection devices.
- It must be small, low-cost, and integrated with an imaging device.

従来の距離検出装置として、ステレオカメラ、ToFカメラ、LiDAR、ミリ波レーダー、超音波センサーなどが知られている(例えば、非特許文献1参照)。それぞれの距離検出装置のメリットとデメリットは後述する。 Conventional distance detection devices include stereo cameras, ToF cameras, LiDAR, millimeter wave radar, and ultrasonic sensors (see, for example, Non-Patent Document 1). The advantages and disadvantages of each distance detection device will be described later.

畚野信義ら著、「ミリ波伝搬とレーダ雨量計」 電波研究所季報、1976年12月 p407-426、 Vol.22 No.121Nobuyoshi Fugono et al., "Millimeter Wave Propagation and Radar Rain Gauges", Quarterly Report of the Radio Research Laboratory, December 1976, pp. 407-426, Vol. 22, No. 121

従来の距離検出装置は、上記の要求をすべて同時に満足することは困難である。このため、現状では、撮像装置に加えて、3~4種類の距離検出装置を併用し、それぞれのデメリットを補って使用している。 It is difficult for conventional distance detection devices to simultaneously satisfy all of the above requirements. For this reason, currently, three or four types of distance detection devices are used in addition to an imaging device, compensating for the disadvantages of each.

本発明は、かかる事情に鑑みてなされたものである。すなわち、本発明は、物体までの距離に関わらず高い距離検出精度と方位分解能を有し、距離検出装置間の妨害や外乱に強く、小型、低価格で、撮像装置と一体化される距離検出装置を提供することを目的とする。 The present invention has been made in consideration of these circumstances. That is, the object of the present invention is to provide a distance detection device that has high distance detection accuracy and azimuth resolution regardless of the distance to the object, is resistant to interference and disturbance between distance detection devices, is small and low-cost, and can be integrated with an imaging device.

上述した課題を解決し、目的を達成するために、本発明の距離検出装置に係る第1の態様は、
キャリア光の振幅変調にチャープ変調を施した照明光を生成する光源と、
キャリア光の振幅変調に照明光と同一のチャープ変調を施した参照光を生成する光源と、
チャープ変調は、チャープ変調信号により変調され、
チャープ変調信号の時間コヒーレンスと空間コヒーレンスを保持しつつ、キャリア光の両方、又は一方の時間コヒーレンスと空間コヒーレンスを低減させるコヒーレンス低減機構と、
照明光で照明した物体からの反射光を受光素子に結像する結像光学系と、
反射光と参照光を合波する合波器と、を有し、
受光素子は、合波された反射光と参照光を受光し、照明光と参照光の線形チャープ変調信号間のヘテロダインで生じた干渉縞信号を検出する。
In order to solve the above-mentioned problems and achieve the object, a first aspect of the distance detection device of the present invention is to
a light source for generating illumination light in which chirp modulation is applied to amplitude modulation of carrier light;
a light source for generating a reference light obtained by performing the same chirp modulation as the illumination light on the amplitude modulation of a carrier light;
Chirp modulation is modulated by a chirp modulation signal,
a coherence reduction mechanism that reduces the temporal coherence and the spatial coherence of both or one of the carrier lights while maintaining the temporal coherence and the spatial coherence of the chirp modulation signal;
an imaging optical system that forms an image of reflected light from an object illuminated with illumination light on a light receiving element;
a combiner for combining the reflected light and the reference light,
The light receiving element receives the combined reflected light and reference light, and detects an interference fringe signal generated by heterodyning between the linear chirp modulated signals of the illumination light and the reference light.

さらに、上述した課題を解決し、目的を達成するために、本発明の距離検出装置の第2の態様は、
キャリア光の振幅変調にチャープ変調を施した照明光を生成する光源と、
照明光で照明した物体からの反射光を受光素子に結像する結像光学系と、を有し、
さらに、チャープ変調の電気信号に対して照明光と同一のチャープ変調信号を乗じて干渉縞信号を検出する混合器と、又は、照明光と同一のチャープ変調信号による直接スイッチングによって混合器の機能を兼ね備える受光素子を有し、
受光素子は、反射光を検波し、反射光のチャープ変調を電気信号に変換する。
Furthermore, in order to solve the above-mentioned problems and achieve the object, a second aspect of the distance detection device of the present invention is
a light source for generating illumination light in which chirp modulation is applied to amplitude modulation of carrier light;
an imaging optical system that forms an image of reflected light from an object illuminated with illumination light on a light receiving element;
Further, the optical fiber has a mixer for detecting an interference fringe signal by multiplying the chirp-modulated electrical signal by the same chirp-modulated signal as the illumination light, or a light-receiving element that also functions as a mixer by direct switching using the same chirp-modulated signal as the illumination light,
The light receiving element detects the reflected light and converts the chirp modulation of the reflected light into an electrical signal.

本発明の距離検出装置に係る第3の態様は、第1又は第2の態様の距離検出装置であって、2次元配列された前記受光素子により、
又は、1次元配列された前記受光素子を、前記結像光学系の結像面を前記1次元配列方向と交差する方向に1次元走査することにより、
又は、単一の前記受光素子を、前記結像面を2次元走査することにより、
又は、1次元配列された前記受光素子を前記結像面に設置し、前記照明光の前記1次元配列と交差する方向の指向性を高めて前記物体を前記方向に1次元走査することにより、
又は、単一の前記受光素子を前記結像面に設置し、前記照明光の指向性をビーム状に高めて前記物体を2次元走査することにより、
前記物体の画像を撮像するのと同時に、前記干渉縞信号を2次元の位置で検出する2次元検出機構を備える。
A third aspect of the distance detection device of the present invention is the distance detection device of the first or second aspect, wherein the light receiving elements are two-dimensionally arranged,
Alternatively, the light receiving elements arranged one-dimensionally are scanned in a direction intersecting the one-dimensional arrangement direction across the image forming surface of the image forming optical system,
Alternatively, a single light receiving element is two-dimensionally scanned across the image forming surface,
Alternatively, the light receiving elements are arranged in a one-dimensional array on the imaging surface, and the directivity of the illumination light in a direction intersecting the one-dimensional array is increased to one-dimensionally scan the object in the direction.
Alternatively, a single light receiving element is disposed on the imaging plane, and the illumination light is increased in directivity to a beam to two-dimensionally scan the object,
A two-dimensional detection mechanism is provided for capturing an image of the object and simultaneously detecting the interference fringe signal in two-dimensional positions.

本発明の距離検出装置に係る第4の態様は、第3の態様の距離検出装置であって、前記2次元検出機構で撮像した画像から、前記物体の距離の検出を妨害する妨害光の位置を検出し、前記物体の距離の検出を行う局所位置を判定する判定機構と、を有し、
前記妨害光を回避して前記物体の局所位置の距離を検出する。
A fourth aspect of the distance detection device of the present invention is the distance detection device of the third aspect, further comprising a determination mechanism that detects a position of interference light that interferes with detection of the distance to the object from an image captured by the two-dimensional detection mechanism and determines a local position where the distance to the object is detected,
The distance to the local position of the object is detected while avoiding the interfering light.

本発明の距離検出装置に係る第5の態様は、第3又は第4の態様の距離検出装置であって、前記2次元検出機構で撮像した画像から、光無線通信の受信を妨害する妨害光の位置を判定し、前記光無線通信を受信する光無線通信装置の送信機の位置を判定する判定機構と、を有し、
前記妨害光を回避して前記光無線通信を受信する。
A fifth aspect of the distance detection device of the present invention is the distance detection device of the third or fourth aspect, further comprising a determination mechanism that determines a position of interference light that interferes with reception of optical wireless communication from an image captured by the two-dimensional detection mechanism, and determines a position of a transmitter of an optical wireless communication device that receives the optical wireless communication,
The optical wireless communication is received while avoiding the interfering light.

光の振幅をチャープ変調する方式によって、数センチから数百メートルの広い範囲に渡り、高い方位分解能と距離検出精度を得ることができる。また、撮像素子を使用して、カラー画像と距離画像を同時に検出することができ、小型、低価格の視覚センサーを実現できる。 By using a method of chirp modulation of the light amplitude, it is possible to obtain high lateral resolution and distance detection accuracy over a wide range of several centimeters to several hundred meters. In addition, by using an imaging element, it is possible to simultaneously detect color images and distance images, making it possible to realize a small, low-cost visual sensor.

また、撮像装置と距離検出装置は、それぞれ自動運転に必須の視覚センサーである。これら2つのセンサーの情報から、人工知能(以下、適宜「AI」、「判定機構」という)が、外界の物体検出(object detection)を行い、自動運転の判断を行う。自動運転の物体検出は、車両の周囲に存在する物体を識別し、そのなかで、自動運転に関わる物体の大きさと位置、又は、領域を検出し、それらの物体と車両の相対的な位置と速度、方向を検出する。自動運転のレベルが上位になるほど、これら2つのセンサーの重要度が増す。 The imaging device and distance detection device are both visual sensors essential for autonomous driving. Using the information from these two sensors, artificial intelligence (hereinafter referred to as "AI" or "determination mechanism" as appropriate) performs object detection in the external world and makes autonomous driving decisions. Object detection for autonomous driving identifies objects around the vehicle, detects the size and position or area of objects related to autonomous driving, and detects the relative position, speed, and direction of those objects and the vehicle. The higher the level of autonomous driving, the more important these two sensors become.

キャリア光の振幅の時間的な変化を示す。This shows the change in the amplitude of the carrier light over time. チャープ変調の周波数を示す。Indicates the frequency of the chirp modulation. 第1実施形態に係る距離検出装置を示す。1 shows a distance detection device according to a first embodiment. 第2実施形態に係る距離検出装置の構成を示す。1 shows a configuration of a distance detection device according to a second embodiment. 第1実施形態の変形例を示す。3 shows a modification of the first embodiment. 電気信号43の処理の流れを示す。4 shows the flow of processing of an electrical signal 43. 高調波を示す。Shows harmonics. 干渉縞信号の周波数を示す。Indicates the frequency of the interference fringe signal. キャリア光のコヒーレンスと光源の大きさの関係を示す。1 shows the relationship between the coherence of the carrier light and the size of the light source. 撮像素子の正面構成を示す。1 shows the front configuration of the image sensor. 物体が複数存在する状況を示す。Indicates a situation where multiple objects exist. 撮像素子の水平ラインの画素の読出しを示すタイミングチャートである1 is a timing chart showing the reading of pixels of a horizontal line of an image sensor; フィルタの正面構成を示す。The front configuration of the filter is shown. 第2実施形態の変形例に係る距離検出装置の概略構成を示す。13 shows a schematic configuration of a distance detection device according to a modified example of the second embodiment. 第2実施形態の変形例に係る距離検出装置の他の概略構成を示す。13 shows another schematic configuration of the distance detection device according to the modified example of the second embodiment.

以下に本発明にかかる実施形態及び変形例の作用効果を説明する。なお、本実施形態及び変形例の作用効果を具体的に説明するに際しては、具体的な例を示して説明することになる。しかし、それらの例示される実施形態及び変形例はあくまでも本発明に含まれる例のうちの一部に過ぎず、その態様には数多くのバリエーションが存在する。したがって、本発明は例示される実施形態及び変形例に限定されるものではない。 The effects of the embodiments and modifications of the present invention are described below. Specific examples will be given to specifically explain the effects of the embodiments and modifications. However, these exemplified embodiments and modifications are merely a part of the examples included in the present invention, and there are many variations in its aspects. Therefore, the present invention is not limited to the exemplified embodiments and modifications.

以下、実施形態及び変形例の説明に先立って、ステレオカメラ、ToFカメラ、LiDAR、ミリ波レーダー、超音波センサーの各距離検出装置のメリットとデメリットを説明する。 Before describing the embodiments and variations, the advantages and disadvantages of each distance detection device, including a stereo camera, a ToF camera, LiDAR, a millimeter wave radar, and an ultrasonic sensor, will be explained below.

(ステレオカメラ)
ステレオカメラによる距離検出は、人間の双眼視による距離認知と同じであり、三角測量方式である。2つのカメラで撮像した画像のずれ量を画像の局所ごとに検出し、距離画像を得る。
(Stereo camera)
Distance detection using a stereo camera is the same as human distance perception using binocular vision, and is a triangulation method. The amount of misalignment between images captured by the two cameras is detected locally to obtain a distance image.

ステレオカメラのメリットは、カラー画像と同時に距離画像を検出できるところにある。また、パッシブ方式のためステレオカメラ間の妨害がない。 The advantage of a stereo camera is that it can detect color images and distance images at the same time. Also, because it is a passive system, there is no interference between the stereo cameras.

ステレオカメラのデメリットを説明する。ステレオカメラでは、2つのカメラで撮像した画像の局所ごとのずれ量を相関演算によって検出する。そして、距離画像を得る。このため、画像の局所ごとの周波数成分に基づいて、距離検出精度と方位分解能が変動する。 The disadvantages of stereo cameras are explained below. With stereo cameras, the amount of deviation in each local area of the images captured by the two cameras is detected by correlation calculations. A distance image is then obtained. As a result, the distance detection accuracy and azimuth resolution vary based on the frequency components in each local area of the image.

例えば、局所部分に輝度の変化が少ない場合、距離検出精度と方位分解能が低下する。局所部分に輝度の周期的な変化がある場合、誤検出を生ずる。また、ステレオカメラは、パッシブ方式のため、夜間など暗い場所での精度が低い。 For example, if there is little change in brightness in a local area, distance detection accuracy and azimuth resolution will decrease. If there is periodic change in brightness in a local area, false detection will occur. Also, because stereo cameras are passive, their accuracy is low in dark places such as at night.

また、ステレオカメラは、原理上、2つのカメラの6軸空間の位置に関して高い精度が要求される。よって、経時変化や温度変化によって距離検出精度の劣化が起きやすい。 In principle, stereo cameras require high precision regarding the six-axis spatial position of the two cameras. Therefore, the accuracy of distance detection is prone to degradation due to changes over time and temperature.

また、ステレオカメラは、物体がカメラに対して遠方になるに従って、ステレオ角が小さくなる。ステレオ角が小さくなると、2つの画像のずれ量が分数関数状に小さくなる。このため、距離検出精度が急速に低下する。 In addition, the stereo angle of a stereo camera becomes smaller as the object becomes farther away from the camera. When the stereo angle becomes smaller, the amount of deviation between the two images becomes smaller as a fractional function. This causes the accuracy of distance detection to rapidly decrease.

ステレオ角を大きくして、遠方の物体に関して、距離検出精度を上げようとすると、カメラ全体が大きくなる。よって、2つのカメラの位置精度が更に厳しくなる。このため、ステレオカメラの距離検出精度と方位分解能は、他の距離検出装置に比較して、一般的に低い。 Increasing the stereo angle to improve distance detection accuracy for distant objects results in a larger camera as a whole. This makes the positional accuracy of the two cameras even more difficult. For this reason, the distance detection accuracy and azimuth resolution of stereo cameras are generally lower than those of other distance detection devices.

以上のデメリットを緩和するために、自己相関性の高いパターンを照射するアクティブ方式のステレオカメラがある。しかし、遠方の物体の距離検出精度が低いことは変わらず、また、ステレオカメラ間の妨害が生じてしまう。 To mitigate the above disadvantages, there are active stereo cameras that project highly autocorrelated patterns. However, the accuracy of detecting the distance to distant objects remains low, and interference between the stereo cameras occurs.

また、「単一のカメラ映像から、AIによって距離を検出する方式」が報告されている。物体と車両の相対位置によって変化する物体の様々な画像情報、例えば、物体の大きさ、形状、テクスチャー、焦点ボケ、運動視差による重なりなどの変化に関するデータを、AIが大量に学習する。これにより、物体までの距離を検出する方式である。 A method has also been reported that uses AI to detect distance from footage captured by a single camera. The AI learns large amounts of data on various image information about an object that changes depending on the relative position of the object and the vehicle, such as changes in the object's size, shape, texture, out-of-focus, and overlap due to motion parallax. This is how the method detects the distance to an object.

この方式は、人の双眼視における距離認知は遠方の物体で急速に低下することを補うために、視野皮質の背側経路で行われる空間認知処理と類似する。あくまでも、空間認知処理の多くは、単眼視差の三角測量に基づいている。このため、上述と同様の理由で、精度の高い距離検出は困難である。人間は、片目を閉じた場合でも、過去の経験から物体までの距離を概略把握できる。しかし、片目(単眼)で車を運転する場合、多くの経験を積んだ場合でも極めて危険である。 This method is similar to the spatial perception processing that takes place in the dorsal pathway of the visual cortex to compensate for the fact that distance perception in human binocular vision rapidly declines for distant objects. However, most spatial perception processing is based on triangulation of monocular disparity. For the same reasons as mentioned above, therefore, highly accurate distance detection is difficult. Even with one eye closed, humans can roughly grasp the distance to an object based on past experience. However, driving a car with one eye (monocular) is extremely dangerous, even with a lot of experience.

仮に、経験を積むことで、単眼の映像から必要な距離情報が得られるようになるとすれば、人間は進化の過程で双眼を選択してこなかったはずである。同様に、AIが如何に学習を重ねても、単一カメラの情報から高精度の距離画像を検出することは難しい。 If it were possible to obtain the necessary distance information from monocular images with experience, humans would not have chosen binoculars during the evolutionary process. Similarly, no matter how much AI learns, it will be difficult to detect highly accurate distance images from information from a single camera.

人間よりも遥かに速く動く車両を、人間に代わって、人間よりも、早く、正確に、かつ、安全に操作するには、人間の視覚を充分に超えた高精度な距離検出が必要とされる。以上に述べたデメリットから、ステレオカメラの自動運転への適用は限界があるとされる。ましてや、「単一のカメラ映像から、AIによって距離画像を検出する方式」は、それ以上に難しいといえる。 To operate a vehicle that moves much faster than humans, faster, more accurately, and safely than humans, in place of humans, highly accurate distance detection that far exceeds human vision is required. Due to the disadvantages mentioned above, it is said that there are limitations to the application of stereo cameras to autonomous driving. Furthermore, it can be said that a method of "detecting distance images using AI from a single camera image" is even more difficult.

ToFカメラの距離検出は、ToF(time of flight)方式である。ToF方式では、照明光の光強度を一定の周波数で変調して計測空間を照明する。照明された物体からの反射光を光学系で結像する。撮像素子で受光するときに、撮像素子の画素ごとに、同一周波数でスイッチング検波を行う。得られた電荷量から、反射光を変調している信号の位相(反射の遅延時間)を画素ごとに検出する。そして、距離画像を得る。 The ToF camera uses the ToF (time of flight) method for distance detection. In the ToF method, the light intensity of the illumination light is modulated at a constant frequency to illuminate the measurement space. The reflected light from the illuminated object is imaged by the optical system. When the light is received by the image sensor, switching detection is performed at the same frequency for each pixel of the image sensor. From the obtained charge amount, the phase of the signal modulating the reflected light (reflection delay time) is detected for each pixel. A distance image is then obtained.

ToFカメラのメリットは、光学系で結像できるため、方位分解能の高い距離画像が得られること、距離に関わらず距離検出精度が一定で、小型、低価格であることである。 The advantages of a ToF camera are that it can form an image using an optical system, so it can obtain distance images with high lateral resolution, its distance detection accuracy is consistent regardless of distance, and it is small and low-cost.

ToFカメラのデメリットは、撮像素子の受光部の検波速度に限界があるため、SN比の点で、至近距離と遠距離の計測が難しいことである。また、ToF方式は、原理上、背景光(太陽光など)の影響を強く受け、ToFカメラ間の妨害が大きい。 The disadvantage of a ToF camera is that the detection speed of the light receiving section of the image sensor is limited, making it difficult to measure close and long distances in terms of the signal-to-noise ratio. Also, in principle, the ToF method is strongly affected by background light (sunlight, etc.), which causes significant interference between ToF cameras.

LiDARの距離検出は、ToF方式を主とする。LiDARでは、ToF方式で距離を計測しながら、波長1550nmの赤外レーザービームを2次元に走査して距離画像を得る。 LiDAR primarily uses the ToF method for distance detection. With LiDAR, distance is measured using the ToF method, while an infrared laser beam with a wavelength of 1550 nm is scanned two-dimensionally to obtain a distance image.

LiDARのメリットは、方位分解能が高いことと、単一の受光センサーには、検波速度が速く、感度とSN比の高いものがあるのと、波長1550nmの赤外光が外界光に少ないこともあり、近距離および遠距離の計測においてToFカメラを上回る。 The advantages of LiDAR are that it has high azimuth resolution, and some single light receiving sensors have fast detection speeds, high sensitivity and high signal-to-noise ratios, and because infrared light with a wavelength of 1550 nm is rare in external light, it outperforms ToF cameras in measuring both short and long distances.

また、赤外レーザービームの指向性が高いため、LiDAR間でビームが重なる確率が低く、LiDAR間の妨害を受けにくい。 In addition, because the infrared laser beam is highly directional, there is a low probability of beams overlapping between LiDARs, making it less susceptible to interference between LiDARs.

LiDARのデメリットは、2次元走査機構が必要になることと、受光センサーが高価なため、耐久性の面、コストの面での課題がある。そして、ミリ波レーダーに関して後述する理由から、ToF方式のLiDARは、遠距離の検出において、チャープ変調方式のミリ波レーダーに精度が劣る。 The disadvantages of LiDAR are that it requires a two-dimensional scanning mechanism, and the light receiving sensor is expensive, which raises issues in terms of durability and cost. Furthermore, for reasons that will be described later regarding millimeter wave radar, ToF LiDAR is less accurate than chirp modulation millimeter wave radar when it comes to long-distance detection.

ミリ波レーダーの距離検出は、線形チャープ変調方式である。ミリ波の周波数に線形チャープ変調を施し、アンテナで送受信する。受信波に送信波と同じチャープ変調の参照信号を乗じ、ヘテロダイン検波を行う。物体の距離に比例した周波数の干渉縞信号(IF信号)に変換する。そして、干渉縞信号をFFT(高速フーリエ変換)によって周波数成分に変換する。周波数成分のピーク値を検出することで、物体までの距離を計測する。 Millimeter-wave radar uses a linear chirp modulation method for distance detection. Linear chirp modulation is applied to the millimeter-wave frequency, which is then transmitted and received via an antenna. The received wave is multiplied by a reference signal that has the same chirp modulation as the transmitted wave, and heterodyne detection is performed. The signal is converted into an interference fringe signal (IF signal) with a frequency proportional to the distance to the object. The interference fringe signal is then converted into frequency components using an FFT (fast Fourier transform). The distance to the object is measured by detecting the peak value of the frequency component.

ミリ波レーダーの距離検出は、距離分解能は低いが、SN比が高いため、ピーク値検出によってLiDARと同程度の距離検出精度を得られる。 Although millimeter wave radar has low distance resolution for distance detection, its high signal-to-noise ratio allows it to achieve the same level of distance detection accuracy as LiDAR by detecting peak values.

ミリ波レーダーのメリットは、チャープ変調という自己相関性の高い符号化にある。チャープ変調方式は、変調の帯域幅とチャープ時間に比例して、距離検出の電力SN比が向上し、距離の検出に際して外乱光のスペクトルが拡散される。このため、妨害に強い。 The advantage of millimeter wave radar is its highly autocorrelated coding technique known as chirp modulation. The chirp modulation method improves the power signal-to-noise ratio for distance detection in proportion to the modulation bandwidth and chirp time, and spreads the spectrum of external light when detecting distance. This makes it resistant to jamming.

また、反射率と反射距離の違いから雨や霧などの不要反射を除外して物体までの距離を検出することが可能である。このため、雨中における、ミリ波の減衰と波長1550nmの赤外線の減衰が、同程度の減衰量であるにも拘わらず(非特許文献1の第1図)、遠距離の検出において、ミリ波レーダーはLiDARを大きく上回る。また、簡便な手段によって物体との相対速度が検出できることと、装置が比較的低価格であることというメリットも大きい。 In addition, the difference in reflectivity and reflection distance makes it possible to detect the distance to an object while excluding unwanted reflections from rain, fog, etc. For this reason, even though the attenuation of millimeter waves and infrared rays with a wavelength of 1550 nm in rain is about the same (Figure 1 of Non-Patent Document 1), millimeter wave radar far surpasses LiDAR in long-distance detection. Other major advantages include the ability to detect the relative speed of an object using simple means and the relatively low cost of the device.

そして、ミリ波レーダーの最大のメリットは、レーダーや通信で培われた様々な妨害抑制技術を応用できるところにある。チャープ変調という自己相関性の高い符号化がなされるため、妨害信号の周波数成分が拡散されて抑制される。また、特殊な符号化を二重に施すことで、妨害を更に抑制することができ、否定妨害に加えて意図的な妨害(欺瞞妨害)を回避することが可能である。 The greatest advantage of millimeter wave radar is that it can apply various jamming suppression technologies developed in radar and communications. Chirp modulation, a highly autocorrelated coding technique, is used, which spreads and suppresses the frequency components of the jamming signal. In addition, by applying a special double coding technique, jamming can be further suppressed, making it possible to avoid intentional jamming (deceptive jamming) in addition to denial jamming.

ミリ波レーダーのデメリットは、アンテナの現実的な大きさと電波の波長から、LiDARに比べて、方位分解能(指向性)が2桁以上低く、小さい物体や近接した物体の識別が難しいことである。特に、近距離において、サイドローブによる地面やガードレールからのクラッタを免れることが困難である。 The disadvantage of millimeter wave radar is that, due to the practical size of the antenna and the wavelength of the radio waves, the azimuth resolution (directivity) is more than two orders of magnitude lower than that of LiDAR, making it difficult to identify small objects or objects that are close by. In particular, at close ranges, it is difficult to avoid clutter from the ground or guardrails due to side lobes.

また、光学画像と異なる反射率の物体が存在する。また、距離画像を得るのに、機械的な2次元走査や、アレイアンテナによる電子走査を必要とする。また、ミリ波レーダーは、様々な用途に適用する場合、電波防護規制によって設計の自由度が制限されるデメリットが大きい。 In addition, there are objects whose reflectivity differs from that of optical images. Also, obtaining a distance image requires mechanical two-dimensional scanning or electronic scanning using an array antenna. Furthermore, when applying millimeter wave radar to various applications, there is a major disadvantage in that design freedom is limited by radio wave protection regulations.

以上のデメリット(課題)を解決するために、LiDARのレーザー光の周波数にチャープ変調を施して距離検出を行うことが知られている。これにより、光学画像と同等の方位分解能が得られ、ミリ波レーダーと同様にチャープ変調方式による様々なメリットが得られる。半面、数百mの距離検出に対応するコヒーレンス長を有しており、直線性の高いチャープ変調を可能とするレーザー光源は、大変大型で高価なものになる。そして、高価な高感度センサーと2次元の走査機構を必要とするデメリットは、そのまま残ってしまう。 To solve the above disadvantages (issues), it is known to perform distance detection by chirp-modulating the frequency of LiDAR's laser light. This provides azimuth resolution equivalent to that of optical images, and similar to millimeter-wave radar, the chirp modulation method offers various benefits. On the other hand, laser light sources that have a coherence length corresponding to distance detection of several hundred meters and enable highly linear chirp modulation are very large and expensive. And the disadvantage of requiring an expensive highly sensitive sensor and a two-dimensional scanning mechanism remains.

超音波センサーの距離検出は、パルスレーダー方式である。超音波のパルスを送信し受信するまでの時間から、物体までの距離を検出する。メリットは、小型、低価格な点である。しかし、超音波は、空気中の減衰が大きく、方位分解能が低いため、複数のセンサーを使用して、ごく至近距離の検出に使用されている。 Ultrasonic sensors use a pulse radar method for distance detection. The distance to an object is detected from the time it takes for an ultrasonic pulse to be transmitted and received. The advantages are that it is small and low-cost. However, ultrasonic waves are highly attenuated in the air and have low lateral resolution, so multiple sensors are used to detect objects at very close ranges.

(第1実施形態)
次に、本願の実施形態に関して説明する。
First Embodiment
Next, an embodiment of the present application will be described.

第1実施形態に係る距離検出装置(撮像装置)は、キャリア光の振幅変調にチャープ変調を施した照明光を生成する光源と、
キャリア光の振幅変調に照明光と同一のチャープ変調を施した参照光を生成する他の光源と、
チャープ変調は、線形チャープ変調信号により変調され、
チャープ変調信号の時間コヒーレンスと空間コヒーレンスを保持しつつ、キャリア光の両方、又は一方の時間コヒーレンスと空間コヒーレンスを低減させるコヒーレンス低減機構と、
照明光で照明した物体からの反射光を受光素子に結像する結像光学系と、
反射光と参照光を合波する合波器と、を有し、
受光素子は、合波された反射光と参照光を受光し、照明光と参照光のチャープ変調信号間のヘテロダインで生じた干渉縞信号を検出する。
The distance detection device (imaging device) according to the first embodiment includes a light source that generates illumination light in which chirp modulation is performed on the amplitude modulation of carrier light;
another light source that generates a reference light obtained by performing the same chirp modulation as the illumination light on the amplitude modulation of the carrier light;
The chirp modulation is modulated by a linear chirp modulation signal,
a coherence reduction mechanism that reduces the temporal coherence and the spatial coherence of both or one of the carrier lights while maintaining the temporal coherence and the spatial coherence of the chirp modulation signal;
an imaging optical system that forms an image of reflected light from an object illuminated with illumination light on a light receiving element;
a combiner for combining the reflected light and the reference light,
The light receiving element receives the combined reflected light and reference light, and detects an interference fringe signal generated by heterodyning between the chirp modulation signals of the illumination light and the reference light.

本実施形態では、感度と妨害抑制に優れた線形チャープ変調方式を用いて距離検出を行う。ただし、ミリ波レーダーのように電波ではなく、光をキャリアとしてチャープ変調信号の送受信を行う。そして、キャリア光の周波数をチャープ変調する代わりに、キャリア光の振幅を変調する周波数に対してチャープ変調を行う。 In this embodiment, distance detection is performed using a linear chirp modulation method that has excellent sensitivity and interference suppression. However, chirp-modulated signals are transmitted and received using light as a carrier, rather than radio waves as in millimeter-wave radar. And, instead of chirp-modulating the frequency of the carrier light, chirp modulation is performed on the frequency that modulates the amplitude of the carrier light.

図1は、キャリア光の振幅の時間的な変化を示す。具体的には、図1に示すように、キャリア光の光源に小型、低価格で、高速スイッチングが可能な発光ダイオードを使用し、発光ダイオードの光をon-offし、on-offする周波数に対して線形チャープ変調を行う。 Figure 1 shows the change in the amplitude of the carrier light over time. Specifically, as shown in Figure 1, a small, low-cost light-emitting diode capable of high-speed switching is used as the light source of the carrier light, and the light from the light-emitting diode is turned on and off, with linear chirp modulation being performed on the on-off frequency.

図2は、チャープ変調の周波数を示す。図2を用い、チャープ変調方式を用いた距離検出方法について述べる。 Figure 2 shows the frequency of chirp modulation. Using Figure 2, we will explain the distance detection method using the chirp modulation method.

直線1は、時間に対して周波数が直線的に変化する参照用(基準用)のチャープ信号を示す。直線2は、距離を計測する物体から反射したチャープ信号を示す。反射したチャープ信号2は、参照チャープ信号である直線1に対して、物体までの往復距離に応じた時間遅延3を生じる。このため、チャープ信号間のヘテロダインによって、チャープ信号間の周波数の差4に応じた低い周波数の干渉縞信号を生じる。 Line 1 indicates a reference (standard) chirp signal whose frequency changes linearly with time. Line 2 indicates the chirp signal reflected from the object whose distance is to be measured. The reflected chirp signal 2 generates a time delay 3 relative to line 1, the reference chirp signal, that corresponds to the round-trip distance to the object. As a result, heterodyning between the chirp signals generates a low-frequency interference fringe signal that corresponds to the frequency difference 4 between the chirp signals.

チャ-プ変調の直線性が高いと、干渉縞信号の周波数は、チャープ時間に渡って一定となる。図2から分かるように、光路差が大きくなると時間遅延3が増える。チャープ信号間の周波数の差4が大きくなって干渉縞信号の周波数が高くなる。このように、干渉縞信号の周波数が物体までの距離に比例する。また、図2から、干渉縞信号の周波数は、チャープ変調の帯域幅5が広くなると高くなり、チャープ時間6が長くなると低くなることが分かる。 When the chirp modulation has high linearity, the frequency of the interference fringe signal remains constant over the chirp time. As can be seen from Figure 2, as the optical path difference increases, the time delay 3 increases. The frequency difference 4 between the chirp signals increases, and the frequency of the interference fringe signal increases. In this way, the frequency of the interference fringe signal is proportional to the distance to the object. Figure 2 also shows that the frequency of the interference fringe signal increases as the chirp modulation bandwidth 5 becomes wider, and decreases as the chirp time 6 becomes longer.

図3は、第1実施形態に係る距離検出装置10Aの構成を示す。キャリア光7の振幅に、振幅変調器8を用いて、チャープ変調信号9によって線形チャープ変調を施す。そして、照明光10として、距離を検出する物体11を照明する。光学系13は、物体11からの反射光12を受光素子14に結像する。参照光15を合波器16によって反射光12に合波する。受光素子14は、合波した光を受光する。 Figure 3 shows the configuration of a distance detection device 10A according to the first embodiment. The amplitude of the carrier light 7 is linearly chirp modulated by a chirp modulation signal 9 using an amplitude modulator 8. Then, the illumination light 10 is used to illuminate an object 11, the distance of which is to be detected. The optical system 13 forms an image of the reflected light 12 from the object 11 on the light receiving element 14. The reference light 15 is combined with the reflected light 12 by the combiner 16. The light receiving element 14 receives the combined light.

受光素子14で受光すると、キャリア光間のヘテロダインとチャープ信号間のヘテロダインが生じる。参照光15は、振幅変調器21を用い、チャープ変調信号9によってキャリア光17の振幅に線形チャープ変調を施して生成する。 When light is received by the light receiving element 14, heterodynes between the carrier lights and between the chirp signals occur. The reference light 15 is generated by applying linear chirp modulation to the amplitude of the carrier light 17 using the chirp modulation signal 9, using an amplitude modulator 21.

キャリア光7とキャリア光17の干渉性が低いと、キャリア光間のヘテロダイン振幅が、受光素子の時間平均によって、それぞれの電力値の積の一定値に近づく。一定値は、チャープ信号間のヘテロダインで生じた干渉縞信号の係数となり、干渉縞信号18を安定して検出することができる。 When the coherence of carrier light 7 and carrier light 17 is low, the heterodyne amplitude between the carrier lights approaches a constant value of the product of their respective power values due to the time average of the light receiving element. This constant value becomes the coefficient of the interference fringe signal generated by the heterodyne between the chirp signals, and the interference fringe signal 18 can be stably detected.

干渉縞信号18の周波数が、物体11までの距離に比例する。キャリア光7とキャリア光17の干渉性が高いと、キャリア光間のヘテロダイン振幅が、特定の周波数を生じて、干渉縞信号を検出できなくなる、または干渉縞信号と同等の周波数成分が生じて、干渉縞信号の雑音になる。 The frequency of the interference fringe signal 18 is proportional to the distance to the object 11. If the coherence of the carrier light 7 and the carrier light 17 is high, the heterodyne amplitude between the carrier lights will produce a specific frequency, making it impossible to detect the interference fringe signal, or a frequency component equivalent to the interference fringe signal will be produced, causing noise in the interference fringe signal.

キャリア光の生成と振幅変調に、高速の振幅変調が得意なLD(laser diode)などの高コヒーレンス光源を使用する場合、キャリア光7とキャリア光17の両方、又は、一方の時間コヒーレンスと空間コヒーレンスを、コヒーレンス低減機構19とコヒーレンス低減機構20によって低減させる。そして、キャリア光間のヘテロダイン振幅を、それぞれの電力値の積の一定値に近づけて、干渉縞信号18のSN比を確保する。コヒーレンス低減機構19、20の具体的な構成について後述する。 When a high-coherence light source such as an LD (laser diode) that excels at high-speed amplitude modulation is used for generating and modulating the carrier light, the temporal coherence and spatial coherence of both or one of the carrier lights 7 and 17 are reduced by the coherence reduction mechanism 19 and the coherence reduction mechanism 20. The heterodyne amplitude between the carrier lights is then brought close to a constant value that is the product of the respective power values, thereby ensuring the signal-to-noise ratio of the interference fringe signal 18. The specific configuration of the coherence reduction mechanisms 19 and 20 will be described later.

チャープ信号間のヘテロダインで生じた干渉縞信号18を、図示に無いFFTなどの周波数変換器によって周波数成分に変換し、周波数成分のピーク値を、図示に無い相関器と補間回路によって検出し、物体までの距離に変換する。相関器の処理について後述する。 The interference fringe signal 18 generated by heterodyning between chirp signals is converted into frequency components by a frequency converter such as an FFT (not shown), and the peak value of the frequency component is detected by a correlator and an interpolation circuit (not shown) and converted into the distance to the object. The processing of the correlator will be described later.

本実施形態では、撮像素子を使用してカラー画像と距離画像を同時に検出することができ、撮像装置と一体となった小型、低価格の視覚センサーを実現できる。 In this embodiment, the image sensor can be used to simultaneously detect color images and distance images, making it possible to realize a small, low-cost visual sensor integrated with an image capture device.

(第2実施形態)
第2実施形態に係る距離検出装置20Aは、
キャリア光の振幅変調にチャープ変調を施した照明光を生成する光源と、
前記照明光で照明した物体からの反射光を受光素子に結像する結像光学系と、を有し、
さらに、前記チャープ変調の電気信号に対して前記照明光と同一のチャープ変調信号を乗じて干渉縞信号を検出する混合器と、又は、前記照明光と同一のチャープ変調信号による直接スイッチングによって前記混合器の機能を兼ね備える前記受光素子を有し、
前記受光素子は、前記反射光を検波し、前記反射光のチャープ変調を電気信号に変換することを特徴とする。
Second Embodiment
The distance detection device 20A according to the second embodiment is
a light source for generating illumination light in which chirp modulation is applied to amplitude modulation of carrier light;
an imaging optical system that forms an image of reflected light from an object illuminated with the illumination light on a light receiving element;
Further, the optical fiber includes a mixer that detects an interference fringe signal by multiplying the chirp-modulated electrical signal by a chirp-modulated signal that is the same as that of the illumination light, or the light receiving element that also functions as the mixer by direct switching using the chirp-modulated signal that is the same as that of the illumination light,
The light receiving element detects the reflected light and converts the chirp modulation of the reflected light into an electrical signal.

図4は、第2実施形態に係る距離検出装置20Aの構成を示す。
キャリア光22の振幅に、変調器23を用いて、チャープ変調信号24によって線形チャープ変調を施す。そして、照明光として、距離を検出する物体25を照明する。物体25からの反射光26を光学系27で受光素子28に結像する。高速検波が可能な受光素子28によって直接検波を行い、反射光26のチャープ変調信号を電気信号に変換する。
FIG. 4 shows the configuration of a distance detection device 20A according to the second embodiment.
A modulator 23 is used to linearly chirp modulate the amplitude of the carrier light 22 with a chirp modulation signal 24. Then, the light is used as illumination light to illuminate an object 25 whose distance is to be detected. Reflected light 26 from the object 25 is imaged on a light receiving element 28 by an optical system 27. Direct detection is performed by the light receiving element 28, which is capable of high-speed detection, and the chirp modulated signal of the reflected light 26 is converted into an electrical signal.

その後、混合器(ミキサー)29によって、チャープ変調信号24を参照信号として乗じ、干渉縞信号30に変換する。そして、第一の実施形態と同様に、図示に無い周波数変換器、相関器、補間回路の処理を経て、物体までの距離に変換する。 Then, a mixer 29 multiplies the chirp modulation signal 24 as a reference signal and converts it into an interference fringe signal 30. Then, as in the first embodiment, it is converted into the distance to the object through processing by a frequency converter, a correlator, and an interpolation circuit (not shown).

このとき、受光素子28と混合器29の代わりに、直接スイッチングが可能な受光素子を用い、チャープ変調信号24によってスイッチングすることでヘテロダイン検波を行ない、干渉縞信号30を検出してもよい。 In this case, instead of the light receiving element 28 and the mixer 29, a light receiving element capable of direct switching may be used, and heterodyne detection may be performed by switching using the chirp modulation signal 24 to detect the interference fringe signal 30.

発光ダイオードによる光源は、コヒーレンスが高いほど、直接スイッチングによる高速の振幅変調や、マッハツェンダ素子などの外部素子による高速の振幅変調が可能である。第2実施形態の場合、キャリア光が高コヒーレンス光でよい。このため、そのような高コヒーレンスの発光ダイオードや光源を使用し、チャープ変調の帯域幅を広くすることができる。そして、精度の高い距離検出を行うことが可能である。 The higher the coherence of a light-emitting diode light source, the more possible high-speed amplitude modulation by direct switching or by an external element such as a Mach-Zehnder element is. In the second embodiment, the carrier light may be high-coherence light. Therefore, by using such a high-coherence light-emitting diode or light source, the bandwidth of the chirp modulation can be widened. This makes it possible to perform highly accurate distance detection.

第1実施形態に係る距離検出装置、第2実施形態に係る距離検出装置の効果を述べる。
第1実施形態に係る距離検出装置、第2実施形態に係る距離検出装置は、距離検出装置に対する要求をすべて満足することができ、従来の距離検出装置が抱える課題(デメリット)を解決することができる。
The effects of the distance detection device according to the first embodiment and the distance detection device according to the second embodiment will be described.
The distance detection device of the first embodiment and the distance detection device of the second embodiment can satisfy all the requirements for a distance detection device and can solve the problems (disadvantages) encountered in conventional distance detection devices.

例えば、波長1550nmの赤外光をキャリア光とする場合、ミリ波レーダーと同程度の遠距離検出が可能になる。また、結像光学系を使用できるため、ミリ波レーダーよりも遥かに高い方位分解能が得られる。 For example, when infrared light with a wavelength of 1550 nm is used as the carrier light, long-distance detection is possible at the same level as millimeter-wave radar. In addition, because an imaging optical system can be used, a much higher azimuth resolution can be obtained than with millimeter-wave radar.

オートフォーカスやパンフォーカスなどによって至近距離から遠距離まで高い方位分解能を得ることができる。このため、ミリ波レーダーのようなサイドローブによる近距離におけるゴースト反射(クラッタ)などが一切無い。 High azimuth resolution can be achieved from close to long distances using autofocus and pan focus. This means that there is no ghost reflection (clutter) at close range caused by side lobes, as with millimeter wave radar.

また、チャープ変調方式は、照明光を照射するための電力をチャープ変調に従ってチャープ変調時間内に拡散(分散)して送信する。このため、照明光の強度が同じであっても、時間軸を含めた照明のトータルの電力は、ToF方式より2~3桁ほど大きくなり、距離検出の電力SN比が、その分高くなる。同じSN比を得るために、ToF方式のLiDARやカメラの照明光の強度(電力)を大きくすると、近距離の物体からの反射光が大きくなり過ぎ、受光回路がすぐに飽和してしまう。このように、ToF方式では、ダイナミックレンジ(SN比)に余裕が少ないため、数cm~数百mなどの広い範囲の距離計測が不可能となる。 In addition, the chirp modulation method transmits the power for irradiating the illumination light by diffusing (dispersing) it within the chirp modulation time according to the chirp modulation. For this reason, even if the intensity of the illumination light is the same, the total power of the illumination, including the time axis, is two to three orders of magnitude larger than the ToF method, and the power S/N ratio of distance detection is accordingly higher. If the intensity (power) of the illumination light of a ToF LiDAR or camera is increased to achieve the same S/N ratio, the reflected light from nearby objects becomes too large, and the light receiving circuit quickly becomes saturated. Thus, the ToF method has little room for dynamic range (S/N ratio), making it impossible to measure distances over a wide range, such as from a few centimeters to several hundred meters.

このように、チャープ変調方式は、照明光の電力をチャープ変調時間に拡散して照明するため、受光する回路系のダイナミックレンジに余裕があり、ToF方式のような近距離の強い反射による回路系の飽和などを回避でき、数cmから数百mの広い範囲に渡って、高い精度の距離検出が可能である。 In this way, the chirp modulation method spreads the power of the illumination light over the chirp modulation time, which allows for a generous dynamic range in the light-receiving circuit system and avoids saturation of the circuit system caused by strong reflections at close range, as occurs with the ToF method, making it possible to detect distances with high accuracy over a wide range from a few centimeters to several hundred meters.

また、キャリア光の振幅をチャープ変調する方式のため、レーダーの妨害抑制技術だけでなく、光通信の混信回避技術を二重に適用することができる。また、方位分解能が高いことを利用し、AIなどの判定機構と連動することで、他の車両の距離検出センサーの照明光や強い外光による妨害を回避して距離を検出することができる。 In addition, because the method involves chirp modulation of the carrier light amplitude, it is possible to apply not only radar jamming suppression technology but also optical communication interference avoidance technology in a dual manner. In addition, by taking advantage of the high azimuth resolution and linking it with a determination mechanism such as AI, it is possible to detect distances while avoiding interference from the illumination light of distance detection sensors on other vehicles or strong external light.

また、第1実施形態によれば、撮像素子を使用してカラー画像と距離画像を同時に検出することができ、撮像装置と一体となった小型、低価格のセンサーを実現できる。 Furthermore, according to the first embodiment, it is possible to simultaneously detect a color image and a distance image using an imaging element, and it is possible to realize a small, low-cost sensor integrated with an imaging device.

また、電波防護規制のような規制が無いため、設計の自由度が高く、ロボットやドローンなど、様々な用途への適用が容易である。 In addition, since there are no regulations such as radio wave protection regulations, there is a high degree of freedom in design, making it easy to apply to a variety of uses, such as robots and drones.

また、方位分解能が高いことを利用し、AIなどの判定機構と連動することで、光無線通信の受信を行うことができる。 In addition, by taking advantage of its high azimuth resolution and linking it with a determination mechanism such as AI, it is possible to receive optical wireless communications.

図5は、第1実施形態の変形例を示す。
シンセサイザー発振器31などで生成した、例えば、0.1~1.1GHzの線形チャープ変調信号32によって、照明光源33の出力光をon-offし、照明光34として、距離を検出する物体35を照明する。
FIG. 5 shows a modification of the first embodiment.
The output light of an illumination light source 33 is turned on and off by a linear chirp modulation signal 32 of, for example, 0.1 to 1.1 GHz generated by a synthesizer oscillator 31 or the like, and is used as illumination light 34 to illuminate an object 35 for which distance is to be detected.

照明光源33は、中心波長1550nmの赤外線LDやSLD(super luminescent diode)などの高速スイッチングが可能な発光ダイオードを使用する。 The illumination light source 33 uses a light-emitting diode capable of high-speed switching, such as an infrared LD with a central wavelength of 1550 nm or an SLD (super luminescent diode).

赤外LDは、光通信などの流通量から低価格なものが多い。また、波長1550nmの赤外線は、人間の目の安全性が高く、外界光に少なく、大気中の減衰が少なく、雨中における減衰が76~77GHzのミリ波レーダーとほとんど変わらないという特徴を持つ。 Infrared LDs are often low-priced due to their widespread use in optical communications and other fields. In addition, infrared light with a wavelength of 1550 nm is safe for human eyes, has little external light, is attenuated little in the atmosphere, and has almost the same attenuation in rain as 76-77 GHz millimeter wave radar.

照明光源33の出力光のon-offは、上記した発光ダイオードの直接スイッチング、又は、EA(Electro-Absorption)変調器、マッハツェンダ(MZ)変調器などの外部接合素子を用いて行われる。 The output light of the illumination light source 33 is turned on and off by direct switching of the light-emitting diode described above, or by using an external junction element such as an EA (Electro-Absorption) modulator or a Mach-Zehnder (MZ) modulator.

物体35からの反射光36を、撮像光学系37で撮像素子38に結像する。その際に、参照光源39の出力光を線形チャープ変調信号32によってon-offした参照光40を、合波器41によって反射光36に合波する。 Reflected light 36 from an object 35 is imaged on an image sensor 38 by an imaging optical system 37. At that time, reference light 40, which is the output light of a reference light source 39 that is turned on and off by a linear chirp modulation signal 32, is combined with the reflected light 36 by a combiner 41.

そして、撮像素子38で受光すると、チャープ信号間のヘテロダインによって、物体35の距離画像に対応した周波数の干渉縞信号が、撮像素子38の各受光画素に生じる。参照光源39として、中心波長1550nmの赤外線LDやSLDなどが使用されている。 When the light is received by the image sensor 38, an interference fringe signal with a frequency corresponding to the distance image of the object 35 is generated at each light receiving pixel of the image sensor 38 by heterodyning between the chirp signals. An infrared LD or SLD with a central wavelength of 1550 nm is used as the reference light source 39.

このとき、参照光源39の位置を、撮像光学系37の射出瞳の位置と光学的に共役になるように、光学系42によって設定する。それによって、撮像素子38の各画素に結像する主光線と参照光の波面の進行方向を一致させ、ヘテロダインの効率を向上させて画素ごとの強度のムラを抑制することができる。 At this time, the position of the reference light source 39 is set by the optical system 42 so that it is optically conjugate with the position of the exit pupil of the imaging optical system 37. This allows the direction of travel of the wavefront of the reference light and the chief ray imaged on each pixel of the imaging element 38 to coincide, improving the efficiency of the heterodyne and suppressing unevenness in intensity for each pixel.

そして、撮像素子38の撮像を高速に繰り返すことで、前述の干渉縞信号を全画素並列にサンプリングして電気信号(干渉縞信号)43に変換する。 Then, by repeatedly capturing images using the image sensor 38 at high speed, the interference fringe signal is sampled in parallel for all pixels and converted into an electrical signal (interference fringe signal) 43.

図6は、電気信号43の処理の流れを示す。FFTなどの周波数変換器44によって画素ごとに周波数成分に変換する。相関器48と距離変換部49によって周波数成分のピーク値を検出し、距離画像に変換する。相関器48の処理について後述する。 Figure 6 shows the flow of processing the electrical signal 43. A frequency converter 44 such as an FFT converts the signal into frequency components for each pixel. A correlator 48 and a distance converter 49 detect the peak value of the frequency components and convert the signal into a distance image. The processing of the correlator 48 will be described later.

反射光36のキャリア光と、参照光40のキャリア光の時間コヒーレンスと空間コヒーレンスが十分に低い場合、キャリア光間のヘテロダイン振幅が、撮像素子38のサンプリング撮像の露光時間平均と受光画素上の面積分によって、それぞれの電力の積に近づく。そして、SN比の高い干渉縞信号を検出することができる。 When the time coherence and spatial coherence of the carrier light of the reflected light 36 and the carrier light of the reference light 40 are sufficiently low, the heterodyne amplitude between the carrier lights approaches the product of their respective powers due to the average exposure time of the sampling image of the image sensor 38 and the surface integral on the light-receiving pixel. Then, an interference fringe signal with a high signal-to-noise ratio can be detected.

そのときの反射光36と参照光40のヘテロダイン出力Iは、次式で示される。
I=K・Ps PL・{1/2・cos[φ(t+d)-φ(t)]+1} (A)
となる。
The heterodyne output I of the reflected light 36 and the reference light 40 at that time is expressed by the following equation.
I = K·Ps PL・{1/2・cos[φ(t+d)−φ(t)]+1} (A)
Becomes.

ヘテロダイン出力Iが(A)式で示される理由を後述する。
上式において、
Psは、反射光36のキャリア光の電力、
PLは、参照光40のキャリア光の電力、
φ(t)は、線形チャープ(変調)信号32の位相、
tは、時間、
dは、反射光36と参照光40の光路差による時間遅延、
Kは、受光画素の特性で決まる定数、を示す。
The reason why the heterodyne output I is expressed by equation (A) will be described later.
In the above formula,
Ps is the power of the carrier light of the reflected light 36,
PL is the power of the carrier light of the reference light 40,
φ(t) is the phase of the linear chirp (modulation) signal 32;
t is time,
d is the time delay due to the optical path difference between the reflected light 36 and the reference light 40,
K denotes a constant determined by the characteristics of the light-receiving pixel.

(A)式によれば、チャープ信号間のヘテロダインによって物体までの距離(dに比例)に比例した干渉縞信号が各画素に生じる。それらの振幅が、各画素の反射光36の電力Psに比例し、参照光の電力PLによって増幅されることになる。 According to equation (A), heterodyning between chirp signals produces interference fringe signals at each pixel that are proportional to the distance to the object (proportional to d). The amplitude of these signals is proportional to the power Ps of the reflected light 36 at each pixel, and is amplified by the power PL of the reference light.

(A)式に沿った具体例を述べる。高速回転する物体をストロボスコープで照明したとき、ストロボ光の点滅が回転の周期と一致すると物体が止まって見える。ストロボ光の点滅が回転の周期よりも僅かに低くなると物体がゆっくり回転する。ストロボ光の点滅が回転の周期よりも僅かに高くなると物体が逆回転して見える。 Here is a concrete example that follows formula (A). When a rapidly rotating object is illuminated with a stroboscope, if the blinking rate of the strobe light matches the rotational period, the object will appear to be stationary. If the blinking rate of the strobe light is slightly slower than the rotational period, the object will rotate more slowly. If the blinking rate of the strobe light is slightly faster than the rotational period, the object will appear to rotate in the opposite direction.

このとき、観察者の網膜上の一点に結像される光は、室内照明光による物体からの反射光が、物体の回転で輝度変調されていて、それにストロボ点滅で輝度変調された物体からの反射光が加わる形になっている。 At this time, the light that is imaged at a point on the observer's retina is a mixture of the light reflected from the object by the room lighting, which is brightness-modulated by the object's rotation, and the light reflected from the object that is brightness-modulated by the flashing strobe.

網膜が反射光を受光すると、2つの変調信号間のヘテロダインが生じ、目の残像効果により時間平均される。そして、物体の回転とストロボ点滅の差の低い周波数の輝度変調が残り、上記の現象が観察される。 When the retina receives the reflected light, a heterodyne between the two modulated signals occurs, which is time-averaged by the persistence of vision effect in the eye. This leaves a low-frequency intensity modulation that is the difference between the rotation of the object and the flashing of the strobe, resulting in the phenomenon observed above.

室内照明光とストロボ光は、インコヒーレント光のため干渉性を有さない。物体像の明るさは、室内の照明光とストロボ光の明るさ(光強度)の積に比例して変わる。室内光を明るくしても、ストロボ光を明るくしても物体像は明るくなる。そのとき、物体像や回転の動きは変化しない。ここで、室内光とストロボ光にわざと干渉性を持たせると、物体像の明るさが変動したり、干渉縞が生じたり、回転の動きが変動して見えたりするようになる。 Indoor lighting and strobe light are incoherent lights and therefore have no coherence. The brightness of the object image changes in proportion to the product of the brightness (light intensity) of the indoor lighting and strobe light. The object image becomes brighter whether the indoor light or strobe light is made brighter. In that case, the object image and rotational movement do not change. Now, if the indoor light and strobe light are intentionally made coherent, the brightness of the object image will fluctuate, interference fringes will appear, and the rotational movement will appear to fluctuate.

撮像素子38の代わりに1次元配列の受光センサーを使用しても良い。撮像光学系37の結像面を、1次元配列受光センサーを配列方向と交差する方向に1次元に走査しながら干渉縞信号をサンプリングし、上述の処理を行っても距離画像を得ることができる。 A one-dimensional array of light receiving sensors may be used instead of the imaging element 38. A distance image can also be obtained by sampling interference fringe signals while scanning the imaging surface of the imaging optical system 37 one-dimensionally in a direction intersecting the array direction with the one-dimensional array of light receiving sensors, and performing the above-mentioned processing.

さらに、以下(a)、(b)、(c)の何れかの構成でも良い。
(a)単体の受光素子を使用し、撮像光学系37の結像面を2次元に走査して距離画像を得ることもできる。
(b)1次元配列のセンサーを結像面に設置し、センサーの配列方向と交差する方向の照明光の指向性を高めて物体35を照明し、配列方向と交差する方向に1次元に走査することで距離画像を得ることもできる。
(c)単体の受光素子を撮像光学系37の結像面に設置し、ビーム状に収束した照明光によって物体35を2次元に走査することで距離画像を得ることもできる。
Furthermore, any one of the following configurations (a), (b), and (c) may be used.
(a) It is also possible to obtain a distance image by using a single light receiving element and two-dimensionally scanning the imaging surface of the imaging optical system 37.
(b) A distance image can also be obtained by placing a one-dimensional array sensor on the imaging plane, increasing the directivity of the illumination light in a direction intersecting the sensor array direction to illuminate object 35, and scanning one-dimensionally in the direction intersecting the array direction.
(c) A distance image can also be obtained by placing a single light receiving element on the imaging plane of the imaging optical system 37 and scanning the object 35 two-dimensionally with illumination light converged into a beam.

このように、2次元配列された受光素子により、
又は、1次元配列された受光素子を、結像光学系の結像面を1次元配列方向と交差する方向に1次元走査することにより、
又は、単一の受光素子を、結像面を2次元走査することにより、
又は、1次元配列された受光素子を結像面に設置し、照明光の1次元配列と交差する方向の指向性を高めて物体を方向に1次元走査することにより、
又は、単一の受光素子を結像面に設置し、照明光の指向性をビーム状に高めて物体を2次元走査することにより、
物体の画像を撮像するのと同時に、干渉縞信号を2次元の位置で検出する2次元検出機構を備えることが望ましい。
In this way, the two-dimensional array of light-receiving elements allows
Alternatively, the one-dimensionally arranged light receiving elements are scanned one-dimensionally in a direction intersecting the one-dimensional arrangement direction across the imaging surface of the imaging optical system,
Alternatively, a single light receiving element is scanned two-dimensionally across the image plane,
Alternatively, a one-dimensional array of light receiving elements is placed on the imaging plane, and the directivity of the illumination light in the direction intersecting the one-dimensional array is increased to perform one-dimensional scanning of the object in the direction.
Alternatively, a single light receiving element is placed on the imaging plane, and the illumination light is increased in directivity to a beam to scan the object in two dimensions.
It is desirable to provide a two-dimensional detection mechanism that detects interference fringe signals in two-dimensional positions while simultaneously capturing an image of the object.

図6に示した相関器48の処理について説明する。
干渉縞信号43は、周波数変換器44によって周波数成分45に変換される。周波数軸上において、相関器48によって干渉縞信号の周波数成分45と複素共役となる参照信号(基準信号)47との相関演算が行われる。
The processing of the correlator 48 shown in FIG. 6 will now be described.
The interference fringe signal 43 is converted into a frequency component 45 by a frequency converter 44. On the frequency axis, a correlator 48 performs a correlation calculation between the frequency component 45 of the interference fringe signal and a reference signal (standard signal) 47 which is a complex conjugate.

そして、相関器48の出力は、距離変換部49において、データ補間がされる。そして、ピーク値が検出され、後述する(8)式に従って、物体35までの距離Lに変換される。 The output of the correlator 48 is then subjected to data interpolation in the distance conversion unit 49. The peak value is then detected and converted into the distance L to the object 35 according to equation (8) described below.

図7は、高調波を示す。参照信号47を生成する参照信号生成部46について述べる。キャリア光をスイッチングしてチャープ変調を行う矩形波の周波数成分は、図7に示すように、基本波53に加えて、基本波の2n+1(n:0を含む自然数)倍の高調波を有している。 Figure 7 shows harmonics. We will now describe the reference signal generating unit 46 that generates the reference signal 47. The frequency components of the square wave that performs chirp modulation by switching the carrier light include a fundamental wave 53 as well as a harmonic that is 2n+1 times the fundamental wave (n: natural number including 0), as shown in Figure 7.

図7の符号(第一高調波)54は、n=1のときの第一高調波である。n=2以上の高調波の振幅は小さく、更に、光源のスイッチングの応答時間によって抑えられるため無視できる。また、光源のスイッチングの立上りと立下りの時間が異なると、2nの位置にも高調波が出現するが、これも振幅が小さく無視できる。 Symbol 54 (first harmonic) in Figure 7 is the first harmonic when n = 1. The amplitude of harmonics for n = 2 and above is small, and can be ignored because it is suppressed by the response time of the light source switching. In addition, if the rise and fall times of the light source switching are different, a harmonic also appears at position 2n, but this also has a small amplitude and can be ignored.

図8は、干渉縞信号の周波数を示す。上述したように、干渉縞信号の周波数成分45は、基本波53のチャープ信号のヘテロダインで生じる干渉縞信号の周波数55と、第一高調波54のチャープ信号のヘテロダインで生じる干渉縞信号の周波数(成分)56を有する。 Figure 8 shows the frequency of the interference fringe signal. As described above, the frequency component 45 of the interference fringe signal has a frequency 55 of the interference fringe signal generated by heterodyning the chirp signal of the fundamental wave 53, and a frequency (component) 56 of the interference fringe signal generated by heterodyning the chirp signal of the first harmonic 54.

この2つの干渉縞信号の周波数(成分)55、56が、物体35までの距離に応じて、図8に示すように変化する。そして、物体35の距離が遠くなり、第一高調波54のチャープ信号で生じた干渉縞信号の周波数56が、サンプリングのナイキスト周波数57を超えると、折返し成分58が生じる。折返し成分58が、0周波数を下回ると、更に折返し成分59が生じる。 The frequencies (components) 55, 56 of these two interference fringe signals change according to the distance to the object 35, as shown in FIG. 8. Then, when the distance of the object 35 increases and the frequency 56 of the interference fringe signal generated by the chirp signal of the first harmonic 54 exceeds the Nyquist frequency 57 of sampling, a reflection component 58 is generated. When the reflection component 58 falls below 0 frequency, a further reflection component 59 is generated.

以上のように、物体35の距離に応じて干渉縞信号の周波数成分56が変化する。このため、相関器48で相関演算を行う参照信号47を、干渉縞信号の周波数成分56の変化に合わせて変化させる。 As described above, the frequency component 56 of the interference fringe signal changes depending on the distance of the object 35. Therefore, the reference signal 47 used to perform the correlation calculation in the correlator 48 is changed in accordance with the change in the frequency component 56 of the interference fringe signal.

このように、物体35の距離に応じて変化する干渉縞信号の周波数成分45と、それを考慮した参照信号47との相関演算を行う。そして、距離変換部49においてデータ補間を行ってピーク値を検出すると、高調波成分をピーク値に集約することができる。この結果、干渉縞信号のSN比を上げることができる。後述するように、距離検出精度は、距離分解能とSN比に比例し、例えば、SN比が40dBのとき、距離検出精度は、距離分解能の1/40程度の値になる。 In this way, a correlation calculation is performed between the frequency components 45 of the interference fringe signal, which change according to the distance to the object 35, and the reference signal 47 that takes this into account. Then, by performing data interpolation in the distance conversion unit 49 to detect the peak value, the harmonic components can be concentrated at the peak value. As a result, the signal-to-noise ratio of the interference fringe signal can be increased. As will be described later, the distance detection accuracy is proportional to the distance resolution and the signal-to-noise ratio; for example, when the signal-to-noise ratio is 40 dB, the distance detection accuracy is about 1/40 of the distance resolution.

また、干渉縞信号の周波数55と初期位相は、後述する(6)式によって算出することができる。干渉縞信号の周波数56についても、(6)式のaとf0を3倍にすることできるので。(7)式によって算出することができる。 Furthermore, the frequency 55 and initial phase of the interference fringe signal can be calculated by equation (6) described later. The frequency 56 of the interference fringe signal can also be calculated by equation (7) because a and f0 in equation (6) can be tripled.

それらの算出結果から折返し成分を算出することができる。それらの振幅を正規化して位相共役をとれば、参照信号47を算出することができる。 The aliasing components can be calculated from these calculation results. By normalizing the amplitudes and taking the phase conjugate, the reference signal 47 can be calculated.

又は、反射体を適切な距離に置き、干渉縞信号の周波数成分を前もって計測し、それ以外の距離の参照信号を補間によって算出してもよい。温度変化によってLDのスイッチング波形の立ち上がりと立下り時間が変化すると、高調波の振幅が僅かに変化したり、基本波の2倍の周波数の高調波が生じたりする。ここで、それらの振幅は小さいため無視できる。 Alternatively, the reflector can be placed at an appropriate distance, the frequency components of the interference fringe signal can be measured in advance, and reference signals at other distances can be calculated by interpolation. If the rise and fall times of the LD switching waveform change due to temperature changes, the amplitude of the harmonics can change slightly, or harmonics with twice the frequency of the fundamental wave can be generated. Here, these amplitudes are small and can be ignored.

チャープ信号間のヘテロダインによって干渉縞信号が生じる理由と、キャリア光のコヒーレンスが低いと、キャリア光間のヘテロダイン振幅が一定値に近づく理由を説明する。 Explains why heterodyning between chirp signals produces an interference fringe signal, and why the heterodyne amplitude between carrier lights approaches a constant value when the coherence of the carrier lights is low.

キャリア光のコヒーレンスが低く、空間的にもランダムな位相を有する場合、それらの受光画素上の空間コヒーレンスによって、反射光36と参照光40のヘテロダイン出力が異なる。 When the carrier light has low coherence and a spatially random phase, the heterodyne outputs of the reflected light 36 and the reference light 40 differ due to the spatial coherence on those light-receiving pixels.

そこで、反射光36のキャリア光の電場成分と、参照光40(図5参照)のキャリア光の電場成分を、時間tと受光素子の受光面上の位置rの関数とする。チャープ信号の場合は、基本波の波長が受光素子の大きさの10倍ほどの大きさである。このため、位置rの変化に対する位相変化が極めて小さく、時間tのみの関数として説明する。 Therefore, the electric field component of the carrier light of the reflected light 36 and the electric field component of the carrier light of the reference light 40 (see FIG. 5) are assumed to be functions of time t and position r on the light receiving surface of the light receiving element. In the case of a chirp signal, the wavelength of the fundamental wave is about 104 times the size of the light receiving element. For this reason, the phase change with respect to the change in position r is extremely small, and will be explained as a function of time t only.

ここで、
反射光36のキャリア光をAs(r,t)、
参照光40のキャリア光をAL(r,t)、
キャリア光As(r,t)とAL(r,t)の振幅をチャープ変調している振幅1の矩形波関数を、それぞれ、S(t+d)、S(t)、とすると、
受光画素上の位置rに結像された反射光36の電場成分と参照光40の電場成分は、それぞれ、As(r,t)S(t+d)と、AL(r,t)S(t)となる。
dは、反射光36と参照光40の光路差に応じた遅延時間を示す。
Where:
The carrier light of the reflected light 36 is represented as As(r,t),
The carrier light of the reference light 40 is denoted as AL(r,t).
If the square wave functions with an amplitude of 1 that chirp modulate the amplitudes of the carrier lights As(r,t) and AL(r,t) are S(t+d) and S(t), respectively, then
The electric field components of the reflected light 36 and the reference light 40 imaged at position r on the light-receiving pixel are As(r,t)S(t+d) and AL(r,t)S(t), respectively.
d indicates a delay time according to the optical path difference between the reflected light 36 and the reference light 40 .

このとき、反射光36と参照光40を合波して受光したときのへテロダイン振幅H(r,t)は、
H(r,t)=As(r,t) S(t+d)・AL(r,t) S(t) (B)
となる。
At this time, the heterodyne amplitude H(r, t) when the reflected light 36 and the reference light 40 are combined and received is given by
H(r,t)=As(r,t) S(t+d)・AL(r,t) S(t) (B)
It becomes.

(B)式のS(t+d)とAL(r,t)を入れ替えて、
H(r,t)=As(r,t) AL(r,t)・S(t+d) S(t) (C)
とする。
(B) By replacing S(t+d) and AL(r,t)
H(r,t)=As(r,t) AL(r,t)・S(t+d) S(t) (C)
Let us assume that.

As(r,t) AL(r,t)が、反射光36と参照光40のキャリア光間のヘテロダイン振幅を示し、S(t+d) S(t)が、チャープ信号間のヘテロダイン振幅を示す。 As(r,t) AL(r,t) indicates the heterodyne amplitude between the carrier light of the reflected light 36 and the reference light 40, and S(t+d) S(t) indicates the heterodyne amplitude between the chirp signals.

このとき、キャリア光As(r,t) AL(r,t)の両方、もしくは一方の受光画素上の相関距離が、空間的、及び、時間的に極めて短いとき、後述するように、キャリア光間のヘテロダイン振幅As(r,t) AL(r,t)は、サンプリング撮像の露光時間平均によって受光画素上の位置に関わりなく一定値に近づく。そして、受光画素上の面積分によって、それぞれの電力値の積に収束し、S(t+d) S(t)のヘテロダインで生じた干渉縞信号をSN比を良く検出することができる。 In this case, when the correlation distance on the light receiving pixel of both or either of the carrier lights As(r,t) AL(r,t) is extremely short in space and time, as described below, the heterodyne amplitude As(r,t) AL(r,t) between the carrier lights approaches a constant value regardless of the position on the light receiving pixel due to the exposure time average of the sampling imaging. Then, due to the surface integral on the light receiving pixel, it converges to the product of the respective power values, and the interference fringe signal generated by the heterodyne of S(t+d) S(t) can be detected with a good S/N ratio.

ここで、
受光画素上の2つの位置をr1、r2、
サンプリング撮像の露光時間をτ、としたとき、
H(r1,t)とH(r2,t)の相関関数C(r1,r2)は、
Where:
The two positions on the light-receiving pixel are r1 and r2.
When the exposure time of the sampling image is τ,
The correlation function C(r1,r2) between H(r1,t) and H(r2,t) is

Figure 0007557753000002
となる。
Figure 0007557753000002
It becomes.

反射光36と参照光40のヘテロダイン出力Iは、相関関数C(r1,r2)を、受光画素上のr1とr2について、次式の積分を行うことで得られる。Kは、撮像素子38の受光画素の特性で決まる定数を示す。 The heterodyne output I of the reflected light 36 and the reference light 40 is obtained by integrating the correlation function C(r1, r2) with respect to r1 and r2 on the light-receiving pixel as follows. K is a constant determined by the characteristics of the light-receiving pixel of the image sensor 38.

Figure 0007557753000003
Figure 0007557753000003

振幅1の矩形波関数S(t+d)とS(t)は、2乗しても同じ矩形波関数になる。このため、(1)式のH(r1,t) H(r2,t)を、
H(r1,t) H(r2,t)=As(r1,t) AL(r1,t)・As(r2,t) AL(r2,t)・S(t+d) S(t) (D)
とする。
Square wave functions S(t+d) and S(t) with an amplitude of 1 become the same square wave function even when squared. Therefore, H(r1,t) and H(r2,t) in equation (1) can be written as follows:
H(r1,t) H(r2,t)=As(r1,t) AL(r1,t)・As(r2,t) AL(r2,t)・S(t+d) S(t) (D)
Let us assume that.

さらに、S(t+d)とS(t)を、それらの周波数成分の基本波と直流成分の式、cosφ(t+d)+1とcosφ(t)+1に置き換えて説明する。 Furthermore, we will explain by replacing S(t+d) and S(t) with the equations for the fundamental wave and DC component of those frequency components, cosφ(t+d)+1 and cosφ(t)+1.

S(t+d)とS(t)の高調波成分で生じる干渉縞信号についても同じ考え方を以って説明することができる。ここで、振幅の係数は説明上意味を持たないので省略する。 The same idea can be used to explain the interference fringe signals that arise from the harmonic components of S(t+d) and S(t). Here, the amplitude coefficients are omitted because they are meaningless for the purposes of explanation.

(D)式のS(t+d)とS(t)を、cosφ(t+d)+1とcosφ(t)+1に置き換え、AL(r1,t)とAs(r2,t)の位置を入れ換えて、
H(r1,t) H(r2,t)=As(r1,t) As(r2,t)・AL(r1,t) AL(r2,t)・[cosφ(t+d)+1] [cosφ(t)+1] (E)
とする。
(D) Replace S(t+d) and S(t) with cosφ(t+d)+1 and cosφ(t)+1, and swap the positions of AL(r1,t) and As(r2,t),
H(r1,t) H(r2,t)=As(r1,t) As(r2,t)・AL(r1,t) AL(r2,t)・[cosφ(t+d)+1] [cosφ(t)+1] (E)
Let us assume that.

(E)式の[cosφ(t+d)+1] [cosφ(t)+1]を三角関数の積和の式で展開してから、(1)式を経て(2)式に代入する。キャリア光、As(r,t)とAL(r,t)の時間コヒーレンスと空間コヒーレンスが十分に低い場合、受光素子上のキャリア光、As(r1,t) とAs(r2,t)、および、AL(r1,t) とAL(r2,t)の空間的相関距離が極めて短く、上式のAs(r1,t) As(r2,t)とAL(r1,t) AL(r2,t)のヘテロダイン振幅は、rの位置に関わりなく時間軸上で2乗検波がなされる。よって、サンプリング撮像の時間平均によって一定値に近づく。 After expanding [cosφ(t+d)+1] [cosφ(t)+1] in equation (E) using a product-sum formula for trigonometric functions, substitute it into equation (2) via equation (1). When the time coherence and spatial coherence of the carrier light, As(r,t) and AL(r,t), are sufficiently low, the spatial correlation distance of the carrier light, As(r1,t) and As(r2,t), and AL(r1,t) and AL(r2,t) on the photodetector is extremely short, and the heterodyne amplitudes of As(r1,t) As(r2,t) and AL(r1,t) AL(r2,t) in the above equations are squared on the time axis regardless of the position of r. Therefore, they approach a constant value due to the time averaging of the sampling imaging.

そのとき、周波数の低い干渉縞信号を示す以下の項が残る。
As(r1,t) As(r2,t)・AL(r1,t) AL(r2,t)・{1/2・cos[φ(t+d)-φ(t)]+1}
その他の項は、サンプリング撮像の時間平均によって0に収束する。
We are then left with the following terms, which represent the low frequency interference fringe signal:
As(r1,t) As(r2,t)・AL(r1,t) AL(r2,t)・{1/2・cos[φ(t+d)−φ(t)]+1}
The other terms converge to zero by time averaging of the sampling images.

そして、1/2・cos[φ(t+d)-φ(t)]+1は、変数rを持たない。このため、(2)式の積分から外れて係数項となる。上式のAs(r1,t) As(r2,t)・AL(r1,t) AL(r2,t)が、(1)式の時間平均と(2)式の受光画素上の積分によって、受光画素上のキャリア光の全電力の積、K Ps PLに収束する。 And 1/2 cos[φ(t+d)-φ(t)]+1 does not have the variable r. Therefore, it is excluded from the integral in equation (2) and becomes a coefficient term. In the above equation, As(r1,t) As(r2,t) AL(r1,t) AL(r2,t) is calculated by the time average in equation (1) and the integration on the photosensitive pixel in equation (2), and is the product of the total power of the carrier light on the photosensitive pixel, K Ps Converges to PL.

結果として、反射光36と参照光40のヘテロダイン出力Iは、前述した式と同じ、
I=K Ps PL {1/2・cos[φ(t+d)-φ(t)]+1} (3)
となる。
As a result, the heterodyne output I of the reflected light 36 and the reference light 40 is the same as the above formula,
I = K Ps PL {1/2・cos[φ(t+d)-φ(t)]+1} (3)
Becomes.

(3)式から、チャープ信号間のヘテロダインによって、遅延時間d(図2の符号3)に対応した低い周波数(図2の符号2)の干渉縞信号が生じ、その振幅は、反射光の電力Psに比例し、参照光の電力PLによって増幅されることが分かる。 From equation (3), we can see that heterodyning between chirp signals generates an interference fringe signal of low frequency (2 in Figure 2) corresponding to the delay time d (3 in Figure 2), the amplitude of which is proportional to the power Ps of the reflected light and is amplified by the power PL of the reference light.

本例において干渉縞信号のSN比を確保する方法について述べる。
反射光36と参照光40を合波して受光し、干渉縞信号を検出する際に、キャリア光のコヒーレンスが十分低くないと、キャリア光間のヘテロダインによって干渉縞信号と同等の低い周波数成分が一部生じてしまう。そして、サンプリング撮像の露光時間で平均化されずに、干渉縞信号の雑音(ビート雑音、スペックル雑音)として残る。
In this example, a method for ensuring the S/N ratio of the interference fringe signal will be described.
When the reflected light 36 and the reference light 40 are combined and received to detect the interference fringe signal, if the coherence of the carrier light is not sufficiently low, low frequency components equivalent to the interference fringe signal will be generated due to heterodyning between the carrier lights. These will not be averaged over the exposure time of the sampling image capture, and will remain as noise (beat noise, speckle noise) in the interference fringe signal.

反射光36と参照光40のキャリア光の受光画素上の空間周波数成分の帯域幅を広くすると、キャリア光間のヘテロダイン振幅の空間周波数成分が、それらの畳み込み積分によって更に広くなる。そして、(3)式の干渉縞信号の係数K Ps PLが大きくなる。それに対して、雑音電力の帯域幅は、サンプリング露光時間が一定のため変わらず、干渉縞信号の電力SN比が上がる。 When the bandwidth of the spatial frequency components of the carrier light of the reflected light 36 and the reference light 40 on the light receiving pixel is widened, the spatial frequency components of the heterodyne amplitude between the carrier lights become even wider due to their convolution integral. As a result, the coefficient K Ps PL of the interference fringe signal in equation (3) becomes larger. On the other hand, the bandwidth of the noise power does not change because the sampling exposure time is constant, and the power S/N ratio of the interference fringe signal increases.

ここで、光の時間コヒーレンスは、光の進行方向の空間周波数成分の帯域幅の逆数に比例し、空間コヒーレンスは、光の進行方向を法線とする面の空間周波数成分の帯域幅の逆数に比例する。 Here, the temporal coherence of light is proportional to the inverse of the bandwidth of the spatial frequency components in the direction of light propagation, and the spatial coherence is proportional to the inverse of the bandwidth of the spatial frequency components of a plane normal to the direction of light propagation.

このため、上記の「反射光36と参照光40のキャリア光の受光画素上の空間周波数成分の帯域幅を広くすると、干渉縞信号の電力SN比が上がる」ということは、「受光画素上のキャリア光の時間コヒーレンスと空間コヒーレンスを低くすると、干渉縞信号のSN比が上がる」と言い換えることができる。 Therefore, the above statement that "widening the bandwidth of the spatial frequency components of the carrier light of the reflected light 36 and the reference light 40 on the light-receiving pixel increases the power S/N ratio of the interference fringe signal" can be rephrased as "lowering the temporal coherence and spatial coherence of the carrier light on the light-receiving pixel increases the S/N ratio of the interference fringe signal."

波長1550nmの赤外LDは、GHz単位の直接スイッチングが可能で、小型、低価格のため、on-offスイッチングによってチャープ変調を行う際の光源に適する。 Infrared LDs with a wavelength of 1550 nm are capable of direct switching in the GHz range, and are small and low-cost, making them suitable as light sources for chirp modulation using on-off switching.

出力光の時間コヒーレンスと空間コヒーレンスが、それなりに高いため、周波数帯域幅は15GHzと狭い。検出する最長距離を150m、チャープ時間を15ms、帯域幅を1GHzとすると、後述する(7)式から干渉縞信号の周波数は67kHzとなる。 The time coherence and spatial coherence of the output light are relatively high, so the frequency bandwidth is narrow at 15 GHz. If the maximum detection distance is 150 m, the chirp time is 15 ms, and the bandwidth is 1 GHz, the frequency of the interference fringe signal is 67 kHz according to equation (7) described below.

サンプリング周波数は、その2倍以上の150kHz程度が必要となる。そのときのキャリア光の周波数帯域幅と、サンプリング露光によるローパスカットオフ周波数の帯域幅の比、即ち電力SN比は94dBとなる。 The sampling frequency must be more than twice as high, at about 150 kHz. At that time, the ratio of the frequency bandwidth of the carrier light to the bandwidth of the low-pass cutoff frequency due to sampling exposure, i.e., the power S/N ratio, is 94 dB.

干渉縞信号の振幅SN比は、その半分の47dBになる。遠距離での干渉縞信号の減衰を考慮したとき、60dBのSN比が必要と考えると、12dBほど不足していることになる。そこで、以下に示す方法を講じて、キャリア光の広帯域化を図り、SN比を確保する。 The amplitude SNR of the interference fringe signal is half that, at 47 dB. When considering the attenuation of the interference fringe signal over long distances, if an SNR of 60 dB is required, this is about 12 dB short. Therefore, the following method is used to broaden the bandwidth of the carrier light and ensure the SNR.

次に、キャリア光の時間コヒーレンスと空間コヒーレンスを低減させる方法を述べる。
光源の光強度確保を兼ね、光源光の主軸を法線とする面に、複数のLD光源を2次元に配置し、出力光を合成することで、コヒーレンスを低減させることができる。
Next, a method for reducing the temporal and spatial coherence of the carrier light will be described.
In order to ensure the light intensity of the light source, multiple LD light sources are arranged two-dimensionally on a plane whose normal line is the principal axis of the light from the light source, and the output light is synthesized, thereby reducing coherence.

2次元に配置されるLD光源から照射される光源光の径の大きさに直線的に比例して、合成光のコヒーレンスを低下することができる。このときの空間コヒーレンスの低減は、時間コヒーレンスよりも遥かに効率が高い。 The coherence of the composite light can be reduced in linear proportion to the diameter of the light emitted from the two-dimensionally arranged LD light sources. In this case, the reduction in spatial coherence is much more efficient than the reduction in temporal coherence.

受光画素面上で合波された複数のLD光の空間周波帯域幅が、広く均一になるように、LD光源の周波数帯域幅(波長帯域幅)とその包絡線の波形を鑑みて、2次元に配置されるLD光源間の間隔を適宜選択する。 The spacing between the two-dimensionally arranged LD light sources is appropriately selected in consideration of the frequency bandwidth (wavelength bandwidth) of the LD light source and the waveform of its envelope so that the spatial frequency bandwidth of the multiple LD light beams combined on the light-receiving pixel surface is wide and uniform.

このとき、スタガ同調と同様に、複数のLDの中心波長をずらしながら、周波数帯域の一部を重ねて広く均一になるように合成すると、時間コヒーレンスを含めて、空間コヒーレンスの低減を、更に効率良く行なうことができる。 In this case, similar to staggered tuning, by shifting the central wavelengths of multiple LDs and overlapping parts of the frequency bands to create a wide, uniform combination, it is possible to reduce spatial coherence, including temporal coherence, even more efficiently.

光源のアッセンブルの構造上、光源間の間隔を広くせざるを得ない場合、コリメータ光学系とフライアイ光学系とケーラー照明光学系を使用して、光源を細かい配置に分割する。更に、それを上記の方法と組み合わせることで、コヒーレンスの低減を効率良く行なうことができる。そのとき、フライアイレンズの長さをランダムにして、時間コヒーレンスを含めて低減できる。 When the structure of the light source assembly requires a wide spacing between light sources, the light sources are divided into a fine arrangement using collimator optics, fly's eye optics, and Kohler illumination optics. Furthermore, by combining this with the above method, it is possible to efficiently reduce coherence. In that case, the length of the fly's eye lens can be made random, allowing reduction including time coherence.

また、スイッチングスピードが許せば、LDの代わりに、面発光型のSLDやLEDなどの低コヒーレンスの発光ダイオードを使用してもよい。これらの低コヒーレンスの発光ダイオードは、近年、可視光通信や光無線、Li-Fi(Light Fidelity)などへの期待から、更なる高出力化とスイッチングの高速化が進められている。 In addition, if the switching speed allows, low-coherence light-emitting diodes such as surface-emitting SLDs and LEDs may be used instead of LDs. In recent years, efforts have been made to further increase the output and switching speed of these low-coherence light-emitting diodes in anticipation of visible light communication, optical wireless, Li-Fi (Light Fidelity), and other applications.

また、直接スイッチングの代わりに、EA素子のような外部スイッチング素子を使用して高速スイッチングを行うこともできる。ただし、これらの低コヒーレンス光源は、時間コヒーレンスは低いが、空間コヒーレンスが高い(点光源性を有する)ものが多いため、上記した空間コヒーレンスを低減させる手段と組み合わせる必要がある。 Instead of direct switching, high-speed switching can also be achieved by using an external switching element such as an EA element. However, since these low-coherence light sources often have low temporal coherence but high spatial coherence (point source properties), they must be combined with the above-mentioned means for reducing spatial coherence.

また、照明光と参照光のキャリア光の光源を別にすることで、キャリア光間の位相と偏波面をランダムにして、ビート雑音を広帯域に拡散させることができる。 In addition, by using separate light sources for the illumination light and the carrier light for the reference light, the phase and polarization plane between the carrier lights can be made random, allowing the beat noise to be spread over a wide bandwidth.

また、照明光を分波器で分波してファイバー束で導光し、参照光として使用することもできる。LDのコヒーレンス長は10cm程度である。このため、物体までの往復距離が1m以上になる場合、反射光の時間コヒーレンスが既に十分崩れており、また、マルチモードのファイバー束などを使用して、ファイバー束の長さと径を調節することで、時間コヒーレンスと空間コヒーレンスを更に低減させることができる。 Also, the illumination light can be split by a splitter and guided through a fiber bundle to be used as reference light. The coherence length of an LD is about 10 cm. Therefore, when the round-trip distance to the object is 1 m or more, the temporal coherence of the reflected light is already sufficiently broken. In addition, by using a multimode fiber bundle, etc., and adjusting the length and diameter of the fiber bundle, the temporal and spatial coherence can be further reduced.

上記した方法以外にも、キャリア光のコヒーレンスを低減させる手段が多数存在するが、一つの手法でインコヒーレントに近い光を実現できる手段はない。用途に応じて、幾つかの手法を組合せて、必要十分なキャリア光のコヒーレンス低減を図り、前述したビート雑音に対する干渉縞信号のSN比を確保することになる。 In addition to the methods mentioned above, there are many other ways to reduce the coherence of the carrier light, but no single method can produce light that is close to incoherent. Depending on the application, several methods can be combined to achieve a sufficient reduction in the coherence of the carrier light and ensure the signal-to-noise ratio of the interference fringe signal to the beat noise mentioned above.

図9は、キャリア光のコヒーレンスと光源大きさの関係を示す。いずれの場合も、照明光と参照光の発光部の大きさを、図9に示す範囲61に設定する。そして、照明光と参照光に同一のチャープ変調を施すことで、チャープ信号の時間コヒーレンスと空間コヒーレンスを保持しつつ、キャリア光の時間コヒーレンスと空間コヒーレンスを必要十分に低減することが必要である。 Figure 9 shows the relationship between the coherence of the carrier light and the size of the light source. In either case, the size of the light emitting portion of the illumination light and the reference light is set to the range 61 shown in Figure 9. Then, by applying the same chirp modulation to the illumination light and the reference light, it is necessary to sufficiently reduce the temporal coherence and spatial coherence of the carrier light while maintaining the temporal coherence and spatial coherence of the chirp signal.

図9において、グラフ62は、発光部の大きさに対するキャリア光の空間コヒーレンスの低下を示し、グラフ63は、チャープ信号の空間コヒーレンスの低下を示す。図9では、紙面の都合上、範囲61が狭く表記されているが、キャリア光とチャープ信号の波長の比は5桁ほどあるので、実際の範囲61はかなり広く、以上に述べた設定を行うことは容易である。 In Figure 9, graph 62 shows the decrease in spatial coherence of the carrier light relative to the size of the light-emitting section, and graph 63 shows the decrease in spatial coherence of the chirp signal. In Figure 9, range 61 is depicted narrowly due to space limitations, but since the ratio of the wavelengths of the carrier light and the chirp signal is about five orders of magnitude, the actual range 61 is quite wide, and it is easy to make the settings described above.

反射光36のグラフ62は、物体35までの距離や倍率(画角)、受光画素の大きさによって変わる。このため、グラフ62は、最も条件の悪いときのコヒーレンス低減のグラフを使用し、チャープ信号のグラフ63は、コヒーレンスの低減が最も良い条件のときのグラフを使用する。 Graph 62 of reflected light 36 changes depending on the distance to object 35, magnification (angle of view), and size of the light-receiving pixel. For this reason, graph 62 uses a graph of coherence reduction under the worst conditions, and graph 63 of the chirp signal uses a graph under the best conditions for coherence reduction.

参照光40の場合は、光源から受光素子までの距離が短く一定のため、設定できる範囲61が広く、コヒーレンスの低減は容易である。 In the case of reference light 40, the distance from the light source to the light receiving element is short and constant, so the settable range 61 is wide and it is easy to reduce coherence.

次に、RGB画像と距離画像を同時に検出する撮像素子38について述べる。
400nm~1700nmの波長特性を有する134万画素の撮像素子が市販されている。受光部をInGaAsの半導体で構成し、読出し機構などの回路系がSiで構成され、それらを結合させた2層構造の撮像素子である。
Next, the image sensor 38 that simultaneously detects an RGB image and a distance image will be described.
An image sensor with 1.34 million pixels and wavelength characteristics of 400 nm to 1700 nm is commercially available. The light receiving section is made of InGaAs semiconductor, and the circuit system such as the readout mechanism is made of Si, making it a two-layer structure image sensor.

図10は、撮像素子の正面構成を示す。このような撮像素子を使用し、図10に示すように、RGBの色フィルタとIRの波長フィルタをモザイク状に配列する。IRフィルタの波長特性は、中心波長が1550nmで、不要な外光による雑音を防ぐために照明光34と参照光40の波長帯域に適合させてある。 Figure 10 shows the front configuration of the imaging element. Using such an imaging element, RGB color filters and IR wavelength filters are arranged in a mosaic pattern as shown in Figure 10. The wavelength characteristics of the IR filter have a central wavelength of 1550 nm, and are adapted to the wavelength bands of the illumination light 34 and reference light 40 to prevent noise caused by unnecessary external light.

このような撮像素子38を高速駆動することで、IR画素で生じた干渉縞信号を全画素並列にサンプリングし、図6に示した周波数変換器44と相関器48、距離変換部49の処理を経て距離画像を検出する。 By driving such an image sensor 38 at high speed, the interference fringe signals generated by the IR pixels are sampled in parallel for all pixels, and a distance image is detected after processing by the frequency converter 44, correlator 48, and distance conversion unit 49 shown in Figure 6.

並行して、高速撮像で得られた多数のRGB画像とIR画像を、図示に無い累積加算器によって累積加算し、ダイナミックレンジの広いRGB画像とIR画像を得る。 In parallel, multiple RGB images and IR images obtained by high-speed imaging are cumulatively added by a cumulative adder (not shown) to obtain RGB images and IR images with a wide dynamic range.

このRGB画像とIR画像から、AI51が、外界の物体検出に加え、妨害となる他の車両の距離検出装置の照明光や外光の位置を判定し、その位置に対応する干渉縞信号の画素を除外できる。AI51は、自動運転やロボットの物体検出に欠かせない判定機構である。AI51の物体検出について後述する。 From these RGB and IR images, AI51 can detect objects in the outside world, as well as determine the position of interfering illumination light from distance detection devices on other vehicles and external light, and can eliminate pixels of interference fringe signals that correspond to those positions. AI51 is an essential judgment mechanism for autonomous driving and object detection by robots. Object detection by AI51 will be described later.

上記の距離画像を得る手段を、ロボットの視覚センサーに適用する場合について述べる。RGB画像とIR画像と距離画像を併合し、一画素当たり5チャネルの情報を有する画像としてAI51に学習させる。 We will now describe how to apply the above-mentioned method of obtaining a distance image to a robot's visual sensor. The RGB image, IR image, and distance image are merged, and the AI51 is trained to learn the image as one with five channels of information per pixel.

ロボットが扱う物体のなかにはRGB画像による形状や、テクスチャー、色だけで判別できないものも多い。このため、画像に加えて、距離検出によって得た3次元形状の情報(距離画像)から、作業対象物のカテゴリ分類(classification)の精度を上げることができる。そして、ロボットのハンドピースが把持する3次元位置を検出することができる。 Many of the objects handled by robots cannot be identified by their shape, texture, or color alone in RGB images. For this reason, the accuracy of classification of work objects can be improved by using three-dimensional shape information (distance image) obtained by distance detection in addition to the image. This makes it possible to detect the three-dimensional position of the object being grasped by the robot's handpiece.

例えば、作業対象物の距離検出の範囲を、0~0.3mと0.3~3mの2段階に分ける。距離が3mのときに、チャープ変調幅を3GHzに設定して距離検出精度を1.25mmにする。すると、干渉縞信号の周波数は4kHzとなる。撮像素子に必要なフレームレートは8000フレーム/秒となる。 For example, the range for detecting the distance to the work object is divided into two stages: 0 to 0.3 m and 0.3 to 3 m. When the distance is 3 m, the chirp modulation width is set to 3 GHz to achieve a distance detection accuracy of 1.25 mm. Then, the frequency of the interference fringe signal becomes 4 kHz. The frame rate required for the image sensor is 8000 frames/second.

そして、ロボットのハンドピースが0.3mに近づいたときに、チャープ変調帯域幅を30GHzに切換えて距離検出精度を125μmにすると、干渉縞信号の周波数が4kHzとなる。 When the robot handpiece approaches within 0.3 m, the chirp modulation bandwidth is switched to 30 GHz to set the distance detection accuracy to 125 μm, and the frequency of the interference fringe signal becomes 4 kHz.

撮像素子に必要なフレームレートは、同じく8000フレーム/秒となり、現状の撮像素子の高速撮像で実現できるレベルとなる。30GHzを超えるスイッチングは、LDの出力光をマッハツェンダ素子などでスイッチングすることで得られる。 The frame rate required for the image sensor will also be 8,000 frames per second, which is the level that can be achieved with current image sensors with high-speed imaging. Switching above 30 GHz can be achieved by switching the output light of the LD using a Mach-Zehnder element or similar.

そして、上述したように、5チャンネルの画像から、AI51が、ロボットの作業空間で使用される複数の距離センサーや外光による妨害を判定し、それらの影響を回避することができる。 And as mentioned above, from the five-channel images, AI51 can determine interference from multiple distance sensors used in the robot's workspace and external light, and avoid their effects.

次に、車両のように、RGB画像の検出と遠距離の距離検出を同時に行うときの撮像素子38の駆動について説明する。 Next, we will explain how the image sensor 38 is driven when detecting RGB images and long-distance distances simultaneously, as in a vehicle.

車両の場合は、検出距離が150mと長いため、チャープ変調帯域幅を1GHzにしても、干渉縞信号の周波数は67kHzと高くなる。この干渉縞信号を撮像素子38の高速撮像によって全画素並列にサンプリングすると、サンプリング定理から134000フレーム/秒以上の高速撮像が必要になり、現状の撮像素子の高速撮像の限界を超えてしまう。 In the case of a vehicle, the detection distance is as long as 150 m, so even if the chirp modulation bandwidth is 1 GHz, the frequency of the interference fringe signal is high at 67 kHz. If this interference fringe signal is sampled in parallel for all pixels by the high-speed imaging of the image sensor 38, high-speed imaging of 134,000 frames per second or more is required according to the sampling theorem, which exceeds the limit of high-speed imaging of current image sensors.

ただし、車両における物体検出は、自動運転に関わる物体35を検出し、その距離を検出すればよい。このため、自動運転に関わる物体の大きさと位置を検出するbounding boxや、領域と位置を検出するsemantic segmentationなどのAIの物体検出の手法を用いる。そして、物体35の距離検出が必要な局所部分に対応するIR画素の干渉縞信号だけを読み出すようにする。これにより、読み出す画素数が少なくなり、干渉縞信号をサンプリングするレートを十分高くできる。 However, object detection in a vehicle only requires detecting object 35 related to autonomous driving and detecting its distance. For this purpose, AI object detection techniques such as bounding boxes, which detect the size and position of objects related to autonomous driving, and semantic segmentation, which detects the area and position, are used. Then, only the interference fringe signals of IR pixels corresponding to the localized parts of object 35 where distance detection is required are read out. This reduces the number of pixels to be read out, and allows the rate at which interference fringe signals are sampled to be sufficiently high.

図11は、物体が複数存在する状況を示す。図11に示すように、安全運転に関わる物体である自動車70A、70Bが複数存在する場合、RGB画像とIR画像から、AI 51が、妨害光75、76を回避して、それらの物体70A、70Bの距離を検出する複数の局所部分71、72、73、74を判定する。 Figure 11 shows a situation where multiple objects exist. As shown in Figure 11, when there are multiple automobiles 70A and 70B, which are objects related to safe driving, AI 51 determines multiple local parts 71, 72, 73, and 74 from the RGB image and the IR image to detect the distances of the objects 70A and 70B, avoiding interfering lights 75 and 76.

図6の参照符号52は、AI51が、RGB画像とIR1画像から判定した干渉縞信号を検出する物体の局所位置の画素のアドレスと、IR2画像から判定した光無線通信を受信する位置の画素アドレスを、図5の撮像素子38の読出し機構に伝達する信号を示す。 Reference numeral 52 in FIG. 6 indicates a signal that AI51 transmits to the readout mechanism of the image sensor 38 in FIG. 5 the pixel address of the local position of the object where the interference fringe signal is detected, determined from the RGB image and the IR1 image, and the pixel address of the position where the optical wireless communication is received, determined from the IR2 image.

その結果(図6の符号52)を受けて、撮像素子38の読出し機構が、AI51が判定した複数のIR画素の干渉縞信号を、同じサンプリングレートになるように、ランダムアクセスによって順次読み出すことを繰り返す。 Based on the result (reference number 52 in Figure 6), the readout mechanism of the image sensor 38 repeatedly reads out the interference fringe signals of the multiple IR pixels determined by AI 51 in sequence by random access so that the same sampling rate is obtained.

これによって、撮像素子38のフレームレートを一桁程度上げるだけで、必要なサンプリングレートを十分に確保できる。妨害光75と妨害光76は、妨害となる他の車両の距離検出装置の照明光源の位置を示している。 As a result, the required sampling rate can be sufficiently ensured by simply increasing the frame rate of the image sensor 38 by about one digit. The interference light 75 and interference light 76 indicate the positions of the illumination light sources of the distance detection devices of other vehicles that cause interference.

図12は、撮像素子の水平ラインの画素の読出しを示すタイミングチャートである。撮像素子38によって、RGB画像とIR画像の読出しと同時に、AI51が判定したIR画素の干渉縞信号を高速にサンプリングする方法について述べる。 Figure 12 is a timing chart showing the reading of pixels on a horizontal line of the image sensor. We will describe a method for using the image sensor 38 to rapidly sample the interference fringe signal of the IR pixel determined by AI 51 while simultaneously reading out the RGB image and the IR image.

撮像素子38の水平ラインの画素の読出しと、AI51が判定したIR画素が含まれる水平ラインの読出しを、順次繰り返すことで、RGB画像とIR画像の読出しと同時に、AI51が判定した複数のIR画素の干渉縞信号を高速にサンプリングすることができる。 By sequentially repeating the reading of the pixels of the horizontal line of the image sensor 38 and the reading of the horizontal line containing the IR pixel determined by AI51, it is possible to rapidly sample the interference fringe signals of multiple IR pixels determined by AI51 while simultaneously reading the RGB image and the IR image.

撮像素子38にCMOS撮像素子を使用する場合、AI51が判定した距離検出が必要なIR画素(図11の符号71~74に対応)を含む水平ラインをm、n、o、pとしたとき、図12に示すように、先ず、水平ライン1のR画素とG画素の信号を、符号81のタイミングで撮像素子38の水平シフトレジスタに移す。そして、符号82のタイミングで蓄積電荷のリセットを行ない、R画素とG画素の水平読出しとフレーム周期83の露光を開始する。 When a CMOS image sensor is used for the image sensor 38, if the horizontal lines including the IR pixels (corresponding to reference numbers 71 to 74 in FIG. 11) for which distance detection is required as determined by AI 51 are designated m, n, o, and p, then, as shown in FIG. 12, first, the signals of the R and G pixels on horizontal line 1 are transferred to the horizontal shift register of the image sensor 38 at timing 81. Then, at timing 82, the accumulated charge is reset, and horizontal readout of the R and G pixels and exposure for a frame period 83 begins.

続けて、水平ラインm、n、o、pを順次選択する。符号84~87のタイミングでB画素とIR画素の信号を水平シフトレジスタに順次移しながら、符号88~91のタイミングで順次リセットを行う。B画素とIR画素の水平読出しとサンプリング周期92~95の露光を順次開始する。 Next, horizontal lines m, n, o, and p are selected in sequence. At the timings indicated by symbols 84 to 87, the signals of the B and IR pixels are transferred in sequence to the horizontal shift register, while at the timings indicated by symbols 88 to 91, they are reset in sequence. Horizontal readout of the B and IR pixels and exposure of the sampling periods 92 to 95 are started in sequence.

次に、水平ライン2に移り、B画素とIR画素を、符号96のタイミングで水平シフトレジスタに移し、符号97のタイミングでリセットを行ない、B画素とIR画素の水平読出しとフレーム周期98の露光を開始する。 Next, moving to horizontal line 2, the B and IR pixels are shifted to the horizontal shift register at timing 96 and reset at timing 97, starting horizontal readout of the B and IR pixels and exposure for frame period 98.

続けて、再度、水平ラインm、n、o、pを順次選択し、B画素とIR画素の水平読出しとサンプリング周期の露光を開始する。以上の処理を、水平ラインの数だけ繰り返すことで、RGB画像とIR画像の検出と同時に、AI51が判定したIR画素の干渉縞信号のサンプリングを行う。 Next, horizontal lines m, n, o, and p are selected in sequence again, and horizontal readout of the B and IR pixels and exposure for the sampling period are started. By repeating the above process for the number of horizontal lines, the RGB and IR images are detected and at the same time, the interference fringe signal of the IR pixel determined by AI51 is sampled.

このとき、水平ラインm、n、o、pのB画素の露光時間が、干渉縞信号のサンプリング周期92~95になる。このため、フレーム期間内で累積加算を行い、水平ラインm、n、o、pにおけるB画像を得る。 At this time, the exposure time of the B pixels on horizontal lines m, n, o, and p is the sampling period 92 to 95 of the interference fringe signal. Therefore, cumulative addition is performed within the frame period to obtain the B image on horizontal lines m, n, o, and p.

ただし、累積加算を行っても、水平シフトレジスタへの信号移転とリセットの時間の分、僅かに露光時間が不足するため、利得を調整して補正する。これによって、RGB画像とIR画像を得るのと同時に、AI51が、距離検出が必要と判定した4つの位置71~74に対応するIR画素の干渉縞信号を高速にサンプリングできる。検出したRGB画像とIR画像の情報は、AI51の次の判定に使用される。 However, even when cumulative addition is performed, there is a slight shortage in the exposure time due to the time it takes to transfer the signal to the horizontal shift register and to reset, so the gain is adjusted to compensate. This allows the RGB image and IR image to be obtained, and at the same time, the interference fringe signals of the IR pixels corresponding to the four positions 71 to 74 where AI51 has determined that distance detection is necessary to be performed, to be sampled at high speed. The information on the detected RGB image and IR image is used for AI51's next determination.

いま、チャープ変調帯域幅を1GHzと、
チャープ時間を15msと、
物体35までの最長検出距離を150mとしたとき、
干渉縞信号の最大周波数が67kHzになる。
Now, let's say the chirp modulation bandwidth is 1 GHz.
Chirp time is 15 ms,
When the maximum detection distance to the object 35 is 150 m,
The maximum frequency of the interference fringe signal is 67 kHz.

AI51が判定した画素が4つの場合、5倍の750kHz程度の水平走査周波数が必要になる。これをHD撮像素子のフレームレートに換算すると、600フレーム/秒程度となる。既存のHD撮像素子の高速撮像の技術で十分実現できるレベルにある。 If the AI51 determines that there are four pixels, a horizontal scanning frequency of about 750 kHz, five times the frequency, is required. Converting this to a frame rate of an HD image sensor, it is about 600 frames per second. This is a level that can be easily achieved with the high-speed imaging technology of existing HD image sensors.

このように、本実施形態の好ましい態様では、
2次元検出機構で撮像した画像から、物体の距離の検出を妨害する妨害光の位置を検出し、物体の距離の検出を行う局所位置を判定する判定機構と、を有し、
妨害光を回避して物体の局所位置の距離を検出することが望ましい。
また、本実施形態の好ましい態様によれば、
2次元検出機構で撮像した画像から、光無線通信の受信を妨害する妨害光の位置を判定し、光無線通信を受信する光無線通信装置の送信機の位置を判定する判定機構と、を有し、
妨害光を回避して光無線通信を受信することが望ましい。
Thus, in a preferred aspect of this embodiment,
a determination mechanism that detects a position of interference light that interferes with detection of the distance to the object from an image captured by the two-dimensional detection mechanism and determines a local position where the distance to the object is detected;
It is desirable to detect the distance to the local location of an object while avoiding interfering light.
According to a preferred aspect of this embodiment,
a determination mechanism that determines a position of interference light that interferes with reception of the optical wireless communication from an image captured by the two-dimensional detection mechanism, and determines a position of a transmitter of an optical wireless communication device that receives the optical wireless communication,
It is desirable to receive wireless optical communications while avoiding interfering light.

撮像素子38を使用して、光無線通信を受信する方法について述べる。
図13は、フィルタの正面構成を示す。撮像素子38が光無線通信の受信機能を兼ねる場合は、図13に示すように、撮像素子38の画素に、カラー画像検出用のRGBの色フィルタと、距離検出用のIR1のフィルタと、光無線通信用のIR2のフィルタをモザイク状に配列する。
A method of receiving optical wireless communications using the imager 38 will now be described.
Fig. 13 shows the front configuration of the filters. When the image sensor 38 also has a receiving function for optical wireless communication, as shown in Fig. 13, RGB color filters for color image detection, an IR1 filter for distance detection, and an IR2 filter for optical wireless communication are arranged in a mosaic pattern on the pixels of the image sensor 38.

これらの画素の読出しのタイミングは、図12のタイミングチャートに、光無線通信用のIR2画素の読出しとリセットのタイミングを追加したものとなる。AI51が判定したIR1画素とIR2画素が、それぞれ4つある場合、水平走査の繰返し周波数は、図12のタイミングチャートの9倍の1200kHzとなる。撮像素子のフレームレートに換算すると、1150フレーム/秒となり、既存のHD撮像素子の高速撮像の技術で実現できるレベルとなる。このとき、光無線通信の通信容量は、67kbpsとなる。 The timing for reading out these pixels is the timing chart in Figure 12 with the addition of the timing for reading out and resetting the IR2 pixel for optical wireless communication. If there are four IR1 pixels and four IR2 pixels determined by AI51, the horizontal scanning repetition frequency is 1200 kHz, nine times that of the timing chart in Figure 12. Converted into the frame rate of the image sensor, this is 1150 frames per second, a level that can be achieved with existing high-speed imaging technology for HD image sensors. In this case, the communication capacity of the optical wireless communication is 67 kbps.

又は、多板プリズムを使用し、ダイクロイックミラーによってRGB画像用の波長帯域と、距離計測用のIR1の波長帯域と、光無線通信用のIR2の波長帯域を分離、それぞれの検出に適した専用の撮像素子を設けてもよい。 Alternatively, a multi-plate prism can be used, and a dichroic mirror can be used to separate the wavelength bands for RGB images, the IR1 wavelength band for distance measurement, and the IR2 wavelength band for optical wireless communication, with dedicated imaging elements provided for each detection.

以上に、CMOS撮像素子の受光部の基本構成を変えずに、水平ラインをランダムに選択できるようにすることで、RGB画像とIR画像の検出と同時に、AI51が判定したIR画素の干渉縞信号の高速サンプリングと、光無線通信の受信を可能にする方法を述べた。 Above, we have described a method that allows random selection of horizontal lines without changing the basic configuration of the light receiving section of the CMOS image sensor, thereby enabling high-speed sampling of the interference fringe signal of the IR pixel determined by AI51 and reception of optical wireless communication at the same time as detecting the RGB image and IR image.

CMOS撮像素子の画素の半導体の構成と読出し機構を変更することで、更に高速のIR画素の干渉縞信号のサンプリングと光無線通信の受信を行うことができる。 By modifying the semiconductor configuration and readout mechanism of the pixels of the CMOS image sensor, it is possible to sample the interference fringe signals of the IR pixels at even higher speeds and receive optical wireless communication.

例えば、まず、CMOS撮像素子の水平走査回路と垂直走査回路を、画素をランダムに選択できる回路構成(デコーダー回路など)に変更する。加えて、水平ラインの画素の電荷をリセットする各画素のトランジスタに、垂直ラインをリセットするトランジスタを直列に配置(カスコード接続)する。これにより、画素ごとのリセットをXYマトリクススイッチで行う構成にする。 For example, first, the horizontal and vertical scanning circuits of the CMOS image sensor are changed to a circuit configuration (decoder circuit, etc.) that can randomly select pixels. In addition, a transistor that resets the vertical line is placed in series (cascode connection) with the transistor of each pixel that resets the charge of the pixels on the horizontal line. This creates a configuration in which resetting each pixel is performed by an XY matrix switch.

前述と同様な手順によって、撮像素子38の受光画素の読出しと、AI51が判定したIR画素の読出しを、画素単位で順次繰り返すことが可能になる。RGB画像とIR画像の検出に並行して、IR画素の干渉縞信号のサンプリングレートと光無線通信の受信容量を3桁ほど上げることができる。ただし、画素ごとに垂直ラインをリセットするトランジスタが一つ増えるのと、それを駆動する信号の配線が垂直ラインごとに一つ増えることになる。 Using a procedure similar to that described above, it becomes possible to read out the light-receiving pixels of the image sensor 38 and the IR pixels determined by the AI 51, repeatedly and sequentially on a pixel-by-pixel basis. In parallel with the detection of the RGB and IR images, the sampling rate of the IR pixel interference fringe signal and the receiving capacity of the optical wireless communication can be increased by about three orders of magnitude. However, this means that one more transistor that resets the vertical line is required for each pixel, and one more wiring for the signal that drives it is required for each vertical line.

また、このときに、受光部にInGaAsのPIN型半導体や、IRの受光画素に単一光子アバランシェダイオード(SPAD:single photon avalanche diode)などの半導体構成を用いれば、高い周波数の干渉縞信号を高感度に検出することができる。また、高いビットレートの光無線通信を高感度に受信できる。 In addition, if a semiconductor configuration such as an InGaAs PIN semiconductor is used for the light receiving section, or a single photon avalanche diode (SPAD) is used for the IR light receiving pixel, high frequency interference fringe signals can be detected with high sensitivity. Also, high bit rate optical wireless communication can be received with high sensitivity.

図14と図15は、それぞれ第2実施形態の変形例に係る測距装置の概略構成を示す。 Figures 14 and 15 each show a schematic configuration of a distance measuring device according to a modified example of the second embodiment.

シンセサイザー発振器101などで生成した、例えば、0.1―1.1GHzの線形チャープ信号119Aによって照明光源102の光をon―offする。サーキュレータ103を介した後、光学系104でビーム状に絞る。 The light from the illumination light source 102 is turned on and off by a linear chirp signal 119A of, for example, 0.1-1.1 GHz, generated by a synthesizer oscillator 101 or the like. After passing through a circulator 103, the light is narrowed down into a beam by an optical system 104.

照明光105として、2次元走査機構106によって物体107を2次元に走査する。照明光源102には、中心波長1550nmのLDやSLDなど、高速スイッチングが可能な発光ダイオードが使用される。 The illumination light 105 is scanned two-dimensionally over the object 107 by a two-dimensional scanning mechanism 106. The illumination light source 102 is a light-emitting diode capable of high-speed switching, such as an LD or SLD with a central wavelength of 1550 nm.

物体107からの反射光108を、光学系104とサーキュレータ103を介した後、分波器109によってIR1、IR2、R、G、Bの波長帯域ごとに分波する。そして、光スイッチ115と光スイッチ116を介して、受光素子110、111、112、113、114に入力し、電気信号に変換する。 The reflected light 108 from the object 107 passes through the optical system 104 and the circulator 103, and is then split into the wavelength bands IR1, IR2, R, G, and B by the splitter 109. The light is then input to the light receiving elements 110, 111, 112, 113, and 114 via the optical switches 115 and 116, and converted into electrical signals.

符号IR1は、照明光源102で生成された中心波長1550nmの赤外光を示す。符号IR2は、外部の赤外通信用の光を示す。ここで、サーキュレータ103と、分波器109と、光スイッチ115と光スイッチ116、受光素子110、111、112、113、114は、光ファイバーで接続された光デバイスである。光ファイバー通信では同様な光デバイスが多用されている。 The symbol IR1 indicates infrared light with a central wavelength of 1550 nm generated by the illumination light source 102. The symbol IR2 indicates light for external infrared communication. Here, the circulator 103, the splitter 109, the optical switches 115 and 116, and the light receiving elements 110, 111, 112, 113, and 114 are optical devices connected by optical fibers. Similar optical devices are often used in optical fiber communication.

図15に示したAI120 が、妨害を回避しながら距離検出の必要な位置(図11の71―74)を判定する。そして、その指示121に従い、照明光105のビームの走査が、その位置(図11の71―74)に重なる時に、光スイッチ115が、受光素子117に接続を切り換える。 The AI 120 shown in FIG. 15 determines the position (71-74 in FIG. 11) where distance detection is required while avoiding interference. Then, according to the instruction 121, when the scanning of the illumination light 105 beam overlaps that position (71-74 in FIG. 11), the optical switch 115 switches the connection to the light receiving element 117.

その位置(図11の71―74)以外は、受光素子110に接続し、符号IRIの画像信号を検出する。受光素子117は、InGaAsのPIN型半導体などで構成されていて、電流電圧変換型の増幅器を有し、SN比の高い高速の直接検波が可能である。 The other positions (71-74 in Figure 11) are connected to the light receiving element 110 to detect the image signal with the code IRI. The light receiving element 117 is composed of an InGaAs PIN type semiconductor or the like, has a current-voltage conversion type amplifier, and is capable of high-speed direct detection with a high signal-to-noise ratio.

反射光108のチャープ信号を直接検波して電気信号に変換し、検波したチャープ信号に、混合器(ミキサー)118によって、チャープ信号119Aを参照信号として乗じ、干渉縞信号を検出する。 The chirp signal of the reflected light 108 is directly detected and converted into an electrical signal, and the detected chirp signal is multiplied by the chirp signal 119A as a reference signal by the mixer 118 to detect the interference fringe signal.

この干渉縞信号を、図6に示した処理と同様の処理を施し、物体107までの距離を検出する。そのとき、全画素の距離を検出するようにすれば、距離画像を得ることができる。 This interference fringe signal is processed in the same way as shown in Figure 6 to detect the distance to the object 107. If the distances of all pixels are detected at that time, a distance image can be obtained.

又は、受光素子117と混合器118の代わりに、アバランシェ効果によって単一光子の受光(ガイガーモード)が可能で、かつ、高速の直接スイッチングによってヘテロダイン検波が可能な受光素子、例えば、単一光子アバランシェダイオード(SPAD)などを使用する。ノイズフィギュアの高い受光増幅と同時に、チャープ信号119Aでスイッチングすることでヘテロダイン検波を直接行い、干渉縞信号を検出してもよい。 Alternatively, instead of the light receiving element 117 and the mixer 118, a light receiving element that can receive single photons (Geiger mode) by the avalanche effect and can perform heterodyne detection by high-speed direct switching, such as a single-photon avalanche diode (SPAD), can be used. At the same time as amplifying the received light with a high noise figure, heterodyne detection can be performed directly by switching with the chirp signal 119A to detect the interference fringe signal.

同様に、AI120が、太陽光の強い反射などの妨害光(不図示)を回避しながら光無線通信を受信する位置(図11の符号77、78)を判定する。指示122に従い、位置(図11の符号77、78)に照明光105のビームの走査が重なる時に、光スイッチ116が、不図示の光無線受信機の入力端子に接続される光ファイバーの信号線に切り換える。 Similarly, the AI 120 determines the position (reference numbers 77 and 78 in FIG. 11) where the optical wireless communication is received while avoiding interference light (not shown) such as strong reflections of sunlight. When the scanning of the illumination light 105 beam overlaps with the position (reference numbers 77 and 78 in FIG. 11) according to the instruction 122, the optical switch 116 switches to the signal line of the optical fiber connected to the input terminal of the optical wireless receiver (not shown).

図11の符号77、78は、それぞれ他の車両に設置された光無線送信機の位置を示している。又は、側道に設置された位置情報を提供する光無線送信機であってもよい。その場合、このような送信機が提供する位置情報と、本発明の距離検出装置によって検出した送信機と車両の相対位置から、GPSに代わって、センチ(cm)レベルの精度で現在位置を検出することができ、マップと電子的に照合することが可能になる。 Reference numerals 77 and 78 in FIG. 11 indicate the positions of optical wireless transmitters installed on other vehicles. Alternatively, they may be optical wireless transmitters installed on side roads that provide position information. In this case, the current position can be detected with centimeter-level accuracy instead of GPS from the position information provided by such transmitters and the relative positions of the transmitter and vehicle detected by the distance detection device of the present invention, and can be electronically compared with a map.

位置(図11の符号77、78)以外は、受光素子111に接続し、IR2画素の画像信号を検出する。 Other than the positions (reference numbers 77 and 78 in Figure 11), it is connected to the light receiving element 111 and detects the image signal of the IR2 pixel.

分波されたR、G、Bの光も、カラー画像として受光素子112~114によって電気信号に変換される。そして、IR1、IR2、R、G、Bの信号は、5チャネル/画素の画像としてバッファメモリ119を介してAI120に入力される。 The separated R, G, and B light are also converted into electrical signals as a color image by light receiving elements 112-114. The IR1, IR2, R, G, and B signals are then input to AI 120 via buffer memory 119 as a 5-channel/pixel image.

次のタイミングの物体検出、および、妨害光を回避する位置や、距離検出や光無線通信の受信が必要な位置の判定が行われる。 The next object detection is performed, and the position where interference light is avoided and where distance detection and reception of optical wireless communication are required are determined.

上記したように、図14の第2実施形態の変形例21Bは、ビーム状に絞った照明光105によって物体を2次元に走査することで、単一の受光素子117を使用して距離画像を検出する例である。 As described above, variant example 21B of the second embodiment in FIG. 14 is an example in which a distance image is detected using a single light receiving element 117 by scanning an object two-dimensionally with illumination light 105 narrowed into a beam shape.

更に、新たな第2実施形態の変形例として、図5の第1実施形態の変形例11Aの撮像素子38の画素の受光部に、InGaAsのPIN型半導体やSPADなどの高感度で、高速スイッチングが可能な半導体を使用しても良い。 Furthermore, as a new modified example of the second embodiment, a semiconductor capable of high sensitivity and high-speed switching, such as an InGaAs PIN-type semiconductor or a SPAD, may be used for the light receiving portion of the pixel of the image sensor 38 of modified example 11A of the first embodiment in FIG. 5.

反射光36のチャープ信号を、高感度に受光しつつ、図5に示したチャープ変調の参照信号32によってスイッチングすることで、受光画素ごとにヘテロダイン検波を直接行って干渉縞信号を検出し、距離画像を得るようにしてもよい。そのとき、図5の照明光源33に高コヒーレンス光源を使用することができ、図5の参照光源39と合波器41が不要になる。 By receiving the chirp signal of the reflected light 36 with high sensitivity and switching it with the chirp-modulated reference signal 32 shown in FIG. 5, heterodyne detection can be performed directly for each light-receiving pixel to detect the interference fringe signal and obtain a distance image. In this case, a high-coherence light source can be used for the illumination light source 33 in FIG. 5, and the reference light source 39 and multiplexer 41 in FIG. 5 are no longer necessary.

図6と図15に示したAI51やAI120について述べる。物体検出を行うAI51やAI120は、畳み込みニューラルネットワーク、CNN(convolutional neural network)が使用される。CNNは、画像認識のようなパターン認識が得意で、パターン認識をベースとする物体検出に適する。CNNの学習は、主に教師あり学習(supervised learning)によって行われる。 We will now describe AI51 and AI120 shown in Figures 6 and 15. AI51 and AI120, which perform object detection, use a convolutional neural network (CNN). CNN excels at pattern recognition such as image recognition, and is suitable for object detection based on pattern recognition. CNN learning is mainly performed by supervised learning.

判断の場の数が少ない特定領域では、学習データを収集し易く、学習量の差から、コンペティションでAIが人間に優るケースが増えている。AIは、判断の場の数の多い一般領域は、到底人間にかなわない。 In specific areas where the number of decision-making situations is small, it is easier to collect learning data, and there are an increasing number of cases where AI outperforms humans in competitions due to the difference in the amount of learning. In general areas where the number of decision-making situations is large, AI cannot possibly compete with humans.

AIが、特徴空間を仕切って判定を行う際に、学習に使用された画像の特徴ベクトル間の距離が均一でなく偏っていると、過学習や未学習が生じ、判定精度が落ちる。このため、学習データをセットアップするノウハウは重要である。 When AI divides up the feature space to make judgments, if the distances between the feature vectors of the images used for training are not uniform but biased, over-learning or under-learning will occur, resulting in reduced judgment accuracy. For this reason, know-how for setting up training data is important.

無作為に(ランダムに)データ量を増やせば、偏りが確率的に緩和され、学習データ量の対数値に比例して物体検出精度を上げることができる。しかし、膨大なデータ量をセットアップする必要が出てくる。学習データのセットアップを、特徴空間に基づいて効率化する提案が幾つかなされているが、現時点で決定打はない。 By randomly increasing the amount of data, bias can be mitigated probabilistically, and object detection accuracy can be improved in proportion to the logarithm of the amount of training data. However, this requires setting up a huge amount of data. Several proposals have been made to make the setup of training data more efficient based on feature space, but there is currently no conclusive solution.

AIが、疲れと忘却を知らず、膨大な学習量を昼夜問わずに電気のスピードでこなしてしまうのと、また、その学習量の差から人間に優るケースが増えている現状もあり、世の中の指向は、膨大な学習データをセットアップできるインフラ獲得のほうに向いている。 AI never tires or forgets, and can complete huge amounts of learning at the speed of light, day or night. In addition, there are an increasing number of cases where AI outperforms humans in terms of the amount of learning it can do. As a result, the world is now moving toward acquiring infrastructure that can set up huge amounts of learning data.

今後、学習データの収集方法が進化すれば、セットアップの考え方と方法が変わり、特定領域においてAIが人間に優るケースが急増することは間違いない。 As methods for collecting training data evolve in the future, the way we think about and the methods of setup will change, and there will undoubtedly be a sharp increase in cases where AI outperforms humans in certain areas.

CNNの処理回路の基本構成は、入力層、特徴抽出層、判定層、出力層で構成されるフィードフォワード型の処理回路である。 The basic configuration of a CNN processing circuit is a feedforward processing circuit consisting of an input layer, a feature extraction layer, a decision layer, and an output layer.

入力層は、1画素当たりの情報チャネル数を、画素数に乗じた入力端子数を有する。情報チャネル数は、RGB画像の場合、3チャネル/画素で、RGB画像と距離画像と速度画像を併合した画像の場合、5チャネル/画素になる。 The input layer has a number of input terminals equal to the number of information channels per pixel multiplied by the number of pixels. For RGB images, the number of information channels is 3 channels/pixel, and for images that combine RGB images, distance images, and velocity images, the number is 5 channels/pixel.

特徴抽出層は、畳み込み層、活性化関数、プーリング層のセットを多段に積み重ねて構成される。情報チャネル数とタスクが多い場合、特徴抽出層の層数を多くすることで、物体検出精度を確保することができる。 The feature extraction layer is composed of a set of convolutional layers, activation functions, and pooling layers stacked in multiple stages. When there are a large number of information channels and tasks, object detection accuracy can be ensured by increasing the number of feature extraction layers.

畳み込み層は、情報チャネル数を次元とする多次元フィルタであって、学習によって獲得したカーネル(ニューラルネットワークの重み係数)の畳み込み演算を行う。そして、特徴マップ(feature map)を抽出する。 The convolution layer is a multidimensional filter whose dimension is the number of information channels, and performs a convolution operation on the kernels (weighting coefficients of the neural network) acquired through learning. Then, a feature map is extracted.

近傍画素間の相関度が高い浅い層では、主成分分析に近い特徴マップが抽出され、深い層ほど、独立成分分析に近い特徴マップが抽出されるようになる。カーネルサイズは、層数と演算数のバランスから、RGB画像のように3チャネルの場合、3×3×3が多く用いられる。 In shallow layers where the correlation between neighboring pixels is high, feature maps close to principal component analysis are extracted, while deeper layers extract feature maps closer to independent component analysis. In order to strike a balance between the number of layers and the number of calculations, a kernel size of 3x3x3 is often used for three-channel images such as RGB images.

畳み込み層への入力チャネル数をnとすると、カーネルサイズが3となり、学習で獲得したカーネルの種類をmとすると、3の畳み込み演算がm種類行われることになる。次段の畳み込み層の入力チャネル数nは、前段のカーネルの種類の数mである。 If the number of input channels to the convolutional layer is n, the kernel size is 3n , and if the number of kernel types acquired by learning is m, then m types of 3n convolution operations are performed. The number of input channels n of the next convolutional layer is the number of kernel types m of the previous stage.

活性化関数は、m種類の畳み込み演算の出力に、学習で得た重み係数を乗じ、バイアスを加え、非線形な関数変換を行うシンプルな構成である。ファジー論理演算に似た処理が行われることで、次層以降の高次の特徴抽出へ繋げる重要な役割を担っている。活性化関数にはいくつかの種類があり、物体検出では、演算規模とのバランスからrectified linear関数が用いられることが多い。 The activation function has a simple structure in which the output of m types of convolution operations is multiplied by weighting coefficients obtained through learning, a bias is added, and a nonlinear function transformation is performed. By performing processing similar to fuzzy logic operations, it plays an important role in linking to higher-level feature extraction from the next layer onwards. There are several types of activation functions, and for object detection, rectified linear functions are often used to balance the scale of operations.

プーリング層は、畳み込み層の出力(特徴マップ)の一定の範囲、例えば、2×2の範囲を一つに収斂(subsampling)するデータ圧縮に似た処理を行う。収斂は、2×2の範囲の信号の中で、独立成分分析(浅い層では主成分分析に近い)の第一主極となる最大値を選択(max pooling)することで行われる。 The pooling layer performs a process similar to data compression, which subsamples a certain range of the output (feature map) of the convolution layer, for example a 2x2 range, into one. The convergence is performed by selecting the maximum value (max pooling) that is the first principal pole of independent component analysis (similar to principal component analysis in shallow layers) from the 2x2 range of signals.

判定層と出力層はタスクに応じて構成される。カテゴリ分類の判定層は、用途に応じて、全結合層と活性化関数のセットを1~2層重ねて構成される。出力層は、カテゴリが多クラスの場合、クラス数と同じ数の出力端子が用意される。判定層と出力層の間に配置する活性化関数は、判定結果を確率で表すために、ソフトマックス関数が使用される。 The decision layer and output layer are configured according to the task. The decision layer for category classification is configured by stacking one or two fully connected layers and sets of activation functions depending on the application. When there are multiple categories, the output layer is provided with the same number of output terminals as the number of classes. The activation function placed between the decision layer and the output layer uses a softmax function to express the decision result as a probability.

自動運転の物体検出では、物体のカテゴリ分類の判定層と出力層に並列に、物体の大きさと位置を検出(bounding box)や、物体の領域を分類(semantic segmentation)する判定層と出力層が用意される。 In object detection for autonomous driving, in parallel with the decision layer and output layer for object category classification, there are decision layers and output layers for detecting the size and position of objects (bounding boxes) and classifying object regions (semantic segmentation).

入力層と特徴抽出層を、特徴ベクトルを抽出するエンコード機能とすると、判定層と出力層は、特徴ベクトルから目的に応じた出力を生成するデコード機能であって、タスクごとに柔軟に構成されることになる。例えば、物体領域を検出するU―Netの構成では、特徴抽出層の段ごとの出力を、ショートカットで取り出し、アンプ―リング(unpooling)と逆畳み込み演算(deconvolution)を行って、物体領域をデコードする。 If the input layer and feature extraction layer are encoding functions that extract feature vectors, then the decision layer and output layer are decoding functions that generate output according to the purpose from the feature vectors, and are flexibly configured for each task. For example, in the configuration of a U-Net that detects object regions, the output of each stage of the feature extraction layer is extracted using a shortcut, and unpooling and deconvolution are performed to decode the object region.

図6に示したAI51と、図15に示したAI120においても、自動運転に必要な物体検出の判定層と出力層に加えて、距離計測が必要な物体の局所位置や、光無線通信を受信する相手の送信機の位置を判定する判定層と出力層が並列に用意されている。 In AI51 shown in FIG. 6 and AI120 shown in FIG. 15, in addition to the judgment layer and output layer for object detection necessary for autonomous driving, judgment layers and output layers for judging the local position of an object that requires distance measurement and the position of the transmitter of the other party receiving the optical wireless communication are provided in parallel.

そして、RGB画像にIR1画像とIR2画像を併合した5チャンネル/画素の画像を学習データとしてAI51やAI120に学習させておき、本実施形態の距離検出装置で検出した5チャンネル/画素の画像をAI51やAI120に入力することで、AI 51やAI120が、検出が必要なIR1画素やIR2画素を判定し、それらの画素のアドレスを撮像素子38や、図14の光スイッチ115、116に伝えることになる。 Then, the 5-channel/pixel image obtained by merging the IR1 image and the IR2 image with the RGB image is learned by AI51 and AI120 as learning data, and the 5-channel/pixel image detected by the distance detection device of this embodiment is input to AI51 and AI120, whereby AI51 and AI120 determine the IR1 pixels and IR2 pixels that need to be detected and transmit the addresses of those pixels to the image sensor 38 and the optical switches 115 and 116 in FIG. 14.

干渉縞信号の周波数と初期位相、物体までの距離、距離分解能、距離計測精度について述べる。 We will discuss the frequency and initial phase of the interference fringe signal, the distance to the object, the distance resolution, and the distance measurement accuracy.

ここで、
0は、線形チャープ変調の開始周波数、
fwは、初期位相をφ、チャープ変調の帯域幅、
Tは、チャープ時間、
a=fw/Tは、チャープ変調の周波数の変化率、
tは、時間、とすると、チャープ信号の瞬時周波数f(t)は、
f(t)= a t + f0
となる。
Where:
f 0 is the starting frequency of the linear chirp modulation;
fw is the initial phase φ 0 , the bandwidth of the chirp modulation,
T is the chirp time.
a = fw/T is the rate of change of frequency of the chirp modulation.
If t is time, the instantaneous frequency f(t) of the chirp signal is
f(t) = at + f 0
It becomes.

参照光を変調しているチャープ信号の位相をφ(t)、初期位相をφ0とすると、φ(t)は、上式をtについて積分して、
φ(t)=2πf(t) t
=2π(1/2・a t+f0) t+φ0 (4)
となる。
If the phase of the chirp signal modulating the reference light is φ(t) and the initial phase is φ0 , then φ(t) is obtained by integrating the above equation with respect to t as follows:
φ(t)=2πf(t)
=2π(1/2・a t+f 0 ) t+φ 0 (4)
It becomes.

反射光と参照光の光路差に対応する時間遅延をdとすると、反射光のチャープ信号の位相φ(t+d)は、
φ(t+d)=2π[1/2・a (t+d)+f0](t+d)+φ0 (5)
と表せる。
If the time delay corresponding to the optical path difference between the reflected light and the reference light is d, the phase φ(t+d) of the chirp signal of the reflected light is
φ(t+d)=2π[1/2・a (t+d)+f 0 ](t+d)+φ 0 (5)
This can be expressed as:

式(4)と式(5)を、式(3)に代入すると、
I=K Ps PL cos [2π(a・d)t +πa・d2+2πf0・d] (6)
となる。
Substituting equations (4) and (5) into equation (3), we get
I=K Ps PL cos [2π(a・d)t +πa・d 2 +2πf 0・d] (6)
It becomes.

光速をC、物体までの距離をLとすると、L=C・d /2のため、
式(6)から、干渉縞信号の周波数fiは、
fi=a・d =(fw/T) d=2 fw L / C T (7)
となる。
If the speed of light is C and the distance to the object is L, then L = C d/2, so
From equation (6), the frequency fi of the interference fringe signal is given by
fi=a・d=(fw/T) d=2 fw L/CT (7)
It becomes.

干渉縞信号の周波数fiが、物体までの距離L(遅延時間d)とチャープ変調帯域幅fwに比例して高くなり、チャープ時間Tに比例して低くなることが分かる。 It can be seen that the frequency fi of the interference fringe signal increases in proportion to the distance to the object L (delay time d) and the chirp modulation bandwidth fw, and decreases in proportion to the chirp time T.

そして、干渉縞信号の初期位相φ0は、
φ0=πa・d+2πf・d=π/a・fi+2πf/a・fi
となる。
干渉縞の初期位相は、干渉縞の周波数fi(物体の距離)に比例して放物線状に変化する。
And the initial phase φ 0 of the interference fringe signal is
φ 0 =πa・d 2 +2πf 0・d=π/a・fi 2 +2πf 0 /a・fi
It becomes.
The initial phase of the interference fringes varies parabolically in proportion to the frequency fi of the interference fringes (the object distance).

また、物体までの距離Lは、L=C・d/2である。このため、式(7)から、
L=C・d/2=C・fi/2a=C・T fi /2fw (8)
となる。
距離Lは、干渉縞の周波数fi、チャープ変調帯域幅fw、チャープ時間Tを用いて算出できる。
In addition, the distance L to the object is L = C·d/2. Therefore, from equation (7),
L=C・d/2=C・fi/2a=C・T fi/2fw (8)
It becomes.
The distance L can be calculated using the frequency fi of the interference fringes, the chirp modulation bandwidth fw, and the chirp time T.

距離分解能ρは、距離方向に並んだ2つの物体を分解できる能力である。ここで、チャープ信号の包絡線が方形波の場合、干渉縞信号の包絡線も方形波になり、そのような干渉縞信号を周波数成分に変換すると、その包絡線の波形はsinc関数になる。 The distance resolution ρ is the ability to resolve two objects lined up in the distance direction. If the envelope of the chirp signal is a square wave, the envelope of the interference fringe signal will also be a square wave, and when such an interference fringe signal is converted into frequency components, the waveform of the envelope will be a sinc function.

そして、sinc関数の半値全幅1/Tが、周波数軸上におけるスペクトル分解能になる。スペクトル分解能1/Tは、距離分解能ρに相当する距離を光が往復したときのfiの変化になる。 The full width at half maximum of the sinc function, 1/T, is the spectral resolution on the frequency axis. The spectral resolution, 1/T, is the change in fi when light travels a distance equivalent to the distance resolution ρ.

このため、(7)式のfiとLを、1/Tとρに置き換えて整理すると、距離分解能ρは、
ρ=C/ 2fw (9)
となる。
Therefore, by replacing fi and L in equation (7) with 1/T and ρ, the distance resolution ρ is given by
ρ=C/2fw (9)
It becomes.

その包絡線の波形は、半値全幅1/Tが1/2fwのsinc関数になる。これから、距離分解能ρが、チャープ変調の帯域幅fwによって一義的に決まることが分かる。 The waveform of the envelope is a sinc function with a full width at half maximum of 1/T being 1/2fw. This shows that the distance resolution ρ is uniquely determined by the bandwidth fw of the chirp modulation.

距離検出精度は、物体までの距離Lを検出する際の精度で、距離分解能の波形のピークの位置が雑音によって揺らぐ幅になる。ゆえに、距離検出精度は、距離分解能とSN比の両方に比例して高くなる。 Distance detection accuracy is the accuracy when detecting the distance L to an object, and is the width by which the position of the peak of the distance resolution waveform fluctuates due to noise. Therefore, distance detection accuracy increases in proportion to both the distance resolution and the S/N ratio.

また、距離検出精度は、SN比が高いほど、距離分解能より十分小さい値になる。前述したように、相関器48によって参照信号47と相関演算を行い、ピーク値を検出すると、距離分解能の波形(sinc関数)がメキシカンハット関数に近くなる。 The higher the signal-to-noise ratio, the smaller the distance detection accuracy becomes. As mentioned above, when the correlator 48 performs a correlation calculation with the reference signal 47 and detects the peak value, the waveform of the distance resolution (sinc function) becomes close to a Mexican hat function.

例えば、SN比が40dBある場合、距離検出精度の値は、距離分解能の1/40~1/50ほどになる。チャープ時間Tを長くすると干渉縞信号のスペクトル幅1/Tが狭くなり、スペクトル幅1/Tとチャープ変調の帯域幅fwの比の平方根に比例してSN比が上がる。 For example, if the S/N ratio is 40 dB, the distance detection accuracy is about 1/40 to 1/50 of the distance resolution. Increasing the chirp time T narrows the spectral width 1/T of the interference fringe signal, and the S/N ratio increases in proportion to the square root of the ratio of the spectral width 1/T to the chirp modulation bandwidth fw.

チャープ変調の帯域幅fwを広くすると、距離分解能ρが上がるため、距離検出精度は、チャープ時間Tとチャープ変調の帯域幅fwの両方に比例して上がることになる。感度と距離検出精度において、チャープ変調方式が他の方式に優る理由はこれにある。 Increasing the chirp modulation bandwidth fw increases the distance resolution ρ, and so the distance detection accuracy increases in proportion to both the chirp time T and the chirp modulation bandwidth fw. This is why the chirp modulation method is superior to other methods in terms of sensitivity and distance detection accuracy.

以上のように、本発明は、物体までの距離に関わらず高い距離検出精度と方位分解能を有し、距離検出装置間の妨害や外乱に強く、小型、低価格で、撮像装置と一体化される距離検出装置に適している。 As described above, the present invention has high distance detection accuracy and azimuth resolution regardless of the distance to the object, is resistant to interference and disturbance between distance detection devices, is small and low-cost, and is suitable for distance detection devices that are integrated with an imaging device.

10A、20A 距離検出装置; 10 照明光; 11 物体; 12 反射光; 13 光学系; 14 受光素子; 15 参照光; 16 合波器; 17 キャリア光; 18 干渉縞信号; 19、20 コヒーレンス低減機構; 21 振幅変調器; 22 キャリア光; 23 変調器; 24 チャープ変調信号; 25 物体; 26 反射光; 27 光学系; 28 受光素子; 29 混合器; 30 干渉縞信号; 31 シンセサイザー発振器; 32 線形チャープ変調信号; 33 照明光源; 34 照明光; 35 物体; 36 反射光; 37 撮像光学系; 38 撮像素子; 39 参照光源; 40 参照光 41 合波器; 42 光学系; 43 干渉縞信号; 44 周波数変換器; 45 周波数成分; 46 参照信号生成部; 47 参照信号(基準信号); 48 相関器; 49 距離変換部; 51 AI; 52 参照符号; 53 基本波; 54 第1高調波; 70A、70B 物体(自動車); 71、72、73、74 局所部分; 75、76 妨害光; 101 シンセサイザー発振器; 102 照明光源; 103 サーキュレータ; 104 光学系 105 照明光 106 2次元走査機構; 107 物体; 108 反射光; 109 分波器; 110~114、117 受光素子; 115、116 光スイッチ; 118 ミキサー(混合器); 119 バッファメモリ; 119A 線形チャープ信号
10A, 20A Distance detection device; 10 Illumination light; 11 Object; 12 Reflected light; 13 Optical system; 14 Light receiving element; 15 Reference light; 16 Wave combiner; 17 Carrier light; 18 Interference fringe signal; 19, 20 Coherence reduction mechanism; 21 Amplitude modulator; 22 Carrier light; 23 Modulator; 24 Chirp modulation signal; 25 Object; 26 Reflected light; 27 Optical system; 28 Light receiving element; 29 Mixer; 30 Interference fringe signal; 31 Synthesizer oscillator; 32 Linear chirp modulation signal; 33 Illumination light source; 34 Illumination light; 35 Object; 36 Reflected light; 37 Imaging optical system; 38 Imaging element; 39 Reference light source; 40 Reference light 41 Wave combiner; Reference Signs List 42 Optical system; 43 Interference fringe signal; 44 Frequency converter; 45 Frequency component; 46 Reference signal generator; 47 Reference signal (reference signal); 48 Correlator; 49 Distance converter; 51 AI; 52 Reference symbol; 53 Fundamental wave; 54 First harmonic wave; 70A, 70B Object (automobile); 71, 72, 73, 74 Local part; 75, 76 Interference light; 101 Synthesizer oscillator; 102 Illumination light source; 103 Circulator; 104 Optical system 105 Illumination light 106 Two-dimensional scanning mechanism; 107 Object; 108 Reflected light; 109 Splitter; 110 to 114, 117 Light receiving element; 115, 116 Optical switch; 118 Mixer; 119 Buffer memory; 119A Linear chirp signal

Claims (6)

キャリア光の振幅をチャープ信号により変調し、距離を検出する物体を照明する照明光を生成する光源と、
別のキャリア光の振幅を前記照明光と同一のチャープ信号により変調し、参照光を生成する光源と、
前記キャリア光の両方、又は一方の時間コヒーレンスと空間コヒーレンスを低減させるコヒーレンス低減機構と、
前記物体からの反射光を受光するための受光面を有する受光素子と、
前記受光素子に前記反射光を結像する結像光学系と、
前記反射光と前記参照光を合波する合波器と、を有し、
前記コヒーレンス低減機構は、前記キャリア光間のヘテロダインにより生じる干渉雑音の空間周波数成分を所定の帯域幅に広げ、前記受光素子が、合波された前記反射光と前記参照光を受光する受光時間の時間平均と前記受光面の面積分により前記干渉雑音の電力を低減し、前記照明光及び前記参照光のキャリア光のへテロダイン振幅を前記キャリア光間の全電力値の積の一定値に近づけることにより、前記反射光と前記参照光のチャープ信号間のヘテロダインで生じた干渉縞信号を所定のSN比を以って検出できることを特徴とする距離検出装置。
a light source that generates illumination light for illuminating an object whose distance is to be detected by modulating the amplitude of carrier light with a chirp signal;
a light source that generates a reference light by modulating the amplitude of another carrier light with the same chirp signal as the illumination light;
a coherence reduction mechanism for reducing temporal coherence and spatial coherence of both or one of the carrier lights;
a light receiving element having a light receiving surface for receiving reflected light from the object;
an imaging optical system that forms an image of the reflected light on the light receiving element;
a combiner that combines the reflected light and the reference light,
The coherence reduction mechanism expands the spatial frequency components of the interference noise generated by heterodyning between the carrier lights to a predetermined bandwidth, reduces the power of the interference noise by the time average of the receiving time when the photodetector receives the combined reflected light and reference light and the area integral of the light receiving surface, and brings the heterodyne amplitude of the carrier lights of the illumination light and the reference light closer to a constant value of the product of the total power values between the carrier lights, thereby enabling the interference fringe signal generated by the heterodyne between the chirp signals of the reflected light and the reference light to be detected with a predetermined signal-to-noise ratio.
前記干渉縞信号を検出するのと同時に、前記キャリア光と同一波長の外界光の画像と、外界光のカラー画像と、を検出する2次元検出機構を有し、
前記キャリア光の波長は、前記カラー画像の波長と異なり、
前記2次元検出機構は、
前記キャリア光の波長を選択透過する波長フィルタが付加された前記受光素子を構成する第1の受光素子と、前記カラー画像の原色フィルタが付加された第2の受光素子と、を有し、前記第1及び第2の受光素子は、前記結像光学系の結像面にモザイク状に2次元配列され、又は、
ダイクロイックミラーの多板プリズムにより、前記キャリア光を選択透過できる結像面に、前記干渉縞信号を検出する2次元に配列される前記受光素子を構成する第3の受光素子と、その他の結像面に、カラー画像を検出する2次元に配列される第4の受光素子と、を有し、
前記2次元検出機構は、前記第1及び第2の受光素子から前記波長フィルタ及び前記原色フィルタを透過した出力ごとに分離し、又は前記第3及び第4の受光素子からの出力ごとに分離することを特徴とする請求項1に記載の距離検出装置。
a two-dimensional detection mechanism for detecting an image of external light having the same wavelength as the carrier light and a color image of the external light at the same time as detecting the interference fringe signal;
the wavelength of the carrier light is different from the wavelength of the color image;
The two-dimensional detection mechanism includes:
a first light receiving element constituting the light receiving element to which a wavelength filter that selectively transmits the wavelength of the carrier light is added, and a second light receiving element to which a primary color filter of the color image is added, the first and second light receiving elements being two-dimensionally arranged in a mosaic pattern on an imaging plane of the imaging optical system, or
a third light receiving element constituting the light receiving element arranged two-dimensionally to detect the interference fringe signal, on an imaging plane that can selectively transmit the carrier light by a multi-plate prism of a dichroic mirror; and a fourth light receiving element arranged two-dimensionally to detect a color image, on another imaging plane;
The distance detection device according to claim 1, characterized in that the two-dimensional detection mechanism separates the outputs from the first and second light receiving elements that have passed through the wavelength filter and the primary color filter, or separates the outputs from the third and fourth light receiving elements.
キャリア光の振幅をチャープ信号により変調し、距離を検出する物体を照明する照明光を生成する光源と、
前記物体からの反射光を受光し、前記照明光と同一のチャープ信号により光電変換の動作をスイッチングすることで、混合器の機能を兼ね備え、前記チャープ信号のヘテロダインで生じる周波数の低い干渉縞信号に変換する受光素子と、
前記受光素子に前記反射光を結像する結像光学系と、
前記干渉縞信号を検出するのと同時に、前記キャリア光と同一波長の外界光の画像と、外界光のカラー画像と、を検出する2次元検出機構と、を有し、
前記キャリア光の波長は、前記カラー画像の波長と異なり、
前記2次元検出機構は、
前記キャリア光の波長を選択透過する波長フィルタが付加された前記受光素子を構成する第1の受光素子と、前記カラー画像の原色フィルタが付加された第2の受光素子と、を有し、前記第1及び第2の受光素子が前記結像光学系の結像面にモザイク状に2次元配列され、又は、
ダイクロイックミラーの多板プリズムにより、前記キャリア光を選択透過できる結像面に、前記干渉縞信号を検出する2次元に配列される前記受光素子を構成する第3の受光素子と、その他の結像面に、カラー画像を検出する2次元に配列される第4の受光素子と、を有し、
前記2次元検出機構は、前記第1及び第2の受光素子から前記波長フィルタ及び前記原色フィルタを透過した出力ごとに分離し、又は前記第3及び第4の受光素子からの出力ごとに分離することを特徴とする距離検出装置。
a light source that generates illumination light for illuminating an object whose distance is to be detected by modulating the amplitude of carrier light with a chirp signal;
a light receiving element that receives the reflected light from the object and switches the photoelectric conversion operation by the same chirp signal as the illumination light, thereby also functioning as a mixer and converting the reflected light into a low-frequency interference fringe signal generated by heterodyning the chirp signal;
an imaging optical system that forms an image of the reflected light on the light receiving element;
a two-dimensional detection mechanism for detecting an image of external light having the same wavelength as the carrier light and a color image of the external light at the same time as detecting the interference fringe signal;
the wavelength of the carrier light is different from the wavelength of the color image;
The two-dimensional detection mechanism includes:
a first light receiving element constituting the light receiving element to which a wavelength filter that selectively transmits the wavelength of the carrier light is added, and a second light receiving element to which a primary color filter of the color image is added, the first and second light receiving elements being two-dimensionally arranged in a mosaic pattern on an imaging plane of the imaging optical system, or
a third light receiving element constituting the light receiving element arranged two-dimensionally to detect the interference fringe signal, on an imaging plane that can selectively transmit the carrier light by a multi-plate prism of a dichroic mirror, and a fourth light receiving element arranged two-dimensionally to detect a color image, on another imaging plane;
A distance detection device characterized in that the two-dimensional detection mechanism separates the outputs from the first and second light receiving elements that have passed through the wavelength filter and the primary color filter, or separates the outputs from the third and fourth light receiving elements.
前記2次元検出機構で検出された前記キャリア光と同一波長の外界光の画像と、前記外界光のカラー画像から、前記物体の距離の検出を妨害する妨害光の前記画像上の位置と、前記物体の局所位置を判定する第1の判定機構と、を有し、
前記妨害光の位置を回避して前記物体の局所位置の距離を検出することを特徴とする請求項2又は3に記載の距離検出装置。
a first determination mechanism that determines, from an image of external light having the same wavelength as the carrier light detected by the two-dimensional detection mechanism and a color image of the external light, a position on the image of interference light that interferes with detection of the distance to the object, and a local position of the object;
4. The distance detection device according to claim 2, wherein the distance to the local position of the object is detected while avoiding the position of the interfering light.
前記2次元検出機構は、前記キャリア光の波長と異なる波長を有する光無線通信の光を検出し2次元に配列される第5の受光素子を有し、前記2次元検出機構は、前記第5の受光素子により、前記光無線通信の光を受信するのと同時に、前記光無線通信の光と同一波長の外界光の画像を検出することを特徴とする請求項4に記載の距離検出装置。 The distance detection device according to claim 4, characterized in that the two-dimensional detection mechanism has a fifth light receiving element that detects light in the optical wireless communication having a wavelength different from the wavelength of the carrier light and is arranged two-dimensionally, and the two-dimensional detection mechanism detects an image of external light having the same wavelength as the light in the optical wireless communication at the same time as receiving the light in the optical wireless communication by the fifth light receiving element. 請求項5に記載の距離検出装置であって、
前記2次元検出機構により検出された外界光のカラー画像と、光無線通信の光と同一波長の外界光の画像から、前記光無線通信の受信を妨害する妨害光の画像上の位置と、受信が必要な光無線通信の送信機の位置を判定する第2の判定機構を有し、前記2次元検出機構は前記妨害光の位置を回避して前記光無線通信の光を受信し、前記第2の判定機構は、
前記送信機の位置情報を前記光無線通信によって取得し、
前記第2の判定機構により検出された前記送信機と前記距離検出装置の相対的な位置情報と、前記物体と前記距離検出装置の相対的な位置情報から、前記物体と前記距離検出装置の現在の位置を算出することを特徴とする距離検出装置。


A distance detection device according to claim 5,
The present invention further includes a second determination mechanism that determines, from a color image of the outside light detected by the two-dimensional detection mechanism and an image of the outside light having the same wavelength as the light of the optical wireless communication, a position on the image of interference light that interferes with reception of the optical wireless communication and a position of a transmitter of the optical wireless communication that needs to be received, and the two-dimensional detection mechanism receives the light of the optical wireless communication while avoiding the position of the interference light, and the second determination mechanism:
acquiring location information of the transmitter through the optical wireless communication;
A distance detection device characterized by calculating the current positions of the object and the distance detection device from relative position information of the transmitter and the distance detection device detected by the second determination mechanism and relative position information of the object and the distance detection device.


JP2024011348A 2024-01-29 2024-01-29 Distance Detection Device Active JP7557753B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2024011348A JP7557753B1 (en) 2024-01-29 2024-01-29 Distance Detection Device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2024011348A JP7557753B1 (en) 2024-01-29 2024-01-29 Distance Detection Device

Publications (1)

Publication Number Publication Date
JP7557753B1 true JP7557753B1 (en) 2024-09-30

Family

ID=92900311

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2024011348A Active JP7557753B1 (en) 2024-01-29 2024-01-29 Distance Detection Device

Country Status (1)

Country Link
JP (1) JP7557753B1 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003149341A (en) 2001-11-09 2003-05-21 Nikon Geotecs Co Ltd Distance measuring device
JP2011199798A (en) 2010-03-24 2011-10-06 Sony Corp Physical information obtaining apparatus, solid-state imaging apparatus, and physical information obtaining method
WO2017122637A1 (en) 2016-01-12 2017-07-20 京セラ株式会社 Rangefinder and rangefinding method
US20210124050A1 (en) 2019-10-28 2021-04-29 Veoneer Us, Inc. Lidar homodyne transceiver using pulse-position modulation
JP2022035564A (en) 2020-08-21 2022-03-04 国立大学法人東京農工大学 Distance measuring device and distance measuring method
JP2022172920A (en) 2021-05-07 2022-11-17 国立大学法人 東京大学 Measurement device
JP2024030905A (en) 2022-08-25 2024-03-07 株式会社小野測器 Measurement device

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003149341A (en) 2001-11-09 2003-05-21 Nikon Geotecs Co Ltd Distance measuring device
JP2011199798A (en) 2010-03-24 2011-10-06 Sony Corp Physical information obtaining apparatus, solid-state imaging apparatus, and physical information obtaining method
WO2017122637A1 (en) 2016-01-12 2017-07-20 京セラ株式会社 Rangefinder and rangefinding method
US20210124050A1 (en) 2019-10-28 2021-04-29 Veoneer Us, Inc. Lidar homodyne transceiver using pulse-position modulation
JP2022035564A (en) 2020-08-21 2022-03-04 国立大学法人東京農工大学 Distance measuring device and distance measuring method
JP2022172920A (en) 2021-05-07 2022-11-17 国立大学法人 東京大学 Measurement device
JP2024030905A (en) 2022-08-25 2024-03-07 株式会社小野測器 Measurement device

Similar Documents

Publication Publication Date Title
JP6817387B2 (en) LADAR system and method
Bronzi et al. Automotive three-dimensional vision through a single-photon counting SPAD camera
CN104898125B (en) The small-sized LIDAR of low cost for automobile
CN106597468B (en) A kind of dual-mode laser imaging system and imaging method
US20110063437A1 (en) Distance estimating device, distance estimating method, program, integrated circuit, and camera
US20090059201A1 (en) Full-Field Light Detection and Ranging Imaging System
US11579264B2 (en) Optoelectronic sensor, method and vehicle
WO2014136110A1 (en) Free space optical communication system
CN110285788B (en) ToF camera and design method of diffractive optical element
CN108037512B (en) Half active correlation imaging tracking detection system of laser and method
CN114095718B (en) Single pixel imaging system and method
CN106646510A (en) Photon marking based first photon laser imaging system
CN109100743A (en) Active-passive composite laser hologram radar
JP7557753B1 (en) Distance Detection Device
CN110297255A (en) 3D imaging system and 3D imaging method
CN111355535B (en) Multichannel analog-to-digital converter device for a photoelectric sensor, signal modulation method and distance and/or speed sensor
WO2022008989A1 (en) Multi-domain optical sensor
WO2019178136A1 (en) Spectral-temporal lidar
US10587347B1 (en) Heterodyne starring array active imager
US11099523B1 (en) Digital holography range Doppler receiver
WO2022112360A9 (en) Imaging system
Holmes Applications of lasers to imaging of distant objects
CN116577803B (en) Single photon-level vibration and three-dimensional imaging composite system
US11460551B2 (en) Virtual array method for 3D robotic vision
CN216625742U (en) Optical imaging and laser communication integrated system

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240203

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240203

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20240203

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240321

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240422

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240420

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240528

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240626

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240806

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240807

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240903

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240903

R150 Certificate of patent or registration of utility model

Ref document number: 7557753

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150