JP7135081B2 - 装置および方法 - Google Patents

装置および方法 Download PDF

Info

Publication number
JP7135081B2
JP7135081B2 JP2020518077A JP2020518077A JP7135081B2 JP 7135081 B2 JP7135081 B2 JP 7135081B2 JP 2020518077 A JP2020518077 A JP 2020518077A JP 2020518077 A JP2020518077 A JP 2020518077A JP 7135081 B2 JP7135081 B2 JP 7135081B2
Authority
JP
Japan
Prior art keywords
light
detector
position information
time
planar
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020518077A
Other languages
English (en)
Other versions
JP2021501877A (ja
Inventor
マルテン クーイック
ニューベンホーブ ダニエル ヴァン
デル テンペル ヴァルト ヴァン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Semiconductor Solutions Corp
Original Assignee
Sony Semiconductor Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Semiconductor Solutions Corp filed Critical Sony Semiconductor Solutions Corp
Publication of JP2021501877A publication Critical patent/JP2021501877A/ja
Application granted granted Critical
Publication of JP7135081B2 publication Critical patent/JP7135081B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/46Indirect determination of position data
    • G01S17/48Active triangulation systems, i.e. using the transmission and reflection of electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)

Description

本開示は概して、物体の位置情報を決定する分野における装置と方法に関する。
例えば物体に対して発せられたレーザ光を用い、反射光をカメラで撮像することに基づいて物体の距離を検出するための検出源を有する装置が一般的に知られている。
さらに、検出源またはレーザ装置と物体の間の距離を推定するためには、検出源とレーザ装置の距離およびそれらの傾斜角が測定の間は固定され、一定でなければならないことが知られている。
しかし、例えば周囲の温度によって検出源とレーザ装置の距離が変化し得ることが認められている。これにより、検出源とレーザ装置との間で構成要素の長さが変化し、例えば推定距離や推定角度等の測定精度が低下し得る。
さらに、頑丈な金属等の板上に検出源とレーザ装置が隣り合って設置されているデバイスでは、それらの距離が固定されていたとしても、レーザ装置によって発せられた光の反射が検出源の視野に入らない可能性がある(例えば、物体までの距離が短すぎるため)。
物体を検出し、その位置情報を推定する技術は既に存在はするが、物体を検出し、その位置情報を決定する装置や方法を改良することが一般的に求められている。
本開示の第1の態様によれば、物体に照射するための面状光を発するように構成された発光部と、上記物体により反射された光のタイムオブフライト検出に基づいて上記物体の第1の位置情報を推定し、上記物体の第2の位置情報を決定するために上記物体により反射された光を検出するように構成された検出源とを含む装置であって、上記物体の第2の位置情報は三角測量に基づいて決定され、上記三角測量は推定された上記第1の位置情報に基づく装置が提供される。
本開示の第2の態様によれば、物体に照射するための面状光を発し、上記物体の第1の位置情報を推定し、上記物体の第2の位置情報を決定するために上記物体により反射された光を検出することを含む方法であって、上記物体の第2の位置情報は三角測量に基づいて決定され、上記三角測量は推定された上記第1の位置情報に基づく方法が提供される。
以上のように、本開示によれば、物体を検出し、その位置情報を決定する装置や方法を改良することができる。
さらに他の側面に関しては、請求項、図面、並びに以下の説明から明らかにされる。
図1(a)および図1(b)は装置の一実施形態を概略的に示す。 図2は規則的な表面を有する物体を検出し、その位置情報を決定する装置の一実施形態を概略的に示す。 図3は不規則的な表面を有する物体を検出し、その位置情報を決定する装置の一実施形態を概略的に示す。 図4は車両に搭載された装置の第1の実施形態を概略的に示す。 図5は車両に搭載された装置の第2の実施形態を概略的に示す。 図6は車両に搭載された装置の第3の実施形態を概略的に示す。 図7は物体を検出し、その位置情報を決定する回路を有する装置の一実施形態を概略的に示す。 図8は物体を検出し、その位置情報を決定する方法の一実施形態のフローチャートである。 図9は物体を検出し、その3D形状を決定する方法の一実施形態のフローチャートである。
以下に添付図面を参照しながら、実施形態について説明する。
図1を参照して実施形態についての詳細な説明を行う前に、一般的な説明を行う。
冒頭で述べたように、例えば物体に対してレーザ光を発し、物体によって反射された光に基づいて物体からの画像を撮像し、照射光の往復時間(ラウンドトリップタイム)に基づいて物体とカメラ等の距離を推定することによって物体を「検出」し、その位置情報(例えば距離)を推定することが一般的に知られている。物体自体が検出されるわけではないが、物体を検出するということは、広い意味では反射光に基づいて物体を視認することだと理解される。このため、物体は例えば反射光を受光することによってのみ検出することができ、物体の他の特徴は識別されない。
さらに、コンベアベルトスキャナ等の既存のデバイスにおいては、例えばカメラ等の受光センサとレーザ装置等の発光素子との距離を固定するために、例えばカメラとレーザ装置を変形可能な頑丈な板上に設置することによってカメラとレーザ装置の位置を厳密に固定する必要がある。
冒頭で述べたように、既存の技術は例えば物体までの距離、角度等の物体の基本的な位置情報を提供することに限定されており、例えば物体の三次元(3D)形状等を常に十分な精度をもって決定することはできない。
また、物体の位置情報が推定された場合であっても、例えば環境光、物体の形状、物体の移動等の影響を考慮する必要がある。
したがって、いくつかの実施形態は、物体に照射するための面状光を発するように構成された発光部と、上記物体により反射された光のタイムオブフライト検出に基づいて上記物体の第1の位置情報を推定し、上記物体の第2の位置情報を決定するために上記物体により反射された光を検出するように構成された検出源とを含む装置であって、上記物体の第2の位置情報は三角測量に基づいて決定され、上記三角測量は推定された上記第1の位置情報に基づく装置に関する。
装置は、1以上の検出源を有していればどのような種類の電子デバイスであってもよい。例えば、装置は車両の運転プロセスにおいて運転手を補助するように構成された先進運転支援システムであってもよい。または、装置はこの先進運転支援システムを含んでいてもよい。また、この装置はヒューマンマシンインターフェース等を含むように設計され得る。
装置は、インテリジェントパーキングアシストシステム、オートパイロットシステム、ドライバーモニタリングシステム、車両通信システム、撮像システム、検知機器、空港検査施設や小包検査施設等の検査機器、コンピュータ、ロボット等であってもよい。または、装置はこれらを含んでいてもよい。
いくつかの実施形態においては、この装置は自動車、バイク、トラック、バス等の車両等の他のデバイスに搭載されていてもよい。
この装置は発光部を含む。発光部は発光ダイオード(LED)、レーザ光源、キセノンランプ等の高輝度放電(HID)ランプに基づいていてもよい。なお、本開示はこれらに限定されない。
いくつかの実施形態においては、発光部は例えばレーザ素子、発光ダイオード等の少なくとも1つの(または1以上の)発光素子を含んでいてもよい。また、発光部は、さらに物体を照射するための面状光を発するように構成されていてもよい。面状光は、1つの光線に基づいていてもよい。光線は(適時)一平面上に分布し、これにより面状光を生成する。面状光は、一平面上に平行に発せられる複数の光線に基づいて生成されてもよい。また、これらの技術を組み合わせて用いてもよい。面状光の生成方法は特に限定されない。
いくつかの実施形態においては、発光部はレーザ素子(例えば複数の垂直共振器面発光レーザ)やLED素子等の発光素子アレイを含む。発光部は同一平面上に複数の平行な光線を生成し得る。そして複数の発光素子間の距離を制御することによって、これらの光線は互いに「連携」し合うことができる。そして、物体を照射するための面状光が発せられ得る。さらに、物体は光を反射し得る。そして、物体によって反射された光が検出され、その位置情報が決定され得る。
検出源は1以上の検出器を含み得る。また、検出源はさらに物体によって反射された光を検出し、その位置情報等を推定するように構成され得る。
このため、いくつかの実施形態においては、検出源は例えば第1の検出器と第2の検出器を含み得る。さらに、第1の検出器と第2の検出器は1つのハウジング内に収容され得る。また、例えば第1の検出器と第2の検出器を組み合わせることによって1つの検出源等を構成し得る。例えば、第1の検出器はタイムオブフライトセンサに基づき、第2の検出器はCMOS(complementary metal-oxide-semiconductor)イメージセンサに基づき得る。また、タイムオブフライトセンサは共通のシリコン基板上に配置されたCMOSイメージセンサと組み合わせることができる。これにより、第1の検出器と第2の検出器が組み合わせられ、例えば1つのハウジング内に収容され得る。
いくつかの実施形態においては、検出源はCMOS(complementary metal-oxide- semiconductor)センサに基づき得る。また、CMOSセンサは、例えば画素構造等を最適化することによって集光効率を向上するように構成されていてもよく、高速距離測定処理を行うことができる。
いくつかの実施形態においては、CMOSイメージセンサとタイムオブフライト(TOF)センサは同一のCMOSセンサに基づいていてもよく、これらは互いに組み合わせられている。このため、いくつかの実施形態においては、イメージセンサとタイムオブフライト(TOF)センサは共通のCMOSイメージセンサを共有する。
本開示は上記のCMOSイメージセンサの詳細な例に限定されない。他の実施形態において、検出源は画像検出器やイメージエレメントを含んでいてもよい。これらは第2の位置情報を決定するための反射光の検出やタイムオブフライト測定のために共有される。
いくつかの実施形態においては、検出源は共通の基板に組み付けられた複数の検出器を含み得る。また、例えば複数の検出器は、タイムオブフライトセンサに基づき得る第1の検出器と(他の種類の)イメージセンサに基づき得る第2の検出器を含み得る。また、TOFセンサとイメージセンサの両者は例えば同時に同じシーンの画像の撮像を行うように構成され得る。
いくつかの実施形態においては、例えばCMOSセンサに基づき得る検出源は、例えば光信号を用いずに画像を減算することによって、さらにTOF信号を抽出するように構成され得る。例えば、いくつかの実施形態においては、三次元(3D)TOFセンサはCAPD(Current Assisted Photonic Demodulator)画素に基づき得る。この三次元(3D)TOFセンサはさらに画像を減算するように構成され得る。つまり、シーンの画像間の差異を計測するように構成され得る。このとき、光の照射を行っても行わなくてもよい。
いくつかの実施形態においては、ハイダイナミックレンジ(HDR)CMOSセンサが用いられ得る。さらに、HDRCMOSセンサは2つの異なる写真の撮像を行い、それらをそれぞれ読み出し、メモリ内でそれらの減算を行い得る。例えば、3DTOFセンサは各画素において2つの蓄積ノードを含み得る。蓄積ノードのうちの1つは光が照射された画像に対して用いられ、もう1つの蓄積ノードは光が照射されない画像に対して用いられる。さらに、3DTOFセンサは各画素を読み出し、減算を行い、例えば即時にその差を読み出すように構成され得る。
以下では「第1の検出器」および「第2の検出器」の用語が用いられる。これらはタイムオブフライトセンサに基づく第1の検出方法と、イメージセンサに基づく第2の検出方法に関する。しかし、本開示はこれに限定されない。例えば、検出源は特定の数に限定されない。また、検出器は特定の数に限定されない。また、検出源と検出器の位置関係も限定されない。例えば、検出源と検出器は1つの基板上でどのように組み合わせられてもよい。1つのハウジング内に収容されても良いし、同一のCMOSセンサに基づいてもよいし、それ以外であってもよい。
さらに、以下では「第1の検出器」および「第2の検出器」について言及するが、以下の説明は検出源が例えばCMOSセンサ等の1つの検出器のみを有する実施形態に適用されてもよい。このような実施形態において、検出源はそれぞれ第1の検出器および第2の検出器として用いられたり、それらの機能を有していたりする。
いくつかの実施形態においては、第1の検出器と第2の検出器の間には所定の距離が存在し得るが、本発明はこれに限定されない。
上記のように、いくつかの実施形態においては、装置は検出源を含む。この検出源は、物体によって反射された光のタイムオブフライト検出に基づいて物体の第1の位置情報を推定するように構成され得る。例えば、検出源はタイムオブフライト(TOF)センサを含み得る(TOFセンサは第1の検出器であり得る)。タイムオブフライトセンサは連続波タイムオブフライト(CWTOF)、ダイレクトタイムオブフライト撮像装置、RF変調光源、距離ゲートイメージャセンサ等に基づき得るが、本開示はこれに限定されない。タイムオブフライトセンサはレンジイメージングカメラを含み得る。一般的に知られているように、レンジイメージングカメラは電荷結合素子(CCD)技術、CMOS(complementary metal-oxide-semiconductor)技術等に基づき得る。タイムオブフライトセンサは画素アレイを含み得る。各画素は、1以上の光検出素子を含む。
また、検出源(そのタイムオブフライトセンサ)は、物体によって反射された光のタイムオブフライト検出に基づいて物体の第1の位置情報を推定し得る。
例えば、タイムオブフライトセンサは、光が発光部から物体まで伝達するのにかかる時間およびその光のタイムオブフライトセンサへの反射、または物体の第1の位置情報を示す往復遅延を測定し得る。
いくつかの実施形態においては、タイムオブフライトイメージセンサは位置情報(例えば距離)をすべてのピクセルについて検出し、さらに3Dタイムオブフライト測定を行い、物体の深度マップ等を決定し得る。
いくつかの実施形態においては、装置はさらに第2の検出器(または第2の検出器としての検出源機能)を含む。また、装置、その回路、および/または検出源(または第2の検出器)は物体の第2の位置情報をさらに決定し得る。この物体の第2の位置情報は三角測量に基づいて決定され、三角測量は推定された第1の位置情報に基づく。さらに、例えば、一般的に当業者に知られているように、三角測量演算は装置の回路において実行されるプログラムによって行われ得る。
上述のように、物体の第2の位置情報は三角測量演算を用いて決定され得る。例えば、検出源(または第2の検出器)に含まれ得る発光部は光線を発し、物体を照射する。物体によって反射された光は、イメージセンサを含む検出源(例えば第2の検出器または共有イメージセンサ等)によって検出される。また、検出源(例えば第2の検出器)は発光部に対してずらして配置され、物体によって反射された光が検出され得る。
また、発光部、検出源(または例えば第2の検出器)、および物体の照射部分は三角形を形成する。三角測量演算を用いることによって、物体の第2の位置情報(すなわち、物体の照射部分または光を反射した部分に相当する)を決定し得る。
三角測量演算は、当業者に一般的に知られているものが用いられる。例えば、三角形(例えば、発光部に相当する角度と検出源に相当する角度が固定されている実施形態において)における発光部に相当する角度と検出源(例えば第2の検出器)に相当する角度とを認識することにより、物体に相当する第3の角度や物体までの距離等の物体の位置情報を推定し得る。
いくつかの実施形態においては、検出源(タイムオブフライトセンサ等)によって推定された第1の位置情報(例えば距離)を使用し得る。三角測量演算は、推定された第1の位置情報(例えば、第1の距離、角度等)に基づき得る。また、物体の第2の位置情報(例えば距離、角度等)も三角測量演算に基づいて決定され得る。なお、第1/第2の位置情報は、例えば全地球測位情報や地球ベースの座標といった絶対位置情報に限定されず、例えば装置と物体の間等、どのような種類の相対位置情報であってもよい。この位置情報は、一次元、二次元、三次元等の情報を含んでいてもよい。
例えば、装置の検出源(例えば第1の検出器として機能する検出源または第1の検出器)は物体の第1の位置情報を推定する。第1の位置情報は物体によって反射された光のタイムオブフライト検出によって推定され、タイムオブフライトセンサ(および/または装置)と物体の距離が推定され得る。さらに、推定された物体の第1の位置(例えば距離)は三角測量演算に用いられ、物体の第2の位置情報が決定され得る。
いくつかの実施形態においては、例えば2つの撮像画像に基づいて三角測量演算が行われ得る。この2つの撮像画像のうち、1つは光の照射を行って撮像され、もう1つは光の照射を行わずに撮像される。また、画像処理の分野で当業者に一般的に知られているように、この装置、その回路、またはその検出源はさらに2つの画像の減算等を行うように構成されていてもよい。
物体は光を反射する物体であればどのような物体であってもよい。したがって、例えば光の反射に基づいてのみ、その物体を検出することができる。例えば、物体は車両、コンクリート、アスファルト、道路の一部、路上の異物、壁、石、道路標識、様々な種類のネジや釘、建設資材等の物質や、人間(運転手や歩行者等)、木、動物、水、油、泥等の生物や有機物であってもよい。
物体(やその表面)が光を反射し、これにより物体が検出され得る。この反射光は検出源によって検出することが可能であればどのような種類の反射であってもよい。例えば、反射光は、入射角と反射角が等しくなる通常の反射であり得る。また、物体は、鏡面反射、拡散反射、および/または散乱反射等に基づいて光を反射し得る。同様に、検出源(例えば第1の検出器のタイムオブフライトイメージセンサおよび/または第2の検出器のCMOSイメージセンサ)は物体によって反射された光を検出し、これにより物体の検出等が行われ得る。
上述のように、いくつかの実施形態においては、位置情報を検出する検出源を2つ有するため、第1の位置情報と三角測量演算とに基づいて、検出源(例えば第2の検出器)と発光部との距離のずれを補正することができる。これにより、例えば、発光部と検出源(例えば第2の検出器)との距離を大きくし得る。例えば、距離の変動が第1の位置情報に影響を与えないため、発光部と検出源(例えば第2の検出器)との距離の変動を第1の位置情報に基づいて補正し得る。
いくつかの実施形態においては、第1の検出器と第2の検出器、または第1の検出器として機能する検出源と第2の検出器として機能する検出源はそれぞれ異なる測定精度を有し得る。例えば、いくつかの実施形態においては、第1の検出器よりも第2の検出器の方が高い検出精度を有し得る。このため、第1の位置情報(距離)は、第2の検出器を調整するため、および/または、第2の検出器と発光部との間の距離の変動を補正するためのみに用いられ得る。この補正は、それぞれ異なる独立した検出器に基づいて第1および第2の位置情報を用いて三角測量のための方程式系が過剰決定されることによって、行うことができる。これにより、例えば、第2の検出器と発光部との距離のずれ(誤差)および/または、第2の検出器と発光部との角度のずれを決定することができ、このため第2の位置情報の精度を大幅に向上させ得る。
いくつかの実施形態においては、第1の検出器が、決定された第2の位置情報および/または第2の検出器のイメージセンサを用いてもよい。
いくつかの実施形態においては、第1および第2の位置情報は並行して決定されてもよく、他の実施形態においては、第1および第2の位置情報は連続して決定されてもよい。
いくつかの実施形態においては、第1の位置情報はタイムオブフライトセンサと物体の距離を表し得る。また、タイムオブフライトセンサはこの距離等を推定するように構成され得る。
例えば、タイムオブフライトセンサは、あるシーンにおけるすべてのポイントの時差または位相差を演算し得る。また、シーンにおける異なるポイントの距離は時差に基づいて求められ、物体とタイムオブフライトセンサの距離が推定され得る。
いくつかの実施形態においては、第1の位置情報は発光部および/または検出源(例えば第1の検出器および/または第2の検出器)の傾斜角を表し得る。また、いくつかの実施形態においては、傾斜角は変化し得る。例えば、いくつかの実施形態においては、装置は車両に搭載され、傾斜角は例えば車両の振動、車両の荷重の違い(異なる状況における乗員数の増減)、永久ひずみ等によって変化し得る。このため、いくつかの実施形態においては、例えば発光部や検出源(例えば第1の検出器や第2の検出器)の傾斜角は第1の位置情報として推定され得る。また、推定された傾斜角は、三角測量演算によって第2の位置情報を決定するために用いられ得る。
いくつかの実施形態においては、検出源(例えば第2の検出器)はイメージセンサに基づく。イメージセンサは、例えばCMOS(complementary metal-oxide-semiconductor)センサ、電荷結合素子(CCD)センサ、カメラ等であり得るが、本開示はこれに限定されない。
また、第2の検出器は複数の画素を有する(イメージセンサに基づく)ハイダイナミックレンジカメラであってもよい。この第2の検出器はさらに画素レベルでの減算が可能なように構成され得る。これにより、当業者に知られているように差分画像を得ることができる。
いくつかの実施形態においては、発光部はさらに、物体によって反射された光が少なくとも部分的に検出源(例えば第2の検出器)の視野内に入るように面状光を発するように構成され得る。
発光部と検出源(例えば第2の検出器)は共通の板上または異なる板上に設置され得る。また、これらは隣り合って設置されていてもよいし、所定の距離をおいて設置されていてもよい。また、例えば、物体によって反射された光が検出源等の視野内に入るように、例えば検出源(例えば第1の検出器、第2の検出器)および発光部の傾斜角が制御されてもよい。
装置は回路部を含み得る。一般的に知られているように、回路は、1以上のプロセッサ、1以上のマイクロプロセッサ、専用回路、論理回路、メモリ(RAM,ROM,等)、ストレージ、出力手段(ディスプレイ(例えば液晶、(有機)発光ダイオード等))、スピーカ、インターフェース(例えばタッチパネルや、Bluetoothや赤外線等の無線インターフェース)等を含み得る。
いくつかの実施形態においては、発光部は所定の方向に面状光を発するように構成され得る。
所定の方向とは例えば、検出源の視野(第1の検出器、第2の検出器の視野)や、装置が搭載される車両の進路の方向等であり得る。
上述のように、いくつかの実施形態においては、発光部と検出源(例えば第1の検出器および第2の検出器)は車両等の移動装置に搭載され得る。また、発光部は、さらに車両の進路の方向に面状光を発するように構成され得る。
さらに、車両の進路上に位置する物体が検出され、その位置情報が決定され得る。同様に、車両が移動することによって(つまりそれに伴い装置が移動することによって)車両の進路上に存在する例えば他の車両や運転手、道路、道路上の異物、歩行者、動物等の物体の異なる部分が照射されることになる。これにより、物体の異なる部分が光を反射し、物体の異なる部分が検出され、物体の異なる部分の位置情報、ひいてはその3D形状または3D形状の一部が例えば上記のような三角測量演算や装置の回路上で実行されるプログラムによって決定され得る。
いくつかの実施形態においては、面状光は平面において複数の光線を有する。
上述のように、発光部は複数の発光素子を含み得る。複数の発光素子は複数の光線を生成する。さらに、例えば複数の発光素子間の距離を調整することによって、つまり例えばそれぞれの所定の距離を保つようにすべての素子を一列に並べることによって、平面において複数の光線を有する面状光等を発し得る。
いくつかの実施形態においては、環境光が例えば発せられた面状光や物体によって反射された光等に干渉し得る。また、装置、回路および/または発光部は、さらに面状光のオンオフを行うように構成されていてもよい。また、それに応じて、検出源(例えば第1の検出器および/または第2の検出器)は物体によって反射された光を検出するように構成され得る。例えば、イメージセンサに基づき得る検出源(例えば第2の検出器)は、発光部がオンの場合に物体の第1の画像を撮像し、発光部がオフの場合に物体の第2の画像を撮像し得る。検出源(例えば第2の検出器)はさらに第1の画像から第2の画像の減算を行い、環境光の影響を除外し、画像の後処理等を行い得る。
いくつかの実施形態においては、複数の発光部間の所定の距離を調整し、面状光を発する代わりに複数の光の点を発し得る。また、(例えば光学レンズを用いて)複数の光の点が合焦し、より高い局所的強度を有し得る複数の光の点によって物体が照射され得る。このため、いくつかの実施形態においては、SN比等が改善され得る。
いくつかの実施形態においては、発光部はさらに複数の面状光を発するように構成され得る。
例えば、発光部は複数の発光素子を含み得る。複数の発光素子は複数の行において制御され、それぞれの行が1つの面状光を発し得る。このため、複数の面状光が発せられ得る。
いくつかの実施形態においては、少なくとも2つの面状光が少なくとも2つの異なる方向に発せられる。
いくつかの実施形態においては、異なる行において複数の発光部が制御され得る。各行は、それぞれ異なる方向において対応する面状光を発する。このため、複数の面状光が異なる方向に発せられ得る。また、装置の回路は複数の面状光の方向等を制御するように構成され得る。
いくつかの実施形態においては、例えば車両電球ホルダ等のホルダに複数の発光部が配置され得る。また、ホルダは例えば上方、後方、左、右等の異なる方向を向くように構成され得る。このため、複数の面状光は異なる方向に発せられ得る。
また、複数の面状光は例えば連続して照射されてもよいし、同時に照射されてもよいし、その他の方法で照射されてもよい。
いくつかの実施形態においては、装置の回路は、さらに物体によって反射された光の検出に基づいて、物体の形状を決定するように構成され得る。
いくつかの実施形態においては、例えば面状光を異なる方向に連続して照射することによって、移動している物体の位置情報(例えば3D情報)を決定することが可能となっている。また、複数の面状光はそれぞれ異なるゾーンを照射し、上述のように、検出源(例えば第1の検出器および/または第2の検出器)は物体によって反射された反射光を検出し得る。また、装置は、例えば3Dタイムオブフライト測定や、三角測量演算等によって物体の3D情報を決定し得る。
例えば、いくつかの実施形態においては、物体の異なる部分に対応する複数の画像が撮像され得る。また、三角測量演算が行われ、装置に対する物体の異なる部分の距離(すなわち位置情報)が決定され得る。決定された物体の異なる部分の位置情報は、例えば物体の全体形状や物体の部分的な形状等を推定するために用いられ得る。また、物体の3D位置情報、物体の3D画像、および/または物体の深度情報が決定され得る。
また、いくつかの実施形態においては、検出源(例えば第1の検出器)は物体の3D深度マップを推定し得る。例えば、発光部は物体および/または物体を含むシーンに対して照射を行う。また、例えばタイムオブフライトセンサの各ピクセルにおいて距離の推定を行い、物体および/またはシーンの3D深度マップを生成することによって、物体によって反射された光の3Dタイムオブフライト検出が行われ得る。
いくつかの実施形態においては、複数の面状光がランダムな時間周期で発せられる。
いくつかの実施形態においては、複数の装置が複数の面状光を発し、マルチユーザ環境が形成され得る。例えば、複数の車両が複数の面状光を発し得る。各車両はそれぞれ装置を有している。複数の面状光はそれぞれ干渉し合い、これは差分画像に影響し、クロストーク等が発生し得る。
いくつかの実施形態においては、3Dタイムオブフライト測定が3D三角測量演算と共に用いられてもよいし、さらに、距離、角度、物体の3D形状等の複数のパラメータが決定されてもよい。加えて、検出源(例えば第1および/または第2の検出器)によって決定された複数のパラメータを用いて三角測量演算が行われてもよい。
いくつかの実施形態においては、三角測量演算の精度を高めるため、発光部に対する検出源(例えば第2の検出器)の相対位置、例えばそれらの間の距離やそれらの相対角度が決定され得る。また、発光部に対する検出源(例えば第2の検出器)の相対位置を定義するパラメータ、例えば相対座標や相対角度が連続的に決定されアップデートされてもよい。また、各パラメータに関して三角測量演算が行われてもよい。例えば3Dタイムオブフライト測定と三角測量演算の間の対応が最大となるパラメータおよび/または誤差が最小となるパラメータの決定が行われ得る。例えば、当業者に一般的に知られているように、例えば最小二乗適合を用いることによって3Dタイムオブフライト測定と三角測量演算は互いに適合し得る。このため、いくつかの実施形態においては、最高の精度の提供および/または3Dタイムオブフライト測定と三角測量演算の間で最良適合を提供するパラメータを決定し、アップデートすることができる。
いくつかの実施形態においては、3Dタイムオブフライト測定と三角測量演算は同時に行ってもよいし、連続して行ってもよいし、その他の方法で行ってもよいが、本開示はこれに限定されない。
例えば、いくつかの実施形態においては、最初に3Dタイムオブフライト測定を行い、その後に三角測量演算を行ってもよい。いくつかの実施形態においては、最初に三角測量演算を行い、その後に3Dタイムオブフライト測定を行ってもよい。
いくつかの実施形態においては、3Dタイムオブフライト測定が三角測量演算と同時に行われてもよい。また、その後、例えば3Dタイムオブフライト測定と三角測量演算を測定後例えばミリ秒、数秒、または数時間で行うことによって第1の位置情報と第2の位置情報を決定し得るが、本開示はこれに限定されない。
いくつかの実施形態においては、第1の検出器と第2の検出器の相対位置パラメータ、例えば第1の検出器と第2の検出器の相対距離や相対角度等が決定され、3Dタイムオブフライト測定および/または三角測量演算によって三角測量演算が行われ得るが、本開示はこれに限定されない。
このため、いくつかの実施形態においては、ランダムな時間周期で複数の面状光を発することができる。これにより、物体の各ゾーンが照射されるタイミングの周期をランダムにすることができる。また、装置および/またはその回路は、同装置の発光部から発せられた光の反射を検出するように構成され得る。例えば、回路は面状光を発する所定の時間周期を決定し、検出源(例えば第2の検出器)は所定の時間周期等に基づいて反射光を検出し得る。
いくつかの実施形態においては、検出源(例えば第2の検出器)と発光部の間には短い所定の距離が存在し得る(例えば約10cmまたは10cm以下)。また、物体の反射光を検出し、物体の位置情報を決定することが可能である。
いくつかの実施形態においては、検出源(例えば第2の検出器)と発光部の間には長い所定の距離が存在し得る(例えば約1m以上)。また、装置から約20mから70mの距離にある物体の位置情報が決定され得る。
いくつかの実施形態においては、装置は車両に搭載され得る。車両への積載方法は時間や状況によって異なり、発光部と検出源(例えば第2の検出器)の距離とそれらに対応する角度は変化し得る。また、たとえ検出源(例えば第2の検出器)と発光部の距離が変化する場合であっても、例えば車両の進路上にある物体の位置情報を決定することができる。例えば、上述のようにタイムオブフライトセンサによって第1の位置情報を決定し、推定された第1の位置を三角測量演算に用いることによって、調整を行うことができる。
いくつかの実施形態においては、三角測量演算(および/または検出源(例えば第2の検出器))の調整が行われ得る。この調整は推定された第1の位置に基づき得る。例えば、タイムオブフライトセンサは第1の位置情報を推定し、装置と物体の距離が決定され得る。また、決定された距離を用いて三角測量演算の調整等が行われ得る。
いくつかの実施形態においては、物体の異なる部分においてタイムオブフライト計測が複数回行われ得る。そして、例えばタイムオブフライト測定結果からノイズが抑制または除去され、測定結果の精度等が向上し得る。
いくつかの実施形態においては、物体は移動体であり得る。また、例えば物体の異なる部分を照射し、物体の異なる部分における反射光を検出し、物体の異なる部分の位置情報を決定すること等ができる。
いくつかの実施形態においては、装置は車両に搭載され得る。また、装置と、車両の進路上の物体は同じスピードで移動し得る(例えば、物体は車両と同じスピードで運転される他の車両である)。加えて、物体の位置情報を決定することができる。例えば、物体は複数の面状光によって照射され得る。この複数の面状光に関して、少なくとも2つの面状光が2つの異なる方向に発せられる。このため、物体の異なる部分が照射され、物体の異なる部分が光の反射を行い、それらの位置情報が決定され得る。
いくつかの実施形態においては、物体を複数の光線で照射することができる。この場合、上述のように物体が点線で照射されるように光線が制御され得る。また、検出源(例えば第2の検出器)は露光時間等が短くなるように制御され、環境光の影響が抑制され得る。
いくつかの実施形態においては、発光部と検出源(例えば第2の検出器)との間の所定の距離は約1メートルまたは1メートル以上まで延長し得る。また、上述のように発光部と検出源(例えば第2の検出器)は傾斜していてもよい。この傾斜は所定の角度まで増加し第2の位置情報の決定を歪め得る。このため、いくつかの実施形態においては、例えば発光部の変調を行い、第1の位置の推定と測定を並行して行うことができる。例えば、3Dタイムオブフライト測定と第2の位置情報の測定が並行して行われ、これにより装置の調整等が行われ得る。
いくつかの実施形態は、物体の第1の位置情報を推定し、物体を照射するための面状光を発し、物体の第2の位置情報を決定するために物体により反射された光を検出することを含む方法であって、物体の第2の位置情報は三角測量に基づいて決定され、三角測量は推定された第1の位置情報に基づく方法に関する。この方法は、回路および/または本明細書に記載するように回路上で実行されるプログラムおよび/またはプロセッサ、コンピュータ、タブレットPC等により行われ得る。
上述のように、この方法はさらに物体の第1の位置情報を推定することを含み得る。また、第1の位置情報はタイムオブフライトセンサと物体間の距離を表し得る。上述のように、この方法はさらに所定の方向に面状光を発することを含み得る。また、複数の光線が生成され得る。この際、この方法はさらに平面において複数の光線を有し得る。上述のように、この方法はさらに複数の面状光を発することを含み得る。また、この方法はさらに2つの異なる方向に少なくとも2つの面状光を発することを含み得る。上述のように、この方法はさらにランダムな時間周期で複数の面状光を発することを含み得る。上述のように、物体の形状が決定され得る。この際、この方法はさらに物体によって反射された光の検出に基づいて、物体の形状を決定することを含み得る。この方法はさらに物体によって反射された光を検出することを含み得る。この際、検出源はイメージセンサとタイムオブフライトセンサに基づく。また、この方法はさらに物体によって反射された光を検出することを含み得る。この際、検出源はCMOSセンサに基づく。
本明細書において説明される方法は、いくつかの実施形態では、コンピュータおよび/またはプロセッサが、コンピュータおよび/またはプロセッサ上においてその方法を実行するためのコンピュータプログラムとして実装される。いくつかの実施形態では、上述したようなプロセッサのようなプロセッサによって、本明細書で説明される方法を実行させるコンピュータプログラム製品を内部に格納する非一過性のコンピュータ読み取り可能な記録媒体も提供される。
以下に添付図面を参照しながら、本開示の好適な実施形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
再び図1(a)および図1(b)を参照すると、図1(a)および図(1b)は物体を検出しその位置情報を決定するための装置10の第1の実施形態を図示している。
図1(a)は本開示に係る正面から見た装置10を図示し、図1(b)は装置10の上面図を図示する。
装置10はタイムオブフライトセンサを含む第1の検出器11(以降、タイムオブフライトセンサとも称する)を有する。
また、装置10はレーザ光に基づく発光部12を有する。発光部12は複数の制御可能なレーザ発光素子121を有する。複数の制御可能なレーザ発光素子121はいくつかの行に配置され、発光部12に例えば面状光、面状光を構成する複数の光線、複数の面状光等の発光を可能にする。また、発光部12とその複数の発光素子は制御可能である。そのため、例えば発せられる面状光の方向が制御可能となる。
装置10はさらにイメージセンサに基づく第2の検出器13を有する。図1(b)に示すように、本実施形態において、第2の検出器13と発光部12は2つの異なる板上の互いに所定の距離を保って設置されているが、本開示はこれに限定されない。上述のように、この所定の距離は例えば気温や、構成要素に作用する力等の環境の影響によって変化し得る。また、本実施形態において、第1の検出器11と第2の検出器13は1つのハウジング内に位置し、検出源を構成する。
第1の検出器11、発光部12、および第2の検出器13は互いに接続され、回路を構成する。図1(a)および図1(b)の装置10の詳細については後述する。
図2に示すように、装置10の発光部12はその発光素子121の1つから光線122を発し、規則的な表面を有する物体14を照射する。物体14は光を反射し、物体14の反射光線123は第1の検出器11および第2の検出器13の視野に入る。第2の検出器13は上述のようにイメージセンサを有する(以降、第2の検出器13をイメージセンサとも称する)。反射光線123は第1の検出器11のタイムオブフライトセンサおよび第2の検出器13のイメージセンサによって検出される。
また、上述のように、発光部12と、第2の検出器13と、物体14の照射部分は三角形を形成する。
装置10のタイムオブフライトセンサ11はタイムオブフライト撮像装置に基づき、レンジイメージングカメラを含む。また、タイムオブフライトセンサ11は画素アレイを有する。画素アレイにおける各画素は複数の光検出素子を有する。装置10のタイムオブフライトセンサ11は光が発光部12から物体14まで伝達しタイムオブフライトセンサ11に反射するのにかかる時間を計測し、物体14の第1の位置情報を推定する。本実施形態において、第1の位置情報とはタイムオブフライトセンサ11と物体14間の距離である。
図3は物体14'を検出しその位置情報を決定するための装置10の一実施形態を図示する。物体14'は不規則な物体であり、その表面のうち2つの表面が不規則な形状を有する。上述のように、異なる種類の物体を検出することに特に制限は無い。光を反射し、その反射光が第1の検出器11および/または第2の検出器13の視野内に入るすべての物体を検出することが可能である。
装置10の発光部12はその発光素子121の1つから光線122を発し、物体14'の不規則的な表面のうちの1つを照射する。物体14'の不規則な表面の一部が照射され、光123'を反射する。反射光123'はタイムオブフライトセンサ11およびイメージセンサ13によって検出される。また、発光部12と、第2の検出器13と、物体14'の照射部分は三角形を形成する。
装置10のタイムオブフライトセンサ11は物体14'の第1の位置情報を計測する。第1の位置情報はタイムオブフライトセンサ11と物体14'間の距離を示す。
また、タイムオブフライトセンサ11と物体14'の推定距離は三角測量演算に用いられる。三角測量演算は装置の回路によって行われる。三角測量演算は、当業者に一般的に知られている。上述のように、タイムオブフライトセンサ11と物体14'の距離が三角測量演算に用いられ、例えば第2の検出器13と物体14'の距離の推定が可能となる。
同様に、タイムオブフライトセンサ11と物体14'の距離を用いて、発光部12および/または装置10と物体14'間の距離、および/または発光部12と第2の検出器13に対応する角度の推定が、当業者に知られているように、三角測量演算に基づいて可能となる。
図4は車両15に搭載された装置10の第1の実施形態を含むシステム20を示す。また、発光部12は本実施形態において、車両電球ホルダ16に基づいたホルダ16に設置される。発光部12は車両15の進路の方向において面状光132を発し、車両15の進路上に位置する物体14が光を反射する。物体によって反射された光133は(本実施形態においてイメージセンサに基づく)第2の検出器13の視野に入り、物体14が検出される。
また、車両15は移動中であり、その移動に従って物体14の異なる部分が照射される。したがって、光133を反射する物体14の異なる部分の位置の検知が可能になる。
上述のように、タイムオブフライトセンサ11は物体14の第1の位置情報を決定する。第1の位置情報はタイムオブフライトセンサ11と物体14間の距離を示す。また、推定された距離(つまり、タイムオブフライトセンサ11によって推定された距離)は三角測量演算のために用いられ、物体14の第2の位置情報が決定される。
本実施形態において、当業者に一般的に知られているように、三角測量演算に基づいて例えば車両15(つまり車両の異なる部分)と物体14間の距離、発光部12と物体14間の距離、第2の検出器13と物体14間の距離等が決定される。
図5は車両15に搭載された装置10の第2の実施形態を含むシステム30を示す。また、発光部12は複数の発光素子を含み、上述のように車両15の進路において複数の光線142を発する。
本実施形態において、複数の発光素子が1列に配置され、複数の光線142が1つの平面を構成する。また、上述のように、物体14に複数の点が照射されるように複数の発光素子間の距離が調節される。
また、装置の回路(図示せず)は複数の光線142を制御し、それらのオンオフを行う。
物体14は光を反射し、反射された複数の光線143のうちの一部が第2の検出器13によって検出される。
イメージセンサに基づく第2の検出器13は、発光部がオンの場合に物体14の第1の画像を撮像し、発光部がオフの場合に物体14の第2の画像を撮像する。また、上述のように、第2の検出器13は第1の画像から第2の画像の減算を行い、環境光の影響を除去する。
図6は車両15に搭載された装置10の第3の実施形態を含むシステム40の一実施形態を示す。
装置の発光部12は複数の発光素子を含む。上述のように、複数の発光素子は複数列において制御され、各列が1つの面状光を発する。このため、上述のように、装置の回路が、面状光、光線、複数の光線、複数の面状光等の発光を制御することが可能となる。
また、上述のように、回路は例えば異なる面状光の方向や、各面状光が発せられるタイミングの間隔等を制御することができる。
加えて、上述のように、発光部12と第2の検出器13はそれぞれ角度αおよび角度β分だけ傾斜することができる。
本実施形態において、発光部は複数の面状光152を発する。複数の面状光152は異なる方向に発せられる。
また、上述のように、複数の面状光152が発せられた後、不規則な表面を有する物体14'の異なる部分を照射する。
物体14'は光を反射する。上述のように、物体によって反射された光153はイメージセンサに基づく第2の検出器13と第1の検出器11の視野の範囲内に入る。
また、その後、複数の面状光152は異なる方向に照射される。従って、その後、物体14'の異なる部分が照射される。
タイムオブフライトセンサ11は物体14'の異なる部分の第1の位置情報を推定し、タイムオブフライトセンサ11、車両15、第2の検出器13等と物体14'の異なる部分の距離を決定する。上述のように、決定された物体14'の異なる部分の距離は三角測量演算に用いられ、物体14'の異なる部分の第2の位置情報が決定される。
また、装置の回路は物体14'の3D形状を決定する。上述のように、物体14'の3D形状は物体14'の異なる部分の三角測量演算に基づいて決定される。
図7は物体を検出し、その位置情報を決定する回路57を有する装置50の一実施形態を示す。
図7の装置50は、図1から図6の装置10と同一または同様の構成要素と機能を有する。
装置50は発光部51、タイムオブフライトセンサを含む第1の検出器52、および第2の検出器53を有する。発光部51はLEDまたはレーザ光源に基づき、第2の検出器53はイメージセンサに基づく。
また、装置50はプロセッサ54、ストレージ55、インターフェース56を有し、これらは回路57を構成する。
ストレージ55はランダムアクセスメモリとソリッドステートドライブメモリを含む。
インターフェースはヒューマンマシンインターフェースに基づく。人間が回路に情報を提供し、インターフェースがさらにローカルエリアネットワーク(LAN)へのアクセスを可能にし、回路57のインターネット等への接続が可能となる。
装置50のプロセッサ54はコンピュータプログラムを実行することができる。例えば、コンピュータプログラムは装置50のプロセッサ54上で実行され得る。これにより、複数の面状光の発光、複数の面状光の方向、複数の面状光の発光間隔等の制御が可能となる。
また、いくつかのプログラムを装置50のプロセッサ54上で実行することができる。これにより、例えば、当業者に知られているように、三角測量演算の実行、物体の第1の位置情報の推定、物体の3D形状の決定等が可能となる。
以下において、物体を検出しその位置情報を決定する方法60について図8を参照しながら説明する。この方法は、例えば図1から図6の装置10や図7の装置50といった本明細書に記載のいずれかの装置によって行われ得る。以下、方法60は、装置10と同様の装置50に基づいて例示的に説明されるが、本開示はこれに限定されない。
ステップ61において、回路57は、発光部51が面状光142を発し、物体14を照射するように発光部51を制御する。上述のように発光部は面状光142を発する。上述のように、面状光142は同一平面上において複数の光線を有する。
ステップ62において、装置50(または装置10)の回路57は物体の第1の位置情報を推定する。
タイムオブフライト撮像装置に基づく第1の検出器52のタイムオブフライトセンサは、光が発光部51から物体14に伝達しタイムオブフライトセンサ52に戻ってくるまでにかかる時間を計測する。また、例えば、回路57のプロセッサ54上で実行されるプログラムによって第1の位置情報が推定される。第1の位置情報はタイムオブフライトセンサ52と物体14の間の距離を示す。
ステップ63において、回路57は、第2の検出器53が例えば物体14によって反射された反射光を検出するように第2の検出器53を制御する。
イメージセンサに基づく第2の検出器53は、第2の検出器53の視野に入る反射光(例えば複数の光線143)の一部を検出する。
ステップ64において、回路57は三角測量演算を実行する。回路57のプロセッサ54上で実行されるプログラムによって、三角測量演算が実行される。このプログラムは推定された第1の位置情報を三角測量演算に用いる。三角測量演算の結果は、(発光部と、第2の検出器と、物体からなる三角形の)3つの角度と、その三角形の3辺の値を示す。上述のように、三角測量演算は、当業者に一般的に知られている。
ステップ65において、回路57は物体14の第2の位置情報を決定する。回路57のプロセッサ54上で実行されるプログラムによって、物体の第2の位置情報が決定される。上述のように、光が照射されその光を反射する物体の一部と装置50との間の距離がプログラムによって決定される。
このため、物体14が検出され、装置までの距離が決定される。
図9は物体14'を検出しその3D形状を決定するための方法70の一実施形態を示す。
ステップ71において、発光部51が車両15の進路の方向に複数の面状光(例えば複数の面状光152)を発し、物体14'を照射するように、回路57は発光部51を制御する。
発光部51は複数の面状光152を発し、車両15の進路上にある物体14'を照射する。
ステップ72において、装置50(または装置10)の回路57は物体14'の第1の位置情報を推定する。
第1の検出器52のタイムオブフライトセンサは、光が発光部51から物体14'に伝達しタイムオブフライトセンサ52に反射するまでにかかる時間を計測する。また、回路57のプロセッサ54上で実行されるプログラムによって第1の位置情報が推定される。第1の位置情報はタイムオブフライトセンサ52と物体14'の間の距離を示す。
ステップ73において、回路57は、第2の検出器53が物体14'によって反射された光を検出するように第2の検出器53を制御する。イメージセンサに基づく第2の検出器53は、第2の検出器53の視野に入る反射光153の一部を検出する。
ステップ74において、回路57は三角測量演算を実行する。回路57のプロセッサ54上で実行されるプログラムによって、三角測量演算が実行される。
プロセッサ54上で実行されるプログラムは推定された第1の位置情報を三角測量演算に用いる。また、回路57は、光を反射した物体14'の一部の第2の位置情報を決定する。
第2の位置情報は物体の異なる部分に関して決定される。本実施形態において、上述のように、物体の異なる部分の距離と角度が決定される。
ステップ75において、回路57は異なる方向において複数の面状光152をランダムに発する。
回路57は、発光部51が異なる方向に複数の面状光152を発するように発光部51を制御する。このため、物体14'の異なる部分が照射される。また、回路57は、異なる面状光が発せられる時間周期がランダムになるように発光部51を制御する。
ステップ76において、回路は物体14'の形状を決定する。
物体14'の異なる部分が照射され、光を反射する。反射光は第2の検出器53によって検出される。また、回路57は光を反射した物体の各ポイントに関して三角測量演算を実行する。プロセッサ54上で実行されるプログラムは、推定された第1の位置情報を三角測量演算に用い、回路57は物体の異なる部分の第2の位置情報を決定する。
また、回路57上で実行されるプログラムは例えば物体14'の異なる部分に関して決定されたすべての第2の位置を用いて、上述のように物体14'の3D形状を決定する。例えば、プログラムは光を反射した物体の隣接する部分に関して決定された第2の位置同士を関連付け、これにより物体の形状等が決定され得る。
上記実施形態は、方法ステップが例示的に順序付けられている方法を記述していると認識されるべきである。しかしながら、方法ステップの特定の順序付けは、あくまで例示であり、拘束力のあるものとして解釈されるべきではない。例えば、図9の実施形態のステップ74とステップ75の順番は入れ替えられてもよい。また、図8の実施形態のステップ61,62,63の順番は入れ替えられてもよい。また、図9の実施形態のステップ71とステップ72の順番は入れ替えられてもよい。その他の方法ステップの順番の変更も、当業者にとっては明らかなものであり得る。
なお、回路57をユニット51と56に分離しているのは単に説明の便宜上行ったものであり、本開示はこれらの機能を特定のユニットへ分割することに限定されない。例えば、回路57が各プログラム式プロセッサ、FPGA(field programmable gate array)、等によって実装されてもよい。
本明細書において説明される方法は、上述のプロセッサ54等のコンピュータおよび/またはプロセッサおよび/また回路が、コンピュータおよび/またはプロセッサおよび/また回路上においてその方法を実行するためのコンピュータプログラムとして実装されることもできる。いくつかの実施形態では、上述したようなプロセッサのようなプロセッサによって、本明細書で説明される方法を実行させるコンピュータプログラム製品を内部に格納する、非一過性のコンピュータ読み取り可能な記録媒体も提供される。
上述の本開示の実施形態の少なくとも一部が、ソフトウェア制御データ処理装置を使用して実施される限り、このようなソフトウェア制御を提供するコンピュータプログラムと、このようなコンピュータプログラムが提供される送信、記憶または他の媒体とが、本開示の態様として想定される。
なお、本技術は、以下のような構成をとることも可能である。
(1)
物体に照射するための面状光を発するように構成された発光部と、
上記物体により反射された光のタイムオブフライト検出に基づいて上記物体の第1の位置情報を推定し、
上記物体の第2の位置情報を決定するために上記物体により反射された光を検出するように構成された検出源と
を含む装置であって、
上記物体の第2の位置情報は三角測量に基づいて決定され、
上記三角測量は推定された上記第1の位置情報に基づく
装置。
(2)
(1)に記載の装置であって、
上記第1の位置情報はタイムオブフライトセンサと上記物体の距離を表す
装置。
(3)
(1)または(2)に記載の装置であって、
上記発光部はさらに所定の方向に上記面状光を発するように構成される
装置。
(4)
(1)から(3)のいずれかに記載の装置であって、
上記面状光は平面において複数の光線を有する
装置。
(5)
(1)から(4)のいずれかに記載の装置であって、
上記発光部はさらに複数の面状光を発するように構成される
装置。
(6)
(1)から(5)のいずれかに記載の装置であって、
少なくとも2つの面状光が2つの異なる方向に発せられる
装置。
(7)
(1)から(6)のいずれかに記載の装置であって、
上記複数の面状光がランダムな時間周期で発せられる
装置。
(8)
(1)から(7)のいずれかに記載の装置であって、
上記物体によって反射された光の検出に基づいて、上記物体の形状を決定するように構成された回路をさらに含む
装置。
(9)
(1)から(8)のいずれかに記載の装置であって、
上記検出源はイメージセンサとタイムオブフライトセンサを含む
装置。
(10)
(1)から(9)のいずれかに記載の装置であって、
上記検出源はCMOS(complementary metal-oxide-semiconductor)センサに基づく
装置。
(11)
物体に照射するための面状光を発し、
上記物体の第1の位置情報を推定し、
上記物体の第2の位置情報を決定するために上記物体により反射された光を検出する
ことを含む方法であって、
上記物体の第2の位置情報は三角測量に基づいて決定され、
上記三角測量は推定された上記第1の位置情報に基づく
方法。
(12)
(11)に記載の方法であって、
上記第1の位置情報はタイムオブフライトセンサと上記物体の距離を表す
方法。
(13)
(11)または(12)に記載の方法であって、
所定の方向に上記面状光を発することをさらに含む
方法。
(14)
(11)から(13)のいずれかに記載の方法であって、
平面において複数の光線を有することをさらに含む
方法。
(15)
(11)から(14)のいずれかに記載の方法であって、
複数の面状光を発することをさらに含む
方法。
(16)
(11)から(15)のいずれかに記載の方法であって、
少なくとも2つの面状光が2つの異なる方向に発せられる
方法。
(17)
(11)から(16)のいずれかに記載の方法であって、
上記複数の面状光がランダムな時間周期で発せられる
方法。
(18)
(11)から(17)のいずれかに記載の方法であって、
上記物体によって反射された光の検出に基づいて、上記物体の形状を決定することをさらに含む
方法。
(19)
(11)から(18)のいずれかに記載の方法であって、
検出源はイメージセンサとタイムオブフライトセンサを含む
方法。
(20)
(11)から(19)のいずれかに記載の方法であって、
検出源はCMOS(complementary metal-oxide-semiconductor)センサに基づく
方法。
(21)
コンピュータ上で実行される際に、(11)から(20)のいずれかに記載の方法をコンピュータに行わせるプログラムコードを含むコンピュータプログラム。
(22)
プロセッサにより実行される際に、(11)から(20)のいずれかに記載の方法を行わせるコンピュータプログラム製品を内部に格納する、非一過性のコンピュータ読み取り可能な記録媒体。

Claims (16)

  1. 物体に面状光を照射するように構成された発光部と、
    前記物体により反射された光のタイムオブフライト検出に基づいて前記物体までの距離を第1の位置情報として推定する第1の検出器と、
    記物体により反射された前記光を検出することによって得た前記発光部と前記物体の照射部分と第2の検出器自身からなる三角形の3つの角度と、前記第1の位置情報を用いて三角測量演算により前記物体の第2の位置情報を決定する第2の検出器と
    を具備する装置。
  2. 請求項1に記載の装置であって、
    前記面状光は平面において複数の光線を有する
    装置。
  3. 請求項1に記載の装置であって、
    前記発光部はさらに複数の面状光を発するように構成される
    装置。
  4. 請求項3に記載の装置であって、
    少なくとも2つの面状光が2つの異なる方向に発せられる
    装置。
  5. 請求項3に記載の装置であって、
    前記複数の面状光がランダムな時間周期で発せられる
    装置。
  6. 請求項1に記載の装置であって、
    前記物体によって反射された光の検出に基づいて、前記物体の形状を決定するように構成された回路をさらに含む
    装置。
  7. 請求項1に記載の装置であって、
    前記第2の検出器はイメージセンサを含む
    装置。
  8. 請求項1に記載の装置であって、
    前記第2の検出器はCMOS(complementary metal-oxide-semiconductor)センサである
    装置。
  9. 発光部より物体に面状光を照射し、
    第1の検出器により前記物体により反射された光のタイムオブフライト検出に基づいて前記物体までの距離を第1の位置情報として推定し、
    第2の検出器により前記物体により反射された前記光を検出することによって得た前記発光部と前記物体の照射部分と前記第2の検出器自身からなる三角形の3つの角度と、前記第1の位置情報を用いて三角測量演算により前記物体の第2の位置情報を決定する
    方法。
  10. 請求項9に記載の方法であって、
    平面において複数の光線を有することをさらに含む
    方法。
  11. 請求項9に記載の方法であって、
    複数の面状光を発することをさらに含む
    方法。
  12. 請求項11に記載の方法であって、
    少なくとも2つの面状光が2つの異なる方向に発せられる
    方法。
  13. 請求項11に記載の方法であって、
    前記複数の面状光がランダムな時間周期で発せられる
    方法。
  14. 請求項9に記載の方法であって、
    前記物体によって反射された光の検出に基づいて、前記物体の形状を決定することをさらに含む
    方法。
  15. 請求項9に記載の方法であって、
    前記第2の検出器はイメージセンサを含む
    方法。
  16. 請求項9に記載の方法であって、
    第2の検出器はCMOS(complementary metal-oxide-semiconductor)センサである
    方法。
JP2020518077A 2017-09-28 2018-09-27 装置および方法 Active JP7135081B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP17193694 2017-09-28
EP17193694.1 2017-09-28
PCT/EP2018/076363 WO2019063738A1 (en) 2017-09-28 2018-09-27 APPARATUS AND METHOD

Publications (2)

Publication Number Publication Date
JP2021501877A JP2021501877A (ja) 2021-01-21
JP7135081B2 true JP7135081B2 (ja) 2022-09-12

Family

ID=59974311

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020518077A Active JP7135081B2 (ja) 2017-09-28 2018-09-27 装置および方法

Country Status (5)

Country Link
US (1) US20200241140A1 (ja)
JP (1) JP7135081B2 (ja)
CN (1) CN111164459B (ja)
DE (1) DE112018004292T5 (ja)
WO (1) WO2019063738A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11348269B1 (en) * 2017-07-27 2022-05-31 AI Incorporated Method and apparatus for combining data to construct a floor plan
CN113900346B (zh) * 2021-08-30 2023-08-29 安克创新科技股份有限公司 投影仪的自动对焦方法和投影仪
JP2024021708A (ja) * 2022-08-04 2024-02-16 株式会社デンソーウェーブ 距離計測装置
EP4418016A1 (en) * 2023-02-14 2024-08-21 VoxelSensors SRL Optical sensing system

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014130091A (ja) 2012-12-28 2014-07-10 Canon Inc 測定装置および測定方法

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IL116717A (en) * 1996-01-09 1999-12-22 Elop Electrooptics Ind Ltd Optical tracing system
US20050057745A1 (en) * 2003-09-17 2005-03-17 Bontje Douglas A. Measurement methods and apparatus
DE102004037137B4 (de) * 2004-07-30 2017-02-09 PMD Technologie GmbH Verfahren und Vorrichtung zur Entfernungsmessung
US7522292B2 (en) * 2005-03-11 2009-04-21 Carl Zeiss Smt Ag System and method for determining a shape of a surface of an object and method of manufacturing an object having a surface of a predetermined shape
TWI369481B (en) * 2008-02-21 2012-08-01 Nat Applied Res Laboratories Three-dimensions fluid field scanning device and a method thereof
KR101668869B1 (ko) * 2009-05-29 2016-10-28 삼성전자주식회사 거리 센서, 3차원 이미지 센서 및 그 거리 산출 방법
US8803967B2 (en) * 2009-07-31 2014-08-12 Mesa Imaging Ag Time of flight camera with rectangular field of illumination
JP5637836B2 (ja) * 2010-12-17 2014-12-10 株式会社キーエンス 光学式変位計
US20140168424A1 (en) * 2011-07-21 2014-06-19 Ziv Attar Imaging device for motion detection of objects in a scene, and method for motion detection of objects in a scene
WO2014200589A2 (en) * 2013-03-15 2014-12-18 Leap Motion, Inc. Determining positional information for an object in space
EP2827099A1 (de) * 2013-07-16 2015-01-21 Leica Geosystems AG Lasertracker mit Zielsuchfunktionalität
US10643343B2 (en) * 2014-02-05 2020-05-05 Creaform Inc. Structured light matching of a set of curves from three cameras
US11243294B2 (en) * 2014-05-19 2022-02-08 Rockwell Automation Technologies, Inc. Waveform reconstruction in a time-of-flight sensor
US9523765B2 (en) * 2014-07-14 2016-12-20 Omnivision Technologies, Inc. Pixel-level oversampling for a time of flight 3D image sensor with dual range measurements
KR102237828B1 (ko) * 2014-08-22 2021-04-08 삼성전자주식회사 동작 인식 장치 및 이를 이용한 동작 인식 방법
US9823352B2 (en) * 2014-10-31 2017-11-21 Rockwell Automation Safety Ag Absolute distance measurement for time-of-flight sensors
US10942261B2 (en) * 2015-10-21 2021-03-09 Samsung Electronics Co., Ltd Apparatus for and method of range sensor based on direct time-of-flight and triangulation
US10582121B2 (en) * 2016-01-12 2020-03-03 Mitsubishi Electric Research Laboratories, Inc. System and method for fusing outputs of sensors having different resolutions
WO2017223008A1 (en) * 2016-06-21 2017-12-28 Osram Sylvania Inc. Wireless beacon-enabled luminaire identification system and method for determining the position of a portable device
US10436910B2 (en) * 2016-09-20 2019-10-08 Apple Inc. Line scan depth sensor comparing a time dependent waveform of the signals to an expected waveform
KR102561099B1 (ko) * 2016-09-23 2023-07-28 삼성전자주식회사 ToF(time of flight) 촬영 장치 및 다중 반사에 의한 깊이 왜곡 저감 방법
EP3551965A4 (en) * 2016-12-07 2020-08-05 Magik Eye Inc. DISTANCE SENSOR PROJECTING PARALLEL PATTERNS
US20180227566A1 (en) * 2017-02-06 2018-08-09 Microsoft Technology Licensing, Llc Variable field of view and directional sensors for mobile machine vision applications
EP3418681B1 (en) * 2017-06-22 2020-06-17 Hexagon Technology Center GmbH Calibration of a triangulation sensor

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014130091A (ja) 2012-12-28 2014-07-10 Canon Inc 測定装置および測定方法

Also Published As

Publication number Publication date
CN111164459B (zh) 2024-10-11
WO2019063738A1 (en) 2019-04-04
US20200241140A1 (en) 2020-07-30
DE112018004292T5 (de) 2020-05-14
CN111164459A (zh) 2020-05-15
JP2021501877A (ja) 2021-01-21

Similar Documents

Publication Publication Date Title
US11226413B2 (en) Apparatus for acquiring 3-dimensional maps of a scene
CN113227839B (zh) 具有结构光照明器的飞行时间传感器
JP7135081B2 (ja) 装置および方法
EP2026104B1 (en) Distance measurement method and device and vehicle equipped with said device
US11073379B2 (en) 3-D environment sensing by means of projector and camera modules
JP6387407B2 (ja) 周辺検知システム
AU2023201028B2 (en) Hybrid time-of-flight and imager module
US10156437B2 (en) Control method of a depth camera
CN114424086A (zh) 用于lidar测量的处理系统
US20170343675A1 (en) Depth sensor module and depth sensing method
KR102559910B1 (ko) 차량 주변 환경을 특성화하기 위한 시스템
JP6531326B2 (ja) 光学式検知装置
US12135394B2 (en) Gating camera
WO2021256226A1 (ja) 測距装置および測距システム
WO2022196779A1 (ja) 3次元計測装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200521

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201203

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210608

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210805

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20210805

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220111

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220311

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220802

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220831

R150 Certificate of patent or registration of utility model

Ref document number: 7135081

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150