DE102016204140B3 - Vorrichtung und Verfahren zur Kalibrierung einer Lichtlaufzeitkamera - Google Patents

Vorrichtung und Verfahren zur Kalibrierung einer Lichtlaufzeitkamera Download PDF

Info

Publication number
DE102016204140B3
DE102016204140B3 DE102016204140.1A DE102016204140A DE102016204140B3 DE 102016204140 B3 DE102016204140 B3 DE 102016204140B3 DE 102016204140 A DE102016204140 A DE 102016204140A DE 102016204140 B3 DE102016204140 B3 DE 102016204140B3
Authority
DE
Germany
Prior art keywords
camera
distance
time
light
reference surface
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102016204140.1A
Other languages
English (en)
Inventor
Stefan Becker
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
PMDtechnologies AG
Original Assignee
PMDtechnologies AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by PMDtechnologies AG filed Critical PMDtechnologies AG
Priority to DE102016204140.1A priority Critical patent/DE102016204140B3/de
Priority to PCT/EP2017/054461 priority patent/WO2017157643A1/de
Priority to CN201780015532.4A priority patent/CN108700650B/zh
Priority to US16/080,550 priority patent/US10488501B2/en
Application granted granted Critical
Publication of DE102016204140B3 publication Critical patent/DE102016204140B3/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/32Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated
    • G01S17/36Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated with phase comparison between the received signal and the contemporaneously transmitted signal
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4811Constructional features, e.g. arrangements of optical elements common to transmitter and receiver
    • G01S7/4813Housing arrangements

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Measurement Of Optical Distance (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Verfahren zum Kalibrieren oder/und Evaluieren einer Lichtlaufzeitkamera (1, 20) mit Hilfe einer Referenzfläche (45), wobei die Lichtlaufzeitkamera (1, 20) einen Lichtlaufzeitsensor (22) bestehend aus einem Array von Lichtlaufzeitpixeln aufweist, bei dem zur Kalibrierung oder/und Evaluierung der Lichtlaufzeitkamera (1, 20) durch translatorische Abstandsänderungen verschiedene Abstände zwischen der Lichtlaufzeitkamera (1, 20) und der Referenzfläche (45) eingestellt werden, mit den Schritten: – Ermittlung von ersten Entfernungsdaten für einen ersten Abstand – Ermittlung von zweiten Entfernungsdaten für einen zweiten Abstand, – Berechnung von Entfernungsdifferenzen aus den ersten und zweiten Entfernungsdaten – Ermittlung einer Orientierung der Lichtlaufzeitkamera (1, 20) zur Referenzfläche (45) ausgehend von den berechneten Entfernungsdifferenzen.

Description

  • Die Erfindung betrifft eine Vorrichtung und ein Verfahren zur Kalibrierung einer Lichtlaufzeitkamera oder eines Lichtlaufzeitkamerasystems nach Gattung der unabhängigen Ansprüche.
  • Mit Lichtlaufzeitkamera bzw. Lichtlaufzeitkamerasystem sollen insbesondere alle Lichtlaufzeit- bzw. 3D-TOF-Kamerasysteme umfasst sein, die eine Laufzeitinformation aus der Phasenverschiebung einer emittierten und empfangenen Strahlung gewinnen. Als Lichtlaufzeit bzw. 3D-TOF-Kameras sind insbesondere PMD-Kameras mit Photomischdetektoren (PMD) geeignet, wie sie u.a. in der DE 197 04 496 A1 beschrieben und beispielsweise von der Firma 'ifm electronic GmbH’ oder 'PMD-Technologies GmbH' als O3D-Kamera bzw. als CamCube zu beziehen sind. Die PMD-Kamera erlaubt insbesondere eine flexible Anordnung der Lichtquelle und des Detektors, die sowohl in einem Gehäuse als auch separat angeordnet werden können.
  • Verfahren zu Kalibrierung solcher System sind beispielsweise aus den folgenden Veröffentlichung bekannt: Chiabrando, F. et al „Sensors for 3D Imaging: Metric Evaluation and Calibration of a CCD/CMOS Time-of-Flight Camera“, Sensors 2009, 9, pp 10080–10096 oder aus Lindner, M.; Kolb, A: „Lateral and Depth Calibration of PMD-Distance Sensors, International Symposium on Visual Computing, Springer 2006, pp 524–533.
  • Chiabrando, F. et al beschäftigt sich hierbei insbesondere mit der Aufwärmperiode, Fehlerabschätzung und Kameraorientierung, wobei in dem untersuchten Aufbau die Kameraorientierung keinen nennenswerten Einfluss auf die Distanzmessung hatte. Ferner wird eine photogrammetrische Kalibration der Amplitude anhand konstraststarker Ziele beschrieben.
  • Linder/Kolb beschäftigen sich mit einem Verfahren zur Kalibrierung einer PMD-Kamera, bei dem zum einen eine laterale Kalibration der zweidimensionalen Geometrie und zum anderen eine Distanz-Kalibration erfolgt, wobei die Distanz sowohl global über das gesamte Bild und lokal per Pixel kalibriert wird.
  • Aufgabe der Erfindung ist es, die Genauigkeit der Entfernungsmessung eines Lichtlaufzeitkamerasystems zu verbessern.
  • Die Aufgabe wird durch die erfindungsgemäße Vorrichtung und das erfindungsgemäße Verfahren gemäß der unabhängigen Ansprüche gelöst.
  • Vorteilhaft ist ein Verfahren zum Kalibrieren oder/und Evaluieren einer Lichtlaufzeitkamera mit Hilfe einer Referenzfläche vorgesehen, wobei die Lichtlaufzeitkamera einen Lichtlaufzeitsensor bestehend aus einem Array von Lichtlaufzeitpixeln aufweist, bei dem zur Kalibrierung oder/und Evaluierung der Lichtlaufzeitkamera durch translatorische Abstandsänderungen verschiedene Abstände zwischen der Lichtlaufzeitkamera und der Referenzfläche eingestellt werden, mit den Schritten:
    • – Ermittlung von ersten Entfernungsdaten für einen ersten Abstand
    • – Ermittlung von zweiten Entfernungsdaten für einen zweiten Abstand,
    • – Berechnung von Entfernungsdifferenzen aus den ersten und zweiten Entfernungsdaten
    • – Ermittlung einer Orientierung der Lichtlaufzeitkamera (1, 20) zur Referenzfläche (45) ausgehend von den berechneten Entfernungsdifferenzen.
  • Dieses Vorgehen hat den Vorteil, dass zu einer Kalibrierung die Lichtlaufzeitkamera nicht mit hoher Präzision in Relation zur Referenzfläche ausgerichtet werden braucht.
  • Es ist ferner vorgesehen, das ausgehend von den Entfernungsdifferenzen ein Aufpunkt auf dem Lichtlaufzeitsensor berechnet wird, an dessen Position die Entfernungsdifferenzen ein Minimum aufweisen.
  • Wobei ausgehend von der Position des bestimmten Aufpunkts oder/und eines um den Aufpunkt liegenden Pixelbereichs eine Orientierung des Lichtlaufzeitsensors (22) bzw. der Lichtlaufzeitkamera (1, 20) in Relation zur Referenzfläche (45) ermittelt wird, und anhand der ermittelten Orientierung des Lichtlaufzeitsensors (22) eine Kalibrierung oder/und Evaluation der Lichtlaufzeitkamera (1, 20) erfolgt.
  • Besonders vorteilhaft ist es, wenn ausgehend von den erfassten Entfernungsdaten und der ermittelten Orientierung ein ‚fixed pattern phase noise‘ (FPPN) ermittelt wird.
  • Ebenso vorteilhaft ist eine Vorrichtung zur Durchführung eines der vorgenannten Verfahren vorgesehen.
  • Nachfolgend wird die Erfindung anhand von Ausführungsbeispielen unter Bezugnahme auf die Zeichnungen näher erläutert.
  • Es zeigen:
  • 1 schematisch ein Lichtlaufzeitkamerasystem,
  • 2 eine modulierte Integration erzeugter Ladungsträger,
  • 3 eine erfindungsgemäße Kalibriervorrichtung
  • Bei der nachfolgenden Beschreibung der bevorzugten Ausführungsformen bezeichnen gleiche Bezugszeichen gleiche oder vergleichbare Komponenten.
  • 1 zeigt eine Messsituation für eine optische Entfernungsmessung mit einer Lichtlaufzeitkamera, wie sie beispielsweise aus der DE 197 04 496 A1 bekannt ist.
  • Das Lichtlaufzeitkamerasystem 1 umfasst eine Sendeeinheit bzw. ein Beleuchtungsmodul 10 mit einer Beleuchtung 12 und einer dazugehörigen Strahlformungsoptik 15 sowie eine Empfangseinheit bzw. Lichtlaufzeitkamera 20 mit einer Empfangsoptik 25 und einem Lichtlaufzeitsensor 22.
  • Der Lichtlaufzeitsensor 22 weist mindestens ein Laufzeitpixel, vorzugsweise auch ein Pixel-Array auf und ist insbesondere als PMD-Sensor ausgebildet. Die Empfangsoptik 25 besteht typischerweise zur Verbesserung der Abbildungseigenschaften aus mehreren optischen Elementen. Die Strahlformungsoptik 15 der Sendeeinheit 10 kann beispielsweise als Reflektor oder Linsenoptik ausgebildet sein. In einer sehr einfachen Ausgestaltung kann ggf. auch auf optische Elemente sowohl empfangs- als auch sendeseitig verzichtet werden.
  • Das Messprinzip dieser Anordnung basiert im Wesentlichen darauf, dass ausgehend von der Phasenverschiebung des emittierten und empfangenen Lichts die Laufzeit und somit die zurückgelegte Wegstrecke des empfangenen Lichts ermittelt werden kann. Zu diesem Zwecke werden die Lichtquelle 12 und der Lichtlaufzeitsensor 22 über einen Modulator 30 gemeinsam mit einem bestimmten Modulationssignal Mo mit einer Basisphasenlage φ0 beaufschlagt. Im dargestellten Beispiel ist ferner zwischen dem Modulator 30 und der Lichtquelle 12 ein Phasenschieber 35 vorgesehen, mit dem die Basisphase φ0 des Modulationssignals M0 der Lichtquelle 12 um definierte Phasenlagen φvar verschoben werden kann. Für typische Phasenmessungen werden vorzugsweise Phasenlagen von φvar = 0°, 90°, 180°, 270° verwendet.
  • Entsprechend des eingestellten Modulationssignals sendet die Lichtquelle 12 ein intensitätsmoduliertes Signal Sp1 mit der ersten Phasenlage p1 bzw. p1 = φ0 + φvar aus. Dieses Signal Sp1 bzw. die elektromagnetische Strahlung wird im dargestellten Fall von einem Objekt 40 reflektiert und trifft aufgrund der zurückgelegten Wegstrecke entsprechend phasenverschoben Δφ(tL) mit einer zweiten Phasenlage p2 = φ0 + φvar + Δφ(tL) als Empfangssignal Sp2 auf den Lichtlaufzeitsensor 22. Im Lichtlaufzeitsensor 22 wird das Modulationssignal Mo mit dem empfangenen Signal Sp2 gemischt, wobei aus dem resultierenden Signal die Phasenverschiebung bzw. die Objektentfernung d ermittelt wird.
  • Als Beleuchtungsquelle bzw. Lichtquelle 12 eignen sich vorzugsweise Infrarot-Leuchtdioden. Selbstverständlich sind auch andere Strahlungsquellen in anderen Frequenzbereichen denkbar, insbesondere kommen auch Lichtquellen im sichtbaren Frequenzbereich in Betracht.
  • Das Grundprinzip der Phasenmessung ist schematisch in 2 dargestellt. Die obere Kurve zeigt den zeitlichen Verlauf des Modulationssignals M0 mit der die Beleuchtung 12 und der Lichtlaufzeitsensor 22 angesteuert werden. Das vom Objekt 40 reflektierte Licht trifft als Empfangssignal Sp2 entsprechend seiner Lichtlaufzeit tL phasenverschoben Δφ(tL) auf den Lichtlaufzeitsensor 22. Der Lichtlaufzeitsensor 22 sammelt die photonisch erzeugten Ladungen q über mehrere Modulationsperioden in der Phasenlage des Modulationssignals M0 in einem ersten Akkumulationsgate Ga und in einer um 180° verschobenen Phasenlage M0 + 180° in einem zweiten Akkumulationsgate Gb. Aus dem Verhältnis der im ersten und zweiten Gate Ga, Gb gesammelten Ladungen qa, qb lässt sich die Phasenverschiebung Δφ(tL) und somit eine Entfernung d des Objekts bestimmen.
  • Zur Charakterisierung von 2D-Kamera-Systemen ist es üblich eine solche Kamera und/oder ein Target auf einer linearen Verfahreinheit anzuordnen und gegeneinander zu verschieben. Üblicherweise ist es vorgesehen, das Target, beispielsweise ein geeignetes Test-Chart, gut zu beleuchten und die Kamera gegenüber dem Target zu verschieben. So wird vermieden, dass auch die Targetbeleuchtung mit verschoben werden muss.
  • Eine vergleichbare Anordnung kann grundsätzlich auch zur Evaluierung und/oder Kalibrierung eines Abstandssensors herangezogen werden. Zur Vermessung von 3D-Kameras wird vorzugsweise eine Linear-Verfahreinheit verwendet, die normal, d.h. senkrecht, zu einer planaren Referenzfläche bekannter Reflektivität in einer streulichtarmen Umgebung ausgerichtet ist. Streulichtarm bedeutet hier, dass das Material oder die Farbe des Messaufbaus nicht-reflektierend im relevanten Lichtspektrum, üblicherweise nahes Infrarot, ist. Die auszumessende 3D-Kamera ist auf der Verfahreinheit angeordnet und durch verschieben der Verfahreinheit mitsamt der Kamera werden Daten (Rohdaten) der Kamera in verschiedenen Abständen aufgenommen und ausgewertet.
  • Für eine präzise Evaluation von Restfehlern der Distanzmessung und/oder zur Kalibration von systematischen Messfehlern, die beispielsweise als so genanntes „Wiggling“ bekannt sind, ist es erforderlich, präzise Referenzwerte zu messen. Bei einer oben genannten Verfahreinheit bzw. Messschiene bedeutet das in der Regel, eine präzise mechanische Ausrichtung der Kamera gegenüber der Referenzfläche/Target. Voraussetzung ist, dass die Verfahreinheit präzise senkrecht gegenüber einer planaren Referenzfläche bzw. dem Target ausgerichtet ist. Diese mechanische Ausrichtung ist aufwendig und fehleranfällig.
  • Kernüberlegung der Erfindung ist es, den Aufwand für eine Kalibrierung/Evaluation einer Kamera zu verringern.
  • Die Erfindung geht aus von folgenden Überlegungen: Wird eine Lichtlaufzeitkamera um eine bestimmte Distanz verfahren, z.B. 1000 mm, dann sollte sich aus den Entfernungsdaten der Kamera exakt diese Differenz ermitteln können. Das gilt grundsätzlich allerdings nur für den Pixel, dessen Blickwinkel durch das Objektiv der Kamera normal auf die Referenzfläche ausgerichtet ist.
  • Ein solcher Pixel mit einem orthogonalen Blickwinkel auf die Referenzfläche zeichnet sich dadurch aus, der er den kleinsten Abstand zu Referenzfläche aufweist. Da jedes Pixel einen individuellen Offset besitzt (‚fixed pattern phase noise‘ (FPPN)), ist es zunächst ohne Kalibration nicht möglich, den Pixel mit dem geringsten Abstand zur Referenzfläche durch eine direkte Messung zu ermitteln.
  • Erfindungsgemäß wird vorgeschlagen, dass die Differenzwerte zweier (oder mehrerer) Messungen in unterschiedlichen Distanzen ausgewertet werden. In einem solchen Differenzbild ist das FPPN nicht mehr vorhanden. Durch die gegebene Präzision in der Ausrichtung der Verfahreinheit gegenüber der Referenzfläche ist gewährleistet, dass der Minimalwert im Differenzbild die Pixelposition definiert, die orthogonal auf die Referenzfläche blickt. Diese Pixelposition kann zur Auswertung der systematischen Messfehlern, beispielsweise des Wigglings, bei beliebigen Abständen, eingestellt durch die Verfahreinheit, herangezogen werden.
  • Die oben beschriebene Methode erfordert ausdrücklich keine besondere Präzision in der Montage der Kamera und ist daher sehr robust und liefert eine sehr hohe Datenqualität.
  • Die oben beschriebene Methode erlaubt es ferner, unter Zuhilfenahme einer Linsenkalibration des Kameraobjektivs die Kalibration des FPPNs eines Lichtlaufzeitsensors zu verbessern. Mittels einer Linsenkalibration lassen sich dann die tatsächlichen Abstände der einzelnen Bildpixel zu ihren jeweiligem Zielpunkt auf der Referenzfläche bestimmen.
  • Das FPPN ergibt sich als Differenz von tatsächlichem und gemessenem Abstand. Ein Ausrichtungsfehler bei einer herkömmlichen Kalibration führt somit zu Fehlern in der FPPN-Kalibration.
  • Durch die erfindungsgemäße Methode ist allerdings bereits die Pixelposition im Bild präzise bestimmt worden, die orthogonal auf die Fläche ausgerichtet ist. Mittels der Daten der Linsenkalibration lässt sich daraus eine eventuell vorhandene Rotation bzw. Orientierung der Kamera gegenüber der Referenzfläche bestimmen und daraus wiederum die tatsächlichen Abstände zur FPPN-Bestimmung entsprechend korrigieren.
  • Die erfindungsgemäße Methode ist identisch anwendbar, wenn an Stelle der Kamera die Referenzfläche auf einer linearen Verfahreinheit montiert ist.
  • Das Verfahren ermöglicht eine sehr hohe Präzision von Kalibrationsdaten wie Wiggling und FPPN, ohne dass eine präzise, aufwendige mechanische Ausrichtung einer einzelnen Kamera notwendig ist. Es wird lediglich ausgenutzt, dass die lineare Verfahreinheit präzise gegenüber der planaren Messfläche ausgerichtet ist.
  • 3 zeigt schematisch das erfindungsgemäße Vorgehen. Im dargestellten Beispiel ist die Lichtlaufzeitkamera 20 nicht planparallel zum Objekt bzw. Referenzfläche 45 angeordnet. Im Bereich des Blickfeldes FOV (field of view) existiert jedoch ein orthogonaler Sichtvektor OV der parallel zur Normalen der Referenzfläche ausgerichtet ist. Dieser orthogonale Sichtvektor OV entspricht einem Aufpunkt auf dem Lichtlaufzeitsensor. Bei einer rein translatorischen Bewegung der Kamera 20 bleibt die parallele Ausrichtung des orthogonalen Sichtvektors OV zur Normalen der Referenzfläche 45 erhalten und auch die Position des Aufpunkts AP auf dem Lichtlaufzeitsensor ändert sich nicht. Der Aufpunkt weist grundsätzlich den minimalsten (optischen) Abstand zur Referenzfläche auf.
  • Erfindungsgemäß ist es für eine Kalibrierung vorgesehen, für mindestens zwei Abstände d1, d2 Entfernungsdaten und Differenzen zu ermitteln. (ij kennzeichnet das Pixel ij im Sensorarray) d12ij = (d2ij + FPPN) – (d1ij + FFPN) = d2ij – d1ij
  • In bekannter Weise hebt sich durch die Differenzbildung das fixed pattern noise auf. Über alle Pixel ij lässt sich dann ein Tiefenbild bzw. in diesem Fall ein Differenztiefenbild ermitteln.
  • Zur Bestimmung der Orientierung des Lichtlaufzeitsensors 22 in Relation zur Referenzfläche 45 wird zunächst ein Punkt/Aufpunkt auf dem Lichtlaufzeitsensor 22 bestimmt, an dem die Entfernungsdifferenz d12 bzw. das Differenztiefenbild ein Minimum aufweist.
  • In einer möglichen Ausgestaltung wird als Aufpunkt die Position des Pixels bestimmt, das die minimalste Entfernungsdifferenz aufweist.
  • Besonders vorteilhaft ist es jedoch vorgesehen, anhand der pixelindividuellen Entfernungsdifferenzen einen Aufpunkt zu extrapolieren. Beispielsweise könnte das Entfernungs-Minimum in einem hochskalierten und geglätteten Differenztiefenbild bestimmt werden. Dieses Vorgehen hat den Vorteil, dass die Position des Aufpunkts losgelöst von der Sensorauflösung genauer bestimmt und somit auch die Orientierung des Lichtlaufzeitsensors und im Ergebnis die FPPN-Korrektur präziser berechnen werden kann.
  • In 3 ist der Einfachheit halber nur die Lichtlaufzeitkamera 20 gezeigt, grundsätzlich funktioniert das erfindungsgemäße Vorgehen auch, indem das vollständige Lichtlaufzeitkamerasystem 1, mit Kamera 20 und Beleuchtung 10 gemeinsam translatorisch bewegt werden.
  • Bezugszeichenliste
  • 1
    Lichtlaufzeitkamerasystem
    10
    Beleuchtungsmodul
    12
    Beleuchtung
    20
    Empfänger, Lichtlaufzeitkamera
    22
    Lichtlaufzeitsensor
    30
    Modulator
    35
    Phasenschieber, Beleuchtungsphasenschieber
    40
    Objekt
    45
    Referenzfläche, Target
    φ, Δφ(tL)
    laufzeitbedingte Phasenverschiebung
    φvar
    Phasenlage
    φ0
    Basisphase
    M0
    Modulationssignal
    p1
    erste Phase
    p2
    zweite Phase
    Sp1
    Sendesignal mit erster Phase
    Sp2
    Empfangssignal mit zweiter Phase
    Ga, Gb
    Integrationsknoten
    d
    Objektdistanz
    q
    Ladung
    FOV
    field of view, Blickfeld
    OV
    Orthogonaler Vektor

Claims (6)

  1. Verfahren zum Kalibrieren oder/und Evaluieren einer Lichtlaufzeitkamera (1, 20) mit Hilfe einer Referenzfläche (45), wobei die Lichtlaufzeitkamera (1, 20) einen Lichtlaufzeitsensor (22) bestehend aus einem Array von Lichtlaufzeitpixeln aufweist, bei dem zur Kalibrierung oder/und Evaluierung der Lichtlaufzeitkamera (1, 20) durch translatorische Abstandsänderungen verschiedene Abstände zwischen der Lichtlaufzeitkamera (1, 20) und der Referenzfläche (45) eingestellt werden, mit den Schritten: – Ermittlung von ersten Entfernungsdaten für einen ersten Abstand – Ermittlung von zweiten Entfernungsdaten für einen zweiten Abstand, – Berechnung von Entfernungsdifferenzen aus den ersten und zweiten Entfernungsdaten – Ermittlung einer Orientierung der Lichtlaufzeitkamera (1, 20) zur Referenzfläche (45) ausgehend von den berechneten Entfernungsdifferenzen.
  2. Verfahren nach Anspruch 1, bei dem ausgehend von den Entfernungsdifferenzen ein Aufpunkt (AP) auf dem Lichtlaufzeitsensor (22) berechnet wird, an dessen Position die Entfernungsdifferenzen ein Minimum aufweisen.
  3. Verfahren nach Anspruch 2, bei dem ausgehend von der Position des bestimmten Aufpunkts oder/und eines um den Aufpunkt liegenden Pixelbereichs eine Orientierung des Lichtlaufzeitsensors (22) bzw. der Lichtlaufzeitkamera (1, 20) in Relation zur Referenzfläche (45) ermittelt wird.
  4. Verfahren nach einem der vorhergehenden Ansprüche, bei dem ausgehend von den erfassten Entfernungsdaten und der ermittelten Orientierung des Lichtlaufzeitsensors (22) eine Kalibrierung oder/und Evaluation der Lichtlaufzeitkamera (1, 20) erfolgt.
  5. Verfahren nach Anspruch 4, bei dem ausgehend von den erfassten Entfernungsdaten und der ermittelten Orientierung ein ‚fixed pattern phase noise‘ (FPPN) ermittelt wird.
  6. Vorrichtung zur Kalibrierung einer Lichtlaufzeitkamera (20) oder eines Lichtlaufzeitkamerasystems (1) die zur Durchführung eines Verfahrens gemäß einem der Ansprüche 1 bis 5 ausgebildet ist, mit einer Verfahreinheit zur Einstellung eines Abstandes zwischen der Lichtlaufzeitkamera (1, 20) und einer Referenzfläche (45), mit einer Auswerteeinheit zur Kalibrierung der Lichtlaufzeitkamera (1, 20), die derart ausgebildet ist, dass ausgehend von Entfernungsdaten, die in unterschiedlichen Abständen ermittelt wurden, eine Orientierung der Lichtlaufzeitkamera (1, 20) zur Referenzfläche (45) bestimmt wird.
DE102016204140.1A 2016-03-14 2016-03-14 Vorrichtung und Verfahren zur Kalibrierung einer Lichtlaufzeitkamera Active DE102016204140B3 (de)

Priority Applications (4)

Application Number Priority Date Filing Date Title
DE102016204140.1A DE102016204140B3 (de) 2016-03-14 2016-03-14 Vorrichtung und Verfahren zur Kalibrierung einer Lichtlaufzeitkamera
PCT/EP2017/054461 WO2017157643A1 (de) 2016-03-14 2017-02-27 Vorrichtung und verfahren zur kalibrierung einer lichtlaufzeitkamera
CN201780015532.4A CN108700650B (zh) 2016-03-14 2017-02-27 用于校准光传播时间摄像机的装置和方法
US16/080,550 US10488501B2 (en) 2016-03-14 2017-02-27 Device and method for calibrating a light propagation time camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102016204140.1A DE102016204140B3 (de) 2016-03-14 2016-03-14 Vorrichtung und Verfahren zur Kalibrierung einer Lichtlaufzeitkamera

Publications (1)

Publication Number Publication Date
DE102016204140B3 true DE102016204140B3 (de) 2017-04-06

Family

ID=58162616

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102016204140.1A Active DE102016204140B3 (de) 2016-03-14 2016-03-14 Vorrichtung und Verfahren zur Kalibrierung einer Lichtlaufzeitkamera

Country Status (4)

Country Link
US (1) US10488501B2 (de)
CN (1) CN108700650B (de)
DE (1) DE102016204140B3 (de)
WO (1) WO2017157643A1 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019174895A1 (de) * 2018-03-14 2019-09-19 Precitec Gmbh & Co. Kg Vorrichtung für die bestimmung einer ausrichtung einer optischen vorrichtung eines kohärenztomographen, kohärenztomograph und laserbearbeitungssystem
CN111751807A (zh) * 2019-03-27 2020-10-09 先进科技新加坡有限公司 用于校准或测试成像装置的设备和方法

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11525918B2 (en) * 2017-04-04 2022-12-13 pmdtechnologies ag Time-of-flight camera
CN111090085B (zh) * 2018-10-24 2022-04-12 光宝电子(广州)有限公司 基于飞行时间测距的校正系统及其方法
CN111147142B (zh) * 2018-11-02 2021-02-26 光宝电子(广州)有限公司 误差校正系统及其方法
DE102018222796A1 (de) 2018-12-21 2020-06-25 Conti Temic Microelectronic Gmbh Aufbau und Vermessung des Aufbaus zur Kalibrierung einer Kamera
CN109903241B (zh) * 2019-01-31 2021-06-15 武汉市聚芯微电子有限责任公司 一种tof相机系统的深度图像校准方法及系统
KR20210032669A (ko) 2019-09-17 2021-03-25 삼성전자주식회사 비행 시간 센서 및 비행 시간 센서의 에러 보정 방법
EP4014066A4 (de) * 2019-12-11 2023-01-25 Samsung Electronics Co., Ltd. Elektronische vorrichtung und verfahren zur steuerung davon

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19704496A1 (de) * 1996-09-05 1998-03-12 Rudolf Prof Dr Ing Schwarte Verfahren und Vorrichtung zur Bestimmung der Phasen- und/oder Amplitudeninformation einer elektromagnetischen Welle

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6108916A (en) * 1998-08-14 2000-08-29 Milwaukee Electric Tool Corporation Movable handle for a power tool
TW561241B (en) * 2002-08-22 2003-11-11 Ind Tech Res Inst Method and apparatus for calibrating laser three-dimensional digitizing sensor
US8970690B2 (en) * 2009-02-13 2015-03-03 Metaio Gmbh Methods and systems for determining the pose of a camera with respect to at least one object of a real environment
DE102009046124A1 (de) * 2009-10-28 2011-05-05 Ifm Electronic Gmbh Verfahren und Vorrichtung zur Kalibrierung eines 3D-TOF-Kamerasystems
GB2506685A (en) * 2012-10-08 2014-04-09 Melexis Technologies Nv Determining and/or Compensating Range Offset of a Range Sensor
CA2917092A1 (en) * 2013-07-04 2015-01-08 Koninklijke Philips N.V. Determining orientation
EP2827099A1 (de) * 2013-07-16 2015-01-21 Leica Geosystems AG Lasertracker mit Zielsuchfunktionalität
US10062180B2 (en) * 2014-04-22 2018-08-28 Microsoft Technology Licensing, Llc Depth sensor calibration and per-pixel correction
US9864048B2 (en) * 2015-05-17 2018-01-09 Microsoft Technology Licensing, Llc. Gated time of flight camera

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19704496A1 (de) * 1996-09-05 1998-03-12 Rudolf Prof Dr Ing Schwarte Verfahren und Vorrichtung zur Bestimmung der Phasen- und/oder Amplitudeninformation einer elektromagnetischen Welle

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
CHIABRANDO, F. et al.: "Sensors for 3D Imaging: Metric Evaluation and Calibration of a CCD/CMOS Time-of-Flight Camera". In: Sensors 2009, Vol. 9, Seiten 10080 bis 10096; doi:10.3390/s91210080 *
LINDNER, Marvin; KOLB, Andreas: "Lateral and Depth Calibration of PMD-Distance Sensors". In: International Symposium on Visual Computing. Springer Berlin Heidelberg, 2006. S. 524-533. *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019174895A1 (de) * 2018-03-14 2019-09-19 Precitec Gmbh & Co. Kg Vorrichtung für die bestimmung einer ausrichtung einer optischen vorrichtung eines kohärenztomographen, kohärenztomograph und laserbearbeitungssystem
US11623299B2 (en) 2018-03-14 2023-04-11 Precitec Gmbh & Co. Kg Device for determining an orientation of an optical device of a coherence tomograph, coherence tomograph and laser processing system
CN111751807A (zh) * 2019-03-27 2020-10-09 先进科技新加坡有限公司 用于校准或测试成像装置的设备和方法
CN111751807B (zh) * 2019-03-27 2023-05-23 先进科技新加坡有限公司 用于校准或测试成像装置的设备和方法

Also Published As

Publication number Publication date
US10488501B2 (en) 2019-11-26
CN108700650A (zh) 2018-10-23
US20190072654A1 (en) 2019-03-07
CN108700650B (zh) 2019-11-08
WO2017157643A1 (de) 2017-09-21

Similar Documents

Publication Publication Date Title
DE102016204140B3 (de) Vorrichtung und Verfahren zur Kalibrierung einer Lichtlaufzeitkamera
EP2019973A1 (de) Distanzmessverfahren und distanzmesser zur erfassung der räumlichen abmessung eines zieles
DE102015108825A1 (de) Laufzeit-Kamera mit Ortssensorsystem
DE102018107064A1 (de) Kalibrierungsvorrichtung eines Bildgebungssystems und zugeordnetes Kalibrierungsverfahren
DE102015217912A1 (de) Verfahren zur Laufzeitkalibrierung eines Lidarsensors
DE102013207647B4 (de) Lichtlaufzeitkamerasystem und Verfahren zum Betreiben eines solchen
DE102019003871A1 (de) Abstandsmessvorrichtung mit Polarisationsfilter
DE102010038566A1 (de) Lichtlaufzeitkamera mit Funktionsüberwachung
DE102010043723B4 (de) Lichtlaufzeitkamerasystem
DE102014205585B4 (de) Verfahren zum Betreiben einer Lichtlaufzeitkamera und Lichtlaufzeitkamerasystem
DE102016221184A1 (de) Kalibriervorrichtung und Kalibrierverfahren für ein Kamerasystem
DE102005037094B3 (de) Kalibrierverfahren für einen Sensor zur Abstandsmessung
DE102014204423B4 (de) Lichtlaufzeitkamerasystem
DE112015006912T5 (de) Optisches Entfernungsmesssystem
DE3728257A1 (de) Optische anordnung und verfahren zur lichtelektrischen entfernungseinstellung, insbesondere fuer operationsmikroskope
DE102020123537B4 (de) Lichtlaufzeitkamerasystem
DE102016219519B4 (de) Lichtlaufzeitkamerasystem
DE102016222334B4 (de) Verfahren zur Ermittlung von Systemparametern eines Lichtlaufzeitkamerasystems
DE102013207652A1 (de) Lichtlaufzeitkamerasystem
DE102021111602A1 (de) Computerimplementiertes Verfahren zur Korrektur von Artefakten in Messdaten, die von einem Time-of-Flight 3D-Sensor erzeugt werden, ein entsprechendes Computerprogramm, ein entsprechendes computerlesbares Medium und ein PMD-Detektor
DE102013208248A1 (de) Verfahren zur Charakterisierung eines optischen Systems mit Hilfe eines 3D-Sensors
DE102016221186B4 (de) Kalibriervorrichtung für ein Lichtlaufzeitkamerasystem
DE102023117446B3 (de) Optisches System
DE102016214455A1 (de) Lichtschnittsensor
DE102010043615B4 (de) Optischer Abstandssensor

Legal Events

Date Code Title Description
R163 Identified publications notified
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final
R081 Change of applicant/patentee

Owner name: PMDTECHNOLOGIES AG, DE

Free format text: FORMER OWNER: PMDTECHNOLOGIES AG, 57076 SIEGEN, DE

R082 Change of representative

Representative=s name: SCHUHMANN, JOERG, DIPL.-PHYS. DR. RER. NAT., DE