CN117630876A - 具有tof传感器的测量设备 - Google Patents

具有tof传感器的测量设备 Download PDF

Info

Publication number
CN117630876A
CN117630876A CN202311076609.2A CN202311076609A CN117630876A CN 117630876 A CN117630876 A CN 117630876A CN 202311076609 A CN202311076609 A CN 202311076609A CN 117630876 A CN117630876 A CN 117630876A
Authority
CN
China
Prior art keywords
unit
scene
data
tof
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202311076609.2A
Other languages
English (en)
Inventor
J·斯蒂格瓦尔
杨征
托马斯·延森
M·迈尔
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hexagon Technology Center GmbH
Original Assignee
Hexagon Technology Center GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hexagon Technology Center GmbH filed Critical Hexagon Technology Center GmbH
Publication of CN117630876A publication Critical patent/CN117630876A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C15/00Surveying instruments or accessories not provided for in groups G01C1/00 - G01C13/00
    • G01C15/002Active optical surveying means
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/10Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/66Tracking systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/87Combinations of systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4811Constructional features, e.g. arrangements of optical elements common to transmitter and receiver
    • G01S7/4812Constructional features, e.g. arrangements of optical elements common to transmitter and receiver transmitted and received beams following a coaxial path
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4817Constructional features, e.g. arrangements of optical elements relating to scanning
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/4861Circuits for detection, sampling, integration or read-out
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/51Display arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/11Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths for generating image signals from visible and infrared light wavelengths
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/74Circuitry for compensating brightness variation in the scene by influencing the scene brightness using illuminating means

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

具有TOF传感器的测量设备。提供获取与场景中的目标相关的三维测量点的测量设备,包括:基座单元;安装在基座单元上的支承单元;测距单元,包括发射测量辐射的发射单元和检测由目标反射的测量辐射的至少一部分的接收单元;安装在支承单元上的引导单元,将测量辐射朝向场景引导;捕获单元,至少捕获场景的至少一部分的场景图像,场景图像是通过检测可见光谱光生成的;控制和处理单元,对准引导单元。捕获单元包括TOF传感器,其提供场景的至少一部分的TOF数据和作为场景图像的像素相关图像数据,TOF数据包括范围数据,控制和处理单元包括处理TOF数据且基于TOF数据导出目标信息的目标标识功能,目标信息包括测量设备到目标的方向和与目标相关的范围数据。

Description

具有TOF传感器的测量设备
技术领域
本发明涉及一种用于获取三维测量点的测量设备,特别是涉及一种大地测量仪器。这种仪器的示例是全站仪、经纬仪或激光扫描器。
背景技术
用于确定大地测量现场或者建筑工地区域和/或建筑物中的位置的勘测或测量系统被已知为多种形式。这些系统的示例是由具有测距测向仪的固定勘测设备(例如,全站仪)以及标记待勘测或标识的点的辅助仪器组成的系统。例如,在公开的申请EP 1686350中描述了现有技术的大地测量设备。
已知关于测量设备的设计的许多不同实施方式。因此,例如,现代全站仪具有用于对所获取的测量数据进行数字处理和存储的微处理器。这些设备通常具有紧凑和集成结构,其中,通常在设备中提供同轴测距元件以及计算机单元、控制单元和存储单元。根据全站仪的配置水平,可以集成瞄准(targeting and/or aiming)单元的机动化,而且在将后向反射器(诸如360°棱镜)用作目标物体的情况下,可以集成用于自动目标搜索和跟踪的装置。
作为人机接口,全站仪可以包括电子显示-控制单元(通常为具有电子数据存储装置的微处理器计算机单元),电子显示-控制单元具有显示屏和输入装置(例如键盘)。将所获取的测量数据供应给显示-控制单元,使得目标点的位置可由显示-控制单元查明、可视地显示以及存储。而且,从现有技术已知的全站仪可以具有无线电数据接口,无线电数据接口用于建立到外围组件的无线电连接,例如,到测量辅助仪器或者到手持式数据获取设备的无线电连接,手持式数据获取设备可以被特别地设计为数据记录器或现场计算机。
为了瞄准待勘测的目标点,一般大地测量设备包括望远镜瞄准具(例如,光学望远镜),作为瞄准单元。望远镜瞄准具通常可相对于测量设备的基座(base)围绕竖立轴线并且围绕水平倾斜轴线旋转,使得望远镜可以通过枢转和倾斜来与待勘测的点对准。除了光学可视通道之外,现代装设备还包括摄像机,摄像机被集成到望远镜瞄准具中,并且例如同轴地或平行地对准以用于获取图像,其中,所获取的图像可以特别地表示为显示-控制单元的显示屏上和/或被用于远程控制的外围设备(例如,数据记录器)的显示屏上的实况图像。
在许多测量应用中,执行对点的测量是由于专门设计的测量辅助仪器或目标物体(例如,勘测杆)被放置在目标点处。这些通常由具有用于限定测量距离或测量点的反射器(例如,360°棱镜)的杆组成。在这种勘测任务中,数据、指令、语音以及进一步信息项通常在目标物体与中央测量设备之间传输,以用于控制测量过程和用于限定或记录测量参数。这样的数据的示例是目标物体的标识信息(例如,所使用的棱镜的类型)、杆的倾度、反射器在地面上方的高度、反射器常数、或者诸如温度或气压的测得值。需要这些信息项和/或情形相关参数,以使得能够实现对由具有棱镜的杆限定的测量点的高精度瞄准和勘测。
为了测量场景中的测量点,通常,使目标或目标物体(例如,杆)位于测量点处或附近,并且通过借助于测量设备测量到目标的距离和方向来确定测量点的位置。
为此,在第一步骤中,必须标识待测量的相应目标。然而,由于这种目标可能位于远离测量设备的位置,因此,标识可能变得比较具有挑战性。在场景中存在多个目标并且必须标识和测量这些目标中的特定目标的情况下,情况就更是如此。
作为标准特征,典型的勘测设备已经包括用于被用作目标反射器的棱镜的自动目标瞄准和跟踪功能(ATR:“Automatic Target Recognition,自动目标识别”)作为标准特征。为此目的,例如,另外在望远镜中集成了对ATR光源的波长敏感的另一单独且特殊ATR检测器(例如,CCD表面传感器或CMOS)。
已知的测量设备提供用于搜索目标的具体解决方案。例如,常见的方法利用以IR(infra-red,红外)光对场景的闪光照明以及对IR光谱中的目标反射光的检测。经反射的IR光可以借助于IR敏感传感器来检测,其中,经反射的IR光入射到传感器的相应像素上。基于分别激发的像素的位置,可以导出到目标的方向。
根据另选方法,可以通过在场景上方移动(IR)搜索光的光扇(fan),并且在由传感器检测到搜索光的反射的任何时间检测光扇的相应取向来提供对目标的照明。
虽然对于限定的和单一目标,上述这种搜索方法工作相当可靠,但是在场景中有多个目标的情况下可能导致歧义(ambiguity),或者在搜索光被不是目标的物体反射的情况下可能导致目标标识的错误。
对于这种使用情况,测量设备可以包括显示器,并且可以显示场景的图像,其中可能的目标覆盖有图像。因此,可以使得用户能够基于目标在场景中的经确定位置来手动选择待测量的特定目标。
然而,即使目标可以由用户手动选择,如果所选目标实际上是应当被测量的目标,那么仍然存在不确定性。对于关于它们的瞄准方向彼此非常靠近的目标或者在自动发现的目标中的一些目标不是真实大地测量目标而可能源于无意反射的情况下,情况就是如此。这种情形不仅可能发生在瞄准期间,而且可能发生在跟踪的情况下,在这种情况下,具有多个目标的情形可能变得相当动态,例如,目标的交叉。
发明内容
发明目的
因此,本发明的目的是提供一种克服上面所提及的问题的测量设备。
本发明的另一目的是提供一种这样的测量设备,即,测量设备提供用于搜索和/或标识测量场景中的目标的改进能力。
发明概要
本发明的构思主要在于勘测类型的测量设备,比如全站仪或激光扫描器。
通常,勘测设备提供用于借助于检测传感器数据来搜索和找到场景中的特定目标的所谓的ATR(自动目标识别)功能和轴上摄像机(on-axis camera,OAC)以提供场景的图像。
OAC和ATR两者通常使用设备的同一光学器件来对相当小视场进行成像。这两个摄像机具有不同规格。然而,本发明的构思还涉及将这两个功能组合到一个传感器中以节省光学复杂性、尺寸、成本以及调节用于瞄准目标的焦点位置的可能性。
查看传感器的分辨率,该分辨率可以是至少1Mpx或5Mpx,以用于捕获相应的图像。
在光谱上,传感器还可以提供(N)IR灵敏度,特别是可切换的。可以附接IR截止滤波器(IR-cut filter),其在相应的光谱带宽内透射例如10%。
另选地或者另外地,可以提供机械可切换滤波器或可见波长照明源。
当在ATR与OAC成像(用于ATR开/关的主动照明和不同曝光时间)之间交替时,可以在运行ATR的同时,提供清晰的OAC图像而没有任何ATR干扰。
本发明的构思还在于在测量设备中设置TOF(Time-Of-Flight,飞行时间)传感器,并且利用由TOF传感器提供的数据来标识场景中的目标。由于TOF传感器可以提供图像数据而且还提供各个像素的范围(range)或振幅数据,因此,可以利用这种范围信息来提供更可靠且更准确的目标标识。此外,如果考虑将TOF范围数据用于跟踪目标,那么可以以改进方式来跟踪该目标。在由EDM(electronic distance meter,电子测距仪)发射的测量辐射不再入射到目标上的情况下,例如,在目标突然和无意移动的情况下,这变得更加相关。
TOF传感器可以另外或者代替任何其它图像传感器被设置,并且可以提供如所提及的范围数据而且还提供图像数据。
TOF传感器还可以被配置成例如通过选择性地检测可见光谱(visual spectrum,VIS)的光而且还选择性地检测红外(IR)光谱、特别是近红外(near infrared,NIR)光谱的光来提供ATR功能。由于ATR功能利用以IR光或NIR光来照明场景的至少一部分,因此传感器优选地被配置用于相应检测。
TOF传感器可以提供用于通过主动照明(通常以NIR)来检测反射器并且获得范围和方向(位置)信息。TOF传感器还可以被配置成以环境光(通常以NIR)来提供场景的图像。来自TOF传感器的这种信息或者来自OAC(通常以VIS)的图像可以被用于通过利用场景信息或反射器上下文来改进对目标的分类。
通过这样提供能够获取关于到目标的方向的ATR信息并且还能够获取目标或目标周围(附近)区域的(粗略)范围信息的单个传感器,潜在目标的搜索和标识变得显著更高效且准确,同时可以降低设备的结构复杂性。
可以将TOF阵列(传感器)分类成两种类型:间接TOF(诸如Sony IMX567(640×480像素)和直接TOF(诸如OnSemi Pandion)。这种TOF阵列的4D数据(3D点云+强度)允许增强ATR和强力搜索的功能。ATR系统利用强度信息来瞄准移动棱镜杆。如果存在位于照明光锥内的多个棱镜目标,则它们可能不是仅基于强度可选择的。一种改进跟踪稳定性的构思涉及利用TOF阵列来代替摄像机芯片,以使基于距离数据改进多个目标的分离和选择。TOF阵列也可以被用于目标的搜索。
至少两个间接TOF传感器是商业可获得的。虽然第一种技术CAPD(当前辅助光子解调器(Current Assisted Photonic Demodulator),例如,Sony)被广泛用于TOF摄像机,但是在Heliotis S4摄像机芯片(锁定式2D检测器)中实现的第二种技术被设计用于解调白光干涉测量的相关图的包络。两种技术在它们的解调频率和帧速率方面彼此不同。虽然SonyIMX 556的高解调频率可以被用于实现TOF摄像机的毫米(mm)深度分辨率,但是HeliotisS4的高帧速率可以有利于白光干涉测量的快速深度扫描。
例如,使用CAPD技术(当前辅助光子解调器)的传感器是具有背面照明技术和改进的解调频率的IMX556PLR(Sony)。由于背面照明技术,因此850nm的量子效率高达56.6%。在各个像素中,对两个有效像素进行积分。通过在电极上施加“推挽”电压,所产生的光子电子可以被引导至一个或另一个像素。这种切换机构的频率可以与照明频率同步。该机构相当于对4相移(4-phase-shift)算法的0°和180°对强度进行采样。为了明确地计算相位和振幅,可以通过使切换定时移位90°来获取90°和270°处的强度。两个所得到的0°和90°微帧递送四个强度值A1、A2、A3以及A4,从这些强度值可以计算相位和振幅。
关于锁定式2D检测器,各个像素皆具有单独模拟电路,以直接抑制经调制光的DC部分,并且在像素级解调经调制光的振幅和相位。这种像素级模拟操作可以避免传统数字处理单元中的大计算工作量,并且大幅提升信号解调的获取速度。该特征使得Heliotis能够提供具有高达50mm/sec的异常高的深度扫描速度的白光干涉测量系统。每一个像素都是“智能像素”并且具有光子敏感光电二极管,光电二极管是AC联接的并且配备有具有两个通道(Q和I)的单独模拟电路。通过乘法和积分器电路对两个通道中的光子电流进行滤波。输出信号Q(t)和I(t)被数字化并转发至FPGA单元以用于数字后处理。根据使用情况,可以在FPGA中执行进一步数字运算以实现目标信号。在经由飞行时间进行测距的情况下,可以以固定频率来调制光源。在所述智能像素处将收发器与目标之间的距离编码到所检测到的光子电流的相位中。在像素级背景抑制的情况下,应当检测经调制光源的振幅调制。在目标ID检测的情况下,可以扫描乘法电路的载波频率,以便扫描经调制光源的频率。如果解调频率与光源的载波频率匹配,则图像将显示亮点,否则图像仍保持是暗的。
相应地,本发明涉及一种用于获取与场景中的目标相关的三维测量点的测量设备,其中,目标标识符可以与目标相关联。测量设备包括:基座单元;支承单元,支承单元被安装在基座单元上,并且支承单元可相对于基座单元绕方位轴线旋转;以及测距单元,测距单元包括发射单元和接收单元,发射单元被配置为发射准直测量辐射,并且接收单元被配置为检测由目标反射的准直测量辐射的至少一部分。测距单元可以被配置成通过向物体发射测量辐射并且检测由物体反射的辐射的一部分来导出到物体(例如,目标)的距离。基于这种方法导出距离的几种测量原理在本领域中是公知的,比如飞行时间测量或WFD(波形数字化)。
该设备还包括引导单元(directing unit),引导单元被安装在支承单元中,可相对于支承单元绕俯仰轴线旋转,并且引导单元被配置为将测量辐射引导朝向场景。第一致动器可以被配置为使支承单元相对于基座单元绕方位轴线旋转,第二致动器可以被配置为使引导单元相对于支承单元绕俯仰轴线旋转,第一角度编码器可以被配置为测量支承单元的旋转位置,并且第二角度编码器可以被配置为测量引导单元的旋转位置。
该设备包括捕获单元,其中,捕获单元被配置为至少捕获场景的至少一部分的场景图像。可以通过对可见光谱(VIS)光和/或近红外光谱(NIR)光的检测来生成场景图像。这种场景图像可以为操作者提供概览图像(overview image)或示出待测量目标的图像,以便例如精确地瞄准目标。
测量设备包括照明单元,照明单元被配置为利用照明辐射对场景的至少一部分进行照明,其中,照明辐射至少包括经调制照明信号。
发射单元被配置成发射准直测量辐射,准直测量辐射特别地被提供为准直激光束。这样的光束通常被用于引导至后向反射目标,并且光束的经反射部分由接收单元来检测。通过这样,可以以本领域已知的非常准确的方式来导出到目标的距离。
与发射单元形成对比,照明单元提供照明辐射(光),照明辐射不仅用于照明目标的后向反射器,而且用于照明相对较大勘测场景,即,照明现场明显大于借助于所发射的具有(非常)小光束发散度的测量辐射照明的现场。换句话说,照明辐射的开度角大于测量辐射的开度角。
该设备包括控制和处理单元,其中,控制和处理单元至少被配置为对准引导单元。
根据本发明,捕获单元包括飞行时间(TOF)传感器,其中,TOF传感器被配置为通过生成像素相关图像数据来提供场景图像,其中,场景图像是借助于TOF传感器,通过对可见光谱(VIS)光和/或近红外光谱(NIR)光的检测来生成的。因此,TOF传感器可以被具体实施和配置成捕获并提供场景的至少一部分的可视图像。通过这样,不仅可以处理范围数据连同方向,而且可以将这种数据与视觉图像数据进行组合,以提供场景和/或目标的更具表现力的印象。
TOF传感器还被配置为提供场景的至少一部分的像素相关TOF数据,TOF数据至少包括各个像素的范围数据和/或振幅数据。像素相关TOF数据与像素相关图像数据相关联,以使像素相关TOF数据中的各个像素皆被指派给像素相关图像数据中的至少一个像素。
控制和处理单元包括目标搜索功能,目标搜索功能被配置为控制目标照明单元以使场景的至少一部分被照明,并且被配置为控制TOF传感器以使被照明场景的至少一部分的像素相关TOF数据被获得为搜索数据,其中,照明场景的至少一部分和获得搜索数据是同步的,以使搜索数据是在场景的照明期间针对场景的至少所述部分获得的。
控制和处理单元包括目标标识功能,目标标识功能被配置为处理搜索数据并且基于搜索数据导出目标信息,其中,目标信息包括关于测量设备到目标的方向、以及与目标相关联的TOF数据。
在本发明的上下文中,像素相关数据应当优选地被理解为包括多个检测值的数据,所述多个检测值分布在限定(检测)区域(例如,传感器平面)上并且以限定方案(例如,行和列)设置。因此,像素相关图像数据应当优选地被理解为包括特定的和不同的图像值,比如提供相应图像的颜色和/或亮度。更加具体地,像素相关图像数据可以通过具有不同像素值的像素的限定布置来提供图像。
在一个实施方式中,范围数据包括各个像素的距离值或者与TOF传感器的范围测量相关的各个像素的范围信息。通过处理照明设备和TOF传感器的控制数据(例如,用于发射照明光或启动脉冲的信号以及用于接收经反射光的像素相关信号),可以导出距离值。范围信息可以包括以发射照明光开始并且以接收反射光结束的光传播的持续时间。
根据一个实施方式,可以借助于TOF传感器(15),通过检测可见光谱(VIS)光和/或近红外光谱(NIR)光的非调制信号、特别是照明辐射的非调制照明信号,来生成或提供像素相关图像数据。因此,可以通过检测发射光的非调制部分来导出场景图像。
根据一个实施方式,可以通过检测由照明辐射提供的经调制照明信号,来生成或提供像素相关TOF数据。因此,可以通过检测(经反射的)发射光的经调制部分来导出TOF数据。
在一个实施方式中,目标标识功能可以被配置成特别是以叠加方式来提供或显示彼此参考的场景图像和像素相关TOF数据(或者目标信息)。通过这样,可以在测量设备的显示器上显示用户指南,测量设备根据场景图像示出测量场景,并且还例如示出场景图像的各个或特定像素(例如,根据目标信息)的范围数据。因此,用户可以例如通过点击或触摸所显示图像的相应区域,来决定相应目标位于场景中的何处。
根据本发明,TOF传感器应当被理解为具体实施为集成传感器设备,集成传感器设备包括多个感测像素(像素阵列),这些感测像素提供对图像数据的检测并且还提供对TOF数据的检测,特别是对(经反射的)照明光的调制部分的检测。
在一个实施方式中,照明单元和捕获单元彼此相对地被配置和设置成使得用于发送照明辐射的孔径角等于或大于用于接收由场景反射的照明辐射的孔径角。当将照明单元和捕获单元同轴对准时,可以通过照明单元来照明捕获单元的整个视场,并且可以一次拍摄整个视场来收集TOF数据。
特别地,目标信息的导出可以包括:通过将第一组像素(至少一个单像素)的第一范围数据和/或振幅数据(TOF数据)与第二组像素(至少一个单像素)的第二范围数据和/或振幅数据进行比较,并且基于第一范围数据与第二范围数据之间的差异来标识目标,来处理像素相关数据。特别地,第一组像素中的像素与第二组像素中的像素相邻。
目标信息可以以不同的方式来导出。特别地,可以基于目标的相关振幅数据(即,所检测到的反射的信号强度)来检测目标。通过这样,可以通过比较第一组像素(例如,具有目标的强振幅信号)与第二组像素(例如,具有背景的弱信号)来执行标识。因此,到目标的方向可以基于跨图像的振幅数据的比较。范围(或到目标的距离)也可以基于TOF信息,例如它可以是例如基于波形的图像传感器抽头(tap)或相位或脉冲飞行时间测量。
执行上述几个像素或多组像素的方法可以加以分析并且与其它像素(特别是彼此靠近的像素)进行比较。通过这样,例如可以确定像素的范围数据中的差异。在一个像素(或第一组像素)包括特定范围或者与例如周围或邻近像素的值显著不同的振幅值(周围像素可以对应于可能不包括范围值或者与值“0”相关的漫反射表面)的情况下,可以标识可能的目标。这样的发现可以是对场景中的不是自然环境的部分但是可以是人工的并且被放置用于特定目的(比如大地测量目标(例如,反射器或杆))的物体的清楚提示。
由于到这种目标的距离可以通过TOF测量获知(通常不如通过EDM的测量精确),并且这种信息被提供给所述设备的操作者,因此可以使得操作者能够单独地或手动地决定所找到的物体是否表示待测量的目标。
因此,在一些实施方式中,测量设备可以包括显示器,并且控制和处理单元被配置成在显示器上提供TOF数据。另选地或者另外地,TOF数据可以被发送至远程设备以用于显示和/或进一步处理。例如,数据可以被发送至另一勘测设备,以使得另一设备能够高效地瞄准所找到的目标,而不必执行另一ATR或其它搜索功能。
根据一个实施方式,捕获单元可以包括图像传感器,图像传感器被配置成捕获另一(扩展的)场景图像,其中,图像传感器的分辨率大于TOF传感器的分辨率,特别地是其中,图像传感器的光学轴线与TOF传感器的光学轴线同轴联接。通过这样,可以由另一图像传感器生成另一场景图像,并且可以相对于图像传感器的图像数据来配准TOF数据。
由于可能使用具有公共原点的共享坐标系,因此TOF传感器和图像传感器的数据的叠加或参考变得不太复杂。
在一个实施方式中,目标标识功能可以被配置成处理TOF场景图像和增强的场景图像,并且以叠加方式提供TOF场景图像和第一场景图像。特别地,这些图像可以彼此参考。两个图像可以同时显示在测量设备的显示器上或者远程显示器上(例如,在智能手机、平板电脑、膝上型电脑等上)。
在一个实施方式中,捕获单元可以包括可以在VIS与IR之间切换的滤波器、分频滤波器、或者对VIS敏感的多个像素以及对IR频谱敏感的多个像素。像素可以由TOF传感器来提供。以不同方式处理和引导具有不同光谱特性的光的能力可以提供利用一个传感器来执行不同的功能。例如,捕获单元的传感器可以被用于搜索目标和用于导出范围信息。
滤波器可以在可见光谱(RGB)或(N)IR光谱之间以机械方式切换(滤波器交换(swap))。TOF传感器可以被具体实施为RGB-IR传感器,以读出作为RGB-IR传感器的单独通道的RGB和IR,RGB-IR传感器的拜尔模板(Bayer pattern)具有四个通道(R、G、B、IR)。滤波器可以是IR截止滤波器(通过附接IR截止滤波器将可见光谱扩展至包括例如10%IR)。
根据实施方式,滤波器可以透射VIS(例如,整个频带)和窄带IR波长。即使IR频带窄且被衰减,RGB场景图像也仍可以具有足够的颜色准确度。
根据实施方式,捕获单元可以包括窄带透射滤波器,窄带透射滤波器被配置成透射包括照明光的波长的波长带的辐射,并且阻挡从波长带排除的波长的背景辐射。
在一个实施方式中,特别是在上述上下文中,TOF传感器可以被配置成提供彩色场景图像,其中,TOF传感器的像素被配置成检测相应颜色信息。
特别地,控制和处理单元可以包括图像捕获功能,图像捕获功能被配置为通过控制捕获单元来捕获场景图像。因此,图像捕获功能可以被配置为借助于TOF传感器和/或图像传感器来捕获场景图像。
测量设备包括用于搜索场景中的目标的功能。这种功能也可以被称为ATR(自动目标识别)功能。
特别地,目标照明单元可以被配置为可变地照明场景的至少一部分,即,在不同的时间点提供场景的不同部分的照明。
由TOF传感器收集搜索数据。
在一个实施方式中,照明单元可以被配置为发射照明光以照明场景的至少一部分,其中,发射NIR或IR光谱的照明光。换句话说,目标照明单元可以包括(N)IR光源并且提供(N)IR照明光。
如上已经提及,可以相应地具体实施或控制捕获单元(TOF传感器),以选择性地接收和检测照明光的反射(例如,通过使用可切换滤波器)。换句话说,可以通过在IR光透射和/或检测与VIS光透射和/或检测之间的照明同步切换,来提供对捕获单元的控制。通过这样,可以确定场景中的相应反射的方向。可以确定相应方位角和/或俯仰角。
在一个实施方式中,目标搜索功能可以被配置成使得目标照明单元提供对场景的至少一部分的闪光照明,并且捕获单元提供对场景的由所述照明覆盖的至少一部分的搜索数据的闪光同步捕获。这里,可变照明将被理解为提供及时选择性照明。通过使捕获单元的光检测同步,可以在同时提供场景的实况图像时执行搜索功能,特别是在照明和检测照明光的持续时间保持相对较短的情况下。
根据一个实施方式,目标搜索功能可以被配置成使得目标照明单元提供照明光扇,照明光扇提供对场景的围绕沿第一方向(例如,俯仰角)的限定角度范围的至少一部分的照明,其中,照明光扇的取向在第二方向(例如,方位角)上变化,特别是连续变化的,并且捕获单元可以提供对场景的被所述照明覆盖的至少一部分的搜索图像数据的取向同步捕获,其中,用于捕获搜索图像数据的捕获方向在第二方向上以与改变照明光扇的取向同步的方式改变。
在上述实施方式中,可变照明至少将被理解为仅覆盖场景的一部分并且照明的方向是变化的照明。改变用于捕获搜索图像数据的捕获方向可以通过选择性地控制传感器的特定像素(例如,像素阵列的一个或更多个行/列)并读出那些像素来提供。例如在旋转测量设备的望远镜(引导单元)的情况下,可以分别改变或可以保持该组选择性控制像素。
特别地,捕获单元(例如,TOF传感器)包括滚动快门。另选地,TOF传感器包括全局快门。
全局快门可以提供先进的光学效率和优化的峰值功率。通过这样,可以通过使用具有非常短的脉冲持续时间(例如,100μs)的闪光照明光来提供特定信号-背景比。
为了通过捕获单元提供ATR功能,可以提供可切换光谱滤波器,以在可见图像(正常传感器功能)与NIR图像(用于搜索)之间切换。可能地,传感器可以在搜索期间以像素合并模式(binning mode)(例如,2×2像素合并模式)使用,以允许更高的帧速率。
在一些实施方式中,控制和处理单元包括目标区分功能,目标区分功能用于区分一组目标中的至少两个特定目标,目标区分功能被配置为关于场景的特定部分执行目标标识功能并且执行目标搜索功能,其中,目标信息和搜索图像数据被处理成使得基于目标搜索功能,关于测量设备导出到所述至少两个目标中的各个目标的方向;并且基于目标标识功能,导出范围值并且与所述至少两个目标中的各个目标相关联。
在一个实施方式中,TOF传感器和图像传感器都可以在搜索期间并且尤其是跟踪目标期间并行运行。通过这样做,不仅确定目标方向,而且确定目标距离(通过TOF数据),这在提供场景图像的图像传感器的FOV(视场)中存在多个目标的情况下尤其有帮助。当跟踪目标时,所选目标的路径可能靠近其它不想要的目标。通过使用TOF传感器的附加距离信息,可以更容易地选择期望目标,从而增加跟踪模式中的鲁棒性。
根据一些实施方式,测距单元(特别是发射单元(例如,EDM))的光学轴线与捕获单元的光学轴线(特别是TOF传感器的光学轴线)同轴对准。TOF传感器和EDM具有公共光学轴线,TOF传感器也可以被理解为轴上摄像机(on-axis camera,OAC)。光学轴线可以通过使用半透明反射镜、分束器或者其它光学元件被同轴对准。通过利用相对于EDM的瞄准方向无视差的传感器来生成图像,从而给出这种布置的优点。因而,不需要复杂的坐标变换来提供将测量辐射引导至图像中的相应点的点一致性。
特别地,照明单元的光学轴线与捕获单元和测距单元两者的光学轴线同轴对准。
无视差布置的另一优点是提供甚至在短距离也(完全)看到目标。摄像机通常具有小视场(例如,1.5度)。因此,对于轴偏移的情况来说,在距离低于某一值时,当EDM瞄准时将不会覆盖目标。
在一个实施方式中,测距单元(特别是接收单元)和捕获单元是以组合方式提供的,并且TOF传感器被配置为检测由目标反射的测量辐射以及本地振荡辐射所产生的干涉。通过这样,可以根据cFMCW干涉测量法(相干频率调制连续波)的原理来提供对物体的绝对测距,这将在下面更详细地描述。
根据一个实施方式,测量设备可以包括变焦物镜(zoom objective),其中,变焦物镜和捕获单元被设置成使得变焦物镜的光学轴线和捕获单元的光学轴线是同轴的或平行的,并且同轴轴线的取向可借助于引导单元来对准。特别地,TOF传感器和变焦物镜被设置成使得TOF传感器的光学轴线延伸贯穿变焦物镜,并且由变焦物镜接收到的(照明)光被引导至TOF传感器。
测量设备的这种布置使得能够使用OAC(或TOF传感器)来搜索目标。通过利用聚焦能力(变焦物镜),可以在搜索和/或跟踪期间在更近的距离内减少或避免目标图像模糊。特别地,在望远镜中不需要像特定ATR摄像机那样的第二图像传感器。
本发明的特别优点是在简化望远镜设计和减少所需传感器的数量时的成本、尺寸以及重量节省。而且,通过使用聚焦来测量近距离处的无源目标和反射带,可以提供ATR。可以增加ATR波长范围。为了改进对反射带的信号检测,可以添加未被NIR滤波器衰减的可见波长照明。
根据现有技术的测量设备通常包括光学取景器。从本发明的观点,可以将可视通道替换成电光取景器(electro-optical viewfinder,EOV)模块。由于高传感器帧速率(例如,由全局快门提供),因此显示滞后(lag)可以非常小,从而在显示器上给出反应迅速的用户体验。为了仿效光学通道的恒定可用性,可以提供立即切换到摄像机实时观看模式然后再次返回的专用实时观看按钮。另选地,除了UI的其余部分之外,还可以在总是可见的“画中画”窗口中示出实况视频。
通过除去光学取景器,通常更多光(与具有取景器的现有技术相比)可用于摄像机(OAC传感器)。通过这样,更大量的可见光可用。
使用接收大量可见光的本发明的传感器,可以达到比裸眼更好的灵敏度,使得在比白天(today)更暗的环境中可以手动瞄准。可以另外实现“夜间模式”,其通过对突发中的许多图像求平均并且执行高级去噪,甚至在几乎完全黑暗中也提供良好质量的静止图像。
附图说明
仅通过举例,纯粹通过示例的方式,参照附图更详细地描述或说明本发明的各方面。附图中利用相同的标号来标注相同的要素。所述实施方式通常不按真实比例示出,并且这些实施方式也不应被解释为限制本发明。具体地,
图1示出了被具体实施为全站仪的示例性测量设备;
图2以示意图示出了图1中的全站仪;
图3示出了图1中的全站仪的TOF传感器;以及
图4示出了图1中的全站仪的图像传感器和TOF传感器的叠加图像。
具体实施方式
图1示出了根据本发明的测量设备,测量设备被构建为用于获取三维测量点的全站仪1。图2提供了主要组件的抽象例示。全站仪1包括:基座单元2;支承单元3,支承单元被安装在基座单元2上,并且支承单元可相对于基座单元2绕方位轴线A旋转;测距单元,测距单元具有发射单元4和接收单元5,发射单元被配置为提供发送光束T,并且接收单元被配置为检测接收光束R。引导单元6被安装在支承单元3中,可相对于支承单元3绕俯仰轴线E旋转,并且引导单元被配置为将来自发射单元4的发送光束T引导朝向场景并且将来自场景的接收光束R引导至接收单元5。在全站仪的这个示例中的引导是通过望远镜中的投影光学器件来完成的。在其它示例(例如,激光扫描器)中,引导单元可以是高速旋转的反射镜,其中,发射单元和接收单元被设置在支承单元中,并且反射镜将发送光束和接收光束偏转至场景/从场景偏转发送光束和接收光束。
发射单元和接收单元可以被理解为电子测距仪(EDM)的部分,或者也被称为使用飞行时间、多频相移或干涉测量技术的测距仪。测距单元可以被理解为EDM。例如,发射单元是光源,特别是激光二极管,并且接收单元包括被配置成检测发射单元正在发送的光的反射的传感器。
第一致动器7被设置为使支承单元3相对于基座单元2绕方位轴线A旋转;以及第二致动器8被设置为使引导单元6相对于支承单元3绕俯仰轴线E旋转。第一角度编码器9被设置为测量支承单元3相对于基座单元2绕方位轴线A的旋转位置,以及第二角度编码器10被设置为测量引导单元6相对于支承单元3绕俯仰轴线E的旋转位置。
这里被设置在引导单元6中的捕获单元11包括传感器(参见图3),并且被配置为捕获场景的至少一部分的场景图像。在此将捕获单元11定位在引导单元6中,但是在其它实施方式中,也可以将捕获单元11定位在支承单元或基座单元中。捕获单元还可以独立于(被外部附接至)这些组件,以便不形成组件的集成部分。
控制和处理单元可以是测量系统的单个组件,或者它本身可以包括物理上分布的多个单元。在所示示例中,控制和处理单元包括现场可编程门阵列(FPGA)13和中央处理单元(CPU)14。在其它实施方式中,控制和处理单元包括网络连接器和远程服务器,远程服务器被配置为执行根据本发明的至少一些数据处理。控制和处理单元优选地连接至第一角度编码器9、第二角度编码器10、摄像机11、第一致动器7、以及第二致动器8。
如图3所示,捕获单元包括飞行时间(TOF)传感器15。TOF传感器提供具有像素阵列的传感器平面,并且能够为阵列中的各个像素提供范围数据。因此,构建TOF传感器以提供各个像素的范围数据。由像素阵列提供的数据可以优选地以点云的形式提供。因此,TOF传感器为所捕获的场景提供多个距离数据。
换句话说,TOF传感器被配置为提供场景的至少一部分的TOF数据,其中,TOF数据可以包括范围数据。
控制和处理单元包括目标标识功能,目标标识功能被配置为处理由TOF传感器提供的数据。基于TOF数据,可以导出目标信息。目标信息可以包括关于测量系统到目标的方向、以及与目标相关联的相应范围数据。目标信息还可以或者另选地包括信号强度(振幅数据)。连同范围信息一起,可以验证目标是例如棱镜角锥体后向反射器(信号强度较大)还是反射带(信号强度较小)。
根据该实施方式,TOF传感器还能够捕获场景的图像,并且图像数据可以与TOF数据相关。通过这样,可以将相应标记(marker)添加至图像,其中,各个标记皆表示可以通过处理TOF数据来标识的目标。
为了标识目标,TOF数据可以包括TOF图像,TOF图像包括作为像素相关数据的振幅或范围数据,并且可以通过将第一组像素的第一振幅(或范围)数据与第二组像素的第二振幅(或范围)数据进行比较,并且基于第一振幅数据与第二振幅数据之间的差异对目标进行标识来处理像素相关数据,从而导出目标信息,第一组像素中的像素可以优选地与第二组像素中的像素相邻。通过这种方法,可以基于(邻近)像素的显著不同的振幅或距离值来标识目标。
换句话说,可以通过关于跨TOF图像的增加振幅对TOF数据进行分析,来检测一个目标或多个目标。TOF图像的包括低(甚或零)振幅的区域可以被认为是背景像素(例如,被认为是第一组像素),而具有较高振幅的这种区域(例如,被认为是第二组像素)可以被认为与要寻找的反射目标相关。在目标处反射并且在TOF传感器侧检测到的光提供增加的振幅值。通过这样,可以确定到目标的方向(和距离)。另选地,代替使用振幅数据,可以使用所导出的范围数据来确定到目标的相应方向(和距离)。
通过对具有增加的TOF振幅的位置(TOF图像中的目标位点)周围的像素进行分析,可以另外将场景图像用于更精确的目标标识。图4也示出了这种方法,其中,TOF图像被附加图像传感器的附加场景图像叠加。
TOF传感器可以被配置成检测可见光谱(VIS)的光和IR光谱的光。
图3示出了借助于处理TOF传感器的范围或振幅数据来标识的三个特定目标21至23。到目标的相应方向或目标的位置是由这些目标在TOF传感器上的位置来描述的。到相应目标的距离是由其标记的大小来表示的。
图4示出了本发明的另一实施方式。捕获单元另外包括图像传感器25,图像传感器被配置为捕获进一步场景图像,其中,图像传感器的分辨率大于TOF传感器15的分辨率。图4示出了根据其同轴对准或者根据其坐标系的经计算配准的传感器平面的叠加(overlap)。因此,TOF传感器提供TOF场景图像。
捕获单元及其图像传感器25可以被设置成使得图像传感器25的光学轴线与EDM的光学轴线同轴。图像传感器25还可以(除了TOF传感器之外)称为轴上摄像机(On-Axis-Camera,OAC)。这种同轴对准例如可以通过借助于半透明反射镜的分束器联接光学轴线来提供。
在一些实施方式中,TOF传感器的光学轴线也可以与EDM的光学轴线同轴对准。
测量系统中的这种光学系统具有使用设备光学器件(例如,变焦物镜)的聚焦能力的优点,例如,在搜索或跟踪期间避免在较近距离内的目标图像模糊。在望远镜中不需要像当今设备的ATR摄像机那样的进一步图像传感器。
因此,OAC(特别是TOF传感器)可以被配置成超越ATR功能。为此,可以提供可切换光谱滤波器,以在可见图像(正常OAC功能)与(N)IR图像(用于瞄准)之间切换。OAC传感器被具体实施成灵敏地检测VIS光谱光和(N)IR光谱光。特别地,在瞄准期间可以以2×2像素合并模式驱动OAC以允许更高帧速率。
为了另外利用TOF传感器进行瞄准,也可以在目标搜索期间并行地运行两个传感器(TOF传感器和图像传感器),并且还用于跟踪目标。通过利用两个传感器收集信息,不仅确定目标方向,而且可以导出目标距离。这在场景中存在多个目标的情况下尤其有帮助。例如,当跟踪目标时,所选目标的路径可能靠近其它不想要的目标。通过使用附加距离信息,更容易选择期望目标,从而增加跟踪模式中的鲁棒性。
根据实施方式,控制和处理单元可以包括目标区分功能,目标区分功能用于区分一组目标中的至少两个特定目标。所述目标区分功能被配置为关于场景的特定部分执行目标标识功能(使用TOF传感器15并收集范围数据)并且执行目标搜索功能。对所提供的目标信息和搜索图像数据进行处理,使得基于目标搜索功能关于测量系统导出到目标21至23中的各个目标的方向,并且基于目标标识功能导出范围值并将该范围值关联至目标21至23中的各个目标。
根据本发明的目标可以被理解为应当确定到其的距离和方向的物体。目标可以优选为勘测目标,诸如后向反射器、勘测杆或者位于待测量和/或待跟踪的物体处的任何其它种类的反射物体。
根据一些实施方式,TOF传感器被用于通过借助于测距单元(例如,EDM)准确地测量到目标的特定距离。为此,可以实现cFMCW干涉测量法(相干频率调制连续波),并且可以利用波长可调谐激光器的相干叠加。这里,TOF传感器提供测量设备1的测距设备。
光源可以被配置成随时间重复地改变波长。激光的一部分被直接发送至作为本地振荡器的检测器,而另一部分光被引导至物体(测量辐射)。来自物体的光(由目标反射的测量辐射)在TOF图像检测器处与本地振荡器的光干涉。由于辐射的各部分之间的时间延迟,所得到的干涉图的振幅是要确定的具有低得多的拍频的拍波。虽然在THz范围内的载波频率可能太大而不能被检测到,但是在MHz范围内的拍波可以由TOF传感器解析,例如,通过在TOF传感器中实现的锁定技术。所检测到的拍频峰的频率与物体的距离线性成比例。
特别地,TOF传感器被配置成提供特定模式:不同抽头之间的切换机构的频率应当相应地与激光源的波长扫描同步扫描。通过在扫描时段期间搜索最大信号响应的定时来执行频率计算。该方法需要所述时段的采样频率的精细变化,因此需要TOF图像传感器的采样频率的精细变化。
尽管上面例示了本发明,但是部分参照一些优选实施方式,必须理解,可以作出这些实施方式的许多修改例和不同特征的组合。这些修改例全部落入所附权利要求的范围内。

Claims (15)

1.一种用于获取与场景中的目标相关的三维测量点的测量设备(1),所述测量设备(1)包括:
基座单元(2),
支承单元(3),所述支承单元被安装在所述基座单元上,并且所述支承单元能够相对于所述基座单元(2)绕方位轴线(A)旋转;
测距单元,所述测距单元包括发射单元(4)和接收单元(5),所述发射单元被配置为发射准直测量辐射(T),并且所述接收单元被配置为检测由所述目标反射的准直测量辐射(R)的至少一部分,
引导单元(6),所述引导单元被设置在所述支承单元(3)处,所述引导单元能够相对于所述支承单元(3)绕俯仰轴线(E)旋转,并且所述引导单元被配置为将所述准直测量辐射引导朝向所述场景;
捕获单元(11),所述捕获单元被配置为至少捕获所述场景的至少一部分的场景图像,
照明单元,所述照明单元被配置为利用照明辐射对所述场景的至少一部分进行照明,其中,所述照明辐射包括经调制照明信号,以及
控制和处理单元,所述控制和处理单元至少被配置为对准所述引导单元,
其特征在于
所述捕获单元(11)包括飞行时间TOF传感器(15),其中,所述TOF传感器(15)被配置为:
通过生成像素相关图像数据来提供所述场景图像,其中,所述场景图像是通过借助于所述TOF传感器(15)检测可见光谱VIS光和/或近红外光谱NIR光来生成的,以及
提供所述场景的至少一部分的像素相关TOF数据,所述TOF数据至少包括各个像素的范围数据和/或振幅数据,
其中,所述像素相关TOF数据与所述像素相关图像数据相关联,以使所述像素相关TOF数据中的各个像素皆被指派给所述像素相关图像数据中的至少一个像素,
所述控制和处理单元包括目标搜索功能,所述目标搜索功能被配置为控制所述目标照明单元以使所述场景的至少一部分被照明,并且被配置为控制所述TOF传感器(15)以使经照明场景的至少一部分的像素相关TOF数据被获得为搜索数据,其中,对所述场景的至少一部分进行照明和获得所述搜索数据是同步的,以使所述搜索数据是针对所述场景的被照明的所述至少一部分来获得的,并且
所述控制和处理单元包括目标标识功能,所述目标标识功能被配置成处理所述搜索数据并且基于所述搜索数据导出目标信息,其中,所述目标信息包括关于所述测量设备(1)到所述目标的方向、以及与所述目标相关联的TOF数据。
2.根据权利要求1所述的测量设备(1),其中
所述像素相关TOF数据能够通过检测由所述照明辐射提供的经调制照明信号来生成,和/或
所述像素相关图像数据能够通过借助于所述TOF传感器(15)检测所述可见光谱VIS光和/或所述近红外光谱NIR光的非调制信号、特别是所述照明辐射的非调制照明信号来生成。
3.根据前述权利要求中的任一项所述的测量设备(1),其中,所述目标标识功能被配置成特别是以叠加方式来提供或显示彼此参考的所述场景图像和所述像素相关TOF数据或者所述目标信息。
4.根据前述权利要求中的任一项所述的测量设备(1),其中,所述测距单元的光学轴线与所述照明单元的光学轴线并且与所述捕获单元(11)的光学轴线同轴对准。
5.根据前述权利要求中的任一项所述的测量设备(1),其中,所述测量设备(1)包括变焦物镜,其中,所述变焦物镜和所述捕获单元(11)被设置成使得所述变焦物镜的光学轴线和所述捕获单元的光学轴线是同轴的,并且同轴轴线的取向能够借助于所述引导单元来对准,特别是其中,所述TOF传感器(15)和所述变焦物镜被设置成使得
所述TOF传感器(15)的光学轴线延伸穿过所述变焦物镜,并且
由所述变焦物镜接收的光被引导至所述TOF传感器(15)。
6.根据前述权利要求中的任一项所述的测量设备(1),其中
所述照明单元和所述捕获单元相对于彼此被配置和设置成使得用于发送所述照明辐射的孔径角等于或大于用于接收由所述场景反射的照明辐射的孔径角,和/或
所述捕获单元包括窄带透射滤波器,所述窄带透射滤波器被配置成透射包括所述照明光的波长的波长带的辐射,并且阻挡从所述波长带排除的波长的背景辐射。
7.根据前述权利要求中的任一项所述的测量设备(1),其中,所述TOF传感器(15)被配置成提供彩色场景图像,其中,所述TOF传感器(15)的像素被配置成检测相应颜色信息。
8.根据前述权利要求中的任一项所述的测量设备(1),其中
导出所述目标信息包括:通过比较第一组像素的第一TOF数据与第二组像素的第二TOF数据,并且基于所述第一TOF数据与所述第二TOF数据之间的差异对所述目标进行标识,来处理所述像素相关数据。
9.根据前述权利要求中的任一项所述的测量设备(1),其中,所述捕获单元包括图像传感器(25),所述图像传感器被配置为捕获扩展场景图像,其中,所述图像传感器(25)的分辨率大于所述TOF传感器(15)的分辨率。
10.根据权利要求9所述的测量设备(1),其中,所述目标标识功能被配置成处理所述TOF场景图像和所述扩展场景图像,并且特别是以叠加方式提供彼此参考的所述TOF场景图像和所述扩展场景图像。
11.根据前述权利要求中的任一项所述的测量设备(1),其中,所述目标搜索功能被配置成使得
所述照明单元提供对所述场景的至少一部分的闪光照明,并且
所述捕获单元提供对所述场景的被所述照明覆盖的至少一部分的所述搜索数据的闪光同步捕获。
12.根据前述权利要求中的任一项所述的测量设备(1),其中,所述目标搜索功能被配置成使得
所述照明单元提供照明光扇,所述照明光扇提供对所述场景的围绕沿第一方向的限定角度范围的至少一部分的照明,其中,所述照明光扇的取向在第二方向上是变化的,特别是连续变化的,并且
所述捕获单元提供对所述场景的被所述照明覆盖的至少一部分的所述搜索数据的取向同步捕获,其中,用于捕获所述搜索数据的捕获方向在所述第二方向上以与改变所述照明光扇的所述取向同步的方式变化。
13.根据前述权利要求中的任一项所述的测量设备(1),其中,所述目标照明单元包括IR光源并且提供IR照明光,并且通过IR光透射和/或检测与VIS光透射和/或检测之间的照明同步切换来提供对所述捕获单元的控制。
14.根据前述权利要求中的任一项所述的测量设备(1),其中,所述控制和处理单元包括目标区分功能,所述目标区分功能用于区分一组目标中的至少两个特定目标,所述目标区分功能被配置为关于所述场景的特定部分执行所述目标标识功能并且执行所述目标搜索功能,其中,所述目标信息和所述搜索数据被处理成使得
基于所述目标搜索功能,关于所述测量设备(1)导出到所述至少两个目标中的各个目标的方向,并且
基于所述目标标识功能,导出范围值并且使所述范围值与所述至少两个目标中的各个目标相关联。
15.根据前述权利要求中的任一项所述的测量设备(1),其中,所述测距单元和所述捕获单元是以组合方式提供的,并且所述TOF传感器被配置为检测由所述目标反射的所述测量辐射以及本地振荡辐射所产生的干涉。
CN202311076609.2A 2022-08-30 2023-08-24 具有tof传感器的测量设备 Pending CN117630876A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP22192938.3 2022-08-30
EP22192938.3A EP4332629A1 (en) 2022-08-30 2022-08-30 Measuring device with tof sensor

Publications (1)

Publication Number Publication Date
CN117630876A true CN117630876A (zh) 2024-03-01

Family

ID=83152063

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311076609.2A Pending CN117630876A (zh) 2022-08-30 2023-08-24 具有tof传感器的测量设备

Country Status (3)

Country Link
US (1) US20240069204A1 (zh)
EP (1) EP4332629A1 (zh)
CN (1) CN117630876A (zh)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1686350A1 (de) 2005-01-26 2006-08-02 Leica Geosystems AG Modular erweiterbare geodätische Totalstation
US9113154B2 (en) * 2013-07-10 2015-08-18 Faro Technologies, Inc. Three-dimensional measurement device having three-dimensional overview camera
EP3339803B1 (de) * 2016-12-22 2021-05-12 Leica Geosystems AG Koordinatenmessgerät mit automatischer zielobjekterkennung
CN210274243U (zh) * 2019-09-24 2020-04-07 远形时空科技(北京)有限公司 一种融合了深度相机和普通相机的传感器

Also Published As

Publication number Publication date
EP4332629A1 (en) 2024-03-06
US20240069204A1 (en) 2024-02-29

Similar Documents

Publication Publication Date Title
US11859976B2 (en) Automatic locating of target marks
CN1688867B (zh) 测量仪器用的电子显示和控制装置
Kahlmann et al. Calibration for increased accuracy of the range imaging camera swissranger
US7834985B2 (en) Surface profile measurement
JP6120521B2 (ja) 3次元測量装置及び3次元測量システム
US9189858B2 (en) Determining coordinates of a target in relation to a survey instrument having at least two cameras
EP1037014B1 (en) Electric level
US6031606A (en) Process and device for rapid detection of the position of a target marking
EP3169975B1 (en) Method and measuring instrument for target detection and/or identification
US9482756B2 (en) Tracker unit and method in a tracker unit
US10436907B1 (en) Active christiansen effect LIDAR system and method
EP1164386A2 (en) Method and apparatus for a color scannerless range imaging system
US11598874B2 (en) Surveying instrument and surveying instrument system
GB2374743A (en) Surface profile measurement
US20240069204A1 (en) Measuring device with tof sensor
EP4332630A1 (en) Measuring device with tof sensor
RU2540154C2 (ru) Устройство обнаружения оптических и оптико-электронных приборов
CN111595444B (zh) 一种运动目标光谱跟踪测量遥感系统以及方法
CN116338712A (zh) 勘测设备
RU2263931C1 (ru) Устройство для наблюдения объектов
CN115150545B (zh) 获取三维测量点的测量系统
CN218848334U (zh) 基于主动投射点激光的测量装置
EP4155664A1 (en) Measuring device comprising a targeting unit and a scanning module
RU2808963C1 (ru) Трехспектральная система видеонаблюдения
RU2820168C1 (ru) Четырехспектральная система видеонаблюдения

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination