DE4429016A1 - Navigating driver-less vehicles esp. of transport systems used in e.g. hangars or large hall - Google Patents

Navigating driver-less vehicles esp. of transport systems used in e.g. hangars or large hall

Info

Publication number
DE4429016A1
DE4429016A1 DE4429016A DE4429016A DE4429016A1 DE 4429016 A1 DE4429016 A1 DE 4429016A1 DE 4429016 A DE4429016 A DE 4429016A DE 4429016 A DE4429016 A DE 4429016A DE 4429016 A1 DE4429016 A1 DE 4429016A1
Authority
DE
Germany
Prior art keywords
vehicle
angle
objects
sensor
determined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE4429016A
Other languages
German (de)
Inventor
Martin Dipl Ing Schmidt
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Linde GmbH
Original Assignee
Linde GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Linde GmbH filed Critical Linde GmbH
Priority to DE4429016A priority Critical patent/DE4429016A1/en
Publication of DE4429016A1 publication Critical patent/DE4429016A1/en
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/005Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0272Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means comprising means for registering the travel distance, e.g. revolutions of wheels
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0234Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using optical markers or beacons

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • General Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Electromagnetism (AREA)
  • Navigation (AREA)

Abstract

The driver-less vehicle (5) navigation method involves picking up images of objects (1) strongly contrasting to and located in surroundings, using a sensor (6). The images obtained are compared with a known map of these objects, and as a result, the position and positional angle of the vehicle are determined. The travel course of the vehicle is regulated based on the respective determined actual values for the position and positional angle of the vehicle. Relative values for position and positional angle of the vehicle are determined related to a reference point, from a supporting dead reckoning navigation. Ceiling or roof lights are used as the contrasting objects.

Description

Die Erfindung betrifft ein Verfahren und eine Vorrichtung zur Navigation von fahrerlosen Fahrzeugen, insbesondere von Transportsystemen in Hallen, wobei Umgebungs­ marken detektiert und zur Bestimmung von Position und Lagewinkel des Fahrzeuges herangezogen werden.The invention relates to a method and a device for navigating driverless vehicles Vehicles, especially of transport systems in halls, being surrounding marks detected and for determining the position and position of the vehicle be used.

Derartige Navigationssysteme bedienen sich beispielsweise Reflexmarken bekannter Position, an denen ein elektromagnetisches Signal (Laserstrahl) in Einfallsrichtung reflektiert und von einem optischen Sensor, der zusammen mit dem Sender des Signals am Fahrzeug angebracht ist, detektiert wird. Aus den Signalen mehrerer solcher Reflexmarken lassen sich Winkel und/oder Abstand des Fahrzeugs zu diesen Reflexmarken bestimmen, woraus sich die Position und der Lagewinkel des Fahrzeugs in einem festen Koordinatensystem ergibt.Such navigation systems use, for example, reflex marks of a more familiar nature Position at which an electromagnetic signal (laser beam) is incident reflected and from an optical sensor, which together with the transmitter of the Signal attached to the vehicle is detected. From the signals of several such reflex marks can be the angle and / or distance of the vehicle to them Reflective marks determine what the position and angle of the vehicle are in a fixed coordinate system.

Derartige Reflexmarken sind häufig an den Wänden von Hallen angebracht, in denen sich fahrerlose Transportsysteme bewegen. Daraus ergibt sich als bedeutender Nachteil die Gefahr der Markenverdeckung durch Personen oder Gegenstände. Eine derartige Markenverdeckung kann die zeitweise Führungslosigkeit des Fahrzeugs verursachen, wenn nicht unterstützende Navigationssysteme für die Einhaltung des vorgegebenen Fahrkurses sorgen. Weiterhin zeigt sich, daß mit zunehmenden Einfallswinkel der Anteil des an der Reflexmarke reflektierten Lichtes geringer wird, da ein großer Teil des Lichtes an deren Oberfläche in Vorwärtsrichtung reflektiert wird. Solche spiegelnden Oberflächen von Reflexmarken grenzen den nutzbaren Meßbereich solcher Navigationssysteme ein. Um Störlicht, das den optischen Sensor erreicht, mit Sicherheit von der weiteren Signalverarbeitung ausschließen zu können, kann das Sendesignal beispielsweise durch Amplitudenmodulation von einfallendem Störlicht unterschieden werden. Bei der Winkelmessung führt eine solche Amplitudenmodulation jedoch zur Reduktion der Genauigkeit des erfaßten Winkels entsprechend einer halben Periodendauer der Modulationsfrequenz. Weitere Nachteile derartiger Navigationssysteme sind im hohen Kosten-, Justage- und Wartungsaufwand für den elektromechanisch/optischen Aufbau zu sehen. Such reflex marks are often attached to the walls of halls in which driverless transport systems move. This results in being more significant Disadvantage is the risk of brand concealment by people or objects. A Such brand concealment can lead to the vehicle's temporary lack of leadership cause when non-supportive navigation systems for compliance with the the given driving course. It also shows that with increasing Angle of incidence, the proportion of the light reflected at the reflective mark becomes smaller because a large part of the light is reflected on the surface in the forward direction. Such reflective surfaces of reflex marks limit the usable Measuring range of such navigation systems. To stray light that the optical sensor achieved to be able to exclude from further signal processing with certainty, can the transmit signal, for example, by amplitude modulation of incident Disturbance light can be distinguished. This leads to an angle measurement However, amplitude modulation reduces the accuracy of the detected angle corresponding to half a period of the modulation frequency. Other disadvantages Navigation systems of this type are expensive, costly, and require maintenance to see for the electromechanical / optical construction.  

Aufgabe vorliegender Erfindung ist es deshalb, ein echtzeitfähiges Navigations­ verfahren zu entwickeln, das die obengenannten Nachteile vermeidet und kostengünstig ohne hohen Wartungsaufwand arbeitet.The object of the present invention is therefore a real-time navigation to develop a process that avoids the disadvantages mentioned above and works inexpensively without high maintenance.

Diese Aufgabe wird erfindungsgemäß dadurch gelöst, daß mittels eines mit dem Fahrzeug bewegten, bildgebenden Sensors kontrastreiche Objekte in der Umgebung aufgenommen werden, und daß aus deren Lage Position und Lagewinkel des Fahrzeugs bestimmt werden. Die entsprechende erfindungsgemäße Vorrichtung ist dadurch gekennzeichnet, daß auf dem Fahrzeug ein auf kontrastreiche Objekte in der Umgebung gerichteter, bildgebender Sensor angebracht ist, der mit einer Auswerteeinheit verbunden ist, die aus der Lage dieser Objekte Position und Lagewinkel des Fahrzeugs bestimmt.This object is achieved in that by means of a Vehicle moving, imaging sensor high-contrast objects in the area are recorded, and that from their position, position and angle of the Vehicle can be determined. The corresponding device according to the invention is characterized in that on the vehicle on high-contrast objects in the Environmentally oriented imaging sensor is attached, which with a Evaluation unit is connected, which is based on the location of these objects Position angle of the vehicle determined.

Die erfindungsgemäße Navigationsmethode geht von der Vermessung natürlicher, d. h. bereits vorhandener, Umgebungsmarken hohen Kontrasts aus, womit sich eine zusätzliche Anbringung von Marken erübrigt. Die fahrzeugseitigen Sensorkosten sind gering; auf bewegte, also verschleißbehaftete Teile wird verzichtet. Wählt man insbesondere für fahrerlose Transportsysteme als Umgebungsmarken beispielsweise die Deckenleuchten in einer Halle, ist der direkte Blickkontakt zwischen Sensor und Marke nahezu immer sichergestellt, wodurch Ausfälle des Navigationssystems aufgrund verdeckter Marken nahezu unmöglich werden. Der Justier- und Wartungsaufwand ist beim erfindungsgemäßen Navigationssystem ebenfalls gering.The navigation method according to the invention is based on the measurement of natural, ie. H. already existing, surrounding marks of high contrast, with which one additional application of brands is unnecessary. The on-board sensor costs are low; moving parts, i.e. parts subject to wear, are not used. You choose especially for driverless transport systems as environmental brands, for example the ceiling lights in a hall is the direct eye contact between sensor and Brand almost always ensured, causing failures of the navigation system become almost impossible due to hidden brands. The adjustment and Maintenance effort is also low in the navigation system according to the invention.

Das erfindungsgemäße Navigationssystem beeinhaltet im wesentlichen einen optischen Sensor und eine mit Bildverarbeitungsmethoden auf Hard- und Softwarebasis arbeitende Auswerteeinheit. Als Meßgröße dient der auf den optischen Sensor (z. B. CCD-Kamera oder Photodioden-Array) direkt einfallende Lichtanteil kontrastreicher Umgebungsobjekte, wie etwa der Deckenbeleuchtungskörper in der Halle, in der sich das Fahrzeug oder Transportsystem bewegt. Durch Ausrichtung der Kamera auf die Decke besteht zwischen dem Meßobjekt (Leuchte) und der Umgebung ein großer Kontrast, der die Echtzeit-Bildverarbeitung stark vereinfacht. Die Meßobjekte lassen sich aufgrund ihrer charakteristischen und einfachen geometrischen Form gut identifizieren, und aus deren Lage oder Anordnung untereinander lassen sich Position und Lagewinkel des Fahrzeugs bestimmen. Die Bahn des Fahrzeugs kann beispielsweise anhand bestimmter Fahrzeugpositionen relativ zu den Objekten (Leuchten) vorgegeben werden. The navigation system according to the invention essentially contains one optical sensor and one with image processing methods on hardware and Software-based evaluation unit. The parameter used on the optical Sensor (e.g. CCD camera or photodiode array) directly incident light high-contrast surrounding objects, such as the ceiling lighting fixture in the Hall in which the vehicle or transport system is moving. By aligning the The camera on the ceiling exists between the measurement object (light) and the environment a great contrast that greatly simplifies real-time image processing. The measurement objects can be easily because of their characteristic and simple geometric shape identify, and from their position or arrangement among themselves position can be and determine the position angle of the vehicle. The path of the vehicle can for example based on certain vehicle positions relative to the objects (Lights) can be specified.  

In einer günstigen Ausführungsform dieses Navigationsverfahrens werden mittels des Sensors kontrastreiche Objekte in der Umgebung abgebildet und die gewonnenen Bilder mit einer bekannten Karte dieser Objekte verglichen und daraus Position und Lagewinkel des Fahrzeugs bestimmt. Der Kartenvergleich ermöglicht eine kartesische Kursvorgabe.In a favorable embodiment of this navigation method, the Sensor high-contrast objects mapped in the area and the obtained Compare images with a known map of these objects and from them position and Position angle of the vehicle determined. The map comparison enables a Cartesian Course specification.

Im Falle der Navigation von Transportsystemen in beleuchteten Hallen werden die aufgenommenen Bilder der Decken leuchten in die vorher vermessene Landkarte der Hallenleuchten eingeordnet. Vor allem auch unvollständig abgebildete Leuchten können zur Bestimmung der absoluten Positionsdaten des Transportsystems mit herangezogen werden.In the case of navigation of transport systems in illuminated halls, the Pictures taken of the ceilings shine on the previously measured map of the Hall lights arranged. Above all, also incompletely shown lights can be used to determine the absolute position data of the transport system be used.

Der überwiegende Teil der Deckenbeleuchtung in Hallen, in denen sich fahrerlose Transportsysteme wie Flurförderzeuge bewegen, besteht aus länglichen Leuchtstofflampen, zu einem geringen Teil auch aus punktförmigen Leuchten. Auffallend ist ein hoher Umgebungskontrast, wobei die Schwankungen der Leuchtdichten der Lampen aufgrund der Wechselstromfrequenz durch Wahl einer entsprechend hohen Belichtungszeit des optischen Sensors eliminiert werden können.The majority of the ceiling lighting in halls where there is driverless Moving transport systems such as industrial trucks consists of elongated ones Fluorescent lamps, to a small extent also from point lights. What is striking is a high environmental contrast, with the fluctuations of the Luminance of the lamps due to the AC frequency by choosing one correspondingly high exposure time of the optical sensor can be eliminated.

Von elementarer Bedeutung für die Funktionsfähigkeit dieses Kartenzuordnungs­ verfahrens ist die Kenntnis über den Anbringungsort sowie die Abmessungen der einzelnen kontrastreichen Umgebungsobjekte wie z. B. der Leuchten, d. h. das Erstellen einer Leuchtenkarte. Die Vermessung erfolgt beispielsweise mittels zweier Theodoliten oder Tachymeter. Als Ergebnis läßt sich eine digitale Karte anfertigen.Of fundamental importance for the functionality of this map assignment is the knowledge of the location and the dimensions of the individual high-contrast surrounding objects such. B. the lights, d. H. creating a light card. The measurement is carried out, for example, using two theodolites or tachymeter. As a result, a digital map can be made.

Die erfindungsgemäße Navigation kann auch auf andere kontrastreiche Objekte in der Umgebung des Fahrzeuges angewandt werden, wie Pfeiler, Bäume, Markierungen, Fahrbahnbegrenzungen oder -beleuchtungskörper etc. Viele Vorteile lassen sich jedoch am besten bei der Verwendung der Decken leuchten in Hallen illustrieren, in denen sich fahrerlose Transportsysteme in der Regel bewegen:The navigation according to the invention can also be used on other high-contrast objects in the Around the vehicle, such as pillars, trees, markings, Road boundaries or lighting fixtures etc. Many advantages can be However, best illustrate when using the ceiling lights in halls which driverless transport systems usually move:

Als optischer Sensor läßt sich dann beispielsweise eine CCD-Kamera (evtl. mit Weitwinkelobjektiv) verwenden, die am obersten Teil des Fahrzeugs mit Blickrichtung auf die Hallendecke installiert ist. Das Sensorausgangssignal enthält die Information über Position und Orientierung der Leuchten im Kamerablickfeld relativ zum Bildaufnehmer. Die Auswerteeinheit des Systems filtert diese Information schrittweise aus den digitalisierten Bilddaten heraus und errechnet daraus Position und Lagewinkel des Sensors und damit des Fahrzeugs.A CCD camera (possibly with Use wide-angle lens) on the top part of the vehicle with the viewing direction installed on the hall ceiling. The sensor output signal contains the information about the position and orientation of the lights in the camera field of view relative to the Image sensor. The evaluation unit of the system filters this information step by step  from the digitized image data and uses this to calculate the position and position angle the sensor and thus the vehicle.

Mittels optischer Gesetze lassen sich aus den Koordinaten der abgebildeten Leuchte auf dem Bildaufnehmer die Koordinaten, d. h. die Position und der Lagewinkel, der Leuchte auf der Hallendecke im Sensorkoordinatensystem errechnen. Diese Koordinaten lassen sich mittels mathematischer Transformation in das Umgebungs­ koordinatensystem überführen. Zusammen mit den Absolutwerten für Position und Winkel der Leuchte im Koordinatensystem der Umgebung aus der vorher vermessenen Leuchtenkarte erhält man hieraus die absolute Position und Orientierung des Sensormittelpunktes und damit des Fahrzeugs. Die erzielbare Meßgenauigkeit hängt von der Auflösung des optischen Sensors, den durch die Optik verursachten Abbildungsfehlern sowie der Bewegungsunschärfe aufgrund des bewegten Fahrzeugs ab.Optical coordinates can be used to determine the coordinates of the luminaire shown the coordinates on the imager, d. H. the position and the attitude angle, the Calculate the luminaire on the hall ceiling in the sensor coordinate system. These Coordinates can be mathematically transformed into their surroundings transfer coordinate system. Together with the absolute values for position and Angle of the lamp in the coordinate system of the environment from the previously measured Luminaire map gives you the absolute position and orientation of the Sensor center and thus the vehicle. The achievable measurement accuracy depends the resolution of the optical sensor caused by the optics Aberrations and motion blur due to the moving vehicle from.

Im folgenden soll anhand der schematischen Zeichnungen in einem Ausführungsbeispiel der Vorgang der erfindungsgemäßen Navigation von der Bildaufnahme bis zur Positions- und Lagewinkelbestimmung des Fahrzeuges anhand eines in einer Halle mit Deckenbeleuchtung manövrierenden Transportsystems detailliert beschrieben werden.In the following, the schematic drawings in one Embodiment of the process of navigation of the invention Image acquisition up to the position and attitude angle determination of the vehicle based on a transport system maneuvering in a hall with ceiling lighting be described in detail.

Fig. 1 zeigt schematisch ein fahrerloses Fahrzeug (Transportsystem) in einer Halle, das während seiner Fahrt mittels eines bildgebenden Sensors die Leuchten an der Hallendecke aufnimmt und mittels der erfindungsgemäßen Navigationsmethode seinen Fahrkurs einhält. Fig. 1 shows schematically a driverless vehicle (transport system) in a hall, which records the lights on the ceiling of the hall while driving by means of an imaging sensor and adheres to its driving course using the navigation method according to the invention.

Fig. 2 stellt schematisch ein internes Koppelnavigationssystem mit einem am Fahrzeug befestigten Nachlaufrad dar, das zur Navigationsunterstützung Verwendung findet. Fig. 2 schematically illustrates an internal dead reckoning system with a trailing wheel attached to the vehicle, which is used for navigation support.

Fig. 3 zeigt die Koordinatensysteme der Umgebung und des Bildaufnehmers, in denen sich das Bild einer länglichen Deckenleuchte befindet. Fig. 3 shows the coordinate systems of the environment and the image sensor, in which the image of an elongated ceiling lamp is located.

Fig. 4 stellt die verschiedenen anfallenden Arbeitsschritte von der Bildaufnahme bis zur Positionsbestimmung des Fahrzeugs, die im wesentlichen von der Auswerteeinheit erledigt werden, dar. Fig. 4 illustrates the different working steps obtained by the image pickup to the position determination of the vehicle, which are carried substantially by the evaluation unit, is.

Mittels einer, wie aus Fig. 1 ersichtlich, im oberen Bereich (Dach) des Fahrzeugs 5 (Transportsystem) fest installierten CCD-Kamera 6 werden während der Fahrt auf einem vorgegebenen Kurs Bilder der Hallendecke mit den dort befindlichen Deckenleuchten 1 gemacht. In der Zeit zwischen zwei Bildaufnahmen müssen die Position und der Lagewinkel des Fahrzeugs 5 aus dem jeweiligen Bild bestimmt werden, damit das Navigationssystem in Echtzeit arbeitet. Die gewonnenen Daten werden als Istwerte des Fahrkurses verwendet, und das Fahrzeug 5 wird bei Abweichungen mittels eines Regelsystems auf den vorbestimmten Fahrkurs zurückgeführt.By means of a CCD camera 6 permanently installed in the upper area (roof) of the vehicle 5 (transport system), as can be seen from FIG. 1, images of the hall ceiling with the ceiling lights 1 located there are taken while driving on a predetermined course. In the time between two image recordings, the position and the position angle of the vehicle 5 must be determined from the respective image so that the navigation system works in real time. The data obtained are used as actual values of the driving course, and the vehicle 5 is returned to the predetermined driving course in the event of deviations by means of a control system.

Dieses Navigationssystem wird in diesem Ausführungsbeispiel unterstützt von einer internen Koppelnavigation, die mit einer höheren Meßrate Positionsdaten liefert, die zur Bildauswertung herangezogen werden können. Beispielsweise können diese Positionsdaten zur Plausibilitätskontrolle verwendet werden oder die Zuordnung des aufgenommenen Bildes zur Deckenleuchtenkarte erleichtern. Die Positionsdaten der erfindungsgemäßen Navigation werden dann schließlich als endgültige Fahrzeugkoordinaten verwendet.In this exemplary embodiment, this navigation system is supported by a internal dead reckoning, which delivers position data at a higher measuring rate, which is used for Image evaluation can be used. For example, these Position data can be used for the plausibility check or the assignment of the Lighten the recorded image to the ceiling light card. The position data of the Navigation according to the invention are then finally considered final Vehicle coordinates used.

Zur Koppelnavigation kann mit Vorteil ein in Fig. 2 dargestelltes System bestehend aus einem Nachlaufrad, das über eine vertikale Achse 8 und um diese drehbar mit dem Fahrzeug 5 verbunden ist, wobei das Rad 11 selbst an einer horizontalen Achse 10 aufgehängt ist, die mit der vertikalen Achse 8 verbunden ist, zusammen mit zwei Drehwinkelgebern 7 und 9 eingesetzt werden. Dieses Teewagenrad stellt sich immer tangential zur Bahnkurve des Drehpunktes um die vertikale Achse 8. Die Änderungen von Position und Lagewinkel des Fahrzeuges 5 können aus dem Drehwinkel α des Rades 11 um seine eigene Achse 10 und aus dem Drehwinkel ϕ des horizontalen Versatzes (Nachlauf g) um die vertikale Achse 8 berechnet werden. Dieses Koppel­ navigationssystem findet sich in der DE 44 26 606 näher beschrieben.For dead reckoning, a system shown in FIG. 2 can advantageously consist of a trailing wheel which is connected to the vehicle 5 via a vertical axis 8 and rotatable about it, the wheel 11 itself being suspended on a horizontal axis 10 which is connected to the vertical axis 8 is connected, can be used together with two rotary encoder 7 and 9 . This tea trolley wheel is always tangent to the trajectory of the fulcrum around the vertical axis 8 . The changes in position and position angle of the vehicle 5 can be calculated from the angle of rotation α of the wheel 11 about its own axis 10 and from the angle of rotation ϕ of the horizontal offset (caster g) about the vertical axis 8 . This coupling navigation system can be found in DE 44 26 606 described in more detail.

Das von der CCD-Kamera 6 gelieferte digitalisierte Deckenbild wird (als Halbbild) zeilenweise von einem programmierbaren Schaltkreis durch Vorgabe eines geeigneten Schwellwertes binarisiert und in Video-Echtzeit kodiert und komprimiert zwischengespeichert. Durch optimierte Einstellung der Blendenfunktion (Integrationszeit, Vorverstärkung) der CCD-Kamera 6 erhält man auf diese Weise ein bereits segmentiertes Bild der Hallendecke mit ihren Leuchten, d. h. das Binärbild zeigt - soweit vorhanden - den hellen Leuchtenkörper deutlich abgegrenzt vor dem dunklen Hintergrund. Nach Bildaufnahme erfolgt die Objektextraktion, bei der die Berandungskurve und die Gesamtpixelzahl des Objekts abgelegt werden. Die Objektidentifikation klassifiziert den Leuchtentyp als runde Leuchte oder Leuchtstoffröhre. Optische Abbildungsfehler, insbesondere bei Weitwinkelobjektiven, können eine vorherige Objektentzerrung notwendig machen.The digitized ceiling image supplied by the CCD camera 6 is binarized (as a field) line by line by a programmable circuit by specifying a suitable threshold value and encoded and compressed in video real-time and buffered. By optimizing the aperture function (integration time, pre-amplification) of the CCD camera 6 , an already segmented image of the hall ceiling with its lights is obtained in this way, ie the binary image shows - if available - the bright body of the lamp clearly delimited against the dark background. After image acquisition, the object is extracted, in which the boundary curve and the total number of pixels of the object are stored. The object identification classifies the luminaire type as a round luminaire or fluorescent tube. Optical aberrations, especially in the case of wide-angle lenses, may require prior object equalization.

Je nach ermittelten Leuchtentyp kommen unterschiedliche Verfahren zur Bestimmung von Leuchtenwinkel λ′ und -position (xL′, yL′) im Koordinatensystem des Bildaufnehmers 2 zum Einsatz (vgl. Fig. 3). Im Falle rotationssymmetrischer Leuchten ist das Vorliegen mindestens zweier Leuchten im Bild Voraussetzung für eine Winkelbestimmung, die beispielsweise durch Bestimmung der Steigung der Verbindungsgerade erfolgt. Im Falle einer rechteckigen Leuchtstoffröhre im Bild kann mittels Hough-Transformation der Punkte der Objektkontur die Geradensteigung der Längsseite der Leuchte ermittelt werden. Die Positionsbestimmung erfolgt durch Auswahl eines Bezugspunktes, nämlich des Flächenschwerpunktes. Dieser wird auch für unvollständig abgebildete Leuchten berechnet, indem dann die Objektkonturkoordinaten in Deckenkoordinaten transformiert werden und dieser Leuchte eine reale Leuchte durch Kartenvergleich zugeordnet wird, woraus dann der Leuchtenmittelpunkt ableitbar ist.Depending on the luminaire type determined, different methods are used to determine the luminaire angle λ ′ and position (x L ′, y L ′) in the coordinate system of the image sensor 2 (cf. FIG. 3). In the case of rotationally symmetrical lights, the presence of at least two lights in the image is a prerequisite for determining the angle, which is done, for example, by determining the slope of the connecting straight line. In the case of a rectangular fluorescent tube in the image, the straight slope of the long side of the lamp can be determined by means of a Hough transformation of the points of the object contour. The position is determined by selecting a reference point, namely the centroid. This is also calculated for incompletely depicted luminaires by then transforming the object contour coordinates into ceiling coordinates and assigning a real luminaire to this luminaire by means of map comparison, from which the luminaire center point can then be derived.

Die Vermessung der Deckenleuchten 1 auf der Hallendecke erfolgt mittels Tachymeter. Als Resultat läßt sich eine digitale Karte der Deckenleuchten 1 abspeichern. Die Zuordnung des in Frage kommenden Kartenausschnitts zu dem Deckenbild des Bildaufnehmers 2 kann durch die unterstützende Koppelnavigation erleichtert werden, die eine Schätzposition des Fahrzeugs liefert. Aus diesem Kartenausschnitt wird dann unter den potentiellen Leuchten die passende Referenzleuchte ausgewählt. Aus den Koordinaten (xL′, yL′, λ′) der abgebildeten Leuchte 1 auf der Hallendecke im Koordinatensystem (m, n) des Bildaufnehmers 2 und den Absolutkoordinaten (XL, YL, λL) dieser Leuchte im Umgebungskoordinatensystem (X, Y) 3 folgen Position (XS, YS) und Lagewinkel λS des Bildaufnehmers 2 der CCD-Kamera 6 und damit des Fahrzeugs 5, wie aus Fig. 3 ersichtlich. Zur Vermeidung fehlerhafter Referenzierungsdaten findet ein Plausibilitätsvergleich mit den Daten der Koppelnavigation statt. Selbstverständlich muß die Bewegung des Fahrzeugs 5 während der Auswertung bei einer Kurskorrektur mitberücksichtigt werden.The ceiling lights 1 on the hall ceiling are measured by means of a tachymeter. As a result, a digital map of the ceiling lights 1 can be saved. The assignment of the map section in question to the ceiling image of the image sensor 2 can be facilitated by the supportive dead reckoning navigation, which provides an estimated position of the vehicle. The appropriate reference light is then selected from this map section among the potential lights. From the coordinates (x L ′, y L ′, λ ′) of the lamp 1 shown on the hall ceiling in the coordinate system (m, n) of the image sensor 2 and the absolute coordinates (X L , Y L , λ L ) of this lamp in the surrounding coordinate system ( X, Y) 3 follow position (X S , Y S ) and position angle λ S of the image sensor 2 of the CCD camera 6 and thus of the vehicle 5 , as can be seen in FIG. 3. To avoid incorrect referencing data, a plausibility comparison is carried out with the data from dead reckoning. Of course, the movement of the vehicle 5 must also be taken into account during the course of a course correction.

Im vorliegenden Fall wird die erfindungsgemäße Navigation zur Bereitstellung von absoluten Referenzierungsdaten für die Koppelnavigation eingesetzt, welche Änderungen von Position und Lagewinkel relativ zum jeweiligen Ausgangspunkt registriert. Zwischen zwei Referenzierungsvorgängen bewegt sich das Fahrzeug dann allein mit der Koppelnavigation, die in Abhängigkeit von ihren Meßfehlern und der Fahrgeschwindigkeit Kursabweichungen verursachen kann. Im vorliegenden Fall sollte deshalb die Zykluszeit der Referenzierung maximal 500 bis 800 ms betragen.In the present case, the navigation according to the invention is used to provide absolute referencing data used for dead reckoning, which Changes in position and position angle relative to the respective starting point  registered. The vehicle then moves between two referencing processes solely with dead reckoning, which depends on their measurement errors and the Driving speed can cause course deviations. In the present case therefore the cycle time of referencing is a maximum of 500 to 800 ms.

Die Winkelmeßgenauigkeit des erfindungsgemäßen Navigationssystems hängt i.w. nur von der Maximalauflösung der Hough-Transformation (hier ± 0,2°) ab, wie Messungen mit bekannten Vorgabewinkel bestätigen. Die Positionsmeßgenauigkeit bleibt in einem Bereich von ± 10 mm (volle Auflösung des Bildaufnehmers), wenn man die aus den Bilddaten berechnete Position mit der manuell gemessenen vergleicht.The angular measurement accuracy of the navigation system according to the invention depends i.w. just on the maximum resolution of the Hough transformation (here ± 0.2 °), such as measurements confirm with known default angle. The position measurement accuracy remains in one Range of ± 10 mm (full resolution of the image sensor), if you look at the Compare image data calculated position with the manually measured.

Aufgrund der hardwareseitigen Erzeugung der Objektberandungskoordinaten und der Objektentzerrung und der geringen zu verarbeitenden Datenmenge von weniger als 4 KByte für ein Vollbild liegt ein echtzeitfähiges Navigationssystem vor, das bei Halbbildverarbeitung im Mittel alle 90-160 ms eine Referenzierung ausführen kann.Due to the hardware generation of the object boundary coordinates and Object equalization and the small amount of data to be processed of less than 4 KByte for a full screen is a real-time navigation system that is included Field processing can carry out referencing every 90-160 ms on average.

In Fig. 4 sind nochmals schematisch die einzelnen Verarbeitungsschritte dieses speziellen Navigationsbeispiels zusammengefaßt, angefangen vom Vorhandensein der Leuchten (A), der CCD-Kamera mit entsprechender Optik (B) und einer speziellen Signalverarbeitung (C). Diese Signalverarbeitung (C) übernimmt die Digitalisierung, Segmentierung und Zwischenspeicherung der Bilddaten mit anschließender Objektentzerrung, -extraktion und -identifikation. Der Vergleich mit einem bestimmten Kartenausschnitt (F) erfolgt hier anhand der von der Koppelnavigation gelieferten Schätzposition des Fahrzeugs (D), die auf der bekannten Karte (E) der vorher vermessenen Objekte gesucht wird. Wie bereits geschildert, wird hieraus die Position des Bildaufnehmers und damit des Fahrzeugs (X, Y, λ) berechnet (G). Die Auswerteeinheit 4 besteht hier somit aus den dargestellten Einheiten C, D, E, F und G.In FIG. 4, the individual processing steps of this specific example are summarized navigation again schematically, from the presence of the lighting (A), the CCD camera with appropriate optics (B) and a special signal processing (C). This signal processing (C) takes over the digitization, segmentation and intermediate storage of the image data with subsequent object equalization, extraction and identification. The comparison with a specific map section (F) takes place here on the basis of the estimated position of the vehicle (D) provided by the dead reckoning navigation, which is sought on the known map (E) of the previously measured objects. As already described, the position of the image sensor and thus of the vehicle (X, Y, λ) is calculated from this (G). The evaluation unit 4 thus consists of the illustrated units C, D, E, F and G.

Das erfindungsgemäße Navigationssystem bestehend aus bildgebenden Sensor, Auswerte- und Steuereinheit arbeitet ohne bewegte, verschleißbehaftete Teile, erfordert keine Justage oder Wartung, was sich günstig auf Zuverlässigkeit und Kosten auswirkt. Die Meßgenauigkeit genügt den Anforderungen in vollem Maße, die Rechenzeiten ermöglichen ein echtzeitfähiges System. Gegenüber bisherigen Ortungssystemen basierend auf laseroptischen Methoden kann man mit der hier vorgestellten Methode die fahrzeugseitigen Sensorkosten senken, den Blickkontakt zwischen Sensor und Marke nahezu immer sicherstellen, Justier- und Wartungsarbeit sowie das Anbringen zusätzlicher Marken einsparen.The navigation system according to the invention consisting of an imaging sensor, Evaluation and control unit works without moving parts subject to wear, requires no adjustment or maintenance, which is beneficial in terms of reliability and cost affects. The measuring accuracy fully meets the requirements that Computing times enable a real-time capable system. Compared to previous ones Location systems based on laser-optical methods can be found here presented method reduce the vehicle's sensor costs, eye contact Almost always ensure between sensor and brand, adjustment and maintenance work as well as saving the addition of additional brands.

Claims (14)

1. Verfahren zur Navigation von fahrerlosen Fahrzeugen, insbesondere von Transportsystemen in Hallen, bei dem Umgebungsmarken detektiert und zur Bestimmung von Position und Lagewinkel des Fahrzeuges herangezogen werden, dadurch gekennzeichnet, daß mittels eines mit dem Fahrzeug (5) bewegten, bildgebenden Sensors (6) kontrastreiche Objekte (1) in der Umgebung aufgenommen werden, und daß aus deren Lage Position und Lagewinkel des Fahrzeugs (5) bestimmt werden.1. A method for navigating driverless vehicles, in particular transport systems in halls, in which environmental marks are detected and used to determine the position and angle of the vehicle, characterized in that an imaging sensor ( 6 ) is moved with the vehicle ( 5 ). high-contrast objects ( 1 ) are recorded in the environment, and that the position and angle of the vehicle ( 5 ) are determined from their position. 2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß mittels des Sensors (6) kontrastreiche Objekte (1) in der Umgebung abgebildet werden und die gewonnenen Bilder mit einer bekannten Karte dieser Objekte (1) verglichen werden und daraus Position und Lagewinkel des Fahrzeugs (5) bestimmt werden.2. The method according to claim 1, characterized in that by means of the sensor ( 6 ) high-contrast objects ( 1 ) are imaged in the environment and the images obtained are compared with a known map of these objects ( 1 ) and from this position and angle of the vehicle ( 5 ) can be determined. 3. Verfahren nach einem der Ansprüche 1 bis 2, dadurch gekennzeichnet, daß der Fahrkurs des Fahrzeugs (5) anhand der jeweils ermittelten Istwerte für Position und Lagewinkel des Fahrzeugs (5) geregelt wird.3. The method according to any one of claims 1 to 2, characterized in that the driving course of the vehicle (5) is regulated on the basis of the respectively determined actual values for the position and attitude angle of the vehicle (5). 4. Verfahren nach einem der Ansprüche 1 bis 3 für Fahrzeuge in Hallen, dadurch gekennzeichnet, daß die Deckenleuchten (1) in der Halle als kontrastreiche Objekte (1) verwendet werden.4. The method according to any one of claims 1 to 3 for vehicles in halls, characterized in that the ceiling lights ( 1 ) are used in the hall as high-contrast objects ( 1 ). 5. Verfahren nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, daß von einer unterstützenden Koppelnavigation Relativwerte für Position und Lagewinkel des Fahrzeugs (5) bezogen auf einen Referenzpunkt ermittelt werden.5. The method according to any one of claims 1 to 4, characterized in that relative values for position and position angle of the vehicle ( 5 ) are determined based on a reference point by a supporting dead reckoning. 6. Verfahren nach Anspruch 5, dadurch gekennzeichnet, daß die mittels des bildgebenden Sensors (6) ermittelten Istwerte für Position und Lagewinkel des Fahrzeugs (5) jeweils als Referenzwerte von der unterstützenden Koppelnavigation verwendet werden. 6. The method according to claim 5, characterized in that the actual values for the position and position angle of the vehicle ( 5 ) determined by means of the imaging sensor ( 6 ) are each used as reference values by the supporting dead reckoning. 7. Verfahren nach einem der beiden Ansprüche 5 oder 6, dadurch gekennzeichnet, daß die von der Koppelnavigation gelieferten Relativwerte für Position und Lagewinkel des Fahrzeugs (5) zur Bestimmung von Position und Lagewinkel des Fahrzeugs (5) mittels des bildgebenden Sensors (6) mitverwendet werden.7. The method according to any one of claims 5 or 6, characterized in that the relative values for the position and position angle of the vehicle ( 5 ) provided by the coupling navigation are used for determining the position and position angle of the vehicle ( 5 ) by means of the imaging sensor ( 6 ) become. 8. Verfahren nach Anspruch 7, dadurch gekennzeichnet, daß anhand der von der Koppelnavigation gelieferten Relativwerte ein geeigneter Ausschnitt aus der Karte der kontrastreichen Objekte (1) ausgewählt wird, der mit dem vom Sensor (6) aufgenommenen Bild verglichen wird.8. The method according to claim 7, characterized in that a suitable section from the map of high-contrast objects ( 1 ) is selected on the basis of the relative values supplied by the dead reckoning navigation, which is compared with the image recorded by the sensor ( 6 ). 9. Verfahren nach einem der Ansprüche 2 bis 8, dadurch gekennzeichnet, daß vom Sensor (6) unvollständig abgebildete Objekte (1) nach Vergleich mit einem geeigneten Ausschnitt aus der Karte dieser Objekte (1) zur Bestimmung von Position und Lagewinkel des Fahrzeugs (5) mitverwendet werden.9. The method according to any one of claims 2 to 8, characterized in that the sensor ( 6 ) incompletely imaged objects ( 1 ) after comparison with a suitable section of the map of these objects ( 1 ) for determining the position and angle of the vehicle ( 5th ) can also be used. 10. Vorrichtung zur Navigation von fahrerlosen Fahrzeugen, insbesondere von Transportsystemen in Hallen, die Umgebungsmarken detektiert und daraus Position und Lagewinkel des Fahrzeuges bestimmt, dadurch gekennzeichnet, daß auf dem Fahrzeug (5) ein auf kontrastreiche Objekte (1) in der Umgebung gerichteter, bildgebender Sensor (6) angebracht ist, der mit einer Auswerteeinheit verbunden ist, die aus der Lage dieser Objekte (1) Position und Lagewinkel des Fahrzeugs (5) bestimmt.10. Device for navigation of driverless vehicles, in particular of transport systems in halls, which detects surrounding marks and determines the position and position angle of the vehicle therefrom, characterized in that on the vehicle ( 5 ) a high-contrast objects ( 1 ) directed in the area, imaging Sensor ( 6 ) is attached, which is connected to an evaluation unit, which determines the position and angle of the vehicle ( 5 ) from the position of these objects ( 1 ). 11. Vorrichtung nach Anspruch 10, dadurch gekennzeichnet, daß der Sensor (6) mit einer Auswerteeinheit verbunden ist, die vom Sensor (6) gelieferte Bilder kontrastreicher Objekte (1) mit einer bekannten Karte dieser Objekte (1) vergleicht und daraus Position und Lagewinkel des Fahrzeugs (5) bestimmt.11. The device according to claim 10, characterized in that the sensor ( 6 ) is connected to an evaluation unit, the sensor ( 6 ) delivered images of high-contrast objects ( 1 ) with a known map of these objects ( 1 ) and compares position and angle of the vehicle ( 5 ) determined. 12. Vorrichtung nach einem der Ansprüche 10 oder 11, dadurch gekennzeichnet, daß eine Steuereinheit mit der Auswerteeinheit (4) in Wirkverbindung steht, die den Fahrkurs des Fahrzeugs (5) anhand der ermittelten Istwerte für Position und Lagewinkel des Fahrzeugs (5) steuert.12. The device according to one of claims 10 or 11, characterized in that a control unit with the evaluation unit ( 4 ) is operatively connected, which controls the driving course of the vehicle ( 5 ) on the basis of the actual values determined for position and angle of the vehicle ( 5 ). 13. Vorrichtung nach einem der Ansprüche 10 bis 12, dadurch gekennzeichnet, daß ein am Fahrzeug (5) installiertes Koppelnavigationssystem in Wirkverbindung mit der dem bildgebenden Sensor (6) nachgeschalteten Auswerteeinheit (4) steht, die Position und Lagewinkel des Fahrzeugs (5) bestimmt. 13. Device according to one of claims 10 to 12, characterized in that a coupling navigation system installed on the vehicle ( 5 ) is operatively connected to the evaluation unit ( 4 ) connected downstream of the imaging sensor ( 6 ), which determines the position and position angle of the vehicle ( 5 ) . 14. Vorrichtung nach Anspruch 13, dadurch gekennzeichnet, daß das Koppelnavigationssystem in Wirkverbindung mit der der Auswerteeinheit (4) nachgeschalteten Steuereinheit steht, die das Fahrzeug (5) anhand der ermittelten Werte für Position und Lagewinkel des Fahrzeugs (5) steuert.14. The apparatus according to claim 13, characterized in that the dead reckoning system is in operative connection with the control unit which is connected downstream of the evaluation unit ( 4 ) and which controls the vehicle ( 5 ) on the basis of the values determined for the position and position angle of the vehicle ( 5 ).
DE4429016A 1994-08-16 1994-08-16 Navigating driver-less vehicles esp. of transport systems used in e.g. hangars or large hall Withdrawn DE4429016A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE4429016A DE4429016A1 (en) 1994-08-16 1994-08-16 Navigating driver-less vehicles esp. of transport systems used in e.g. hangars or large hall

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE4429016A DE4429016A1 (en) 1994-08-16 1994-08-16 Navigating driver-less vehicles esp. of transport systems used in e.g. hangars or large hall

Publications (1)

Publication Number Publication Date
DE4429016A1 true DE4429016A1 (en) 1996-02-22

Family

ID=6525809

Family Applications (1)

Application Number Title Priority Date Filing Date
DE4429016A Withdrawn DE4429016A1 (en) 1994-08-16 1994-08-16 Navigating driver-less vehicles esp. of transport systems used in e.g. hangars or large hall

Country Status (1)

Country Link
DE (1) DE4429016A1 (en)

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19938345C1 (en) * 1999-08-13 2001-02-15 Isocom Automationssysteme Gmbh Method and device for detecting the position of a vehicle in a predetermined area, in particular a storage facility, and warehouse management method and system
US6321146B1 (en) 1997-08-07 2001-11-20 Litef Gmbh Drift sensor for land vehicles
EP1225552A1 (en) * 2001-01-19 2002-07-24 Siemens Aktiengesellschaft A method and system for referencing locations in transport telematics
FR2823868A1 (en) * 2001-04-18 2002-10-25 Samsung Kwangju Electronics Co Wireless remote control for floor cleaning robot uses two cameras to create 3D map and to locate fixed points in cleaning zone to determine current position
FR2842720A1 (en) * 2002-07-26 2004-01-30 Samsung Kwangju Electronics Co Automatically controlled vacuum cleaning machine has infrared sensors and cameras to guide machine over required path
DE10302105A1 (en) * 2003-01-21 2004-08-05 Indyon Gmbh Determination of the position of a vehicle within a defined area, e.g. a warehouse, based on use of transponders attached to the vehicle wheels and the vehicle starting from an initial defined reference position
DE10323225A1 (en) * 2003-02-07 2004-09-09 Samsung Gwangju Electronics Co. Ltd. Placemark detection method for a robot cleaning device and robot cleaning device using the method
WO2007077151A2 (en) 2006-01-05 2007-07-12 International Business Machines Corporation Mobile device tracking
DE102008036412A1 (en) 2008-08-05 2010-02-11 Still Gmbh Method for driver assistance with an industrial truck
DE102009004854A1 (en) * 2009-01-16 2010-07-22 Jungheinrich Aktiengesellschaft Method for position determination of industrial truck in ware house, involves assuming target point position as estimated position, and continuing estimated position as new starting position
WO2011085426A1 (en) 2010-01-18 2011-07-21 Zeno Track Gmbh Method and system for sensing the position of a vehicle
DE102010008957A1 (en) 2010-02-19 2011-08-25 FusionSystems GmbH, 09125 Method for contactless position determination of objects e.g. rail vehicles, in industrial application, involves using visible or non visible light and surface sensor for sensory detection of coding information of objects
AT509118B1 (en) * 2008-07-16 2011-12-15 Zeno Track Gmbh METHOD AND DEVICE FOR DETECTING THE POSITION OF A VEHICLE IN A DEFINED AREA
US9170581B2 (en) 2013-09-30 2015-10-27 Crown Equipment Limited Industrial vehicles with overhead light based localization
US9174830B1 (en) 2014-09-29 2015-11-03 Crown Equipment Limited Industrial vehicles with point fix based localization
WO2015199553A3 (en) * 2014-06-27 2016-03-31 Crown Equipment Limited Lost vehicle recovery utilizing associated feature pairs
EP3017317B1 (en) 2013-07-04 2019-02-13 Philips Lighting Holding B.V. Determining orientation
DE102019112781B4 (en) 2019-05-15 2022-12-15 Trumpf Werkzeugmaschinen Gmbh + Co. Kg Method of coupling coordinate systems and computerized system
US11536572B2 (en) * 2016-11-09 2022-12-27 The Texas A&M University System Method and system for accurate long term simultaneous localization and mapping with absolute orientation sensing
WO2023045486A1 (en) * 2021-09-24 2023-03-30 北京迈格威科技有限公司 Warehousing system, shuttle vehicle for warehousing system and navigation method therefor
EP4383217A1 (en) 2022-12-09 2024-06-12 BlooLoc NV Person detection method and system for collision avoidance

Cited By (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6321146B1 (en) 1997-08-07 2001-11-20 Litef Gmbh Drift sensor for land vehicles
US6732045B1 (en) 1999-08-13 2004-05-04 Locanis Technologies Gmbh Method and device for detecting the position of a vehicle in a given area
DE19938345C1 (en) * 1999-08-13 2001-02-15 Isocom Automationssysteme Gmbh Method and device for detecting the position of a vehicle in a predetermined area, in particular a storage facility, and warehouse management method and system
EP1225552A1 (en) * 2001-01-19 2002-07-24 Siemens Aktiengesellschaft A method and system for referencing locations in transport telematics
FR2823868A1 (en) * 2001-04-18 2002-10-25 Samsung Kwangju Electronics Co Wireless remote control for floor cleaning robot uses two cameras to create 3D map and to locate fixed points in cleaning zone to determine current position
NL1019692C2 (en) * 2001-04-18 2003-09-29 Samsung Kwangju Electronics Co Cleaning robot, cleaning robot system and method for controlling it.
US6732826B2 (en) 2001-04-18 2004-05-11 Samsung Gwangju Electronics Co., Ltd. Robot cleaner, robot cleaning system and method for controlling same
FR2842720A1 (en) * 2002-07-26 2004-01-30 Samsung Kwangju Electronics Co Automatically controlled vacuum cleaning machine has infrared sensors and cameras to guide machine over required path
DE10302105B4 (en) * 2003-01-21 2007-10-18 Indyon Gmbh Device and method for determining a current position of a vehicle and for managing a storage area
DE10302105A1 (en) * 2003-01-21 2004-08-05 Indyon Gmbh Determination of the position of a vehicle within a defined area, e.g. a warehouse, based on use of transponders attached to the vehicle wheels and the vehicle starting from an initial defined reference position
US7184586B2 (en) 2003-02-07 2007-02-27 Samsung Gwangju Electronics Co., Ltd. Location mark detecting method for robot cleaner and robot cleaner using the method
DE10323225B4 (en) * 2003-02-07 2011-06-22 Samsung Gwangju Electronics Co. Ltd. A location mark detection method for a robot cleaning apparatus and a robot cleaning apparatus using the method
DE10323225A1 (en) * 2003-02-07 2004-09-09 Samsung Gwangju Electronics Co. Ltd. Placemark detection method for a robot cleaning device and robot cleaning device using the method
WO2007077151A2 (en) 2006-01-05 2007-07-12 International Business Machines Corporation Mobile device tracking
WO2007077151A3 (en) * 2006-01-05 2007-11-01 Ibm Mobile device tracking
US7681796B2 (en) 2006-01-05 2010-03-23 International Business Machines Corporation Mobile device tracking
CN101351754B (en) * 2006-01-05 2011-04-13 国际商业机器公司 Mobile device tracking
AT509118B1 (en) * 2008-07-16 2011-12-15 Zeno Track Gmbh METHOD AND DEVICE FOR DETECTING THE POSITION OF A VEHICLE IN A DEFINED AREA
DE102008036412A1 (en) 2008-08-05 2010-02-11 Still Gmbh Method for driver assistance with an industrial truck
EP2154478A1 (en) 2008-08-05 2010-02-17 Still Gmbh Driver support method in an industrial truck
DE102009004854A1 (en) * 2009-01-16 2010-07-22 Jungheinrich Aktiengesellschaft Method for position determination of industrial truck in ware house, involves assuming target point position as estimated position, and continuing estimated position as new starting position
DE102009004854B4 (en) * 2009-01-16 2015-08-06 Jungheinrich Aktiengesellschaft Method and system for determining the position of an industrial truck
WO2011085426A1 (en) 2010-01-18 2011-07-21 Zeno Track Gmbh Method and system for sensing the position of a vehicle
DE102010008957A1 (en) 2010-02-19 2011-08-25 FusionSystems GmbH, 09125 Method for contactless position determination of objects e.g. rail vehicles, in industrial application, involves using visible or non visible light and surface sensor for sensory detection of coding information of objects
EP3017317B1 (en) 2013-07-04 2019-02-13 Philips Lighting Holding B.V. Determining orientation
US9606540B2 (en) 2013-09-30 2017-03-28 Crown Equipment Corporation Industrial vehicles with overhead light based localization
US9170581B2 (en) 2013-09-30 2015-10-27 Crown Equipment Limited Industrial vehicles with overhead light based localization
CN106461400B (en) * 2014-06-27 2019-08-16 克朗设备公司 Use the vehicle location determination or navigation of linked character pair
KR101769284B1 (en) 2014-06-27 2017-08-18 크라운 이큅먼트 코포레이션 Lost vehicle recovery utilizing associated feature pairs
US9349181B2 (en) 2014-06-27 2016-05-24 Crown Equipment Limited Lost vehicle recovery utilizing associated feature pairs
AU2015280775B2 (en) * 2014-06-27 2017-01-05 Crown Equipment Corporation Lost vehicle recovery utilizing associated feature pairs
CN106461400A (en) * 2014-06-27 2017-02-22 克朗设备公司 Vehicle positioning or navigation utilizing associated feature pairs
WO2015199554A3 (en) * 2014-06-27 2016-03-31 Crown Equipment Limited Vehicle positioning or navigation utilizing associated feature pairs
CN106662451A (en) * 2014-06-27 2017-05-10 克朗设备公司 Lost vehicle recovery utilizing associated feature pairs
WO2015199553A3 (en) * 2014-06-27 2016-03-31 Crown Equipment Limited Lost vehicle recovery utilizing associated feature pairs
CN106662451B (en) * 2014-06-27 2018-04-24 克朗设备公司 Recovered using the lost vehicles of linked character pair
US9984467B2 (en) 2014-06-27 2018-05-29 Crown Equipment Corporation Vehicle positioning or navigation utilizing associated feature pairs
US9340399B2 (en) 2014-09-29 2016-05-17 Crown Equipment Corporation Industrial vehicles with point fix based localization
US9174830B1 (en) 2014-09-29 2015-11-03 Crown Equipment Limited Industrial vehicles with point fix based localization
US11536572B2 (en) * 2016-11-09 2022-12-27 The Texas A&M University System Method and system for accurate long term simultaneous localization and mapping with absolute orientation sensing
DE102019112781B4 (en) 2019-05-15 2022-12-15 Trumpf Werkzeugmaschinen Gmbh + Co. Kg Method of coupling coordinate systems and computerized system
WO2023045486A1 (en) * 2021-09-24 2023-03-30 北京迈格威科技有限公司 Warehousing system, shuttle vehicle for warehousing system and navigation method therefor
EP4383217A1 (en) 2022-12-09 2024-06-12 BlooLoc NV Person detection method and system for collision avoidance

Similar Documents

Publication Publication Date Title
DE4429016A1 (en) Navigating driver-less vehicles esp. of transport systems used in e.g. hangars or large hall
AT518579B1 (en) Method and measuring system for detecting a fixed point next to a track
EP1042643B1 (en) Device for determining the wheel and/or axle geometry of motor vehicles
EP2294380B1 (en) Method for detecting misalignment of a vehicle headlight using a camera
DE60309278T2 (en) Device and method for adjusting the inclination of a vehicle headlight
EP0842395B1 (en) Process and device for the rapid detection of the position of a target marking
EP1505367A2 (en) Method for evaluating axle geometry and sensor for implemention of said method
DE102010002258A1 (en) Method and device for determining distances on a vehicle
EP2989594B1 (en) Device and method for recognising inscriptions on vehicle tyres
EP0691534A1 (en) Method of visibility determination in particular for vehicle movement
DE102008004632A1 (en) Device and method for measuring a parking space
DE102005063082A1 (en) Vehicle chassis optical measurement method, involves extracting surface profiles from scanned surface structure, and determining spatial position characteristic of surface points as position data to determine chassis data
WO2017017077A1 (en) Method for identifying an object in a surrounding region of a motor vehicle, driver assistance system and motor vehicle
DE102010022592B4 (en) Method and device for determining the speed of a vehicle
DE10034461A1 (en) Procedure for determining visibility
WO2012034637A1 (en) Method and device for detecting roadway markings in an image
EP2960883B1 (en) Determination of at least one vehicle feature
EP0290633B1 (en) Method for detecting changes in the driving range of an unmanned vehicle
DE102008062589A1 (en) Method for non-contact dynamic detection of the diameter of a rail vehicle wheel
DE102009036196A1 (en) Traffic sign recognition method for vehicle, involves recording traffic signs within surrounding of vehicle by optical detection unit, where estimated current relative position of traffic signs is selected or limited within surrounding
DE19836103A1 (en) Device and method for the two-dimensional determination of load oscillations and / or rotations on a crane
DE10153113A1 (en) Distance determination method and apparatus
EP3388780B1 (en) Method and apparatus for referencing the position of at least one point on or in a transparent article
WO2018210986A1 (en) Arrangement and method for contactless distance determination of the type of the light intersection method
WO2010006352A1 (en) Method and apparatus for capturing the position of a vehicle in a defined region

Legal Events

Date Code Title Description
8139 Disposal/non-payment of the annual fee