DE102007022939A1 - Fahrzeugumgebungs-Überwachungsvorrichtung - Google Patents

Fahrzeugumgebungs-Überwachungsvorrichtung Download PDF

Info

Publication number
DE102007022939A1
DE102007022939A1 DE102007022939A DE102007022939A DE102007022939A1 DE 102007022939 A1 DE102007022939 A1 DE 102007022939A1 DE 102007022939 A DE102007022939 A DE 102007022939A DE 102007022939 A DE102007022939 A DE 102007022939A DE 102007022939 A1 DE102007022939 A1 DE 102007022939A1
Authority
DE
Germany
Prior art keywords
vehicle
area
image
process unit
determination process
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102007022939A
Other languages
English (en)
Inventor
Fuminori Wako Taniguchi
Hiroyuki Wako Koike
Masakazu Wako Saka
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Publication of DE102007022939A1 publication Critical patent/DE102007022939A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)

Abstract

Es wird eine Fahrzeugumgebungs-Überwachungsvorrichtung angegeben, die in der Lage ist, einen Objekttyp zu bestimmen, insbesondere unter Objekten ein anderes Lebewesen als einen Menschen zu bestimmen. Die Fahrzeugumgebungs-Überwachungsvorrichtung, die die Umgebung eines Fahrzeugs mittels eines von einer am Fahrzeug (10) angebrachten Kamera (2R, 2L) aufgenommenen Bilds überwacht, umfasst: eine Objektextraktionsprozesseinheit (S1-S6), die eine Bildfläche eines Objekts aus dem von der Kamera (2R, 2L) aufgenommenen Bild extrahiert; und eine Objekttypbestimmungsprozesseinheit (S31-S37), die einen Objekttyp in Abhängigkeit davon bestimmt, ob die Bildfläche des von der Objektextraktionsprozesseinheit (S1-S6) extrahierten Objekts eine erste Objektfläche (P1), in der das Verhältnis von Breiten in unterschiedlichen Richtungen innerhalb eines vorbestimmten Bereichs liegt, und eine Mehrzahl zweiter Objektflächen (P2, P3), die unter der ersten Objektfläche (P1) angeordnet ist und deren Fläche kleiner als die erste Objektfläche (P1) ist, enthält.

Description

  • Die Erfindung betrifft eine Fahrzeugumgebungs-Überwachungsvorrichtung, die ein Objekt erkennt, das die Fahrt des Fahrzeugs behindert.
  • Zum Beispiel ist in der JP-A-11(1999)-328364 eine Fahrzeugumgebungs-Überwachungsvorrichtung vorgeschlagen worden, die einen Displayprozessor aufweist, der eine Bildfläche eines Fußgängers, der wahrscheinlich mit dem betreffenden Fahrzeug in Kontakt kommt, aus einem Bild der Umgebung des Fahrzeugs, das von einer Infrarotkamera aufgenommen wurde, extrahiert und dem Fahrzeugfahrer visuelle Information liefert. Diese Vorrichtung binärisiert das aufgenommene Infrarotbild, um einen Hochluminanzbereich herauszufinden, und bestimmt den Hochluminanzbereich als Kopf eines Fußgängers, wenn die Schwerpunktposition, das Flächenverhältnis, die Nettofläche und dergleichen des Hochluminanzbereichs vorbestimmten Kopf-Bestimmungsbedingungen genügen. Nachdem die Fläche des Fußgängerkopfs bestimmt worden ist, setzt sie dann eine dem Körper des Fußgängers enthaltende Fläche und stellt diese Flächen von anderen Flächen getrennt dar. Hierdurch wird die Position des gesamten Fußgängerkörpers in dem aufgenommenen Infrarotbild identifiziert, und die Information wird dem Fahrzeugfahrer als visuelle Hilfe dafür angezeigt.
  • Jedoch ist ein Objekt, das sich in der Umgebung des Fahrzeugs befindet und möglicherweise mit dem Fahrzeug in Kontakt kommt, nicht auf einen Fußgänger beschränkt. Zum Beispiel könnte ein großes Tier, wie etwa ein Hirsch, auf der Straße sein und mit dem Fahrzeug in Kontakt kommen. In dieser Situation wird unter den obigen Bestimmungsbedingungen, die auf der Position des Schwerpunkts, dem Flächenverhältnis, der Nettofläche und dergleichen des Hochluminanzbereichs beruhen, das große Tier nicht als Fußgänger bestimmt. Daher hat diese Vorrichtung den Nachteil, dass Information über das große Tier dem Fahrzeugfahrer nicht als warnende Information dargeboten wird, obwohl das große Tier mit dem Fahrzeug wahrscheinlich in Kontakt kommt.
  • Aufgabe der Erfindung ist es daher, eine Fahrzeugumgebungs-Überwachungsvorrichtung anzugeben, die in der Lage ist, einen Objekttyp zu bestimmen, und insbesondere eine solche Fahrzeugumgebungs-Überwachungsvorrichtung, die in der Lage ist, unter Objekten ein anderes Lebewesen als einen Menschen zu bestimmen.
  • Zur Lösung der Aufgabe wird gemäß einem Aspekt der Erfindung eine Fahrzeugumgebungs-Überwachungsvorrichtung angegeben, die die Umgebung eines Fahrzeugs mittels eines von einer am Fahrzeug angebrachten Kamera aufgenommenen Bilds überwacht, umfassend: eine Objektextraktionsprozesseinheit, die eine Bildfläche eines Objekts aus dem von der Kamera aufgenommenen Bild extrahiert; und eine Objekttypbestimmungsprozesseinheit, die einen Objekttyp in Abhängigkeit davon bestimmt, ob die Bildfläche des von der Objektextraktionsprozesseinheit extrahierten Objekts eine erste Objektfläche, in der das Verhältnis von Breiten in unterschiedlichen Richtungen innerhalb eines vorbestimmten Bereichs liegt, und eine Mehrzahl zweiter Objektflächen, die unter der ersten Objektfläche angeordnet ist und deren Fläche kleiner als die erste Objektfläche ist, enthält.
  • Allgemein hat, wenn das Objekt ein Tier ist, dieses eine erste Objektfläche, die dem Körper entspricht, und zwei oder mehr zweite Objektflächen, die den Beinen entsprechen. Ferner ist die Form des Körpers von der Art des Tieres abhängig. Daher bestimmt die erfindungsgemäße Fahrzeugumgebungs-Überwachungsvorrichtung den Objekttyp mittels der Objekttypbestimmungsprozesseinheit unter der Bedingung, dass die Bildfläche des Objekts die erste Objektfläche, in der das Verhältnis von Breiten in unterschiedlichen Richtungen innerhalb des vorbestimmten Bereichs liegt, sowie die Mehrzahl zweiter Objektflächen, die unter der ersten Objektfläche angeordnet sind und kleiner sind als die erste Objektfläche, enthält. Hierdurch lässt sich bestimmen, ob der Objekttyp ein Tier mit einer Körperform ist, in der das Verhältnis von Breiten in unterschiedlichen Richtungen innerhalb eines vorbestimmten Bereichs liegt.
  • Bevorzugt bestimmt die Objekttypbestimmungsprozesseinheit, dass die Objekttypbestimmungsprozesseinheit dass der Objekttyp ein anderes Lebewesen als ein Mensch ist, wenn die Bildfläche des von der Objektextraktionsprozesseinheit extrahierten Objekts die erste Objektfläche, in der das Verhältnis von Breiten in unterschiedlichen Richtungen innerhalb des vorbestimmten Bereichs liegt, und die Mehrzahl zweiter Objektflächen, die unter der ersten Objektfläche angeordnet sind und deren Fläche kleiner als die erste Objektfläche ist, enthält.
  • Erfindungsgemäß bestimmt die Objekttypbestimmungsprozesseinheit, ob das Objekt ein anderes Lebewesen als ein Mensch ist, unter der Bedingung, dass die Bildfläche des Objekts die erste Objektfläche, in der das Verhältnis von Breiten in unterschiedlichen Richtungen innerhalb des vorbestimmten Bereichs liegt, und die Mehrzahl zweiter Objektflächen, die unter der ersten Objektfläche angeordnet sind und deren Fläche kleiner ist als die erste Objektfläche, enthält. Hierdurch lässt sich bestimmen, ob das Objekt ein anderes Lebewesen als ein Mensch ist, zur Unterscheidung von einer Zeichentafel, in der das Verhältnis von Breiten in unterschiedlichen Richtungen nicht innerhalb des vorbestimmten Bereichs liegt, und eines Verkehrszeichens oder dergleichen, das nur eine zweite Objektfläche aufweist.
  • Bevorzugt hat die erste Objektfläche eine vorbestimmte Größe.
  • Allgemein ist die dem Körper entsprechende Größe der ersten Objektfläche von der Art des Tieres abhängig. Daher bestimmt die Objekttypbestimmungsprozesseinheit den Objekttyp unter der Bedingung, dass die Bildfläche die erste Objektfläche enthält, die die vorbestimmte Größe hat, zusätzlich dazu, dass das Verhältnis von Breiten in unterschiedlichen Richtungen innerhalb des vorbestimmten Bereichs liegt. Hierdurch kann der Objekttyp noch genauer bestimmt werden.
  • Bevorzugt bestimmt die Objekttypbestimmungsprozesseinheit den Objekttyp basierend auf der Beziehung zwischen einer ersten Flächenbreite, die die horizontale Breite des von der Kamera aufgenommenen Bilds der ersten Objektfläche ist, und einer zweiten Flächenbreite, die die horizontale Breite des von der Kamera aufgenommenen Bilds zwischen dem linken Ende an der linken Seite und dem rechten Ende an der rechten Seite der zwei oder mehr zweiten Objektflächen ist.
  • Allgemein ist die Beziehung zwischen der ersten Flächenbreite, die der Breite eines Tierkopfs entspricht, und der zweiten Flächenbreite, die der Breite zwischen den Beinen des Tiers entspricht, von der Art des Tieres abhängig. Daher bestimmt die Objekttypbestimmungsprozesseinheit den Objekttyp basierend auf der Beziehung zwischen der ersten Flächenbreite und der zweiten Flächenbreite. Hierdurch lässt sich bestimmen, ob der Objekttyp ein Tier ist, was der vorbestimmten Beziehung zwischen der ersten Flächenbreite und der zweiten Flächenbreite genügt.
  • Bevorzugt bestimmt die Objekttypbestimmungsprozesseinheit, dass der Objekttyp ein anderes Lebewesen als ein Mensch ist, wenn die zweite Flächenbreite größer als eine Hälfte der ersten Flächenbreite ist.
  • Wenn das Objekt ein anderes Lebewesen als ein Mensch ist, bewegen sich allgemein die Beine, während sie den Körper tragen. Daher nimmt man an, dass die zweite Flächenbreite, die der Breite zwischen den Vorder- und Hinterbeinen entspricht, größer ist als eine Hälfte der ersten Flächenbreite, die der Breite des Körpers entspricht. Daher kann die Objekttypbestimmungsprozesseinheit bestimmen, dass das Objekt ein anderes Lebewesen als ein Mensch ist, wenn die zweite Flächenbreite größer als eine Hälfte der ersten Flächenbreite ist.
  • Bevorzugt umfasst eine Abstandsberechnungsprozesseinheit, die einen Abstand einer realen Raumposition, die der Bildfläche entspricht, die in dem von der Kamera aufgenommenen Bild enthalten ist, von dem Fahrzeug berechnet, wobei die Objekttypbestimmungsprozesseinheit den Objekttyp unter der Bedingung bestimmt, dass die Bildfläche des Objekts ein Merkmal aufweist, das sich innerhalb einer vorbestimmten Reichweite von der ersten Objektfläche in dem von der Kamera aufgenommenen Bild befindet und einer vorbestimmten Merkmalsbedingung genügt, und dass der Abstand der dem Merkmal entsprechenden realen Raumposition von dem Fahrzeug gleich dem Abstand der der ersten Objektfläche entsprechenden realen Raumposition von dem Fahrzeug ist.
  • Allgemein sind, wenn das Objekt ein Tier ist, Teile des Körpers, wie etwa der Kopf und der Schwanz, der Umgebung der ersten Objektfläche angeordnet, und diese Teile haben eigene besondere Merkmale. Daher werden bevorzugt die Merkmalsbedingungen, die diesen besonderen Merkmalen entsprechen, vorbestimmt. Dann bestimmt die Objekttypbestimmungsprozesseinheit den Objekttyp unter der Bedingung, dass die Bildfläche des Objekts das Merkmal hat, das sich innerhalb des vorbestimmten Bereichs von der ersten Objektfläche in dem aufgenommenen Bild befindet und der Merkmalsbedingung genügt, und dass der Abstand der dem Merkmal entsprechenden Realraumposition von dem Fahrzeug gleich dem Abstand der der ersten Objektfläche entsprechenden Realraumposition von dem Fahrzeug ist. Hierdurch kann der Objekttyp noch genauer von einer Zeichentafel oder dergleichen unterschieden werden, die das obige Merkmal in der Umgebung der ersten Objektfläche nicht aufweist.
  • Gemäß einem weiteren Aspekt der Erfindung wird eine Fahrzeugumgebungs-Überwachungsvorrichtung angegeben, die die Umgebung eines Fahrzeugs mittels eines Computers überwacht, der in der Vorrichtung vorgesehen ist und eine Schnittstellenschaltung zum Zugriff auf ein von einer am Fahrzeug angebrachten Kamera aufgenommenes Bild enthält, wobei der Computer durchführt: einen Objektextraktionsprozess zum Extrahieren einer Bildfläche eines Objekts aus dem von der Kamera aufgenommenen Bild; und einen Objekttypbestimmungsprozess zum Bestimmen eines Objekttyps in Abhängigkeit davon, ob die Bildfläche des im Objekt- extraktionsprozess extrahierten Objekts eine erste Objektfläche, in der das Verhältnis von Breiten in unterschiedlichen Richtungen innerhalb eines vorbestimmten Bereichs liegt, und eine Mehrzahl zweiter Objektflächen, die unter der ersten Objektfläche angeordnet sind und deren Fläche kleiner als die erste Objektfläche ist, enthält.
  • Gemäß der Fahrzeugumgebungs-Überwachungsvorrichtung der Erfindung führt der Computer den Objektextraktionsprozess durch, um die Bildfläche des Objekts aus dem Bild zu extrahieren, und führt den Objekttypbestimmungsprozess aus, um den Objekttyp unter der Bedingung zu bestimmen, dass die extrahierte Bildfläche die erste Objektfläche, in der das Verhältnis von Breiten in unterschiedlichen Richtungen innerhalb des vorbestimmten Bereichs liegt, und die Mehrzahl zweiter Objektflächen, die unter der ersten Objektfläche angeordnet sind und deren Fläche kleiner ist als die erste Objektfläche, enthält. Hierdurch lässt sich bestimmen, ob der Objekttyp ein Tier mit einer Körperform ist, in der das Verhältnis von Breiten in unterschiedlichen Richtungen innerhalb des vorbestimmten Bereichs liegt.
  • Gemäß einem noch weiteren Aspekt der Erfindung wird, zur Lösung der obigen Aufgabe, ein Fahrzeug angegeben, das mit der Fahrzeugumgebungs-Überwachungsvorrichtung ausgestattet ist.
  • Bei dem erfindungsgemäßen Fahrzeug bestimmt die Fahrzeugumgebungs-Überwachungsvorrichtung den Objekttyp unter der Bedingung, dass die Bildfläche des Objekts die erste Objektfläche, in der das Verhältnis von Breiten in unterschiedlichen Richtungen innerhalb des vorbestimmten Bereichs liegt, und die Mehrzahl zweiter Objektflächen, die unterhalb der ersten Objektfläche angeordnet sind und deren Fläche kleiner ist als die erste Objektfläche, enthält. Hierdurch lässt sich bestimmen, ob der Objekttyp ein Tier mit einer Körperform ist, in der das Verhältnis von Breiten in unterschiedlichen Richtungen innerhalb des vorbestimmten Bereichs liegt.
  • Gemäß einem noch weiteren Aspekt der Erfindung wird, zur Lösung der obigen Aufgabe, ein Fahrzeugumgebungs-Überwachungsprogramm angegeben, das bewirkt, dass ein im Fahrzeug eingebauter Computer, der eine Prozesseinheit enthält, die auf Daten eines von einer am Fahrzeug angebrachten Kamera aufgenommenen Bilds zugreift, eine Funktion der Überwachung der Umgebung des Fahrzeugs durchführt, wobei das Programm bewirkt, dass der Computer fungiert als: Objektextraktionsprozesseinheit, die eine Bildfläche eines Objekts aus dem von der Kamera aufgenommenen Bild extrahiert; und eine Objekttypbestimmungsprozesseinheit, die einen Objekttyp in Abhängigkeit davon bestimmt, ob die Bildfläche des von der Objektextraktionsprozesseinheit extrahierten Objekts eine erste Objektfläche, in der das Verhältnis von Breiten in unterschiedlichen Richtungen innerhalb eines vorbestimmten Bereichs liegt, und eine Mehrzahl zweiter Objektflächen, die unter der ersten Objektfläche angeordnet sind und deren Fläche kleiner als die erste Objektfläche ist, enthält.
  • Das erfindungsgemäße Fahrzeugumgebungs-Überwachungsprogramm wird an dem Computer ausgeführt, um die Bilddfläche des Objekts aus dem aufgenommenen Bild mittels der Objektextraktionsprozesseinheit zu extrahieren. Danach bestimmt die Objekttypbestimmungsprozesseinheit den Objekttyp unter der Bedingung, dass die extrahierte Bildfläche die erste Objektfläche, in der das Verhältnis von Breiten in unterschiedlichen Richtungen innerhalb des vorbestimmten Bereichs liegt, und die Mehrzahl zweiter Objektflächen, die unter der ersten Objektfläche angeordnet sind und deren Fläche kleiner ist als die erste Objektfläche, enthält. Hierdurch lässt sich bestimmen, ob der Objekttyp ein Tier mit einer Körperform ist, in der das Verhältnis von Breiten in unterschiedlichen Richtungen innerhalb des vorbestimmten Bereichs liegt.
  • Gemäß einem noch anderen Aspekt der Erfindung wird, zur Lösung der obigen Aufgabe, ein Fahrzeugumgebungs-Überwachungsverfahren zum Überwachen der Umgebung eines Fahrzeugs mittels eines im Fahrzeug eingebauten Computers angegeben, der eine Prozesseinheit enthält, die auf Daten eines von einer am Fahrzeug angebrachten Kamera aufgenommenen Bilds zugreift, wobei das Verfahren umfasst: einen Objektextraktionsschritt zum Bewirken, dass der Computer die Bildfläche eines Objekts aus dem von der Kamera aufgenommenen Bild extrahiert; und einen Objekttypbestimmungsschritt zum Bewirken, dass der Computer einen Objekttyp in Abhängigkeit davon bestimmt, ob die Bildfläche des in dem Objektextraktionsschritt extrahierten Objekts eine erste Objektfläche, in der das Verhältnis von Breiten in unterschiedlichen Richtungen innerhalb eines vorbestimmten Bereichs liegt, und eine Mehrzahl zweiter Objektflächen, die unter der ersten Objektfläche angeordnet sind und deren Fläche kleiner als die erste Objektfläche ist, enthält.
  • Gemäß dem erfindungsgemäßen Fahrzeugumgebungs-Überwachungsverfahren extrahiert der Computer die Bildfläche des Objekts aus dem aufgenommenen Bild in dem Objektextraktionsschritt und bestimmt den Objekttyp unter der Bedingung, dass die Bildfläche des im Objektextraktionsschritt extrahierten Objekts die erste Objektfläche, in der das Verhältnis von Breiten in unterschiedlichen Richtungen innerhalb des vorbestimmten Bereichs liegt, und die Mehrzahl zweiter Objektflächen, die unter der ersten Objektfläche angeordnet sind und deren Fläche kleiner ist als die erste Objektfläche, enthält. Hierdurch lässt sich bestimmen, ob das Objekt ein Tier mit einer Körperform ist, in der das Verhältnis von Breiten in unterschiedlichen Richtungen innerhalb des vorbestimmten Bereichs liegt.
  • Die Erfindung wird nun anhand von Ausführungsbeispielen unter Hinweis auf die beigefügten Zeichnungen beschrieben.
  • 1 zeigt schematisch die Gesamtkonfiguration einer Ausführung der erfindungsgemäßen Fahrzeugumgebungs-Überwachungsvorrichtung;
  • 2 zeigt ein perspektivisches Schema eines Fahrzeugs, das mit der in 1 gezeigten Fahrzeugumgebungs-Überwachungsvorrichtung ausgestattet ist;
  • 3 zeigt ein Flussdiagramm des Prozesses der Bildverareitungseinheit, die in der in 1 vorgesehenen Fahrzeugumgebungs-Überwachungsvorrichtung vorgesehen ist;
  • 4 zeigt ein Flussdiagramm des Prozesses der Bildverarbeitungseinheit, die in der in 1 gezeigten Fahrzeugumgebungs-Überwachungsvorrichtung vorgesehen ist;
  • 5 zeigt ein Flussdiagramm eines Objekttypbestimmungsprozesses der Ausführung;
  • 6 zeigt schematisch ein aufgenommenes Bild in der Ausführung;
  • 7 zeigt ein Schema zur Erläuterung des Prozesses der Bildverarbeitungseinheit; und
  • 8 zeigt ein Schema zur Erläuterung des Prozesses der Bildverarbeitungseinheit.
  • Nachfolgend wird eine Ausführung der Erfindung anhand der 1 bis 7 beschrieben.
  • Zuerst wird die Systemkonfiguration einer Fahrzeugumgebungs-Überwachungsvorrichtung dieser Ausführung in Bezug auf 1 und 2 beschrieben. 1 ist ein Blockdiagramm, das die Gesamtkonfiguration der Fahrzeugumgebungs-Überwachungsvorrichtung zeigt, und 2 ist ein perspektivisches Schema eines Fahrzeugs (vorliegenden Fahrzeugs), das mit der Fahrzeugumgebungs-Überwachungsvorrichtung ausgestattet ist. In 2 sind Teilkomponenten der Fahrzeugumgebungs-Überwachungsvorrichtung nicht gezeigt.
  • In Bezug auf 1 und 2 enthält die Fahrzeugumgebungs-Überwachungsvorrichtung dieser Ausführung eine Bildverarbeitungseinheit 1. Die Bildverarbeitungseinheit 1 ist mit zwei Infrarotkameras 2R und 2L verbunden, die Bilder im Bereich vor dem Fahrzeug 10 aufnehmen, und ist ferner verbunden mit einem Gierratensensor 3, der eine Giergeschwindigkeit des Fahrzeugs 10 erfasst, als einem Sensor, der den Fahrzustand des Fahrzeugs 10 erfasst, einem Fahrgeschwindigkeitssensor 4, der eine Fahrgeschwindigkeit (Fahrzeuggeschwindigkeit) des Fahrzeugs 10 erfasst, sowie einem Bremssensor 5, der erfasst, ob eine Bremse des Fahrzeugs 10 betätigt wird. Ferner ist die Bildverarbeitungseinheit 1 mit einem Lautsprecher 6 verbunden, um hörbare Informationen auszugeben, die sprachlich oder dergleichen eine Warnung ausgeben, und mit einem Display 7 zum Anzeigen von Bildern, die von den Infrarotkameras 2R und 2L aufgenommen wurden, und zum visuellen Warnen des Fahrers. Die Infrarotkameras 2R und 2L entsprechen den Kameras der Erfindung.
  • Obwohl hier nicht im Detail dargestellt, ist die Bildverarbeitungseinheit 1 aufgebaut aus einer elektronischen Schaltung, die einen A/D-Wandler, einen Microcomputer (mit einer CPU, einem RAM, einem ROM und dergleichen) und einem Bildspeicher aufgebaut ist. Analoge Signale, die von den Infrarotkameras 2R und 2L, dem Gierratensensor 3, dem Fahrgeschwindigkeitssensor 4 und dem Bremssensor 5 ausgegeben werden, werden durch den A/D-Wandler in digitale Daten umgewandelt und in einen Microcomputer eingegeben. Danach erfasst der Microcomputer ein Objekt wie etwa einen Menschen (einen Fußgänger oder eine Person auf einem Fahrrad) basierend auf den eingegebenen Daten, und wenn das erfasste Objekt vorbestimmten Bedingungen zum Ausgeben einer Warnung genügt, führt er einen Prozess durch, um mittels des Lautsprechers 6 oder dem Display 7 die Aufmerksamkeit des Fahrers auf das Objekt zu lenken. Zum Beispiel hat die Bildverarbeitungseinheit 1 eine Bildeingabeschaltung, die analoge Videosignale, die von den Infrarotkameras 2R und 2L aufgegeben wurden, in digitale Daten umwandelt und sie in einem Bildspeicher speichert, sowie eine Schnittstellenschaltung, die auf die in dem Bildspeicher gespeicherten Daten zugreift (diese liest und schreibt), um verschiedene arithmetische Prozesse für das Bild vor dem Fahrzeug durchzuführen, das in dem Bildspeicher gespeichert ist.
  • Die Bildverarbeitungseinheit 1 fungiert als Objektextraktionsprozesseinheit, Objekttypbestimmungsprozesseinheit sowie Abstandsberechnungsprozesseinheit der Erfindung. Indem man den Microcomputer das Fahrzeugumgebungs-Überwachungsprogramm der vorliegenden Erfindung ausführen lässt, fungiert der Microcomputer als Objektextraktionsprozesseinheit und Objekttypbestimmungsprozesseinheit der Erfindung. Indem man ferner den Microcomputer als Objektextraktionsprozesseinheit und Objekttypbestimmungsprozesseinheit fungieren lässt, führt der Microcomputer den Objektextraktionsschritt und den Objekttypbestimmungsprozess in dem Fahrzeugumgebungs-Überwachungsverfahren der vorliegenden Erfindung durch.
  • Wie in 2 gezeigt, sind die Infrarotkameras 2R und 2L an dem vorderen Teil (einem Teil eines Frontgrills in 2) des Fahrzeugs 10 angebracht, um Bilder vom Bereich vor dem Fahrzeug 10 aufzunehmen. In diesem Fall sind die Infrarotkameras 2R und 2L – in der Fahrzeugbreitenrichtung betrachtet – an der rechten Seite und linken Seite in der Mitte des Fahrzeugs 10 angeordnet. Diese Stellen sind in Bezug auf die Mitte des Fahrzeugs 10 in der Fahrzeugbreitenrichtung symmetrisch. Die Infrarotkameras 2R und 2L sind an dem vorderen Teil des Fahrzeugs 10 derart befestigt, dass die optischen Achsen der Infrarotkameras 2R und 2L sich in der Längsrichtung des Fahrzeugs 10 parallel erstrecken, und dass die optischen Achsen die gleiche Höhe von der Straßenoberfläche haben. Die Infrarotkameras 2R und 2L sind im fernen Infrarotbereich empfindlich. Diese Infrarotkameras 2R und 2L haben jeweils eine solche Charakteristik, dass, je höher die Temperatur eines von der Infrarotkamera aufgenommenen Materials ist, desto höher Pegel des ausgegebenen Videosignals ist (die Luminanz bzw. Helligkeit des Videosignals höher ist).
  • In dieser Ausführung enthält das Display ein Headup Display 7a (nachfolgend als HUD 7a bezeichnet), das Bildinformation auf der Windschutzscheibe des Fahrzeugs 10 anzeigt. Das Display 7 kann ein Display enthalten, das integral an einer Anzeigeeinheit angebracht ist, die den Fahrzustand wie etwa die Fahrgeschwindigkeit des Fahrzeugs 10 anzeigt, oder ein Display, das in einem eingebauten Navigationssystem vorgesehen ist, an Stelle des HUD 7a oder zusammen mit dem HUD 7a.
  • Nachfolgend wird der Gesamtbetrieb der Fahrzeugumgebungs-Überwachungsvorrichtung dieser Ausführung in Bezug auf das in 3 gezeigte Flussdiagramm beschrieben. Viele der Prozesse im in 3 gezeigten Flussdiagramm sind die gleichen wie z. B. in 3 der JP-A-2001-6096 der vorliegenden Anmeldung, und daher wird eine detaillierte Beschreibung dieser Prozesse in dieser Beschreibung weggelassen.
  • Zuerst erhält die Bildverarbeitungseinheit 1 Infrarotbilder, die von den Infrarotkameras 2R und 2L aufgenommen wurden (Schritt 1). Die aufgenommenen Infrarotbilder sind Graustufenbilder, die durch A/D-Wandlung der Infrarotbilder erhalten wurden, die Ausgangssignale von den Infrarotkameras 2R und 2L sind, und werden in dem Bildspeicher gespeichert. Danach wird das von der Infrarotkamera 2R erhaltene Bild und das von der Infrarotkamera 2L erhaltene Bild jeweils als rechtes Bild bzw. linkes Bild bezeichnet, und insbesondere das rechte Bild wird als das Standardbild bezeichnet. Während in dieser Ausführung das Standardbild das rechte Bild ist, kann es auch das linke Bild sein.
  • Anschließend binärisiert die Bildverarbeitungseinheit 1 das Standardbild (rechte Bild) (Schritt 2). Die Binärisierung ist ein Prozess zum Vergleichen eines Luminanzwerts jedes Pixels des Standardbilds mit einem vorbestimmten Luminanzschwellenwert und zum Setzen eines Werts von "1" (weiß) für eine Fläche, die einen hohen Luminanzwert von gleich oder höher als dem vorbestimmten Luminanzschwellenwert hat (relativ helle Fläche) und zum Setzen eines Werts von "0" (schwarz) für eine Fläche mit einem niedrigen Luminanzwert, der niedriger ist als der Luminanzschwellenwert (relativ dunkle Fläche) für das Standardbild. Danach wird das Bild (das Schwarz-/Weißbild), das durch die Binärisierung erhalten ist, als das binäre Bild bezeichnet. Die in dem binären Bild auf "1" gesetzte Fläche wird als Hochluminanzbereich bezeichnet. Das binäre Bild wird, separat von dem Graustufenbild (dem rechten Bild und dem linken Bild) in den Bildspeicher gespeichert.
  • Anschließend führt die Bildverarbeitungseinheit 1 Prozesse der Schritte 3 bis 5 für das binäre Bild durch und extrahiert ein Objekt (genauer gesagt eine dem Objekt entsprechende Bildfläche) von dem binären Bild. In anderen Worten, die Bildverarbeitungseinheit 1 klassifiziert die Pixel, die die Hochluminanzfläche des binären Bilds darstellen, in Linien, die jeweils eine Breite eines Pixels in der vertikalen Richtung (y-Richtung) des Standardbilds haben und sich in der horizontalen Richtung (der x-Richtung) derselben erstrecken, und wandelt jede Linie in Lauflängendaten um, die Koordinaten der Position (der zweidimensionalen Position in dem Standardbild) und der Länge (der Anzahl der Pixel) enthalten (Schritt 3). Danach versieht die Bildverarbeitungseinheit 1 jede der Liniengruppen, die in der vertikalen Richtung des Standardbilds von jenen Linien, die durch die Laufliniendaten repräsentiert sind, überlappen, mit einer Markierung (einer Kennung) (Schritt 4) und extrahiert jede der Liniengruppen als ein Objekt (Schritt 5).
  • Das Objekt, das durch den Prozess der Schritte 3 bis 5 extrahiert ist, enthält nicht nur einen Menschen (einen Fußgänger), sondern auch eine künstliche Struktur wie etwa ein anderes Fahrzeug. Darüber hinaus könnten mehrere örtliche Bereiche eines identischen Materials oder Körpers als ein Objekt extrahiert werden.
  • Anschließend berechnet die Bildverarbeitungseinheit 1 die Schwerpunktposition (Position im Standardbild), die Fläche und das Aspektverhältnis eines umschreibenden Rechtecks jedes Objekts, das wie oben beschrieben extrahiert ist (Schritt 6). Die Fläche wird durch Addieren der Längen der Lauflängendaten für das selbe Objekt berechnet. Die Koordinaten des Schwerpunkts werden als x-Koordinate der Linie, die die Fläche in der x-Richtung zweiteilt oder halbiert, und die y-Koordinate der Linie, die diese in der y-Richtung zweiteilt oder halbiert, berechnet. Das Aspektverhältnis wird als jenes des die Lauflängendatenlinien umschreibenden Rechtecks berechnet. Die Schwerpunktposition des umschreibenden Rechtecks kann durch die Position des Schwerpunkts G ersetzt werden.
  • Anschließend verfolgt die Bildverarbeitungseinheit 1 das in Schritt 5 extrahierte Objekt in Zeitintervallen, das heißt, erkennt identische Objekte für jede Rechenprozessperiode der Bildverarbeitungseinheit 1 (Schritt 7). In diesem Prozess sei angenommen, dass im Prozess von Schritt 5 ein Objekt A zum Zeitpunkt (diskreten Zeit) k in einer bestimmten Rechenprozessperiode extrahiert wird, und Prozess von Schritt 5 ein Objekt B zum Zeitpunkt k + 1 in der nächsten arithmetischen Prozessperiode extrahiert wird, und die Identität zwischen den Objekten A und B bestimmt wird. Die Identität kann zum Beispiel beruhend auf der Form und Größe der Objekte A und B in dem binären Bild sowie einer Korrelation der Luminanzverteilungen der Objekte A und B in dem Standardbild (Graustufenbild) bestimmt werden. Wenn festgestellt wird, dass die Objekte A und B miteinander identisch sind, wird die Kennung (die in Schritt 4 beigefügte Kennung) des zum Zeitpunkt k + 1 extrahierten Objekts B zu der gleichen Kennung wie das Objekt A geändert.
  • Anschließend liest die Bildverarbeitungseinheit 1 die Ausgaben des Fahrgeschwindigkeitssensors 4 und des Gierratensensors 3 aus (den erfassten Wert der Fahrgeschwindigkeit und jenen der Gierrate) (Schritt 8).
  • In Schritt 8 wird auch der Drehwinkel (der Azimuth) des Fahrzeugs 10 durch Integrieren der erfassten Werte der gelesenen Gierrate berechnet.
  • Andererseits führt die Bildverarbeitungseinheit 1 den Prozess von Schritt 10 parallel zu den Prozessen der Schritte 7 und 8 durch. Die Prozesse der Schritte 10 bis 12 werden durchgeführt, um einen Abstand jedes in Schritt 5 extrahierten Objekts von dem Fahrzeug 10 zu berechnen. Kurz gesagt, die Bildverarbeitungseinheit 1 extrahiert zuerst eine Fläche, die jedem Objekt entspricht (z. B. die Fläche des das Objekt umschreibenden Rechtecks) als Zielbild R1 im Standardbild (Schritt 10).
  • Danach setzt die Bildverarbeitungseinheit 1 eine Suchfläche R2 im linken Bild als eine Fläche oder einen Bereich zum Suchen des gleichen Objekts wie jenes, das im Zielbild R 1 des rechten Bilds enthalten ist. Ferner extrahiert die Bildverarbeitungseinheit 1 eine Fläche, die die höchste Korrelation mit dem Zielbild R1 in der Suchfläche R2 hat, als ein entsprechendes Bild R3, das das dem Zielbild R1 entsprechende Bild ist (das dem Zielbild R1 äquivalente Bild) (Schritt 11). In diesem Fall extrahiert die Bildverarbeitungseinheit 1 die Fläche, deren Luminanzverteilung am engsten zur Luminanzverteilung des Zielbilds R1 im rechten Bild passt, als das entsprechende Bild R3 aus der Suchfläche R2 des linken Bilds. Der Prozess von Schritt 11 wird nicht mit den binären Bildern durchgeführt sondern mit den Grauwertbildern.
  • Anschließend berechnet die Bildverarbeitungseinheit 1 die Anzahl von Pixeln einer Differenz zwischen der horizontalen Position (der Position in der x-Richtung) des Schwerpunkts des Zielbilds R1 im rechten Bild und der horizontalen Position (der Position in der x-Richtung) des Schwerpunkt des entsprechenden Bilds R3 in dem linken Bild als Parallaxe Δd. Die Bildverarbeitungseinheit 1 berechnet einen Abstand z (der Abstand in der Längsrichtung des Fahrzeugs 10) des Objekts von dem Fahrzeug 10 unter Verwendung der Parallaxe Δd (Schritt 12). Der Abstand z wird durch die folgende Gleichung (1) berechnet: z = (f·D)/(Δd·p) (1)wobei f die Brennweite der Infrarotkameras 2R und 2L ist, die die Basislänge (der Abstand zwischen den optischen Achsen) der Infrarotkameras 2R und 2L ist, und p die Pixelteilung (die Länge eines Pixels) ist.
  • Das oben stehende ist der Umriss der Prozesse der Schritte 10 bis 12. Die Prozesse der Schritte 10 bis 12 werden für jedes in Schritt 5 extrahierte Objekt durchgeführt.
  • Nach Abschluss der Prozesse der Schritte 8 und 12 berechnet die Bildverarbeitungseinheit 1 anschließend eine Realraumposition, die die Position jedes Objekts in dem realen Raum ist (die relative Position zu dem Fahrzeug 10) (Schritt 13). Die Realraumposition ist die Position (X, Y, Z) in dem realen Raumkoordinatensystem (XYZ-Koordinatensystem), dessen Mittelpunkt zwischen den Montagepositionen der Infrarotkameras 2R und 2L als Ursprung gesetzt ist, wie in 2 gezeigt. Die X-Richtung und die Y-Richtung des realen Raumkoordinatensystems sind die Fahrzeugbreitenrichtung und die vertikale Richtung des Fahrzeugs 10. Die X-Richtung und die Y-Richtung sind gleich der x-Richtung (Querrichtung) und y-Richtung (senkrechten Richtung) des rechten Bilds bzw. linken Bilds. Die Z-Richtung des realen Raumkoordinatensystems ist die Längsrichtung des Fahrzeugs 10. Die reale Raumposition (X, Y, Z) des Objekts wird durch die folgenden Gleichungen (2), (3) und (4) berechnet: X = x·z·p/f (2) Y = y·z·p/f (3) Z = z (4)wobei x und y die x-Koordinate und y-Koordinate des Objekts im Standardbild sind.
  • Anschließend kompensiert die Bildverarbeitungseinheit 1 den Effekt der Änderung des Drehwinkels des Fahrzeugs 10 und korrigiert die Position X in der X-Richtung der Realraumposition (X, Y, Z) des Objekts, um die Genauigkeit der Realraumposition des Objekts basierend auf dem Wert, der durch die obige Gleichung (2) gemäß den Zeitseriendaten des in Schritt 8 berechneten Drehwinkels berechnet ist zu erhöhen (Schritt 14. Hierdurch wird letztendlich die reale Raumposition des Objekts erhalten. In der folgenden Beschreibung bedeutet der Begriff "Realraumposition des Objekts" die reale Raumposition des Objekts, die wie oben beschrieben korrigiert ist.
  • Anschließend bestimmt die Bildverarbeitungseinheit 1 einen Bewegungsvektor des Objekts relativ zum Fahrzeug 10 (Schritt 15). Insbesondere bestimmt sie eine gerade Linie, die Zeitseriendaten über eine bestimmte Dauer hinweg (eine Dauer von der Gegenwart bis zu einem Zeitpunkt, der um eine vorbestimmte Zeitdauer voraus liegt) der Realraumposition eines identischen Objekts genähert ist, und bestimmt dann einen Vektor von der Position (dem Punkt) des Objekts auf der geraden Linie zu dem Zeitpunkt der um die vorbestimmte Zeitdauer vorausliegt, zu der Position (dem Punkt) des Objekts der geraden Linie zur gegenwärtigen Zeit als Bewegungsvektor des Objekts. Dieser Bewegungsvektor ist proportional zu einem relativen Geschwindigkeitsvektor des Objekts in Bezug auf das Fahrzeug 10.
  • Danach führt die Bildverarbeitungseinheit 1 in Schritt 15, nach der Bestimmung des relativen Bewegungsvektors, einen Warnbestimmungsprozess aus, um die Kontaktmöglichkeit zwischen dem Fahrzeug 10 und dem erfassten Objekt zu bestimmen (Schritt 16). Der Warnbestimmungsprozess wird später im Detail beschrieben.
  • Die Bildverarbeitungseinheit 1 startet die Prozessabschnitte 1 erneut, wenn sie im Warnbestimmungsprozess in Schritt 16 bestimmt (wenn das Bestimmungsergebnis in Schritt 16 NEIN ist), dass kein Objekt den Bedingungen zum Warnen genügt (kein Objekt die Anforderungen zum Warnen erfüllt). Wenn sie in Schritt 16 bestimmt, dass irgendeines der Objekte den Bedingungen zum Warnen genügt (wenn in Schritt 16 das Bestimmungsergebnis JA ist), geht die Bildverarbeitungseinheit 1 zu Schritt 17 weiter, um den Warnausgabebestimmungsprozess durchzuführen, zur Bestimmung, ob tatsächlich eine Warnung für ein Objekt ausgegeben werden soll, das den Bedingungen zum Warnen genügt (Schritt 17). In diesem Warnausgabebestimmungsprozess wird auf der Basis einer Ausgabe des Bremssensors 5 geprüft, ob der Fahrer die Bremse des Fahrzeugs 10 betätigt, und es wird bestimmt, dass keine Warnung ausgegeben werden sollte, wenn die Verzögerung (positiv in der Verzögerungsrichtung der Fahrgeschwindigkeit) des Fahrzeugs 10 größer als ein vorbestimmter Schwellenwert (>0) ist. Solange nicht der Fahrer die Bremse betätigt oder wenn die Verzögerung des Fahrzeugs 10 gleich oder niedriger als der vorbestimmte Schwellenwert ist, obwohl der Fahrer die Bremse betätigt, bestimmt die Bildverarbeitungseinheit 1, dass die Warnung ausgegeben werden sollte.
  • Wenn die Bildverarbeitungseinheit 1 bestimmt, dass die Warnung ausgegeben werden sollte (wenn das Bestimmungsergebnis in Schritt 17 JA ist), gibt sie Warnungsinformation aus (Schritt 18). Insbesondere wird die Warnungsinformation durch eine Stimme über den Lautsprecher 6 ausgegeben, und das Bild des Objekts, das den Warnbedingungen genügt, wird in dem Standardbild auf dem Display 7 aufleuchtend dargestellt. Hierdurch wird die Aufmerksamkeit des Fahrers auf das Objekt gerichtet. Auch besteht die Möglichkeit, entweder nur den Lautsprecher 6 oder das Display 7 zu benutzen, um den Fahrer zu warnen.
  • Wenn in Schritt 17 bestimmt wird, dass die Warnung nicht ausgegeben werden sollte (wenn bestimmt wird, dass für kein Objekt die Warnung ausgegeben werden sollte), ist in Schritt 17 das Bestimmungsergebnis NEIN. In diesem Fall startet die Bildverarbeitungseinheit 1 die Prozesse ab Schritt 1 erneut.
  • Das Obenstehende ist der Gesamtbetrieb der Fahrzeugumgebungs-Überwachungsvorrichtung dieser Ausführung. Die Einrichtung, die die Prozesse der Schritte 1 bis 6 mittels der Bildverarbeitungseinheit 1 durchführt, entspricht der Objektextraktionsprozesseinheit der Erfindung, und die Einreichung, die den Prozess von Schritt 12 durchführt, entspricht der Abstandsberechnungsprozesseinheit der Erfindung. Die Prozesse der Schritte 1 bis 6 entsprechend dem Objektextraktionsschritt in dem Fahrzeugumgebungs-Überwachungsverfahren der Erfindung.
  • Anschließend wird der Warnbestimmungsprozess in Schritt 16 des in 3 gezeigten Flussdiagramms im näheren Detail in Bezug auf das in 4 gezeigte Flussdiagramm beschrieben. Einige der Prozesse im in 4 gezeigten Flussdiagramm sind die gleichen wie z. B. jene in 4 der JP-A-2001-6096 des vorliegenden Anmelders, und daher wird eine detaillierte Beschreibung dieser Prozesse in dieser Beschreibung weggelassen.
  • 4 ist ein Flussdiagramm der Warnbestimmungsprozessoperation dieser Ausführung. Der Warnbestimmungsprozess wird ausgeführt, um die Kontaktmöglichkeit zwischen dem Fahrzeug 10 und dem erfassten Objekt durch einen Kontaktbestimmungsprozess, einen Bestimmungsprozess zu Bestimmung, ob sich das Objekt innerhalb eines nahen Objektbestimmungsbereichs befindet, einem Annäherungsobjektkontaktbestimmungsprozess, einem Fußgängerbestimmungsprozess, einem künstliche Struktur-Bestimmungsprozess sowie einem Objekttypbestimmungsprozess zu bestimmen, die sich auf die nachfolgend beschriebene Erfindung beziehen.
  • Zuerst führt die Bildverarbeitungseinheit 1 einen Kontaktbestimmungsprozess durch (Schritt 21) Der Kontaktbestimmungsprozess wird durch Berechnung einer relativen Geschwindigkeit Vs des Objekts in Bezug auf das Fahrzeug 10 in der Z-Richtung durchgeführt, basierend auf dem Abstand, um den das Objekt dem Fahrzeug 10 für eine vorbestimmte Zeitdauer nahe kommt, und Bestimmung, ob eine Kontaktmöglichkeit zwischen diesen beiden innerhalb einer zulässigen Zeit T besteht (zum Beispiel zwei bis fünf Sekunden), unter der Annahme, dass sie sich bewegen, während die relative Geschwindigkeit Vs beibehalten wird. Insbesondere wenn der Abstand zwischen dem Fahrzeug 10 in dem Objekt gleich oder kleiner als ein Wert ist, der durch Multiplizieren der relativen Geschwindigkeit Vs mit der zulässigen Zeit T erhalten wird, bestimmt die Bildverarbeitungseinheit 1, dass eine Kontaktmöglichkeit zwischen diesen besteht.
  • Wenn dann in Schritt 21 die Kontaktmöglichkeit zwischen dem Fahrzeug 10 und dem Objekt innerhalb der zulässigen Zeit T vorhanden ist (wenn das Bestimmungsergebnis in Schritt 21 JA ist), geht die Steuerung zu Schritt 22 weiter, wo die Bildverarbeitungseinheit 1 bestimmt, ob sich das Objekt innerhalb des engen Objektbestimmungsbereichs befindet, um die Zuverlässigkeit der Bestimmung weiter zu erhöhen (Schritt 22). Der Bestimmungsprozess zur Bestimmung, ob sich das Objekt innerhalb des nahen Objektbestimmungsbereichs befindet, wird durch die Bestimmung durchgeführt, ob sich das Objekt innerhalb eines Bereichs befindet, der einer Reichweite entspricht, die eine Breite, die Z. B. der Breite des Fahrzeugs 10 entspricht, plus Spielräumen (zum Beispiel in der Größenordnung von 50 bis 100 cm) an beiden Seiten des Fahrzeugs 10 hat, in anderen Worten, innerhalb des nahen Objektbestimmungsbereichs, mit einem extrem hohen Kontaktrisiko mit dem Fahrzeug 10, wenn das Objekt dort weiterhin vorhanden ist, in einem Bereich, der durch die Infrarotkameras 2R und 2L überwacht werden kann.
  • Ferner führt die Bildverarbeitungseinheit 1 in Schritt 22, so lange sich nicht das Objekt innerhalb des nahen Objektbestimmungsbereichs befindet (wenn in Schritt 22 das Bestimmungsergebnis NEIN ist), den Annäherungsobjektkontaktbestimmungsprozess durch, zur Bestimmung, ob die Möglichkeit besteht, dass das Objekt in den nahen Objektbestimmungsbereich eindringt und mit dem Fahrzeug 10 in Kontakt kommt (Schritt 23). Eine Fläche, die X-Koordinaten mit größeren Absolutwerten als jenen der X-Koordinaten des obigen nahen Objektbestimmungsbereichs aufweist (einer Fläche seitlich außerhalb des nahen Objektbestimmungsbereichs) in dem Bildaufnahmebereich der Kamera wird als der Annäherungsobjektbestimmungsbereich bezeichnet. Der Annäherungsobjektbestimmungsprozess erfolgt durch Bestimmung, ob das Objekt in diesem Bereich durch Bewegung in den nahen Objektbestimmungsbereich eindringt und mit dem Fahrzeug 10 in Kontakt kommt. Insbesondere wenn sich der Bewegungsvektor (siehe Schritt 15) des Objekts, das sich in dem nahem Objektbestimmungsbereich befindet, zu dem Fahrzeug 10 hin erstreckt, bestimmt die Bildverarbeitungseinheit 1, dass das Objekt mit dem Fahrzeug 10 wahrscheinlich in Kontakt kommen wird.
  • Wenn sich andererseits in Schritt 22 das Objekt innerhalb des nahen Objektbestimmungsbereichs befindet (wenn in Schritt 22 das Bestimmungsergebnis JA ist), führt die Bildverarbeitungseinheit 1 einen künstliche Struktur Bestimmungsprozess durch, zur Bestimmung, ob das Objekt eine künstliche Struktur ist (Schritt 24). Der künstliche Strukturbestimmungsprozess wird durchgeführt, indem ein Objekt als künstliche Struktur bestimmt wird und das Objekt von dem Ziel der Warnung ausgeschlossen wird, wenn ein für einen Fußgänger unmögliches Merkmal in der Bildfläche des Objekts erfasst wird, wie zum Beispiel in den folgenden Bedingungen (a) bis (d) angegeben:
    • (a) Das Bild des Objekts enthält einen eine lineare Kante repräsentierenden Abschnitt;
    • (b) Das Bild des Objekts hat einen rechten Winkel;
    • (c) Das Bild des Objekts enthält die gleichen Formen;
    • (d) Die Form des Bilds des Objekts passt zu einem zuvor registrierten Muster einer künstlichen Struktur.
  • Wenn dann in Schritt 24 bestimmt wird, dass das Objekt keine künstliche Struktur ist (wenn in Schritt 24 das Bestimmungsergebnis NEIN ist), führt die Bildverarbeitungseinheit 1 einen Fußgängerbestimmungsprozess durch zur Bestimmung, ob die Möglichkeit besteht, dass das Objekt ein Fußgänger ist, um die Zuverlässigkeit der Bestimmung zu erhöhen (Schritt 25). Der Fußgängerbestimmungsprozess wird durchgeführt, indem das Objekt ein Fußgänger ist, basierend auf Merkmalen wie etwa der Form, Größe, der Luminanzveränderung oder dergleichen des Bildbereichs des Objekts in dem Graustufenbild.
  • Wenn es ferner in Schritt 23 wahrscheinlich ist, dass das Objekt in dem nahen Objektbestimmungsbereich eindringt und mit dem Fahrzeug 10 in Kontakt kommt (wenn in Schritt 23 das Bestimmungsergebnis JA ist), und wenn in Schritt 25 das Objekt wahrscheinlich ein Fußgänger ist (wenn in Schritt 25 das Bestimmungsergebnis JA ist), bestimmt die Bildverarbeitungseinheit 1, dass das Objekt Ziel einer Warnung ist (Schritt 26) und betrachtet das Bestimmungsergebnis im in 3 gezeigten Schritt 16 als JA. Dann geht die Steuerung zu Schritt 17 weiter, wo die Bildverarbeitungseinheit 1 den Warnungsausgabebestimmungsprozess durchführt (Schritt 17).
  • Wenn andererseits im obigen Schritt 25 bestimmt wird, dass das Objekt kein Fußgänger ist (wenn in Schritt 25 das Bestimmungsergebnis NEIN ist), wird der erfindungsgemäße Objekttypbestimmungsprozess durchgeführt, dessen Details später beschrieben werden. In dem Objekttypbestimmungsprozess wird bestimmt, ob sich unter den Objekten ein anderes Lebewesen als ein Mensch befindet. Wenn als Ergebnis des Objekttypbestimmungsprozesses bestimmt wird, dass ein Objekt ein anderes Lebewesen als ein Mensch ist (wenn in Schritt 27 das Bestimmungsergebnis JA ist), bestimmt die Bildverarbeitungseinheit 1 das erfasste Objekt als Ziel einer Warnung (Schritt 26) und betrachtet das Bestimmungsergebnis im in 3 gezeigten Schritt 16 als ein JA. Dann geht die Steuerung zu Schritt 17 weiter, wo die Bildverarbeitungseinheit 1 den Warnungsausgabebestimmungsprozess durchführt (Schritt 17).
  • Wenn andererseits im obigen Schritt 21 innerhalb der zulässigen Zeit T keine Kontaktmöglichkeit zwischen dem Fahrzeug 10 und dem Objekt vorliegt (wenn in Schritt 21 das Bestimmungsergebnis NEIN ist), wenn in Schritt 23 das Objekt wahrscheinlich nicht in den nahen Objektbestimmungsbereich eindringt und mit dem Fahrzeug 10 in Kontakt kommt (wenn in Schritt 23 das Bestimmungsergebnis NEIN ist), wenn in Schritt 24 bestimmt wird, dass das Objekt eine künstliche Struktur ist (wenn in Schritt 24 das Bestimmungsergebnis JA ist), oder wenn in Schritt 27 bestimmt wird, dass das Objekt kein anderes Lebewesen als ein Mensch ist (wenn in Schritt 27 das Bestimmungsergebnis NEIN ist), dann bestimmt die Bildverarbeitungseinheit 1, dass das erfasste Objekt kein Ziel der Warnung ist (Schritt 28) und betrachtet das Bestimmungsergebnis in Schritt 16 als ein NEIN. Dann kehrt die Steuerung zu Schritt 1 zurück, wo die Bildverarbeitungseinheit 1 den Erfassungs- und Warnungsbetrieb für ein Objekt wie etwa einen Fußgänger oder dergleichen wiederholt.
  • Das obige beschreibt den Warnbestimmungsprozess in Schritt 16 des in 3 gezeigten Flussdiagramms.
  • Nachfolgend wird der erfindungsgemäße Objekttypbestimmungsprozess von Schritt 27 in Bezug auf das in Schritt 5 gezeigte Flussdiagramm, zusammen mit den 6 und 7 beschrieben.
  • Zuerst erfasst die Bildverarbeitungseinheit 1 ein ellipsenförmiges Muster, das eine vorbestimmte Größe hat, in Abhängigkeit vom Abstand zwischen dem Objekt und dem Fahrzeug 10, und bei dem das Aspektverhältnis des umschreibenden Rechtecks innerhalb eines vorbestimmten Bereichs liegt, als erste Objektfläche mittels eines bekannten Formabgleichungsverfahrens aus einem binären Bild (siehe Schrit 2) jedes Objekts, das im obigen Schritt 25 nicht als Fußgänger bestimmt wurde (Schritt 31). Übrigens entspricht hier die elliptische Form, bei der das Aspektverhältnis des umschreibenden Rechtecks innerhalb des vorbestimmten Bereichs liegt, dem Körper eines großen Tiers, wie etwa eines Hirsches, einer Kuh, eines Pferds oder eines Kamels, und die vorbestimmte Größe wird als Größe der elliptischen Form entsprechend einem Abstand zwischen dem Objekt und dem Fahrzeug 10 gesetzt. Selbst wenn daher die Außenform des Objekts eine elliptische Form enthält, wird ein Verkehrszeichen, das nicht das Aspektverhältnis entsprechend dem Körper eines großen Tiers hat, oder eine Zeichentafel, die nicht die vorbestimmte Größe hat, nicht als die erste Objektfläche erfasst.
  • Das Aspektverhältnis des umschreibenden Rechtecks entspricht dem "Verhältnis von Breiten in unterschiedlichen Richtungen" der vorliegenden Erfindung, und die Richtungen der zwei aneinander grenzenden Zeiten des umschreibenden Rechtecks entsprechen den "unterschiedlichen Richtungen" der Erfindung.
  • Wenn man zum Beispiel das Infrarotbild eines Hirsches, wie in 6(a) gezeigt, aufnimmt, hat das binäre Bild des aufgenommenen Infrarotbilds die in 6(b) gezeigte Außenform. Danach wird eine dem Körper des Tiers entsprechende elliptische Form als erste Objektfläche P1, wie in 7 gezeigt, aus der Außenform des Objekts in dem binären Bild mittels des Formabgleichungsverfahrens erfasst.
  • Obwohl in dieser Ausführung die zu extrahierende erste Objektfläche auf eine elliptische Form beschränkt wird, ist die Form der ersten Objektfläche hierauf nicht eingeschränkt, sondern es besteht auch die Möglichkeit unabhängig von der Form als erste Objektfläche eine Fläche zu extrahieren, die vorbestimmte Größe in Abhängigkeit vom Abstand zwischen dem Objekt und dem Fahrzeug hat und bei der das Aspektverhältnis des umschreibenden Rechtecks innerhalb eines vorbestimmten Bereichs liegt.
  • Zum Beispiel besteht die Möglichkeit als die erste Objektfläche eine Fläche zu extrahieren, in der ein Verhältnis zwischen der horizontalen Breite und der vertikalen Breite der Bildfläche des Objekts (entsprechend dem "Verhältnis von Breiten in unterschiedlichen Richtungen" der Erfindung) innerhalb des vorbestimmten Bereichs liegt.
  • Wenn anschließend in Schritt 31 die erste Objektfläche erfasst wird (wenn in Schritt 31 das Bestimmungsergebnis JA ist) geht die Steuerung zu Schritt 32 weiter, wo die Bildverarbeitungseinheit 1 in dem binären Bild eine Mehrzahl zweiter Objektflächen erfasst, deren Fläche kleiner ist als die erste Objektfläche und die unterhalb der ersten Objektfläche liegen (Schritt 32).
  • Zum Beispiel werden im in 7 gezeigten Fall die zweiten Objektflächen P2 und P3 in Positionen unterhalb der ersten Objektfläche P1 erfasst. Im übrigen können hier die zweiten Objektflächen P2 und P3 als Flächen erfasst werden, die sich an die erste Objektfläche P1 anschließen. Um die Erfassungsgenauigkeit weiter zu erhöhen, ist es jedoch bevorzugt, die zweiten Objektflächen P2 und P3 als solche zu erfassen, die sich unter der ersten Objektfläche P1 befinden und den gleichen Abstand von dem Fahrzeug 10 wie die erste Objektfläche P1 haben. Darüber hinaus ist, wenn das Objekt ein Tier ist, die Form der zweiten Objektflächen, die von den linken und rechten Vorder- und Hinterbeinen erfasst wird, die einander überschneiden und sich bewegen, nicht fest. Wenn darüber hinaus das Objekt ein Tier ist, sind die den Beinen entsprechenden zweiten Objektflächen von der Fläche her kleiner als die dem Körper des Tiers entsprechende erste Objektfläche. Dementsprechend definiert die Bildverarbeitungseinheit 1 die Form der zweiten Objektflächen P2 und P3 nicht, sondern definiert nur die Oberflächenausdehnung der zweiten Objektflächen zu deren Erfassung.
  • Wenn anschließend die zweite Objektfläche in Schritt 32 erfasst wird (wenn in Schritt 32 das Bestimmungsergebnis JA ist), geht die Steuerung zu Schritt 33 weiter, wo die Bildverarbeitungseinheit 1 eine erste Flächenbreite, die die horizontale Breite der ersten Objektfläche des Objekts ist, und eine zweite Flächenbreite, die die horizontale Breite zwischen dem linken Ende an der linken Seite und dem rechten Ende an der rechten Seite von zwei oder mehr zweiten Objektfläche ist (dem Vorderende des Vorderbeins und dem Hinterende des Hinterbeins), berechnet (Schritt 33).
  • Zum Beispiel berechnet im in 7 gezeigten Fall die Bildverarbeitungseinheit 1 eine erste Flächenbreite AW, die die horizontale Breite (in der x-Achsenrichtung in 7) der ersten Objektfläche P1 in dem binären Bild ist, sowie eine zweite Flächenbreite BW, die die horizontale Breite zwischen dem linken Ende an der linken Seite Q2 und dem rechten Ende an der rechten Seite Q3 der zweiten Objektflächen P2 und P3 ist.
  • Im in 7 gezeigten Fall kann die zweite Objektfläche P2, die einen Vorderbein entspricht, und die zweite Objektfläche P3, die einem Hinterbein entspricht, in dem Bild erkannt werden. Daher wird die zweite Flächenbreite BW aus dem linken Ende Q2 der zweiten Objektfläche P2 und dem rechten Ende Q3 der zweiten Objektfläche P3 errechnet. Wenn andererseits die zweiten Objektflächen P2 und P2', die den linken und rechten Vorderbeinen entsprechen, erkannt werden, wird das linke Ende Q2' der zweiten Objektfläche P2', die dem rechten Vorderbein entspricht, das sich links (vor) der zweiten Objektfläche P2 befindet, die dem linken Vorderbein entspricht, als das linke Ende an der linken Seite betrachtet. Ähnlich, wenn die zweiten Objektflächen P3 und P3', die den linken und rechten Hinterbeinen entsprechen, erkannt werden, wird das rechte Ende Q3' der zweiten Objektfläche P3', die dem rechten Hinterbein entspricht, das sich rechts (hinter) der zweiten Objektfläche P3 befindet, die dem linken Hinterbein entspricht, als das rechte Ende an der rechten Seite betrachtet. Hierdurch wird das BW' als die zweite Flächenbreite berechnet, da in diesem Fall das BW' die horizontale Breite zwischen dem linken Ende Q3' der zweiten Objektfläche P2', die dem rechten Vorderbein entspricht, und dem rechten Ende Q3' der zweiten Objektfläche P3', die dem rechten Hinterbein entspricht, ist.
  • Anschließend geht, nachdem die erste Flächenbreite und die zweite Flächenbreite in zwischen den zwei oder mehr zweiten Objektflächen in Schritt 33 berechnet sind, die Steuerung zu Schritt 34 weiter, wo die Bildverarbeitungseinheit 1 bestimmt, ob die zweite Flächenbreite gleich oder kleiner als eine Hälfte der ersten Flächenbreite ist (Schritt 34).
  • Zum Beispiel wird im in 7 gezeigten Fall bestimmt, ob der Wert BW/AW gleich oder kleiner als eine Hälfte der ersten Flächenbreite ist, wobei AW die erste Flächenbreite und BW die zweite Flächenbreite in dem binären Bild ist. Der Grund dafür, warum die Bestimmungsbedingung der Wert von BW/AW gleich oder kleiner als eine Hälfte ist, ist der, dass die Breite BW der die erste Objektfläche tragenden zweiten Objektfläche gleich oder kleiner als eine Hälfte der Breite AW der ersten Objektfläche ist, was bedeutet, dass die zweite Objektfläche eine unmögliche Beziehung zu der ersten Objektfläche hat, da die zweite Objektfläche eines Tiers, das sich bewegt, während es die erste Objektfläche trägt, dem Körper entspricht. Daher wird eine künstliche Struktur wie etwa ein Verkehrszeichen, dessen BW/AW Wert gleich oder kleiner als eine Hälfte ist, allgemein so bestimmt, dass sie kein anderes Lebewesen als ein Mensch ist.
  • So lange nicht in Schritt 34 die zweite Flächenbreite gleich oder kleiner als eine Hälfte der ersten Flächenbreite ist (wenn in Schritt 34 das Bestimmungsergebnis NEIN ist), nach der Berechnung der ersten Flächenbreite und der zweiten Flächenbreite zwischen zwei oder mehr zweiten Objektflächen, geht anschließend die Steuerung zu Schritt 35 weiter. Danach erfasst die Bildverarbeitungseinheit 1 Teile des Tierkörpers, die jeweils einer Bedingung genügen, dass sie mit dem gleichen Abstand von dem Fahrzeug 10 wie die erste Objektfläche des Objekts und innerhalb einer vorbestimmten Reichweite von der ersten Objektfläche angeordnet sind. Sie erfasst dann einen Teil des Tierkörpers mit vorbestimmter Größe in Abhängigkeit vom Abstand zwischen dem Objekt und dem Fahrzeug 10 als Kopf, unter den erkannten Teilen des Tierkörpers (Schritt 35). Der Begriff "vorbestimmte Größe" bedeutet hier eine vorbestimmte Größe, die dem Kopf eines großen Tiers entspricht, wie etwa eines Hirsches, einer Kuh, eines Pferds oder eines Kamels, und es ist die Merkmalsbedingung der Erfindung, dass der Teil des Tierkörpers die vorbestimmte Größe hat.
  • Zum Beispiel erfasst, im in 7 gezeigten Fall, die Bildverarbeitungseinheit 1, abgesehen von den zweiten Objektflächen P2 und P3, einen Bildabschnitt P4, der sich innerhalb der vorbestimmten Reichweite oder des Bereichs von der ersten Objektfläche P1 befindet. Sie erfasst dann den Bildabschnitt P4 als Teil des Tierkörpers, wenn der Bildabschnitt P4 mit dem gleichen Abstand von dem Fahrzeug 10 wie die erste Objektfläche P1 angeordnet ist. Wenn darüber hinaus der Bildabschnitt P4, der als Teil des Tierkörpers erkannt wurde, die vorbestimmte Größe hat, erkennt sie den Bildabschnitt P4 als Kopf.
  • Während in dieser Ausführung das Vorhandensein des Kopfs mit der vorbestimmten Größe als Merkmalsbedingung für den Fall gesetzt wird, dass das Objekt ein Tier ist, ist das als Merkmal zu erfassende Teil nicht hierauf beschränkt, sondern es besteht auch die Möglichkeit, eine Merkmalsbedingung zu setzen, die einem Teil mit einem vorbestimmten äußeren Merkmal entspricht (den Schwanz eines Tiers, den Höcker eines Kamels oder dergleichen). Wenn zum Beispiel der Schwanz des Tiers ein Merkmal ist, kann ein Teil des Tierkörpers als Tierschwanz erkannt werden, wenn das Teil des Tierkörpers eine vorbestimmte lineare Komponente in der vertikalen Richtung hat. Auch wenn der Kamelhöcker ein Merkmal bildet, besteht die Möglichkeit der Bestimmung, ob ein Teil des Tierkörpers der Höcker ist, basierend auf der Position oder Form des Höckers relativ zur ersten Objektfläche.
  • Wenn in Schritt 35 aus dem Objekt der Kopf erkannt wird, bestimmt die Bildverarbeitungseinheit 1, dass das Objekt ein anderes Lebewesen als ein Mensch ist (Schritt 36) und beendet den Objekttypbestimmungsprozess.
  • Wenn andererseits im obigen Schritt 31 im binären Bild die erste Objektfläche nicht erfasst wird (wenn in Schritt 31 das Bestimmungsergebnis NEIN ist), wenn in Schritt 32 die zweite Objektfläche nicht unterhalb der ersten Objektfläche erfasst wird (wenn in Schritt 32 das Bestimmungsergebnis NEIN ist), wenn in Schritt 34 die zweite Flächenbreite gleich oder kleiner als eine Hälfte der ersten Flächenbreite ist (wenn in Schritt 34 das Bestimmungsergebnis JA ist), oder wenn in Schritt 35 der Kopf nicht erkannt wird (wenn in Schritt 35 das Bestimmungsergebnis NEIN ist), bestimmt die Bildverarbeitungseinheit 1, dass das Objekt kein anderes Lebewesen als ein Mensch ist (Schritt 37) und beendet den Objekttypbestimmungsprozess.
  • Oben sind die Details des Objekttypbestimmungsprozesses der Erfindung beschrieben worden. Die Komponente, die die Prozesse der Schritte 31 bis 37 mittels der Bildverarbeitungseinheit 1 durchführt, entspricht der Objekttypbestimmungsprozesseinheit der Erfindung. Darüber hinaus entsprechen die Prozesse der Schritte 33 bis 37 dem Objekttypbestimmungsschritt des Fahrzeugumgebungs-Überwachungsverfahrens der Erfindung.
  • Im Objekttypbestimmungsprozess in Schritt 27 wird in dieser Ausführung mittels des binären Bilds bestimmt, ob das Objekt ein anderes Lebewesen als ein Tier ist, unter den Bedingungen:
    • (1) Das Objekt enthält eine erste Objektfläche mit elliptischer Form, die die vorbestimmte Größe entsprechend dem Körper hat und in der das Aspektverhältnis des umschreibenden Rechtecks innerhalb des vorbestimmten Bereichs liegt (Schritt 31);
    • (2) Das Objekt enthält die Mehrzahl zweiter Objektflächen, die den Beinen entsprechen, unter der ersten Objektfläche (Schritt 32);
    • (3) Die zweite Flächenbreite ist nicht gleich oder kleiner als eine Hälfte der ersten Flächenbreite (Schritt 34); und
    • (4) Das Objekt hat einen Teil des Tierkörpers, der mit dem gleichen Abstand von dem Fahrzeug 10 wie die erste Objektfläche und innerhalb der vorbestimmten Reichweite von der ersten Objektfläche angeordnet ist (Schritt 35).
  • Die Bestimmung kann jedoch auch durchgeführt werden, indem, nur ein Teil der Prozesse der obigen Bedingungen (1) bis (4) durchgeführt wird. Zum Beispiel kann sie auch nur unter den obigen Bedingungen (1) und (2) durchgeführt werden. Zusätzlich kann die Bestimmung auch mit der obigen Bedingung (1) durchgeführt werden, welche wie folgt verändert ist: Das Objekt enthält eine Objektfläche mit elliptischer Form, in der das Aspektverhältnis des umschreibenden Rechtecks innerhalb der vorbestimmten Reichweite liegt ("die vorbestimmte Größe" ist in dieser Bedingung nicht enthalten).
  • Obwohl ferner in dieser Ausführung in Schritt 27 in dem Objekttypbestimmungsprozess bestimmt wird, ob der Objekttyp ein anderes Lebewesen als ein Mensch ist, besteht auch die Möglichkeit zur Bestimmung, ob das Objekt irgendein anderer Typ ist. Zum Beispiel besteht auch die Möglichkeit der Bestimmung, ob der Objekttyp ein großes Tier oder ein kleines Tier ist, entsprechend der Größe der Bildfläche des Objekts. Alternativ besteht die Möglichkeit der Bestimmung, ob das Objekt ein Hirsch, eine Kuh, ein Pferd oder dergleichen ist, unter den großen Tieren, durch weitere Identifizierung der aus der Bildfläche des Objekts erfassten Form.
  • Während ferner in dieser Ausführung in dem Objekttypbestimmungsprozess in Schritt 27 die Prozesse der Schritte 31 bis 37 anhand des binären Bilds durchgeführt werden, ist der Objekttypbestimmungsprozess nicht hierauf beschränkt. Zum Beispiel können die Prozesse der Schritte 31 bis 37 auch mittels des Standardbilds anstatt des binären Bilds durchgeführt werden, wie etwa unter Verwendung einer Luminanz-Varianz des Standardbilds.
  • Während ferner in dem Objekttypbestimmungsprozess in Schritt 27 dieser Ausführung die Bildverarbeitungseinheit 1 ein elliptisches Muster, das die dem Tierkörper entsprechende vorbestimmte Größe hat und bei dem das Aspektverhältnis des das elliptische Muster umschreibenden Rechtecks innerhalb des vorbestimmten Bereichs liegt, als die erste Objektfläche aus der Außenform des Objekts in dem binären Bild unter Verwendung des Formabgleichungsverfahrens erfasst (Schritt 31), ist der Objekttypbestimmungsprozess hierauf nicht beschränkt. Wenn man z. B. das in 8 gezeigte binäre Bild des Objekts erhält, wird das binäre Bild des Objekts in Flächen aufgeteilt, um eine Fläche zu extrahieren, deren Änderungsrate in der Lauflänge gleich oder höher als ein vorbestimmter Wert ist. Daher wird es möglich, als erste Objektfläche unter den Teilflächen (A bis E in 8) eine Fläche zu erfassen, die die vorbestimmte Größe entsprechend dem Tierkörper aufweist und in der das Aspektverhältnis des umschreibenden Rechtecks innerhalb des vorbestimmten Bereichs liegt. Zum Beispiel wird im in 8 gezeigten Fall die Fläche B als die erste Objektfläche extrahiert. Wenn das binäre Bild des Objekts unterteilt wird, können die Unterteilungsbedingungen wie folgt sein: (1) die Oberflächenausdehnung jeder Teilfläche ist nicht gleich oder kleiner als eine vorbestimmte Größe; (2) die Differenz zwischen den Schwerpunktpositionskoordinaten der Teilflächen ist nicht gleich oder kleiner als ein vorbestimmter Schwellenwert; und (3) die Differenz zwischen den Oberflächenausdehnungen der Teilflächen ist nicht gleich oder kleiner als ein vorbestimmter Schwellenwert. Zum Beispiel wird in 8 das binäre Bild nicht durch die gestrichelte Linie unterteilt, weil die obige Bedingung (1) zur Unterteilung nicht erfüllt ist.
  • Während ferner in dem Objekttypbestimmungsprozess in Schritt 27 in dieser Ausführung die Bildverarbeitungseinheit 1 einen Teil des Tierkörpers, der mit dem gleichen Abstand von dem Fahrzeug 10 angeordnet ist und sich innerhalb des vorbestimmten Bereichs von der ersten Objektfläche befindet, als die erste Objektfläche des Objekts (Schritt 35) erfasst, besteht auch die Möglichkeit zur Bestimmung, ob eine andere Bedingung erfüllt wird, anstatt der Erfassung eines Teils des Tierkörpers. Zum Beispiel kann eine vertikale Achse in der Zwischenposition zwischen den zweiten Objektflächen P2 und P3, die den Vorder- und Hinterbeinen entsprechen, gesetzt werden, um die Symmetrie zwischen den Beinen P2 und P3 in Bezug auf die vertikale Achse zu bestimmen.
  • Während ferner in dieser Ausführung die vorbestimmte Warnung basierend auf dem Verarbeitungsergebnis der Bildverarbeitungseinheit 1 ausgegeben wird, kann auch das Verhalten des Fahrzeugs basierend auf dem Verarbeitungsergebnis gesteuert/geregelt werden.
  • Während in dieser Ausführung die zwei Infrarotkameras 2R und 2L vorgesehen wurden, kann in dem Fahrzeug auch eine Infrarotkamera 2R oder 2L mit einem Radar oder dergleichen ausgestattet sein, um den Abstand von dem Objekt zu erfassen.
  • Es wird eine Fahrzeugumgebungs-Überwachungsvorrichtung angegeben, die in der Lage ist, einen Objekttyp zu bestimmen, insbesondere unter Objekten ein anderes Lebewesen als einen Menschen zu bestimmen. Die Fahrzeugumgebungs-Überwachungsvorrichtung, die die Umgebung eines Fahrzeugs mittels eines von einer am Fahrzeug (10) angebrachten Kamera (2R, 2L) aufgenommenen Bilds überwacht, umfasst: eine Objektextraktionsprozesseinheit (S1–S6), die eine Bildfläche eines Objekts aus dem von der Kamera (2R, 2L) aufgenommenen Bild extrahiert; und eine Objekttypbestimmungsprozesseinheit (S31–S37), die einen Objekttyp in Abhängigkeit davon bestimmt, ob die Bildfläche des von der Objektextraktionsprozesseinheit (S1–S6) extrahierten Objekts eine erste Objektfläche (P1), in der das Verhältnis von Breiten in unterschiedlichen Richtungen innerhalb eines vorbestimmten Bereichs liegt, und eine Mehrzahl zweiter Objektflächen (P2, P3), die unter der ersten Objektfläche (P1) angeordnet ist und deren Fläche kleiner als die erste Objektfläche (P1) ist, enthält.

Claims (10)

  1. Fahrzeugumgebungs-Überwachungsvorrichtung, welche die Umgebung eines Fahrzeugs (10) mittels eines von einer am Fahrzeug (10) angebrachten Kamera (2R, 2L) aufgenommenen Bilds überwacht, umfassend: eine Objektextraktionsprozesseinheit (S1–S6), die eine Bildfläche eines Objekts aus dem von der Kamera (2R, 2L) aufgenommenen Bild extrahiert; und eine Objekttypbestimmungsprozesseinheit (S31–S37), die einen Objekttyp in Abhängigkeit davon bestimmt, ob die Bildfläche des von der Objektextraktionsprozesseinheit (S1–S6) extrahierten Objekts eine erste Objektfläche (P1), in der das Verhältnis von Breiten in unterschiedlichen Richtungen innerhalb eines vorbestimmten Bereichs liegt, und eine Mehrzahl zweiter Objektflächen (P2, P3), die unter der ersten Objektfläche (P1) angeordnet ist und deren Fläche kleiner als die erste Objektfläche (P1) ist, enthält.
  2. Fahrzeugumgebungs-Überwachungsvorrichtung nach Anspruch 1, dadurch gekennzeichnet, dass die Objekttypbestimmungsprozesseinheit (S31–S37) bestimmt, dass der Objekttyp ein anderes Lebewesen als ein Mensch ist, wenn die Bildfläche des von der Objektextraktionsprozesseinheit (S1–S6) extrahierten Objekts die erste Objektfläche (P1), in der das Verhältnis von Breiten in unterschiedlichen Richtungen innerhalb des vorbestimmten Bereichs liegt, und die Mehrzahl zweiter Objektflächen (P2, P3), die unter der ersten Objektfläche (P1) angeordnet sind und deren Fläche kleiner als die erste Objektfläche (P1) ist, enthält.
  3. Fahrzeugumgebungs-Überwachungsvorrichtung nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die erste Objektfläche (P1) eine vorbestimmte Größe hat.
  4. Fahrzeugumgebungs-Überwachungsvorrichtung nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass die Objekttypbestimmungsprozesseinheit (S31–S37) den Objekttyp basierend auf der Beziehung zwischen einer ersten Flächenbreite (AW), die die horizontale Breite des von der Kamera (2R, 2L) aufgenommenen Bilds der ersten Objektfläche (P1) ist, und einer zweiten Flächenbreite (BW), die die horizontale Breite des von der Kamera (2R, 2L) aufgenommenen Bilds zwischen dem linken Ende (Q2) an der linken Seite und dem rechten Ende (Q3) an der rechten Seite der zwei oder mehr zweiten Objektflächen (P2, P3) ist, bestimmt.
  5. Fahrzeugumgebungs-Überwachungsvorrichtung nach Anspruch 4, dadurch gekennzeichnet, dass die Objekttypbestimmungsprozesseinheit (S31-S37) bestimmt, dass der Objekttyp ein anderes Lebewesen als ein Mensch ist, wenn die zweite Flächenbreite (BW) größer als eine Hälfte der ersten Flächenbreite (AW) ist.
  6. Fahrzeugumgebungs-Überwachungsvorrichtung nach einem der Ansprüche 1 bis 5, gekennzeichnet durch eine Abstandsberechnungsprozesseinheit (S12), die einen Abstand einer realen Raumposition, die der Bildfläche entspricht, die in dem von der Kamera (2R, 2L) aufgenommenen Bild enthalten ist, von dem Fahrzeug (10) berechnet, wobei die Objekttypbestimmungsprozesseinheit (S31–S37) den Objekttyp unter der Bedingung bestimmt, dass die Bildfläche des Objekts ein Merkmal aufweist, das sich innerhalb einer vorbestimmten Reichweite von der ersten Objektfläche (P1) in dem von der Kamera (2R, 2L) aufgenommenen Bild befindet und einer vorbestimmten Merkmalsbedingung genügt, und dass der Abstand der dem Merkmal entsprechenden realen Raumposition von dem Fahrzeug (10) gleich dem Abstand der der ersten Objektfläche (P1) entsprechenden realen Raumposition von dem Fahrzeug (10) ist.
  7. Fahrzeugumgebungs-Überwachungsvorrichtung, die die Umgebung eines Fahrzeugs (10) mittels eines Computers (1) überwacht, der in der Vorrichtung vorgesehen ist und eine Schnittstellenschaltung zum Zugriff auf ein von einer am Fahrzeug (10) angebrachten Kamera (2R, 2L) aufgenommenes Bild enthält, wobei der Computer durchführt: einen Objektextraktionsprozess (S1–S6) zum Extrahieren einer Bildfläche eines Objekts aus dem von der Kamera (2R, 2L) aufgenommenen Bild; und einen Objekttypbestimmungsprozess (S31–S37) zum Bestimmen eines Objekttyps in Abhängigkeit davon, ob die Bildfläche des im Objektextraktionsprozess (S1–S6) extrahierten Objekts eine erste Objektfläche (P1), in der das Verhältnis von Breiten in unterschiedlichen Richtungen innerhalb eines vorbestimmten Bereichs liegt, und eine Mehrzahl zweiter Objektflächen (P2, P3), die unter der ersten Objektfläche (P1) angeordnet sind und deren Fläche kleiner als die erste Objektfläche (P1) ist, enthält.
  8. Fahrzeug, das mit der Fahrzeugumgebungs-Überwachungsvorrichtung gemäß einem der Ansprüche 1 bis 7 ausgestattet ist.
  9. Fahrzeugumgebungs-Überwachungsprogramm, das bewirkt, dass ein im Fahrzeug eingebauter Computer (1), der eine Prozesseinheit enthält, die auf Daten eines von einer am Fahrzeug (10) angebrachten Kamera (2R, 2L) aufgenommenen Bilds zugreift, eine Funktion der Überwachung der Umgebung des Fahrzeugs (10) durchführt, wobei das Programm bewirkt, dass der Computer (1) fungiert als: eine Objektextraktionsprozesseinheit (S1–S6), die eine Bildfläche eines Objekts aus dem von der Kamera (2R, 2L) aufgenommenen Bild extrahiert; und eine Objekttypbestimmungsprozesseinheit (S31–S37), die einen Objekttyp in Abhängigkeit davon bestimmt, ob die Bildfläche des von der Objektextraktionsprozesseinheit (S1–S6) extrahierten Objekts eine erste Objektfläche (P1), in der das Verhältnis von Breiten in unterschiedlichen Richtungen innerhalb eines vorbestimmten Bereichs liegt, und eine Mehrzahl zweiter Objektflächen (P2, P3), die unter der ersten Objektfläche (P1) angeordnet sind und deren Fläche kleiner als die erste Objektfläche (P1) ist, enthält.
  10. Fahrzeugumgebungs-Überwachungsverfahren zum Überwachen der Umgebung eines Fahrzeugs (10) mittels eines im Fahrzeug eingebauten Computers (1), der eine Prozesseinheit enthält, die auf Daten eines von einer am Fahrzeug (10) angebrachten Kamera (2R, 2L) aufgenommenen Bilds zugreift, wobei das Verfahren umfasst: einen Objektextraktionsschritt (S1–S6) zum Bewirken, dass der Computer (1) die Bildfläche eines Objekts aus dem von der Kamera (2R, 2L) aufgenommenen Bild extrahiert; und einen Objekttypbestimmungsschritt (S31–S37) zum Bewirken, dass der Computer (1) einen Objekttyp in Abhängigkeit davon bestimmt, ob die Bildfläche des in dem Objektextraktionsschritt (S1–S6) extrahierten Objekts eine erste Objektfläche (P1), in der das Verhältnis von Breiten in unterschiedlichen Richtungen innerhalb eines vorbestimmten Bereichs liegt, und eine Mehrzahl zweiter Objektflächen (P2, P3), die unter der ersten Objektfläche (P1) angeordnet sind und deren Fläche kleiner als die erste Objektfläche (P1) ist, enthält.
DE102007022939A 2006-05-19 2007-05-16 Fahrzeugumgebungs-Überwachungsvorrichtung Withdrawn DE102007022939A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2006140116A JP4173901B2 (ja) 2006-05-19 2006-05-19 車両周辺監視装置
JP2006-140116 2006-05-19

Publications (1)

Publication Number Publication Date
DE102007022939A1 true DE102007022939A1 (de) 2007-11-22

Family

ID=38608317

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102007022939A Withdrawn DE102007022939A1 (de) 2006-05-19 2007-05-16 Fahrzeugumgebungs-Überwachungsvorrichtung

Country Status (3)

Country Link
US (1) US7949151B2 (de)
JP (1) JP4173901B2 (de)
DE (1) DE102007022939A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2214121A1 (de) 2009-01-30 2010-08-04 Autoliv Development AB Sicherheitssystem für ein Motorfahrzeug

Families Citing this family (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4486997B2 (ja) 2008-04-24 2010-06-23 本田技研工業株式会社 車両周辺監視装置
JP5172482B2 (ja) * 2008-06-06 2013-03-27 本田技研工業株式会社 車両周辺監視装置
JP4377439B1 (ja) 2008-06-12 2009-12-02 本田技研工業株式会社 車両周辺監視装置
JP5004882B2 (ja) * 2008-06-27 2012-08-22 本田技研工業株式会社 車両周辺監視装置
JP4644273B2 (ja) * 2008-07-15 2011-03-02 本田技研工業株式会社 車両周辺監視装置
US20100020170A1 (en) * 2008-07-24 2010-01-28 Higgins-Luthman Michael J Vehicle Imaging System
JP5004903B2 (ja) * 2008-08-25 2012-08-22 本田技研工業株式会社 車両周辺監視装置
JP5004919B2 (ja) * 2008-10-10 2012-08-22 本田技研工業株式会社 車両周辺監視装置
JP2010108264A (ja) 2008-10-30 2010-05-13 Honda Motor Co Ltd 車両周辺監視装置
JP5026398B2 (ja) * 2008-11-27 2012-09-12 本田技研工業株式会社 車両周辺監視装置
JP5198346B2 (ja) 2009-04-23 2013-05-15 本田技研工業株式会社 車両周辺監視装置
JP2010263272A (ja) * 2009-04-30 2010-11-18 Koito Mfg Co Ltd 車両用監視カメラ及び車両用監視カメラシステム
WO2011108218A1 (ja) 2010-03-01 2011-09-09 本田技研工業株式会社 車両の周辺監視装置
US8953840B2 (en) * 2010-03-01 2015-02-10 Honda Motor Co., Ltd. Vehicle perimeter monitoring device
EP2579230A4 (de) 2010-07-09 2013-11-06 Honda Motor Co Ltd Vorrichtung zur überwachung der umgebung eines fahrzeugs
EP2642463A4 (de) 2010-11-16 2014-06-25 Honda Motor Co Ltd Umgebungsüberwachungsvorrichtung für fahrzeuge
WO2013058128A1 (ja) * 2011-10-18 2013-04-25 本田技研工業株式会社 車両周辺監視装置
US9264673B2 (en) 2011-11-20 2016-02-16 Magna Electronics, Inc. Vehicle vision system with enhanced functionality
US9235990B2 (en) 2011-11-25 2016-01-12 Honda Motor Co., Ltd. Vehicle periphery monitoring device
JP5486031B2 (ja) 2012-03-06 2014-05-07 本田技研工業株式会社 配光制御装置
WO2013136827A1 (ja) * 2012-03-12 2013-09-19 本田技研工業株式会社 車両周辺監視装置
JP5502149B2 (ja) 2012-06-29 2014-05-28 本田技研工業株式会社 車両周辺監視装置
JP5885640B2 (ja) * 2012-11-05 2016-03-15 本田技研工業株式会社 車両周辺監視装置
JP5993100B2 (ja) * 2013-12-27 2016-09-14 京セラドキュメントソリューションズ株式会社 画像処理装置および特定図形検出方法
JP6119643B2 (ja) * 2014-03-03 2017-04-26 トヨタ自動車株式会社 周辺監視装置及び物体判定方法
JP6084192B2 (ja) * 2014-10-15 2017-02-22 本田技研工業株式会社 物体認識装置
US10152649B2 (en) * 2015-12-01 2018-12-11 Mobileye Vision Technologies Ltd. Detecting visual information corresponding to an animal
US11215459B2 (en) * 2016-05-18 2022-01-04 Pioneer Corporation Object recognition device, object recognition method and program
US11195026B2 (en) 2016-06-29 2021-12-07 Kyocera Corporation Object detection and display apparatus, moveable body, and object detection and display method
US10477827B2 (en) 2016-08-17 2019-11-19 Technologies Holdings Corp. Vision system for teat detection
US9936670B2 (en) * 2016-08-17 2018-04-10 Technologies Holdings Corp. Vision system with teat detection
US10817970B2 (en) 2016-08-17 2020-10-27 Technologies Holdings Corp. Vision system with teat detection
US10499607B2 (en) 2016-08-17 2019-12-10 Technologies Holdings Corp. Vision system for teat detection
US9807971B1 (en) 2016-08-17 2017-11-07 Technologies Holdings Corp. Vision system with automatic teat detection
US9807972B1 (en) * 2016-08-17 2017-11-07 Technologies Holdings Corp. Vision system with leg detection
JP6605442B2 (ja) 2016-12-27 2019-11-13 本田技研工業株式会社 情報提供装置および情報提供方法
DE102017201936A1 (de) * 2017-02-08 2018-08-09 Robert Bosch Gmbh Verfahren zur Reduzierung eines Kollisionsschadens
JP6965803B2 (ja) 2018-03-20 2021-11-10 株式会社Jvcケンウッド 認識装置、認識方法及び認識プログラム
JP7063076B2 (ja) * 2018-04-20 2022-05-09 株式会社Jvcケンウッド 認識装置、認識方法及び認識プログラム
CN109163707B (zh) * 2018-09-06 2019-11-26 百度在线网络技术(北京)有限公司 障碍物感知方法、系统、计算机设备、计算机存储介质

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4135123B2 (ja) 1998-05-13 2008-08-20 日産自動車株式会社 表示処理装置
JP3515926B2 (ja) 1999-06-23 2004-04-05 本田技研工業株式会社 車両の周辺監視装置
JP2002312769A (ja) 2001-04-16 2002-10-25 Matsushita Electric Ind Co Ltd 監視装置及びそのパラメータ設定方法
DE10148071A1 (de) 2001-09-28 2003-04-17 Ibeo Automobile Sensor Gmbh Verfahren zur Erkennung und Verfolgung von Objekten
JP3987048B2 (ja) * 2003-03-20 2007-10-03 本田技研工業株式会社 車両周辺監視装置
JP2004295798A (ja) 2003-03-28 2004-10-21 Japan Best Rescue System Kk 警備システム
JP4425642B2 (ja) * 2004-01-08 2010-03-03 富士重工業株式会社 歩行者抽出装置
US7447334B1 (en) * 2005-03-30 2008-11-04 Hrl Laboratories, Llc Motion recognition system

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2214121A1 (de) 2009-01-30 2010-08-04 Autoliv Development AB Sicherheitssystem für ein Motorfahrzeug
WO2010086100A1 (en) * 2009-01-30 2010-08-05 Autoliv Development Ab Safety system for a motor vehicle
CN102265288A (zh) * 2009-01-30 2011-11-30 奥托立夫开发公司 用于机动车的安全系统
CN102265288B (zh) * 2009-01-30 2014-07-16 奥托立夫开发公司 用于机动车的安全系统
US9158978B2 (en) 2009-01-30 2015-10-13 Autoliv Development Ab Vehicle environment classifying safety system for a motor vehicle

Also Published As

Publication number Publication date
JP2007310705A (ja) 2007-11-29
JP4173901B2 (ja) 2008-10-29
US7949151B2 (en) 2011-05-24
US20080130954A1 (en) 2008-06-05

Similar Documents

Publication Publication Date Title
DE102007022939A1 (de) Fahrzeugumgebungs-Überwachungsvorrichtung
DE102007022940A1 (de) Fahrzeugumgebungs-Überwachungsvorrichtung
DE102007011616B4 (de) Fahrzeugumgebung-Überwachungsgerät
DE102007019491B4 (de) Fahrzeugumgebungs-Überwachungsvorrichtung, Fahrzeug, Fahrzeugumgebungs-Überwachungsverfahren und Fahrzeugumgebungs-Überwachungsprogramm
DE102016106298B4 (de) Fusionsverfahren für eine Querverkehr-Applikation unter Verwenden von Radargeräten und einer Kamera
DE102005056645B4 (de) Fahrzeugumgebungsüberwachungsvorrichtung
DE102005026875B4 (de) Fahrzeugumgebungs-Überwachungsvorrichtung
DE102007014012B4 (de) Fahrzeugumgebung-Überwachungsgerät, Fahrzeugumgebung-Überwachungsverfahren und Fahrzeugumgebung-Überwachungsprogramm
DE10026586B4 (de) Objekterfassungssystem
DE102016100030B4 (de) Gerät zum sicheren führen eines fahrzeugs
DE102014209137B4 (de) Verfahren und Vorrichtung zur Kalibrierung eines Kamerasystems eines Kraftfahrzeugs
DE102005056429B4 (de) Fahrzeugumgebungsüberwachungsvorrichtung
DE102015105248A1 (de) Erzeugen eines bildes von der umgebung eines gelenkfahrzeugs
DE102016106299A1 (de) Raderfassung und ihre Applikation bei Objektverfolgung und Sensorregistrierung
DE102005056616B4 (de) Fahrzeugumgebungsüberwachungsvorrichtung
DE102005056647B4 (de) Fahrzeugumgebungsüberwachungsvorrichtung
DE10301469A1 (de) Infrarotbildverarbeitungsvorrichtung
DE102012216593A1 (de) Draufsichtbasiertes avm-einparkhilfesystem
DE102017218366A1 (de) Verfahren und system zur fussgängererfassung in einem fahrzeug
DE102015114403A1 (de) Annäherungsobjekterfassungsvorrichtung für ein Fahrzeug und Annäherungsobjekterfassungsverfahren dafür
DE112018004835T5 (de) Kollisionsvorhersagevorrichtung, Kollisionsvorhersageverfahren und Programm
EP3520023B1 (de) Detektion und validierung von objekten aus sequentiellen bildern einer kamera
DE102019104352A1 (de) Kupplungsunterstützungssystem mit schätzung der anhängerhöhe und identifizierung des kupplungskopplers
DE102018121008A1 (de) Kreuzverkehrserfassung unter verwendung von kameras
DE102005056664B4 (de) Fahrzeugumgebungsüberwachungsvorrichtung

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
OR8 Request for search as to paragraph 43 lit. 1 sentence 1 patent law
R016 Response to examination communication
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee