-
QUERVERWEIS AUF VERWANDTE
ANMELDUNGEN
-
Diese
Anmeldung ist eine Continuation-in-gart-Anmeldung der US-Anmeldung
Nr. 12/417,077, die am 2. April 2009 eingereicht wurde und deren
Offenbarungsgehalt hierin durch Bezugnahme vollständig
mit eingeschlossen ist.
-
TECHNISCHES GEBIET
-
Diese
Offenbarung bezieht sich auf eine grafische Abbildung an einer Frontscheibe
in einem Kraftfahrzeug.
-
HINTERGRUND
-
Die
Aussagen in diesem Abschnitt stellen lediglich eine Hintergrundinformation
bereit, die mit der vorliegenden Offenbarung in Beziehung steht,
und müssen nicht unbedingt Stand der Technik darstellen.
-
Eine
Darstellung einer Information für den Bediener eines Fahrzeugs
auf eine effektive Weise ist erwünscht und reduziert die
Beanspruchung des Bedieners. Es sind Anzeigetechniken bekannt, bei
denen Licht an eine Projektionsfläche projiziert wird,
und das Licht wird an der Projektionsfläche in eine sichtbare
Anzeige umgewandelt. Bei einer Anwendung auf Transportanwendungen
sind solche Anzeigen als Head-Up-Anzeigen bekannt, wobei eine Information
an einen Blendschutz, eine Projektionsfläche zwischen dem
Bediener und einer Frontscheibe oder direkt an die Frontscheibe
projiziert wird. Bekannte Systeme, die Licht direkt an eine Frontscheibe
projizieren, erfordern jedoch häufig eine Beschichtung
oder ein Material, das die Transparenz der Frontscheibe signifikant
verringert. Als Ergebnis sind Head-Up-Anzeigen häufig auf
ein begrenztes Gebiet an der Frontscheibe beschränkt.
-
Fahrzeugsysteme überwachen
eine Menge an Informationen. Insbesondere Fahrzeugsysteme, die Fahrunterstützungen
verwenden, wie beispielsweise einen adaptiven Tempomat (ACC von
adaptive cruise control), eine automatische Lateralsteuerung, Kollisionsvermeidungs-
oder Vorbereitungssysteme und Spureinhalteunterstützungen, überwachen
und verarbeiten eine Information bezüglich der Betriebsumgebung
um das Fahrzeug herum. Ferner steht eine Information von einer Vielzahl
von Quellen zur Verfügung, um das Fahrzeug in Relation
zu einer 3D-Kartendatenbank zu lokalisieren, eine Fahrtroute für
das Fahrzeug zu einem Ziel zu planen und diese Fahrtroute mit einer
verfügbaren Information bezüglich der Route in
Korrelation zu bringen. Ferner stellen fahrzeugeigene Fahrzeugsysteme
eine große Vielzahl von Informationen bereit, die verwendet
werden können, um die Steuerung des Fahrzeugs zu verbessern.
Ferner ist bekannt, dass Fahrzeug-Fahrzeug-Kommunikationen Daten,
die in einem Fahrzeug beim Kommunizieren mit Fahrzeugen an einer
anderen Stelle auf der Straße gesammelt werden, verwenden.
-
ZUSAMMENFASSUNG
-
Ein
Verfahren zum Anzeigen einer projizierten Parameterkurve an einer
im Wesentlichen transparenten Frontscheiben-Head-Up-Anzeige umfasst,
dass eine gewünschte Parameterkurve überwacht
wird, die mehrere Steuerpunkte und mehrere Grafiksegmente, die auf
den Steuerpunkten basieren, umfasst, ein Luminanzindikator für
jedes der Segmente ermittelt wird und der Luminanzindikator verwendet
wird, um unter den mehreren Grafiksegmenten eine einheitliche Luminanz
zu befehlen.
-
KURZBESCHREIBUNG DER ZEICHNUNGEN
-
Nachstehend
werden eine oder mehrere Ausführungsformen beispielhaft
in Bezug auf die begleitenden Zeichnungen beschrieben, in denen:
-
1 ein
beispielhaftes Fahrzeug, das mit einem EVS-System ausgestattet ist,
gemäß der vorliegenden Offenbarung zeigt;
-
2 ein
beispielhaftes Diagramm einer im Wesentlichen transparenten Anzeige
gemäß der vorliegenden Offenbarung ist;
-
3 eine
beispielhafte grafische Projektion an eine Fläche gemäß der
vorliegenden Offenbarung zeigt;
-
4 ein
Schema zum Verwenden von Anregungslicht zum Emittieren von sichtbarem
Licht von der HUD gemäß der vorliegenden Offenbarung
zeigt;
-
5 eine
beispielhafte Anordnung von Licht emittierenden Partikeln an einem
Substrat gemäß der vorliegenden Offenbarung zeigt;
-
6 verschiedene Typen von Licht emittierenden
Materialien, die an einem Substrat aufgeschichtet sind, gemäß der
vorliegenden Offenbarung zeigt;
-
7 ein
beispielhaftes Diagramm der Anregungs- und Emissionsbeziehungen
von verschiedenen Licht emittierenden Materialien gemäß der
vorliegenden Offenbarung ist;
-
8 ein
beispielhaftes Diagramm eines Musters von Mikrostrukturen, die in
einem im Wesentlichen transparenten oder transluzenten Substrat
verteilt sind, gemäß der vorliegenden Offenbarung
ist;
-
9 ein
beispielhaftes Diagramm eines Musters von Mikrostrukturen, die an
einer Fläche eines im Wesentlichen transparenten oder transluzenten
Substrats angeordnet sind, ähnlich wie bei 8,
gemäß der vorliegenden Offenbarung ist;
-
10 ein beispielhaftes Diagramm eines Winkelmusters
von Mikrostrukturen, die in einem im Wesentlichen transparenten
oder transluzenten Substrat verteilt sind, ähnlich wie
bei 8, gemäß der vorliegenden Offenbarung
ist;
-
11 eine beispielhafte Ausführungsform
eines zweidimensionalen lichtstrahlbasierten FC-Anzeigesubsystems
gemäß der vorliegenden Offenbarung zeigt;
-
12 ein schematisches Diagramm des Systems des
Fahrzeugs 10, das mit einem Zielverfolgungssystem konstruiert
wurde, gemäß der vorliegenden Offenbarung zeigt;
-
13 einen Informationsfluss, der beim Erzeugen
einer Verfolgungsliste verwendet wird, gemäß der vorliegenden
Offenbarung zeigt;
-
14 einen beispielhaften Datenvereinigungsprozess
gemäß der vorliegenden Offenbarung zeigt;
-
15 einen beispielhaften Datenfluss, der eine gemeinsame
Verfolgung und Sensorregistrierung ermöglicht, gemäß der
vorliegenden Offenbarung zeigt;
-
16 schematisch ein beispielhaftes System, durch
das Sensoreingänge zu Objektverfolgungen vereinigt werden,
die bei einem Kollisionsvorbereitungssystem nützlich sind,
gemäß der vorliegenden Offenbarung zeigt;
-
17 schematisch ein beispielhaftes Bildvereinigungsmodul
gemäß der vorliegenden Offenbarung zeigt;
-
18 schematisch eine beispielhafte Bank von Kalman-Filtern,
die arbeiten, um eine Position und Geschwindigkeit einer Gruppe
von Objekten zu schätzen, gemäß der vorliegenden
Offenbarung zeigt;
-
19 beispielhafte einer entsprechenden Bildebene überlagerte
Entfernungsdaten, was bei systeminternen Analysen verschiedene Zielobjekte
nützlich ist, gemäß der vorliegenden
Offenbarung darstellt;
-
20 ein beispielhaftes Fahrzeug, das einen Sensor
zum Erlangen von Straßengeometriedaten vor einem Fahrzeug
verwendet, gemäß der vorliegenden Offenbarung
zeigt;
-
21 einen beispielhaften Vorwärtsspurschätzungsprozess
gemäß der vorliegenden Offenbarung zeigt;
-
22 einen beispielhaften Prozess, bei dem eine
Information von einer Kartendatenbank verwendet werden kann, um
ein geometrisches Modell einer Straße in einem Bereich
eines Fahrzeugs zu konstruieren, gemäß der vorliegenden
Offenbarung zeigt;
-
23 grafisch ein beispielhaftes iteratives Verfahren
zum Finden eines angenäherten Orts eines Fahrzeugs in Bezug
auf eine geschätzte Straßengeometrie gemäß der
vorliegenden Offenbarung zeigt;
-
24 einen beispielhaften Fahrzeugposenlokalisierungsprozess
gemäß der vorliegenden Offenbarung zeigt;
-
25 eine beispielhafte Ermittlung, die in dem lateralen
Modell des Fahrzeugs durchgeführt wird, gemäß der
vorliegenden Offenbarung zeigt;
-
26 eine beispielhafte Verwendung von Wegpunkten
entlang einer projizierten Spur vor dem Fahrzeug zum Schätzen
der Spurgeometrie gemäß der vorliegenden Offenbarung
zeigt;
-
27–29 eine
beispielhafte Anwendung einer Kontextinformation auf erfasste Objektdaten,
um zu ermitteln, ob die erfassten Daten eine kritische Information
sind, gemäß der vorliegenden Offenbarung zeigen;
-
27 ein Fahrzeug zeigt, das drei sequentielle Datenpunkte
umfasst, die ein Zielobjekt vor dem Fahrzeug beschreiben;
-
28 eine beispielhafte Situation zeigt, in der
entsprechende Datenpunkte eine kritische Information für
einen Bediener korrekt angeben würden; und
-
29 eine beispielhafte Situation zeigt, in der
entsprechende Datenpunkte eine kritische Information für
einen Bediener inkorrekt angeben könnten;
-
30 und 31 schematisch
eine beispielhafte Verwendung einer eingeschränkten Architektur
eines Pixel-Sichtfelds gemäß der vorliegenden
Offenbarung zeigen;
-
30 einen beispielhaften Emitter zeigt, der Licht
an ein eingeschränktes Sichtfeld emittieren kann; und
-
31 einen beispielhaften Prozess zum Erzeugen der
notwendigen Struktur von Emittern, die auf ein Polymersubstrat ausgerichtet
sind, um ein Sehen mit eingeschränktem Sichtfeld zu ermöglichen,
beschreibt;
-
32–37 ausgewählte
beispielhafte Anzeigen einer kritischen Information, die an eine
HUD projiziert werden könnte, gemäß der
vorliegenden Offenbarung zeigen;
-
32 eine beispielhafte nicht verbesserte externe
Sicht zeigt, die Merkmale umfasst, die für einen Bediener
eines Fahrzeugs wünschenswerterweise sichtbar zugänglich
sind;
-
33 eine beispielhafte Sicht, die durch starken
Nebel behindert ist, und beispielhafte verbesserte Sichtanzeigen,
die verwendet werden können, um die Auswirkung des Nebels
zu kompensieren, zeigt;
-
34 eine beispielhafte Anzeige einer Grafik zeigt,
die die Sicherheit über einen Spurwechsel verbessert;
-
35 eine beispielhafte Situation zeigt, in der
ein Verbesserungsmerkmal eines peripheren hervorstechenden Merkmals
in Kombination mit einem geschätzten Blickort des Bedieners
verwendet wird, um einen Bediener hinsichtlich einer kritischen
Information zu alarmieren;
-
36 eine beispielhafte Ansicht zeigt, die eine
Anzeige von Navigationsanweisungen an einer HUD beschreibt;
-
37 eine weitere beispielhafte Ansicht zeigt, die
eine kritische Information beschreibt, die an einer HUD angezeigt
werden kann;
-
38 schematisch einen beispielhaften Informationsfluss,
der oben beschriebene Verfahren erreicht, gemäß der
vorliegenden Offenbarung zeigt;
-
39 schematisch ein beispielhaftes Luminanzkorrektursystem
zum Projizieren einer projizierten Parameterkurve an einer Projektionsfläche
gemäß der vorliegenden Offenbarung zeigt;
-
40 eine Parameterkurve, die mehrere Steuerpunkte
und diesen zugeordnete Segmente umfasst, gemäß der
vorliegenden Offenbarung zeigt; und
-
41 eine reparametrisierte Parameterkurve, die
mehrere neue gleich weit beabstandete Steuerpunkte und diesen zugeordnete
Segmente umfasst, gemäß der vorliegenden Offenbarung
zeigt.
-
DETAILLIERTE BESCHREIBUNG
-
Nun
auf die Zeichnungen Bezug nehmend, bei denen die Darstellungen lediglich
dem Zweck des Erläuterns bestimmter beispielhafter Ausführungsformen
und nicht dem Zweck des Einschränkens dieser dienen, wird ein
Verfahren offenbart, das ein verbessertes Sichtsystem (EVS von enhanced
vision system) verwendet, um grafische Bilder an einer Frontscheibe
eines Fahrzeugs darzustellen, wobei eine Betriebsumgebung für
das Fahrzeug beschrieben wird. Die grafischen Bilder stammen von
Sensor- und/oder Dateneingängen, die die Betriebsumgebung
beschreiben, und umfassen eine Verarbeitung der Eingänge,
um eine kritische Information an den Bediener oder an Insassen des
Fahrzeugs zu übermitteln. Die an der Frontscheibe anzuzeigenden
grafischen Bilder werden ferner hinsichtlich der sichtbaren relevanten
Merkmale, die durch die Frontscheibe beobachtbar sind, registriert,
so dass ein vorgesehener Insasse das relevante Merkmal und das registrierte
grafische Bild als einzelnen wahrnehmbaren Eingang sehen kann.
-
1 zeigt
ein beispielhaftes Fahrzeug, das mit einem EVS-System ausgestattet
ist, gemäß der vorliegenden Offenbarung. Ein Fahrzeug 100 umfasst
eine EVS-Systemverwaltungseinrichtung 110; Fahrzeugsensorsysteme,
die ein Kamerasystem 120 und ein Radarsystem 125 umfassen;
Fahrzeugbetriebssensoren, die einen Fahrzeuggeschwindigkeitssensor 130 umfassen;
Informationssysteme, die eine GPS-Einrichtung 140 und ein
drahtloses Kommunikationssystem 145 umfassen; eine Head-Up-Anzeige
(HUD von heads-up display) 150; ein EVS-Grafiksystem 155;
ein Grafikprojektionssystem 158; und ein Insassenaugenortserfassungssystem 160.
Die EVS-Systemverwaltungseinrichtung 110 umfasst einen
programmierbaren Prozessor, der eine Programmierung umfasst, um
verschiedene Eingänge zu überwachen und zu ermitteln, welche
Information für eine Anzeige an der HUD geeignet ist. Die
EVS-Systemverwaltungseinrichtung kann direkt mit verschiedenen Systemen
und Komponenten kommunizieren [engl.: communication], oder die EVS-Systemverwaltungseinrichtung
kann alternativ oder zusätzlich über ein LAN/CAN-System 115 kommunizieren.
Die EVS-Systemverwaltungseinrichtung verwendet eine Information
bezüglich der Betriebsumgebung des Fahrzeugs, die von einer
Anzahl von Eingängen abgeleitet wird. Das Kamerasystem 120 umfasst
eine Kamera oder eine Bilderfassungseinrichtung, die periodische
oder sequentielle Bilder aufnimmt, die eine Sicht von dem Fahrzeug
aus darstellen. Das Radarsystem 125 umfasst eine Einrichtung,
die in der Technik bekannt ist und elektromagnetische Strahlung
verwendet, um andere Fahrzeuge oder Objekte zu detektieren, die
sich in der Nähe des Fahrzeugs befinden. In einem Fahrzeug
ist eine Anzahl von bekannten fahrzeuginternen Sensoren weit verbreitet,
und diese werden verwendet, um die Fahrzeuggeschwindigkeit, die
Motordrehzahl, den Radschlupf und andere Parameter zu überwachen,
die den Betrieb des Fahrzeugs beschreiben. Es ist ein beispielhafter
Fahrzeuggeschwindigkeitssensor 130 gezeigt, um solch einen
fahrzeuginternen Sensor darzustellen, der den Fahrzeugbetrieb beschreibt,
wobei die Offenbarung jedoch jegliche solche Sensoren zur Verwendung
durch das EVS umfassen soll. Die GPS-Einrichtung 140 und
das drahtlose Kommunikationssystem 145 sind Einrichtungen,
die in der Technik bekannt sind, um mit Ressourcen außerhalb
des Fahrzeugs, beispielsweise einem Satellitensystem 180 und
einem Zellularkommunikationsturm 190, zu kommunizieren.
Die GPS-Einrichtung 140 kann in Verbindung mit einer 3D-Kartendatenbank
verwendet werden, die eine detaillierte Information bezüglich
einer globalen Koordinate umfasst, die durch die GPS-Einrichtung 140 bezüglich
des aktuellen Orts des Fahrzeugs empfangen wird. Die HUD 150 umfasst
eine Frontscheibe, die mit Merkmalen ausgestattet ist, die ein daran
projiziertes Bild anzeigen können, während sie
transparent oder im Wesentlichen transparent bleibt, so dass die
Insassen des Fahrzeugs die Außenumgebung des Fahrzeugs
durch die Frontscheibe genau beobachten können. Ein Fachmann
wird erkennen, dass, während die HUD 150 die Frontscheibe
vor dem Fahrzeug umfasst, andere Flächen innerhalb des
Fahrzeugs für eine Projektion verwendet werden können,
die Seitenfenster und eine Heckscheibe umfassen. Ferner könnte
die Sicht an der Frontscheibe auf die vorderen ”A-Säulen” des
Fahrzeugs und auf die Seitenfenster als kontinuierliches Bild fortgeführt
werden. Die EVS-Grafikmaschine 155 umfasst eine Anzeigesoftware
oder eine Programmierung, die Anforderungen zum Anzeigen einer Information
von der EVS-Systemverwaltungseinrichtung 110 in grafische
Darstellungen übersetzt, die die Information beschreiben.
Die EVS-Grafikmaschine 155 umfasst eine Programmierung,
um die gekrümmte und schräge Fläche der
Frontscheibe und beliebiger anderer Flächen, auf die die
Grafik projiziert werden soll, zu kompensieren. Die EVS-Grafikmaschine 155 steuert
das Grafikprojektionssystem 158, das eine Laser- oder Projektoreinrichtung
umfasst, die ein Anregungslicht erzeugt, um die grafischen Darstellungen
zu projizieren. Das Insassenaugenortserfassungssystem 160 umfasst
in der Technik bekannte Sensoren, um den Ort des Kopfs eines Insassen
und ferner die Ausrichtung oder den Blickort der Augen des Insassen
anzunähern. Auf der Grundlage des Ausgangs des Insassenaugenortserfassungssystems 160 und
einer Eingangsdatenverfolgungsortsinformation bezüglich
der Umgebung um das Fahrzeug herum kann die EVS-Systemverwaltungseinrichtung 110 die
grafischen Darstellungen für die HUD genau registrieren,
so dass der Insasse die Bilder mit überlagerten visuellen
Bildern durch die Frontscheibe sieht.
-
Das
oben beschriebene EVS umfasst Augenerfassungs- und Kopferfassungseinrichtungen,
die eine Schätzung des Augenorts ermöglichen und
eine Registrierung von Bildern an der HUD ermöglichen,
so dass die Bilder einer Sicht des Bedieners entsprechen. Es sei
jedoch angemerkt, dass eine Schätzung eines Kopf- und Augenorts
durch eine Anzahl von Verfahren erreicht werden kann. Beispielsweise
kann ein Bediener in einem Prozess ähnlich einem Anpassen
von Rückspiegeln eine Kalibrierungsroutine beim Einsteigen
in ein Fahrzeug verwenden, um die Grafik auf ein detektiertes Objekt
auszurichten. Bei einer anderen Ausführungsform kann die
Sitzposition in Längsrichtung des Fahrzeugs verwendet werden,
um eine Position des Fahrerkopfs zu schätzen. Bei einer
anderen Ausführungsform kann eine manuelle Einstellung
eines Rückspiegels oder von Rückspiegeln verwendet
werden, um den Ort von Bedieneraugen zu schätzen. Es sei
angemerkt, dass eine Kombination von Verfahren, beispielsweise eine
Sitzposition und ein Spiegeleinstellungsswinkel, verwendet werden
kann, um einen Bedienerkopfort mit verbesserter Genauigkeit zu schätzen.
Es werden viele Verfahren zum Erreichen einer genauen Registrierung
einer Grafik an der HUD betrachtet, und die Offenbarung soll nicht
auf die hierin beschriebenen bestimmten Ausführungsformen
beschränkt sein.
-
Ein
beispielhaftes EVS umfasst ein breites Sichtfeld einer gesamten
Frontscheibe (HUD), wobei eine im Wesentlichen transparente Projektionsfläche
die Funktionalität umfasst, daran projizierte grafische
Bilder anzuzeigen; eine HUD-Bildmaschine, die einen Laser oder Laser
umfasst, die Bilder an die Frontscheibe projizieren können;
Eingangsquellen, die Daten bezüglich der Betriebsumgebung
des Fahrzeugs ableiten; und eine EVS-Systemverwaltungseinrichtung,
die eine Programmierung umfasst, um Eingänge von den Eingangseinrichtungen
zu überwachen, die Eingänge zu verarbeiten und
eine kritische Information relativ zu der Betriebsumgebung zu ermitteln
und Anforderungen für grafische Bilder zur Erzeugung durch
die HUD-Bildmaschine zu erzeugen. Es sei jedoch angemerkt, dass
dieses beispielhafte EVS lediglich eine einer großen Anzahl
von Ausgestaltungen ist, die ein EVS annehmen kann. Beispielsweise
ist ein Sicht- oder Kamerasystem für verschiedene EVS-Anwendungen,
die erläutert werden, nützlich. Es sei jedoch
angemerkt, dass ein beispielhaftes EVS-System ohne ein Sichtsystem
arbeiten kann, wobei beispielsweise eine Information bereitgestellt
wird, die nur von einer GPS-Einrichtung, einer 3D-Kartendatenbank
und fahrzeuginternen Sensoren zur Verfügung steht.
-
Alternativ
sei angemerkt, dass ein beispielhaftes EVS-System ohne Zugriff auf
eine GPS-Einrichtung oder ein drahtloses Netz arbeiten kann und
stattdessen Eingänge von nur einem Sichtsystem und einem
Radarsystem verwendet. Es sind viele verschiedene Ausgestaltungen
mit den offenbarten Systemen und Verfahren möglich, und
die Offenbarung soll nicht auf die hierin beschriebenen beispielhaften
Ausführungsformen beschränkt sein.
-
Die
Frontscheibe, die eine HUD umfasst, ist für den Betrieb
des EVS wichtig. Um als Medium zu fungieren, durch das relevante
Merkmale beobachtbar sind, während sie als Anzeigeeinrichtung
dient, an der die grafischen Bilder angezeigt werden können,
muss die Frontscheibe des Fahrzeugs sowohl transparent sein als
auch durch eine Anregungslichtquelle projizierte Bilder anzeigen
können. 2 ist ein beispielhaftes Diagramm
einer im Wesentlichen transparenten Anzeige gemäß der
vorliegenden Offenbarung. Ein Betrachter 10 kann ein beliebiges
Objekt (z. B. einen Würfel 12) durch ein Substrat 14 sehen.
Das Substrat 14 kann transparent oder im Wesentlichen transparent
sein. Während der Betrachter 10 das beliebige
Objekt 12 durch das Substrat 14 sieht, kann der
Betrachter auch Bilder (z. B. einen Kreis 15 und ein Dreieck 16)
sehen, die an dem Substrat 14 erzeugt werden. Das Substrat 14 kann
Teil einer Fahrzeugwindschutzscheibe, eines Gebäudefensters,
eines Glassubstrats, eines Kunststoffsubstrats, eines Polymersubstrats
oder eines anderen transparenten (oder im Wesentlichen transparenten)
Mediums sein, das einem Fachmann bekannt ist. Andere Substrate können
das Substrat 14 ergänzen, um für eine
Tönung, einen Substratschutz, eine Lichtfilterung (z. B.
Filtern von externem ultraviolettem Licht) und andere Funktionen
zu sorgen.
-
2 zeigt
eine Beleuchtung von transparenten Anzeigen gemäß Ausführungsformen,
die mit Anregungslicht (z. B. ultraviolettem Licht oder Infrarotlicht)
von Lichtquellen (z. B. einem Projektor oder Laser, gezeigt durch
die Einrichtung 20, beleuchtet werden. Das Substrat 14 kann
ein Anregungslicht von einer Lichtquelle aufnehmen (z. B. Projektor
oder Laser 20). Das empfangene Anregungslicht kann durch
ein Licht emittierendes Material an dem Substrat 14 absorbiert
werden. Wenn das Licht emittierende Material das Anregungslicht
empfängt, kann das Licht emittierende Material sichtbares
Licht emittieren. Dementsprechend können Bilder (z. B.
der Kreis 15 und das Dreieck 16) an dem Substrat 14 durch
selektives Beleuchten des Substrats 14 mit Anregungslicht
erzeugt werden.
-
Das
Anregungslicht kann gemäß Ausführungsformen
der vorliegenden Offenbarung ultraviolettes Licht sein. Wenn das
Anregungslicht ultraviolettes Licht ist, tritt, wenn das Licht emittierende
Material sichtbares Licht in Ansprechen auf das ultraviolette Licht
emittiert, ein physikalisches Phänomen einer Abwärts-Umwandlung
auf. Insbesondere weist ultraviolettes Licht eine kürzere
Wellenlänge und eine höhere Energie auf als sichtbares
Licht. Dementsprechend wird das ultraviolette Licht, wenn das Licht
emittierende Material das ultraviolette Licht absorbiert und sichtbares
Licht mit niedrigerer Energie emittiert, in sichtbares Licht abwärts-umgewandelt,
da sich das Energieniveau des ultravioletten Lichts verringert,
wenn es in sichtbares Licht umgewandelt wird. Bei Ausführungsformen
ist das Licht emittierende Material ein fluoreszentes Material.
-
Das
Anregungslicht kann gemäß Ausführungsformen
der vorliegenden Offenbarung Infrarotlicht sein. Wenn das Anregungslicht
Infrarotlicht ist, tritt, wenn das Licht emittierende Material sichtbares
Licht in Ansprechen auf das Infrarotlicht emittiert, ein physikalisches
Phänomen einer Aufwärts-Umwandlung auf. Insbesondere
weist Infrarotlicht eine längere Wellenlänge und
eine geringere Energie auf als sichtbares Licht. Dementsprechend
wird das Infrarotlicht, wenn das Licht emittierende Material das
Infrarotlicht absorbiert und sichtbares Licht mit höherer
Energie emittiert, in sichtbares Licht aufwärts-umgewandelt,
da sich das Energieniveau des Infrarotlichts erhöht, wenn
es in das sichtbare Licht umgewandelt wird. Bei Ausführungsformen
ist das Licht emittierende Material ein fluoreszentes Material.
Bei dem physikalischen Phänomen einer Aufwärts-Umwandlung
kann eine Absorption von mehr als einem Infrarotlichtphoton für
die Emission jedes Photons von sichtbarem Licht notwendig sein.
Ein Fachmann wird erkennen, dass solch eine Anforderung, die eine
Absorption mehrerer Photonen erfordert, Infrarotlicht zu einer weniger
erwünschten Option als ultraviolettes Licht als Anregungslicht
machen kann.
-
Bei
den in 1 gezeigten Ausführungsformen
wird das Anregungslicht durch die Einrichtung 20, die einen
Projektor umfasst, ausgegeben. Der Projektor kann ein digitaler
Projektor sein. Bei Ausführungsformen ist der Projektor
ein Mikrospiegel-Array-Projektor (MMA-Projektor von micromirror
array projector) (z. B. ein Digitallichtverarbeitungsprojektor (DLP-Projektor
von digital light processing projector)). Ein MMA-Projektor, der
ultraviolettes Licht ausgibt, kann einem MMA-Projektor ähnlich
sein, der sichtbares Licht ausgibt, außer, dass der Farbkreis
Lichtfilter aufweist, die auf das Spektrum von ultraviolettem Licht
zugeschnitten sind. Bei anderen Ausführungsformen ist der
Projektor ein Flüssigkristallanzeigeprojektor (LCD-Projektor
von liquid crystal display projector). Bei Ausführungsformen
kann der Projektor ein Flüssigkristall-auf-Silizium-Projektor (LCOS-Projektor
von liquid crystal an silicon projector) sein. Bei Ausführungsformen
kann der Projektor ein analoger Projektor (z. B. ein Diafilmprojektor
oder ein Filmprojektor) sein. Ein Fachmann würde andere
Typen von Projektoren kennen, die verwendet werden können,
um ultraviolettes Licht an dem Substrat 14 zu projizieren.
-
3 zeigt
eine beispielhafte grafische Projektion an eine Fläche
gemäß der vorliegenden Offenbarung. Eine Ausstrahlungsquelle 310 übermittelt
einen starken kollimierten Strahl einer unsichtbaren (oder weniger
sichtbaren) Ausstrahlung. Der Strahlenkegel passiert einen Prozessor 330 für
ein optisches Bild, und der modifizierte Strahlenkegel 350 wird
auf eine Fluoreszenzumwandlungs-Anzeigeprojektionsfläche
(FC-Anzeigeprojektionsfläche von fluorescence conversion
displaying screen) 380 projiziert. Es wird eine Anzahl
von Verfahren zur Bildanzeige offenbart. Bei einem ersten beispielhaften
Verfahren werden aufgeweitete Strahlen einer statischen Ausstrahlung
durch einen Bildprozessor 330 aufgebracht, der eine Matrix
aus Ein-Aus-Schaltern (z. B. eine Matrix aus sehr kleinen reflektierenden
Spiegeln) enthält, wobei ein dunkles Bild erzeugt wird, und
es wird ein fluoreszentes sichtbares Bild durch eine fluoreszente
Umwandlung des dunklen Bilds an der Anzeigeprojektionsfläche 380 erzeugt.
Es werden typischerweise statische Bilder aus einer Nachschlagetabelle
erzeugt. Bei einem zweiten beispielhaften Verfahren wird ein Strahlenkegel
mit einem Bildprozessor 330 gekoppelt, der eine zweidimensionale
Strahlabtasteinrichtung umfasst (z. B. Galvanometer, akusto-optischer Lichtdeflektor
(AOLD von acousto-optic light deflector) und elektro-optischer Lichtdeflektor
(SOLD von electro-optic light deflector)). Es werden elektrische
Signale angewandt, um den Strahlenkegel zu lenken, um eine bestimmte
Stelle der Projektionsfläche zu einem gegebenen Zeitpunkt
zu beleuchten. Eine beispielhafte FC-Projektionsfläche
weist typischerweise die folgende Struktur auf: eine Schicht 384 enthält
fluoreszente Nanopartikel oder Moleküle, die an einem einheitlichen
Medium angebracht oder in diesem verteilt sind; eine Beschichtung 388 reflektiert
die sichtbare Emission, während die unsichtbare Strahlung übertragen
wird; und eine Substratschicht 390, die die verbleibende
unsichtbare Strahlung absorbiert. Alternativ umfasst sie eine Schicht 384,
die fluoreszente Nanopartikel oder Moleküle enthält,
die an einem einheitlichen Medium angebracht oder in diesem verteilt
sind; eine Beschichtung 388, die die unsichtbare Strahlung
absorbiert; und eine sichtbare transparente Substratschicht 390.
Es können auch eine selbsthaftende Schicht und Schutzschichten,
wie beispielsweise eine kratzfeste Schicht, zu der Projektionsflächenstruktur
hinzugefügt werden.
-
Es
werden zwei alternative Schemas einer FC offenbart. 4 zeigt
ein Schema zum Verwenden von Anregungslicht, um sichtbares Licht
von der HUD zu emittieren, gemäß der vorliegenden
Offenbarung. Das erste Schema, das in 4 gezeigt
ist, wird Abwärts-Umwandlung genannt, wobei die Wellenlänge
des Anregungslichts kürzer ist als die Fluoreszenzwellenlänge.
Ein Energieniveaudiagramm zeigt das Molekül oder den Nanopartikel
einer Abwärts-Umwandlung. Das Photon des Anregungslichts
mit kürzerer Wellenlänge weist mehr Energie auf
und verursacht einen Übergang 415 von einem niedrigeren
Energieniveau 410 zu einem höheren Energieniveau 420.
Die Emission umfasst einen Übergang 425, der zwei
Energieniveaus mit einer kleineren Energielücke zugeordnet
ist. Das zweite Schema (nicht gezeigt) wird Aufwärts-Umwandlung
genannt, wobei die Anregungswellenlängen länger
sind als die Fluoreszenzwellenlänge. Im zweiten Fall sind
zwei oder mehr Photonen von einem Laser notwendig, um die Fluoreszenzpartikel
anzuregen, um ein sichtbares Fluoreszenzphoton zu erhalten. Der
Anregungslaser mit längerer Wellenlänge ruft zwei Übergänge
von einem niedrigeren Zustand zu einem höheren Energiezustand über
einen Zwischenzustand hervor. Die Emission umfasst einen Übergang,
der zwei Energieniveaus mit einer Energielücke zugeordnet
ist, die kleiner ist als die Energie, die zwei Laserphotonen zugeordnet
ist. Ein allgemeiner Ansatz für das erste Schema ist, eine UV-(oder
blaue)Lichtquelle mit einer Wellenlänge, die kürzer
als 500 nm ist, anzuwenden, um die Fluoreszenzmoleküle
oder -nanopartikel an der Bildprojektionsfläche anzuregen.
Die UV-Quellen umfassen Festkörperlaser, Halbleiterlaserdioden,
Gaslaser, Farbstofflaser, Excimer-Laser und andere UV-Lichtquellen,
die Fachleuten bekannt sind. Ein allgemeiner Ansatz für
das zweite Schema ist, Infrarotlaser mit einer Wellenlänge
anzuwenden, die länger als 700 nm ist, um die Fluoreszenzmoleküle
oder -Partikel an der Projektionsfläche anzuregen. Die
IR-Laser umfassen Festkörperlaser, Halbleiterlaserdioden
und andere IR-Quellen, die Fachleuten bekannt sind. In beiden Fällen
werden Anregungsstrahlintensitäten moduliert, um eine sichtbare
Fluoreszenz variierender Intensität oder Graustufen zu
erzielen.
-
Es
werden auch mehrere Fluoreszenzmaterialien offenbart. Eine allgemeine
Eigenschaft dieser Materialien ist, dass die Größe
der fluoreszenten Partikel sehr klein ist. Typischerweise werden
Nanopartikel oder Moleküle mit einer Größe
zwischen 0,5 nm bis 500 nm bevorzugt, um einen minimalen Streuungseffekt
zu erhalten, der die sichtbare Transparenz der Projektionsfläche
reduziert. Diese Materialien fallen in vier Kategorien: anorganische
Phosphore mit Nanometergröße; organische Moleküle
und Farbstoffe; halbleiterbasierte Nanopartikel; und organometallische
Moleküle.
-
Für
Abwärts-Umwandlungen können die folgenden Materialien
verwendet werden, um eine FC-Anzeigeprojektionsfläche auszubilden:
1. Anorganische oder keramische Phosphore oder Nanopartikel, die
ohne Einschränkung Metalloxide, Metallhalogenide, Metallchalkogenide
(z. B. Metallsulfide) oder ihre Hybride, wie beispielsweise Metalloxohalogenide,
Metalloxochalkogenide, umfassen. Diese anorganischen Phosphore wurden
oftmals in fluoreszenten Lampen und elektronischen Monitoren angewandt.
Diese Materialien können ein Photon kürzerer Wellenlänge
(z. B. UV und blau) in sichtbares Licht längerer Wellenlänge
umwandeln und können leicht an Anzeigeprojektionsflächen
abgeschieden oder in der Projektionsfläche verteilt werden.
2. Laserfarbstoffe und kleine organische Moleküle und fluoreszente
organische Polymere. Diese können auch verwendet werden,
um ein Laserphoton kürzerer Wellenlänge (z. B.
UV und blau) in sichtbares Licht längerer Wellenlänge
umzuwandeln, und können leicht an einer Anzeigeprojektionsfläche
abgeschieden werden. Da sie im Festkörper im molekularen
Zustand vorliegen, wird die Projektionsflächentransparenz
aufgrund des Nichtvorhandenseins einer Partikelstreuung aufrechterhalten.
3. Halbleiternanopartikel, wie beispielsweise II-VI- oder III-V-Verbundhalbleiter,
z. B. fluoreszente Quantenpunkte. Ihr Hinzufügen zu der
Projektionsfläche beeinflusst die optische Transparenz
wieder nicht. 4. Organometallische Moleküle. Die Moleküle
umfassen mindestens ein Metallzentrum wie beispielsweise Seltenerdmetalle
(z. B. Eu, Tb, Ce, Er, Tm, Pr, Ho) und Übergangsmetallelemente
wie beispielsweise Cr, Mn, Zn, Ir, Ru, V und Hauptgruppenelemente
wie beispielsweise B, Al, Ga, etc. Die Metallelemente werden chemisch
mit organischen Gruppen verbunden, um das Löschen (Quenchen)
der Fluoreszenz von den Wirten oder Lösungsmitteln zu verhindern.
Solch eine mit organometallischen Verbindungen gefüllte
Projektionsfläche streut das Licht nicht und beeinflusst
auch nicht die Projektionsflächentransparenz, im Gegensatz
zu Partikeln mit Mikrogröße.
-
Unter
den Abwärts-Umwandlungs-FC-Materialien oder -Molekülen,
die oben erwähnt wurden, können jene durch Ausführungsformen
der vorliegenden Offenbarung verwendet werden, die durch Laser mit
Langwellen-UV (z. B. > 300
nm) bis blau (< 500
nm) angeregt werden und eine Emission von sichtbarem Licht erzielen.
Beispielsweise können die Phosphore eine Garnet-Reihe von
Phosphoren sein: (YmAl-m)3(AlnB1-n)5O12, dotiert mit Ce; wobei 0 <= m, n <= 1; A andere Seltenerdmetalle
umfasst, B B, Ga umfasst. Ferner werden Phosphore, die Metallsilikate,
Metallborate, Metallphosphate und Metallaluminatwirte enthalten,
bei der Anwendung für FC-Anzeigen bevorzugt; ferner werden
auch Nanopartikelphosphore, die übliche Seltenerdmetalle
(z. B. Eu, Tb, Ce, Dy, Er, Pr, Tm) und Übergangs- oder
Hauptgruppenelemente (z. B. Mn, Cr, Ti, Ag, Cu, Zn, Bi, Pb, Sn,
TI) als fluoreszente Aktivatoren enthalten, bei der Anwendung für
FC-Anzeigen bevorzugt. Schließlich sind auch einige nicht
dotierte Materialien (z. B. Metallwolframate (z. B. Ca, Zn, Cd), Metallvanadate,
ZnO, etc.) bevorzugte FC-Anzeigematerialien.
-
Die
im Handel erhältlichen Laserfarbstoffe sind eine andere
Klasse von beispielhaften FC-Anzeigematerialien. Es kann eine Liste
von im Handel erhältlichen Laserfarbstoffen von verschiedenen
Laserfarbstoffanbietern erhalten werden, die Lambda Physik und Exciton,
etc. umfassen. Eine Teilliste der bevorzugten Laserfarbstoffklassen
umfasst: Pyrromethen, Cumarin, Rhodamin, Fluorescein, andere aromatische
Kohlenwasserstoffe und ihre Derivate, etc. Ferner gibt es viele
Polymere, die ungesättigte Kohlenstoff-Kohlenstoff-Verbindungen
enthalten, welche auch als fluoreszente Materialien dienen und viele
optische und fluoreszente Anwendungen finden. Beispielsweise wurden
MEH-PPV, PPV etc. in optoelektronischen Einrichtungen, wie beispielsweise
Polymer-Leuchtdioden (PLED von polymer light emitting diodes), verwendet.
Solche fluoreszenten Polymere können direkt als fluoreszente
Schicht der transparenten 2D-Anzeigeprojektionsfläche verwendet werden.
Ferner sind die kürzlich entwickelten Halbleiternanopartikel
(z. B. Quantenpunkte) auch bevorzugte LIF-Anzeigematerialien. Der
Begriff ”Halbleiternanopartikel” bezieht sich
auf einen anorganischen Kristallit mit einem Durchmesser zwischen
1 nm und 1000 nm, bevorzugt zwischen 2 nm bis 50 nm. Ein Halbleiternanopartikel
kann bei einer Anregung elektromagnetische Strahlung emittieren (d.
h. der Halbleiternanopartikel ist lumineszierend). Der Nanopartikel
kann entweder ein homogener Nanokristall sein oder umfasst mehrere
Hüllen. Beispielsweise umfasst er einen ”Kern” aus
einer oder mehreren ersten Halbleitermaterialien und kann dieser
von einer ”Hülle” eines zweiten Halbleitermaterials
umgeben sein. Der Kern und/oder die Hülle können
ein Halbleitermaterial umfassen, das ohne Einschränkung
jene der Gruppe II-VI (ZnS, ZnSe, ZnTe, CdS, CdSe, CdTe, HgS, HgSe,
HgTe, MgS, MgSe, MgTe, CaS, CaSe, CaTe, SrS, SrSe, SrTe, BaS, BaSe,
BaTe und dergleichen) und III-V (GaN, GaP, GaAs, GaSb, InN, InP,
InAs, InSb und dergleichen) und IV-Materialien (Ge, Si und dergleichen)
und eine Legierung oder ein Gemisch dieser umfasst.
-
Schließlich
werden auch fluoreszente organometallische Moleküle, die
Seltenerdmetall- oder Übergangselementkationen enthalten,
bei den fluoreszenten Abwärts-Umwandlungs-Projektionsflächen
verwendet. Solche Moleküle umfassen ein Metallzentrum mit
Seltenerdmetallen, die Eu, Tb, Er, Tm, Ce umfassen, geschützt
mit Gruppen organischer Chelatoren. Das Metallzentrum kann auch Übergangselemente,
wie beispielsweise Zn, Mn, Cr, Ir, etc., und Hauptgruppenelemente,
wie beispielsweise B, Al, Ga, umfassen. Solche organometallischen
Moleküle können leicht in flüssigen oder
transparenten festen Wirtsmedien aufgelöst werden und eine
transparente fluoreszente Projektionsfläche für
die offenbarte transparente 2-D-Anzeige mit minimaler Lichtstreuung
ausbilden. Einige Beispiele solcher fluoreszenten organometallischen
Moleküle umfassen: 1. Tris(dibenzoylmethan)mono(phenanthrolin)europium
(III); 2. Tris(8-hydroxychinolin)erbium; 3. Tris(1-phenyl-3-methyl-4-(2,2-dimethylpropan-1-oyl)pyrazolin-5-on)terbium
(III); 4. Bis(2-methyl-8-hydroxychinolat)zink; 5. Diphenylboran-8-hydroxychinolat.
-
Die
chemischen Zusammensetzungen von Aufwärts-Umwandlungs-Phosphoren
sind ähnlich wie die der erläuterten fluoreszenten
Abwärts-Umwandlungs-Materialien. Die Aufwärts-Umwandlungs-Phosphore
für die fluoreszente Umwandlungsanzeige umfassen auch die
folgende Auswahl von Materialien oder Molekülen: 1. Laserfarbstoffe,
die organischen kleinen Moleküle, die durch die Absorption
von mindestens zwei Infrarotphotonen mit der Emission von sichtbarem
Licht angeregt werden können. 2. Fluoreszente Polymere,
die Klasse von Polymeren, die durch die Absorption von mindestens
zwei Infrarotphotonen mit der Emission von sichtbarem Licht angeregt
werden kann 3. Anorganische oder keramische Partikel oder Nanopartikel,
die die herkömmlichen Aufwärts-Umwandlungs-Phosphore
(z. B. Metallfluoride, Metalloxide) umfassen, die durch die Absorption
von mindestens zwei Infrarotphotonen mit der Emission von sichtbarem
Licht angeregt werden können 4. Halbleiterpartikel, die
Nanopartikel umfassen, wie beispielsweise II-VI- oder III-V-Verbundhalbleiter,
z. B. Quantenpunkte, die oben ausführlich bei den ”Abwärts-Umwandlungs”-Halbleitern
beschrieben sind.
-
Die
fluoreszenten anorganischen Aufwärts-Umwandlungs-Phosphore
umfassen ohne Einschränkung Metalloxide, Metallhalogenide,
Metallchalkogenide (z. B. Sulfide) oder ihre Hybride, wie beispielsweise
Metalloxohalogenide, Metalloxochalkogenide. Sie sind für
gewöhnlich mit Seltenerdmetallen dotiert (z. B. Yb<3+>, Er<3+>, Tm<3+>. Einige Wirtsbeispiele
umfassen ohne Einschränkung: NaYF4, YF3, BaYF5, LaF3, La2MoO8,
LaNbO4, LnO2S; wobei Ln die Seltenerdmetalle umfasst, wie beispielsweise
Y, La, Gd). Diese FC-Anzeigematerialien können verwendet
werden, um eine Vielzahl von FC-Anzeigeobjekten auszubilden. Diese
Objekte umfassen: Projektionsflächen, Platten, Fenster,
Wände, Reklameflächen und andere Anzeigeflächen.
Es gibt mehrere Mittel, um diese fluoreszenten Moleküle
oder Materialien in eine Anzeigefläche einzubeziehen: 1.
Sie können in Lösungsmitteln (Wasser oder organischen
Lösungsmitteln) aufgelöst (organische Farbstoffe)
oder verteilt (anorganische Partikel) werden. Die flüssige
fluoreszente Formel kann entweder auf eine Fläche geschichtet
werden und nach dem Trocknen einen festen Film oder eine Beschichtung
ausbilden, oder sie kann sandwich-artig zwischen zwei Flächen
in flüssiger Form angeordnet werden. 2. Sie können in
festen Wirten aufgelöst (organische Farbstoffe) oder verteilt
(anorganische Partikel), wie beispielsweise Gläsern, Polymeren,
Gele, anorganisch-organischen Hybrid-Wirten, Geweben, Papieren,
Filmen, Bändern, etc., werden und den Festkörper
in ein fluoreszentes Objekt für eine Laseranzeige umwandeln.
3. Einige Objekte (z. B. Gewebe, Papiere, Bänder, fluoreszente
Polymere) können bereits fluoreszente Moleküle
oder lumineszierende funktionale Gruppen enthalten. In diesem Fall
können sie direkt als Laseranzeigeobjekte verwendet werden.
-
Wieder
auf die beispielhafte in 2 gezeigte
Ausführungsform Bezug nehmend wird ein Anregungslicht von
der Einrichtung 20, bei diesem Beispiel ein Laser, ausgegeben.
Die Intensität und/oder Bewegung eines von der Einrichtung 20 ausgegebenen
Laserstrahls kann moduliert werden, um in dem Substrat 14 ein Bild
zu erzeugen. Bei Abwärts-Umwandlungs-Ausführungsformen
kann der Ausgang von dem Laser ultraviolettes Licht sein. Bei Aufwärts-Umwandlungs-Ausführungsformen
kann der Ausgang von dem Laser Infrarotlicht sein.
-
2 ist
ein beispielhaftes Diagramm eines Licht emittierenden Materials
(z. B. von Licht emittierenden Partikeln 22), das in einem
im Wesentlichen transparenten Substrat verteilt ist, gemäß Ausführungsformen.
Wenn Anregungslicht durch die Licht emittierenden Partikel 22 absorbiert
wird, emittieren die Licht emittierenden Partikel sichtbares Licht.
Dementsprechend wird bei Abwärts-Umwandlungs-Ausführungsformen, wenn
ultraviolettes Licht durch die Licht emittierenden Partikel 22 absorbiert
wird, sichtbares Licht von den Licht emittierenden Partikeln emittiert. Ähnlich
wird bei Aufwärts-Umwandlungs-Ausführungsformen,
wenn Infrarotlicht durch die Licht emittierenden Partikel 22 absorbiert
wird, sichtbares Licht von den Licht emittierenden Partikeln emittiert.
-
Bei
einigen beispielhaften Ausführungsformen können
mehr als ein Projektor oder Laser für eine Beleuchtung
verwendet werden. Beispielsweise kann ein erster Projektor für
eine Anregung eines Licht emittierenden Materials verwendet werden,
das eine erste Farbe emittiert, und kann ein zweiter Projektor für
eine Anregung eines Licht emittierenden Materials verwendet werden,
das eine zweite Farbe emittiert. Die Verwendung von mehr als einem
Projektor kann die Menge an Anregungslicht erhöhen, die
durch das Licht emittierende Material absorbiert wird. Durch Erhöhen
der absorbierten Menge an Anregungslicht kann die Menge an sichtbarem
Licht, die von dem Licht emittierenden Material emittiert wird,
erhöht werden. Je größer die Menge an
emittiertem sichtbarem Licht ist, desto heller ist die Anzeige.
Bei Ausführungsformen kann ein erster Projektor entworfen
sein, um die Emission von rotem Licht zu verursachen, kann ein zweiter
Projektor entworfen sein, um die Emission von grünem Licht
zu verursachen und kann ein dritter Projektor entworfen sein, um
die Emission von blauem Licht zu verursachen. Es sind jedoch auch
andere Ausgestaltungen anerkannt. Beispielsweise werden bei ähnlichen
Ausgestaltungen die Verwendung von zwei Projektoren, vier Projektoren, Projektoren,
die eine Emission von Primärfarben verursachen, Projektoren,
die die Emission von Farben, die keine Primärbarben sind,
verursachen und ein Einsetzen von Lasern für Projektoren
anerkannt.
-
2 zeigt
ein Licht emittierendes Material, das Licht emittierende Partikel 22 umfasst,
die in einem im Wesentlichen transparenten Substrat verteilt sind,
gemäß Ausführungsformen der Offenbarung.
Diese Licht emittierenden Partikel 22 können durchwegs
im Wesentlichen ähnliche Partikel sein, oder, wie in 2 gezeigt,
die Zusammensetzung der Partikel kann variieren. Wenn Anregungslicht
durch die Licht emittierenden Partikel 22 absorbiert wird,
emittieren die Partikel sichtbares Licht. Dementsprechend wird bei
Abwärts-Umwandlungs-Ausführungsformen, wenn ultraviolettes
Licht durch Licht emittierende Materialien absorbiert wird, sichtbares
Licht von den Licht emittierenden Materialien emittiert. Ähnlich
wird bei Aufwärts-Umwandlungs-Ausführungsformen,
wenn Infrarotlicht durch Licht emittierende Materialien absorbiert
wird, sichtbares Licht von den Licht emittierenden Materialien emittiert.
Bei Ausführungsformen kann jedes Licht emittierende Material
einen unterschiedlichen Typ von Licht emittierendem Material umfassen,
der in Ansprechen auf einen unterschiedlichen Bereich von Wellenlängen
des Anregungslichts (z. B. ultraviolettes oder Infrarotlicht) einen unterschiedlichen
Bereich von Wellenlängen von sichtbarem Licht emittiert.
-
Die
Licht emittierenden Partikel 22 können über
das Substrat 14 verteilt sein. Alternativ können
die Partikel wie in 2 gezeigt an einer Fläche
des Substrats 14 angeordnet sein. Die Licht emittierenden
Partikel 22 können durch Beschichtung an dem Substrat 14 in
das Substrat 14 integriert sein. Das Licht emittierende
Material kann ein fluoreszentes Material sein, das in Ansprechen
auf die Absorption von elektromagnetischer Strahlung (z. B. sichtbares
Licht, ultraviolettes Licht oder Infrarotlicht), sichtbares Licht
emittiert, wobei ihre Wellenlänge von der des emittierten
sichtbaren Lichts verschieden ist. Die Größe der
Partikel kann kleiner sein als die Wellenlänge von sichtbarem
Licht, was eine Streuung von sichtbarem Licht durch die Partikel
reduzieren oder beseitigen kann. Beispiele für Partikel,
die kleiner sind als die Wellenlänge von sichtbarem Licht, sind
Nanopartikel oder Moleküle. Gemäß Ausführungsformen
weist jeder der Licht emittierenden Partikel einen Durchmesser auf,
der kleiner als etwa 400 Nanometer ist. Gemäß Ausführungsformen
weist jeder der Licht emittierenden Partikel einen Durchmesser auf,
der kleiner als etwa 300 Nanometer ist. Gemäß Ausführungsformen
weist jeder der Licht emittierenden Partikel einen Durchmesser auf,
der kleiner als etwa 200 Nanometer ist. Gemäß Ausführungsformen
weist jeder der Licht emittierenden Partikel einen Durchmesser auf,
der kleiner als etwa 100 Nanometer ist. Gemäß anderen
Ausführungsformen weist jeder der Licht emittierenden Partikel einen
Durchmesser auf, der kleiner als etwa 50 Nanometer ist. Die Licht
emittierenden Partikel können einzelne Moleküle
sein.
-
Es
sind andere Verfahren zum Integrieren von Licht emittierenden Materialien
an einer Fläche des Substrats 14 bekannt. Ähnlich
wie bei den Ausführungsformen des in 2 gezeigten
Beispiels kann jedes der Licht emittierenden Materialien einen anderen
Typ von Licht emittierendem Material umfassen, der in Ansprechen
auf einen anderen Bereich von Wellenlängen des Anregungslichts
(z. B. ultraviolettes oder Infrarotlicht) einen anderen Bereich
von Wellenlängen von sichtbarem Licht emittiert. Das Licht
emittierende Material kann ein fluoreszentes Material sein, das
in Ansprechen auf die Absorption von elektromagnetischer Strahlung (z.
B. sichtbares Licht, ultraviolettes Licht oder Infrarotlicht) sichtbares
Licht emittiert, wobei ihre Wellenlänge von der des emittierten
sichtbaren Lichts verschieden ist. Das Licht emittierende Material
kann Licht emittierende Partikel umfassen.
-
Bei
DLP- oder MMA-Projektorausführungsformen kann die Wellenlänge
von ultraviolettem Licht, das von einem DLP-Projektor emittiert
wird, unter Verwendung eines Farbkreises mit spezifischen Ultraviolett-Pass-Filtern
moduliert werden. Bei anderen Projektorausführungsformen
und Laserausführungsformen können ähnliche
Modulationstechniken verwendet werden. Bei Ausführungsformen
können mehrere Projektoren und mehrere Laser verwendet
werden, wobei jedem ein spezifischer Ultraviolettwellenlängenbereich
zugeordnet ist, um einen spezifischen Typ von Licht emittierendem
Partikel anzuregen, um eine spezifische Lichtfarbe auszugeben.
-
5 zeigt
eine beispielhafte Anordnung von Licht emittierenden Partikeln an
einem Substrat gemäß der vorliegenden Offenbarung. 5 ist
ein beispielhaftes Diagramm von verschiedenen Typen von Licht emittierenden
Partikeln, die unterschiedlichen sichtbaren Farben zugeordnet sind
und als Beschichtung an Gebieten des Substrats 14 (z. B.
dem Streifengebiet 32, dem Streifengebiet 34 und
dem Streifengebiet 36) in einem im Wesentlichen transparenten
Substrat vorliegen können. Bei Ausführungsformen
kann das Substrat 14 unterschiedliche Gebiete umfassen,
in denen verschiedene Typen von Licht emittierendem Partikel verteilt
sind. Beispielsweise kann ein erster Typ von Licht emittierendem
Partikel (z. B. ein rotem Licht zugeordneter Licht emittierender
Partikel) in dem Streifengebiet 32 verteilt sein, kann
ein zweiter Typ von Licht emittierendem Partikel (z. B. ein grünem
Licht zugeordneter Licht emittierender Partikel) in dem Streifengebiet 34 verteilt
sein und kann ein dritter Typ von Licht emittierendem Partikel (z.
B. ein blauem Licht zugeordneter Licht emittierender Partikel) in
dem Streifengebiet 36 verteilt sein. Die Streifengebiete
können in Streifen (d. h. Zeilen) ausgebildet sein. Alternativ
könnte der Streifenteilabschnitt in ein Blockmatrixmuster
mit wechselnden Farben in jedem der Blöcke unterteilt sein.
Alternativ zu der Beschichtung der Streifengebiete an der Fläche
des Substrats 14 können die Streifengebiete in
dem Substrat verteilt sein.
-
Ein
Projektor oder Laser (z. B. der Projektor oder Laser 20)
kann einen Anregungslichtwellenlängenbereich verwenden,
der alle unterschiedlichen Typen von Licht emittierenden Partikeln
anregt und selektiv verschiedene Farben durch räumliche
Modulation des Anregungslichts beleuchtet. Beispielsweise kann ein
Projektor oder Laser bei dem Beispiel in 5, um
grünes sichtbares Licht in einem gegebenen Gebiet des Substrats 14 zu
emittieren, einen Abschnitt des Streifengebiets 34 beleuchten
(das z. B. grünem Licht zugeordnete Licht emittierende
Partikel umfasst). Bei Ausführungsformen, die die unterschiedlichen
Typen von Licht emittierenden Partikeln räumlich trennen,
ist es nicht notwendig, dass die Anregungslichtquelle die Wellenlänge des
Anregungslichts moduliert, um andere Farben zu erzeugen, da die
Farbe durch die räumliche Modulation des Anregungslichts
ausgewählt werden kann.
-
Bei
Ausführungsformen kann das an das Substrat 14 von 5 projizierte
Anregungslicht wellenlängenmoduliert werden, um eine Emission
von verschiedenen Farben zu bewirken. Dementsprechend muss es nicht
notwendig sein, das Anregungslicht räumlich zu modulieren.
Wenn das an das Substrat 14 projizierte Anregungslicht
wellenlängenmoduliert wird, werden nur die Gebiete (z.
B. Streifen oder Pixel), die auf eine bestimmte Wellenlänge
empfindlich sind, beleuchtet. Bei Ausführungsformen kann
das Anregungslicht sowohl räumlich moduliert werden als
auch wellenlängenmoduliert werden.
-
6 zeigt unterschiedliche Typen von Licht
emittierenden Materialien, die an einem Substrat geschichtet sind,
gemäß der vorliegenden Offenbarung. Bei Ausführungsformen
sind die Licht emittierenden Materialien 92, 94, 96 im
Wesentlichen lichtdurchlässig, außer bezüglich
Licht mit spezifischen Wellenlängenbereichen, die absorbiert
werden und sich für jedes der unterschiedlichen Licht emittierenden
Materialien 92, 94, 96 unterscheiden.
Dementsprechend muss das an das Substrat 14 projizierte
Anregungslicht bei Ausführungsformen nicht räumlich
moduliert werden.
-
Ferner
kann die Beschichtung der Schichten an dem Substrat mit unterschiedlichen
Dicken erfolgen. Durch die Beschichtung der unterschiedlichen Licht
emittierenden Materialien 92, 94 und 96 mit
unterschiedlichen Dicken kann die Ansprechempfindlichkeit auf Anregungslicht
eines bestimmten Typs von Material gesteuert werden. Es kann beispielsweise
erwünscht sein, die Emission von unterschiedlichen Primärfarben
auszugleichen, da unterschiedliche Licht emittierende Materialien
die unterschiedlichen Farben mit der gleichen Menge an absorbiertem
Licht mit unterschiedlichen Intensitäten beleuchten können.
-
Bei
Ausführungsformen ist eine Projektionsfläche unter
Verwendung von RGB-Elementen gepixelt. Jedes Pixel umfasst jeweils
3 Teile für RGB. Ein einzelner Projektiv-UV-Strahl kann
auf die Pixel-Projektionsfläche geleuchtet werden. Um verschiedene
Gemische von RGB für verschiedene Farben zu erhalten, kann
der gleiche UV-Projektivstrahl an einem Pixel verschoben werden,
um eine bestimmte Menge von Bereichen der RGB-Elemente innerhalb
eines Pixels abzudecken. Dementsprechend ist nur ein Projektivstrahl
notwendig, um das Projektivbild in voller Farbe zu erzeugen. Der
Farbausgleich des RGB für ein Pixel kann berechnet und in
den richtigen Bereich von RGB-Elementen an der Projektionsfläche
umgewandelt werden, und der Strahl kann dann verschoben werden,
um den richtigen relativen Bereichsprozentanteil jedes RGB-Elements
abzudecken, um die richtige Farbe an dem Pixel anzuzeigen.
-
7 ist
ein beispielhaftes Diagramm der Anregungs- und Emissionsbeziehungen
von verschiedenen Licht emittierenden Materialien gemäß der
vorliegenden Offenbarung. Das beispielhafte Gebiet 48 zeigt
den Anregungs-/Emissionsquerschnitt eines ersten Typs von Licht
emittierendem Material. Das beispielhafte Gebiet 46 zeigt
den Anregungs-/Emissionsquerschnitt eines zweiten Typs von Licht
emittierendem Material. Das beispielhafte Gebiet 50 zeigt
den Anregungs-/Emissionsquerschnitt eines dritten Typs von Licht
emittierendem Material. Es sei jedoch angemerkt, dass viele beispielhafte
Anregungs-/Emissionsquerschnitte in Betracht gezogen werden, einschließlich
Ausführungsformen, bei denen ein einzelner Anregungsfrequenzbereich
mehrere Emissionsbereiche erzeugen kann, oder umgekehrt, bei denen
mehrere Anregungsfrequenzbereiche alternativ den gleichen oder überlappende
Emissionsbereiche erzeugen können.
-
Jeder
der mehreren Licht emittierenden Partikel kann einen Durchmesser
aufweisen, der kleiner als etwa 500 Nanometer ist. Jeder der mehreren
Licht emittierenden Partikel kann einen Durchmesser aufweisen, der
kleiner als 400 Nanometer ist. Jeder der mehreren Licht emittierenden
Partikel kann einen Durchmesser aufweisen, der kleiner als etwa
300 Nanometer ist. Jeder der mehreren Licht emittierenden Partikel
kann einen Durchmesser aufweisen, der kleiner als etwa 200 Nanometer
ist. Jeder der mehreren Licht emittierenden Partikel kann einen
Durchmesser aufweisen, der kleiner als etwa 100 Nanometer ist. Jeder
der mehreren Licht emittierenden Partikel kann einen Durchmesser
aufweisen, der kleiner als etwa 50 Nanometer ist. Jeder der mehreren
Licht emittierenden Partikel kann ein einzelnes Molekül
sein. Jeder der mehreren Licht emittierenden Partikel kann ein einzelnes
Atom sein.
-
Die
obigen Ausführungsformen beschreiben fluoreszente Partikel
als Verfahren zum Anzeigen von grafischen Bildern an einer ansonsten
im Wesentlichen transparenten Frontscheibe eines Fahrzeugs. Fachleute
werden jedoch erkennen, dass andere Verfahren zum Projizieren von
grafischen Bildern an einer Anzeige, die ansonsten im Wesentlichen
transparent sein kann, bekannt sind. 8 ist
ein beispielhaftes Diagramm eines Musters von Mikrostrukturen, die
in einem im Wesentlichen transparenten oder transluzenten Substrat verteilt
sind, gemäß der vorliegenden Offenbarung. Mikrostrukturen 26 werden
in dem Substrat 14 selektiv in Gebieten verteilt. Die Breite
der Gebiete der Mikrostrukturen 26 kann in einem Bereich
von etwa 1 Nanometer bis etwa 10 Millimeter liegen. Die Gebiete
der Mikrostrukturen 26 bilden ein Muster (z. B. eine Blende
oder ein Gitter), so dass mit den Mikrostrukturen 26 ein
eingeschränkter Querschnitt der Lichtpfade 30 des
Betrachters 10 vorliegt. Bei Ausführungsformen
ist das Muster repetitiv. Der Füllfaktor des Musters kann
in einem Bereich von etwa 0,01% bis etwa 99% liegen. Der Lichtpfad 28 von
der Einrichtung 20 kann jedoch unter einem Winkel hinsichtlich
der Gebiete der Mikrostrukturen 26 vorliegen, um den Querschnitt
mit den Mikrostrukturen 26 zu maximieren, was die Streuung
eines sichtbaren Bilds von der Einrichtung 20 erhöht,
um die Beleuchtung des sichtbaren Bilds an dem Substrat 14 zu
erhöhen. Der Abstand der Gebiete der Mikrostrukturen 26 kann
in einem Bereich von etwa 1 Nanometer bis etwa 10 Millimeter liegen.
Die Dicke der Gebiete der Mikrostrukturen 26 kann in einem
Bereich von etwa 1 Mikrometer bis etwa 10 Millimeter liegen. Die
Dicke der Gebiete der Mikrostrukturen 26 kann kleiner sein
als die Breite und/oder der Abstand der Gebiete der Mikrostrukturen 26.
-
9 ist
ein beispielhaftes Diagramm eines Musters von Mikrostrukturen, die
an einer Fläche eines im Wesentlichen transparenten oder
transluzenten Substrats angeordnet sind, ähnlich wie bei 8,
gemäß der vorliegenden Offenbarung. Mikrostrukturen 38 können
in Gebieten an dem Substrat 14 als Beschichtung vorliegen.
Die Gebiete der Mikrostrukturen 38 bilden eine Blende,
so dass mit den Mikrostrukturen 38 ein eingeschränkter
(z. B. minimierter) Querschnitt der Lichtpfade 30 des Betrachters 10 vorliegt.
Der Lichtpfad 28 von der Einrichtung 20 kann jedoch
unter einem Winkel hinsichtlich der Gebiete der Mikrostrukturen 38 vorliegen,
um den Querschnitt mit den Mikrostrukturen zu maximieren, was die
Streuung eines sichtbaren Bilds von der Einrichtung 20 erhöht,
um die Beleuchtung des sichtbaren Bilds an dem Substrat 14 zu
erhöhen. Bei Ausführungsformen ist der Querschnitt
hinsichtlich der Fläche des Substrats 14 jedes
Elements eines Musters von Mikrostrukturen 38 kleiner als
die Tiefe des Musters, die im Wesentlichen senkrecht zu dem Substrat 14 ist, was
die Transparenz des Substrats 14 erhöhen kann.
-
10 ist ein beispielhaftes Diagramm eines Winkelmusters
von Mikrostrukturen, die in einem im Wesentlichen transparenten
oder transluzenten Substrat verteilt sind, ähnlich wie
bei 8, gemäß der vorliegenden Offenbarung.
In dem Substrat 14 sind schräge Gebiete von Mikrostrukturen 39 ausgebildet.
Der Winkel der schrägen Gebiete von Mikrostrukturen 39 beeinflusst
die Querschnittsfläche von sowohl dem Lichtpfad 30 des
Betrachters 10 als auch dem Lichtpfad 28 des Projektors 18.
Durch Erhöhen des Querschnitts des Lichtpfads 28 kann
eine erhöhte Streuung von sichtbaren Bildern erreicht werden,
wodurch die Beleuchtung des sichtbaren Bilds an dem Substrat 14 erhöht
wird. Bei Ausführungsformen können schräge
Gebiete von Mikrostrukturen auch durch Beschichten der Gebiete von
Mikrostrukturen an dem Substrat 14 erreicht werden.
-
Ausführungsformen
beziehen sich auf transparente Projektivanzeigen mit teilweise oder
direktional transparenten Projektionsflächen. Bei dieser
Anzeige kann ein regulärer optischer Vollfarbprojektor
(oder eine monochromatische Abtasteinrichtung) auf eine teilweise
oder direktional transparente Projektionsfläche angewandt
werden, um ein optisches Bild anzuzeigen. Eine teilweise oder direktional
transparente Projektionsfläche kann duale Eigenschaften
aufweisen. Erstens kann eine teilweise oder direktional transparente
Projektionsfläche ausreichend transparent sein, um eine
visuelle Durchdringung von Umgebungslicht zu ermöglichen. Zweitens
kann eine teilweise oder direktional transparente Projektionsfläche
mit reflektierenden kleinen Partikeln oder Mikrostrukturen gefüllt
oder beschichtet sein, die die projizierten optischen Bilder als
Anzeigeprojektionsfläche ablenken oder streuen. Solche
Partikel und Mikrostrukturen blockieren die sichtbare Ansicht durch Fenster
nicht vollständig.
-
Es
gibt mehrere Ansätze, um eine teilweise oder direktional
transparente Projektionsfläche vorzubereiten, gemäß Ausführungsformen.
Eine transparente oder transluzente Glas- oder Kunststoffplatte
kann mit feinen Partikeln von 1 Nanometer bis 10 Mikrometer gefüllt
sein. Eine transparente oder transluzente Glas- oder Kunststoffplatte
kann mit feinen Partikeln von 1 Nanometer bis 10 Mikrometer beschichtet
sein. Eine transparente oder transluzente dünne Glasscheibe
oder ein transparenter oder transluzenter dünner Kunststofffilm
kann mit feinen Partikeln von 1 Nanometer bis 10 Mikrometer gefüllt
sein. Eine transparente oder transluzente dünne Glasscheibe
oder transparenter oder transluzenter Kunststofffilm kann mit feinen
Partikeln von 1 Nanometer bis 10 Mikrometer beschichtet sein. Es
kann ein diffusives Gitter in den Flächen von transparenten
oder transluzenten Glas- oder Kunststoffscheiben eingebettet sein
oder an diesen strukturiert sein.
-
Es
können sowohl organische als auch anorganische Partikel
oder Pigmente in oder an einer teilweise oder direktional transparenten
Projektionsfläche aufgebracht werden. Einige Beispiele
umfassen Titanoxide, Siliziumdioxid (Silica), Aluminiumoxid, Latex,
Polystyrolpartikel. Bei Ausführungsformen kann die Größe
der Partikel von etwa 1 Nanometer bis etwa 10 Mikrometer reichen.
Bei Ausführungsformen reicht die Größe
der Partikel von etwa 10 Nanometer bis etwa 1 Mikrometer. Diese
Lichtstreuungsmaterialien können gleichmäßig in
den Glas- oder Kunststoffwirten mit geeigneten Konzentrationen verteilt
sein, oder sie können als Beschichtung mit einer geeigneten
Dicke an den Glas- oder Kunststoffflächen vorgesehen sein.
Es kann ein Schutzmantel oder eine weitere Schicht des Wirts auf
die Partikelbeschichtung aufgebracht werden, um die Beschädigung
der Fläche bei einer physikalischen Berührung
zu verhindern.
-
Das
Glas für eine teilweise oder direktional transparente Projektionsfläche
kann anorganische Feststoffe umfassen, die für das sichtbare
Licht transparent oder transluzent sind. Beispiele solcher anorganischen Feststoffe
sind Oxide und Halogenide. Das Glas kann Silikate, Borsilikat, Bleikristall,
Aluminiumoxid, Siliziumdioxid (Silica), Quarzglas, Quarz, Glaskeramik,
Metallfluoride oder andere ähnliche Materialien umfassen.
Diese Typen von Glas können als Fenster in Räumen,
Gebäuden und/oder sich bewegenden Fahrzeugen verwendet
werden. Kunststoffe für eine teilweise oder direktional
transparente Projektionsfläche können organische
und Polymerfeststoffe umfassen, die für das sichtbare Licht
transparent oder transluzent sind. Thermoplaste für fluoreszente
Projektionsflächen können spezielle duroplastische
Feststoffe umfassen, wie beispielsweise transparente Gele. Einige
Beispiele der Kunststoffe umfassen Polyacryl, Polycarbonat, Polyethylen,
Polypropylen, Polystyrol, PVC, Silikon und andere ähnliche
Materialien. Es können Mikrostrukturen in die Projektionsflächenplatte
oder an der Fläche integriert sein, um das projizierte
Bild unter einem Winkel abzulenken, während die im Wesentlichen
sichtbare Transparenz unter normalen Sichtwinkeln zugelassen wird.
Es kann ein opakes diffusives Gitter in der dünnen Glas-
oder Kunststoffscheibe eingebettet sein. Der Bereich des Lichtstreuungsgitters
von einem Betrachter, der vor der Projektionsfläche steht,
ist im Wesentlichen kleiner als der von dem Bildprojektor.
-
Direktionale
transparente Projektionsflächenstrukturen können
gemäß Ausführungsformen viele Vorteile
bieten. Direktionale transparente Projektionsflächenstrukturen
können für den Betrachter senkrecht zu der Projektionsfläche
oder geringfügig abweichend von dem senkrechten Winkel
zu der Projektionsfläche im Wesentlichen transparent sein.
Direktionale transparente Projektionsflächenstrukturen
können unter einem Neigungswinkel hinsichtlich der Projektionsfläche
eine hohe Reflexion oder Ablenkung hinsichtlich des Projektionsbilds
aufweisen. Ein säulenförmiges transparentes Gebiet
kann unter dem Neigungswinkel für das Projektionsbild dauerhaft
opak sein. Solch eine starke Bildstreuung kann den Kontrast der
Projektionsbilder an dem Anzeigefenster verbessern, während
die direkte Sicht senkrecht zu der Projektionsfläche nicht
blockiert wird. Direktionale transparente Projektionsflächenstrukturen
können in Kraftfahrzeugen nützlich sein, in denen
die Sicht des Fahrers typischerweise senkrecht zur Windschutzscheibe
ist. Bei Ausführungsformen überschreiten die opaken
Säulen die Tiefe eines transparenten Wirtsglases oder -kunststoffs.
Bei Ausführungsformen können die Größen
und die Dichte der Mikrostrukturen an der Projektionsfläche
für eine Anpassung an die Transparenz einer senkrechten
Sicht und einen Reflexionsbildkontrast variiert werden. Die Tiefe
der Projektionsfläche und der Projektionswinkel können
auch variiert werden, um den Kontrast und die Transparenz abzustimmen.
-
Bei
Ausführungsformen können die Flächen
der Projektionsfläche mit verschiedenen anisotropen Strukturen
strukturiert sein, um als eine ”anisotrope” Projektionsfläche
zu fungieren. Beispielsweise kann ein Muster eines Mantels mit einer
bestimmten Dicke (z. B. 10 Nanometer bis 1 Millimeter) durch verschiedene Druck-,
Stempel-, Fotolithografieverfahren, Mikrokontaktdrucken und andere ähnliche
Verfahren auf die Projektionsflächen aufgebracht werden.
Solch ein Drucken kann ein Muster von sehr feinen Streuungsmerkmalen und
-strukturen an der Fläche der Projektionsfläche
ausbilden, was ein winkelförmiges Streuen und Anzeigen von projizierten
Bildern ermöglichen kann, während eine im Wesentlichen
direkte Sicht durch die Projektionsfläche unter einem Winkel,
der zu der Projektionsfläche im Wesentlichen senkrecht
ist, ermöglicht wird.
-
11 zeigt eine beispielhafte Ausführungsform
eines zweidimensionalen lichtstrahlbasierten FC-Anzeigesubsystems
gemäß der vorliegenden Offenbarung. Die Anregungsquelle 610 gelangt
vorzugsweise durch einen Satz einer Strahldurchmessersteueroptik 612 und
einer akustooptischen 2-D-Abtasteinrichtung 615. Eine Abtaststeuerschnittstelleneinheit 620 koordiniert
die Funktionen eines direkten digitalen Synthesizers 622,
eines HF-Verstärkers 625 und der Strahldurchmessersteueroptik 612.
Der Prozessbildstrahl wird über einen Winkel-Extender 650 an
eine FC-Projektionsfläche projiziert. Um ein konsistentes
und stabiles Bild an der FC-Projektionsfläche zu übermitteln,
lenkt ein Strahl-Splitter das Bild zu einem Positionsempfindlichkeitsdetektor
(PSD von position sensitive detector) 635 ab und wird es,
verarbeitet durch einen Positionsempfindlichkeitsdetektorprozessor 630,
zu einer Abtaststeuerschnittstelleneinheit 620 zurückgeführt.
Die durch 632, 635, 630 und 620 gebildete
Bildregelung ist umfasst, um eine Positionsgenauigkeit und eine
Zeigestabilität des Laserstrahls aufrechtzuerhalten.
-
Fachleute
werden erkennen, dass viele Abwandlungen und Veränderungen
an dem System, dem Verfahren, dem Material und der Vorrichtung der
FC-basierten Anzeige, die hierin offenbart ist, vorgenommen werden
können, ohne von dem Gedanken und Umfang der vorliegenden
Offenbarung abzuweichen. Die vorliegende Offenbarung soll daher
die Abwandlungen und Veränderungen dieser Offenbarung unter
der Voraussetzung, dass sie innerhalb des Schutzumfangs der beigefügten
Ansprüche und deren Äquivalente liegen, abdecken.
-
Bei
Ausführungsformen wird eine UV-Lampe oder eine sichtbare
Lampe niedrigerer Wellenlänge in dem Projektor verwendet,
der eine Flüssigkristallanzeige (LCD) oder einen DLP umfassen
kann. Der Projektor kann über eine Schnittstelle mit einem
Computer, PDA-, DVD-, VCR-, TV- oder anderen Informationseingabeeinrichtungen
verbunden sein. Bei Ausführungsformen kann eine fluoreszente
Projektionsfläche eine transparente oder transluzente Glas-
oder Kunststoffplatte sein, die mit fluoreszenten organischen Farbstoffen
oder anorganischen Phosphoren gefüllt ist.
-
Transparente
oder im Wesentlichen transparente Anzeigen können viele
Anwendungen haben. Beispielsweise können transparente oder
im Wesentlichen transparente Anzeigen ein Bild an einer transparenten oder
transluzenten Scheibe von sicht bewegenden Fahrzeugen, wie beispielsweise
Kraftfahrzeugen, Motorrädern, Luftfahrzeugen und Schiffen,
anzeigen; das Bild kann eine Information über die Bedingungen
des Fahrzeugs sein. Die Anweisungen (z. B. GPS-Karte), die aktuell
an der elektronischen Anzeige des Armaturenbretts angezeigt werden,
können auf die Scheiben (z. B. vordere Scheibe, Windschutzscheiben)
des Fahrzeugs projiziert werden. Die Fahrer müssen ihre
Augen nicht von der Straße abwenden, um die Fahrzeugbedingungen
und/oder Anweisungen zu sehen.
-
Bei
Ausführungsformen kann eine fluoreszente Projektionsfläche
eine transparente oder transluzente Glas- oder Kunststoffplatte
sein, die mit fluoreszenten organischen Farbstoffen oder anorganischen
Phosphoren gefüllt ist. Bei Ausführungsformen
kann eine fluoreszente Projektionsfläche eine transparente
oder transluzente Glas- oder Kunststoffplatte sein, die durch fluoreszente
organische Farbstoffe oder anorganische Phosphore beschichtet ist.
Bei Ausführungsformen kann eine fluoreszente Projektionsfläche
eine transparente oder transluzente dünne Glasscheibe oder
ein transparenter oder transluzenter dünner Kunststofffilm
sein, die oder der mit fluoreszenten organischen Farbstoffen oder
anorganischen Phosphoren gefüllt ist. Bei Ausführungsformen
kann eine fluoreszente Projektionsfläche eine transparente
oder transluzente dünne Glasscheibe oder ein transparenter
oder transluzenter dünner Kunststofffilm sein, die oder
der mit fluoreszenten organischen Farbstoffen oder anorganischen
Phosphoren beschichtet ist. Das Glas für die fluoreszente
Projektionsfläche kann anorganische Feststoffe umfassen,
die für das sichtbare Licht transparent oder transluzent
sind. Beispiele solcher anorganischen Feststoffe sind Oxide und
Halogenide. Das Glas kann Silikate, Borsilikat, Bleikristall, Aluminiumoxid,
Siliziumdioxid (Silica), Quarzglas, Quarz, Glaskeramik, Metallfluoride
und andere ähnliche Materialien umfassen. Diese Typen von
Glas können als Fenster in Räumen, Gebäuden
und/oder sich bewegenden Fahrzeugen verwendet werden. Kunststoffe
für fluoreszente Projektionsflächen können
organische und Polymerfeststoffe umfassen, die für das
sichtbare Licht transparent oder transluzent sind. Thermoplaste
für fluoreszente Projektionsflächen können
spezielle duroplastische Feststoffe umfassen, wie beispielsweise
transparente Gele. Einige Beispiele der Kunststoffe umfassen Polyacryl,
Polycarbonat, Polyethylen, Polypropylen, Polystyrol, PVC, Silikon
und andere ähnliche Materialien.
-
Glas
und Kunststoff können zu fluoreszenten Projektivanzeigen
gemacht werden, indem sie mit fluoreszenten Farbstoffen kombiniert
werden. Die fluoreszenten Farbstoffe sind organische Moleküle
oder Materialien, die ein Photon mit höherer Energie absorbieren
können und ein Photon mit niedrigerer Energie emittieren
können. Um sichtbares Licht zu emittieren, können
solche Moleküle UV-Licht oder sichtbares (z. B. violettes
oder blaues) Licht mit niedrigerer Wellenlänge in dem typischen
Wellenlängenbereich von 190 nm bis 590 nm oder in dem Wellenlängenbereich
von 300 nm bis 450 nm absorbieren. Einige Beispiele für
die fluoreszenten Farbstoffe umfassen (ohne Einschränkung)
im Handel erhältliche Farbstoffmoleküle von verschiedenen Farbstoffanbietern,
die Lambda Physik und Exciton umfassen. Fluoreszente Farbstoffe,
die in einer transparenten Anzeige verwendet werden können,
umfassen Pyrromethen, Cumarin, Rhodamin, Fluorescein und andere
aromatische Kohlenwasserstoffe und ihre Derivate. Ferner gibt es
viele Polymere, die ungesättigte Verbindungen enthalten,
welche fluoreszente Materialien sein können, die in einer
transparenten Anzeige verwendet werden können. Beispielsweise
wurden einige von ihnen (MEH-PPV, PPV etc.) in optoelektronischen
Einrichtungen, wie beispielsweise Polymer-Leuchtdioden (PLED), verwendet.
-
Glas
oder Kunststoff können zu einer fluoreszenten Projektivanzeige
gemacht werden, indem sie mit Phosphormaterialien kombiniert werden.
Die Abwärts-Umwandlungs-Phosphore umfassen anorganische
oder Keramikpartikel oder -nanopartikel, die Metalloxide, Metallhalogenide,
Metallchalkogenide (z. B. Metallsulfide) oder ihre Hybride wie beispielsweise
Metalloxohalogenide und Metalloxochalkogenide umfassen, jedoch nicht darauf
beschränkt sind. Diese anorganischen Phosphore wurden oftmals
in fluoreszenten Lampen und elektronischen Monitoren angewandt.
Sie können beim Umwandeln von Projektivlicht mit kürzerer
Wellenlänge (z. B. UV und blau) in sichtbares Licht mit
höherer Wellenlänge angewandt werden. Sie können
an der transparenten Projektionsfläche oder Scheibe verteilt
oder als Beschichtung vorgesehen werden und durch entsprechendes
Projektivlicht mit kürzerer Wellenlänge angeregt
werden, um ein sichtbares Bild anzuzeigen.
-
Fluoreszente
Phosphore oder Farbstoffmoleküle können zu sichtbarem
Licht durch Projektivlicht angeregt werden, das von ultraviolettem
Licht (z. B. eine Wellenlänge, die größer
als 240 Nanometer ist) bis blau (z. B. kleiner als 500 Nanometer)
reicht. Lampen für Projektoren können in diesem
Bereich von Wellenlängen Licht emittieren. Solche Lampen
sind im Handel erhältlich (z. B. jene, die für
Hautbräunungszwecke verwendet werden). Sie können
auch Halogenlampen, spezielle Glühlampen und Lichtbogenlampen
(z. B. Quecksilber, Xenon, Deuteron etc.) sein. Solche Lampen können
Phosphore enthalten, um UV mit kürzerer Wellenlänge
in UV mit längerer Wellenlänge umzuwandeln.
-
Phosphore,
die Metalloxidwirte enthalten (z. B. Metallsilikate, Metallborate,
Metallphosphate, Metallaluminate); Metalloxohalogenide, Oxosulfide,
Metallhalogenide, Metallsulfide und Chalkogenide können
auf die Projektivfluoreszenzanzeigen aufgebracht werden. Ein Beispiel
für Phosphore, die in fluoreszenten Anzeigen verwendet
werden können, umfassen die Garnet-Reihen von Phosphoren:
(YmAl-m)3(AlnB1-n)5O12, dotiert mit Ce; wobei 0 <= m, n <= 1; A andere Seltenerdmetalle umfasst,
B B und/oder Ga umfasst. Ferner können Phosphore, die übliche
Seltenerdmetalle (z. B. Eu, Tb, Ce, Dy, Er, Pr und/oder Tm) und Übergangs-
oder Hauptgruppenelemente (z. B. Mn, Cr, Ti, Ag, Cu, Zn, Bi, Pb,
Sn und/oder T1) als fluoreszente Aktivatoren enthalten, bei Projektivfluoreszenzanzeigen
angewandt werden. Einige nicht dotierte Materialien (z. B. Metall,
Ca, Zn, Cd, Wolframate, Metallvanadate und ZnO) sind auch lumineszierende
Materialien und können bei Projektivfluoreszenzanzeigen
angewandt werden.
-
Die
organischen Farbstoffe und anorganischen Phosphore können
in die Glas- oder Kunststoffwirte gefüllt oder als Beschichtung
an diesen vorgesehen werden, um eine fluoreszente transparente Projektionsfläche
vorzubereiten. Die Farbstoffmoleküle streuen das sichtbare
Licht nicht, wenn sie in den Wirten aufgelöst sind, obwohl
sie einen Teil des sichtbaren Lichts absorbieren können
und den Wirten eine Farbtönung verleihen können.
Im Gegensatz dazu streuen größere Phosphorpartikel
sichtbares Licht, was die optische Transparenz der Wirte beeinflusst.
Ausführungsformen stehen mit verschiedenen Ansätzen
in Beziehung, um die Streuung der Phosphorpartikel in Bezug auf
sichtbares Licht zu reduzieren. Bei Ausführungsformen wird
die Größe der Phosphorpartikel reduziert. Bei
Ausführungsformen wird die Konzentration von Phosphorpartikeln reduziert
und in dem Wirt gleichmäßig verteilt. Bei Ausführungsformen
werden Wirte gewählt, deren Brechungsindex nahe an dem
der Phosphore liegt, um die Streuung zu reduzieren, oder werden
Phosphore gewählt, deren Brechungsindex nahe an dem der
Wirte liegt.
-
Bekannte
Fahrzeugsysteme verwenden Sensoren, Eingänge von verschiedenen
Einrichtungen und eine fahrzeugeigene oder entfernte Verarbeitung,
um eine Information bezüglich der Umgebung, die das Fahrzeug
umgibt, herzustellen. Beispielsweise verwenden Systeme eines adaptiven
Tempomaten Sensoren, wie beispielsweise Radareinrichtungen, um Objekte,
wie beispielsweise ein Zielfahrzeug vor dem Host-Fahrzeug, zu verfolgen
und die Fahrzeuggeschwindigkeit gemäß einer Entfernung
und einer Entfernungsänderung, die in Bezug auf das Zielfahrzeug
erfasst werden, anzupassen. Kollisionsvermeidungs- oder -vorbereitungssysteme
analysieren Objekte, die auf dem Pfad des Fahrzeugs erfasst werden,
und treffen Maßnahmen auf der Grundlage einer wahrgenommenen
Wahrscheinlichkeit einer Kollision zwischen dem erfassten Objekt
und dem Fahrzeug. Spureinhaltesysteme verwenden einen verfügbaren
Sensor und verfügbare Daten, um ein Fahrzeug innerhalb
der Spurmarkierungen zu halten.
-
12 zeigt ein schematisches Diagramm des Systems
des Fahrzeugs 710, das mit einem Zielverfolgungssystem
aufgebaut wurde, gemäß der vorliegenden Offenbarung.
Das beispielhafte Fahrzeug umfasst einen Personenkraftwagen, der
zur Verwendung auf Schnellstraßen vorgesehen ist, wobei
anzumerken sei, dass die hierin beschriebene Offenbarung auf jedes
Fahrzeug oder jedes andere System anwendbar ist, das die Position
und Trajektorie von entfernten Fahrzeugen und anderen Objekten überwachen
möchte. Das Fahrzeug umfasst ein Steuersystem, das verschiedene
Algorithmen und Kalibrierungen enthält, die zu verschiedenen
Zeitpunkten ausgeführt werden. Das Steuersystem ist vorzugsweise
eine Teilmenge einer gesamten Fahrzeugsteuerarchitektur, die dazu
dient, eine koordinierte Fahrzeugsystemsteuerung bereitzustellen.
Das Steuersystem dient dazu, Eingänge von verschiedenen
Sensoren zu überwachen, entsprechende Informationen und
Eingänge zu synthetisieren und Algorithmen zum Steuern
verschiedener Aktoren, um Steuerziele zu erreichen, auszuführen,
wobei Parameter wie beispielsweise eine Kollisionsvermeidung und
ein adaptiver Tempomat umfasst sind. Die Fahrzeugsteuerarchitektur
umfasst mehrere verteilte Prozessoren und Einrichtungen, die einen
System-Controller umfassen, der eine Funktionalität, wie
beispielsweise ein Antiblockiersystem, eine Traktionssteuerung und
eine Fahrzeugstabilität, bereitstellt.
-
In
Bezug auf 12–14 umfasst
das beispielhafte Fahrzeug 710 ein Steuersystem mit einem
Beobachtungsmodul 722, einem Datenzuordnungs- und Clust
ering-Modul (DAC-Modul von data association and clustering module) 724,
das ferner ein Kalman-Filter 724A umfasst, und einem Verfolgungslebensdauerverwaltungsmodul
(TLM-Modul von track life management module) 726, das eine
Verfolgungsliste 726A verfolgt, die mehrere Objektverfolgungen
umfasst. Genauer gesagt umfasst das Beobachtungsmodul die Sensoren 714
und 716,
ihre jeweiligen Sensorprozessoren und die Verbindung zwischen den
Sensoren, den Sensorprozessoren und dem DAC-Modul.
-
Das
beispielhafte Erfassungssystem umfasst vorzugsweise Objektlokalisierungssensoren,
die mindestens zwei nach vorn gerichtete Entfernungserfassungseinrichtungen 714 und 176 und
begleitende Subsysteme oder Prozessoren 714A und 716A umfassen.
Die Objektlokalisierungssensoren können ein Nahbereichsradarsubsystem,
ein Fernbereichsradarsubsystem und ein Vorwärtssichtsubsystem
umfassen. Die Objektlokalisierungserfassungseinrichtungen können
beliebige Entfernungssensoren umfassen, wie beispielsweise FM-CW-Radare
(Frequency Modulated Continuous Wave-Radare), Impuls- und FSK-Radare
(Frequency Shift Keying-Radare) und Lidar-Einrichtungen (Light Detection
and Ranging-Einrichtungen) und Ultraschalleinrichtungen, die auf
Effekten, wie beispielsweise Doppler-Effekt-Messungen, beruhen,
um sich vorne befindende Objekte zu lokalisieren. Die möglichen
Objektlokalisierungseinrichtungen umfassen ladungsgekoppelte Einrichtungen
(CCD von charged-coupled devices) oder Komplementärmetalloxidhalbleiter-Videobildsensoren
(CMOS-Videobildsensoren von complementary metal Oxide semiconductor
video image sensors) und andere bekannte Kamera-/Videobildprozessoren,
die Verfahren einer digitalen Fotografie verwendet, um sich vorne
befindende Objekte zu ”sehen”. Solche Erfassungssysteme
werden zum Detektieren und Lokalisieren von Objekten in Kraftfahrzeuganwendungen
eingesetzt, die mit Systemen verwendet werden können, die
z. B. einen adaptiven Tempomat, eine Kollisionsvermeidung, eine
Kollisionsvorbereitung und eine Seitenobjektdetektion umfassen.
Das beispielhafte Fahrzeugsystem kann auch ein globales Positionsbestimmungssystem (GPS-System)
umfassen.
-
Diese
Sensoren sind vorzugsweise innerhalb des Fahrzeugs 710 an
relativ hindernisfreien Positionen relativ zu einer Sicht vor dem
Fahrzeug positioniert. Es sei auch angemerkt, dass jeder dieser
Sensoren einen Schätzwert eines tatsächlichen
Orts oder einer tatsächlichen Bedingung eines Zielobjekts
bereitstellt, wobei der Schätzwert eine geschätzte
Position und eine Standardabweichung umfasst. Somit werden eine
Sensordetektion und eine Messung von Objektorten und Bedingungen
typischerweise als ”Schätzwerte” bezeichnet. Es
sei ferner angemerkt, dass die Eigenschaften dieser Sensoren darin
komplementär sind, dass einige beim Schätzen bestimmter
Parameter zuverlässiger sind als andere. Herkömmliche
Sensoren weisen verschiedene Betriebsreichweiten und Winkelabdeckungen
auf und können innerhalb ihrer Betriebsreichweite verschiedene Parameter
abschätzen. Beispielsweise können Radarsensoren
für gewöhnlich die Entfernung, die Entfernungsänderung
und den Azimutort eines Objekts schätzen, sie sind normalerweise
jedoch beim Schätzen des Umfangs eines detektierten Objekts
nicht stabil. Eine Kamera mit Sichtprozessor ist beim Schätzen
einer Form und einer Azimutposition des Objekts stabiler, ist jedoch
beim Schätzen der Entfernung und Entfernungsänderung
des Objekts weniger effizient. Lidare vom Abtasttyp arbeiten in
Bezug auf das Schätzen von Entfernung und Azimutposition
effizient und genau, können jedoch typischerweise die Entfernungsänderung
nicht abschätzen und sind daher in Bezug auf eine Erlangung/Erkennung
eines neuen Objekts nicht genau. Ultraschallsensoren können
eine Entfernung abschätzen, können jedoch im Allgemeinen
nicht die Entfernungsänderung und die Azimutposition schätzen
oder berechnen. Ferner sei angemerkt, dass das Leistungsvermögen jeder
Sensortechnologie durch unterschiedliche Umgebungsbedingungen beeinflusst
wird. Somit stellen herkömmliche Sensoren parametrische
Abweichungen dar, wobei, was noch wichtiger ist, die wirksame Überlappung
dieser Sensoren Möglichkeiten für eine Sensorvereinigung
erzeugt.
-
Jeder
Objektlokalisierungssensor und jedes Subsystem stellt einen Ausgang
bereit, der eine Entfernung R, eine zeitbasierte Entfernungsänderung
R_dot und einen Winkel Θ, vorzugsweise in Bezug auf eine Längsachse
des Fahrzeugs, umfasst und als Messvektor (°) geschrieben
werden kann, d. h. Sensordaten. Ein beispielhaftes Nahbereichsradarsubsystem
weist ein Sichtfeld (FOV von Field-of-view) von 160 Grad und eine maximale
Reichweite von dreißig Meter auf. Ein beispielhaftes Fernbereichsradarsubsystem
weist ein Sichtfeld von 17 Grad und eine maximale Reichweite von 220
Metern auf. Ein beispielhaftes Vorwärtssichtsubsystem weist
ein Sichtfeld von 45 Grad und eine maximale Reichweite von fünfzig
(50) Metern auf. Für jedes Subsystem ist das Sichtfeld
vorzugsweise um die Längsachse des Fahrzeugs 710 ausgerichtet.
Das Fahrzeug ist vorzugsweise auf ein Koordinatensystem, bezeichnet
als XY-Koordinatensystem 720, ausgerichtet, wobei die Längsachse
des Fahrzeugs 710 die X-Achse mit einer Ortslinie an einem
Punkt, der für das Fahrzeug und eine Signalverarbeitung
geeignet ist, festlegt, und wobei die Y-Achse durch eine Achse festgelegt
ist, die orthogonal zur Längsachse des Fahrzeugs 710 ist
und in einer horizontalen Ebene liegt, die somit parallel zur Bodenfläche ist.
-
14 zeigt einen beispielhaften Datenvereinigungsprozess
gemäß der vorliegenden Offenbarung. Wie in 14 gezeigt umfasst das dargestellte Beobachtungsmodul
einen ersten Sensor 714, der an einem diskreten Punkt A
an dem Fahrzeug angeordnet und ausgerichtet ist, einen ersten Signalprozessor 714A,
einen zweiten Sensor 716, der an einem diskreten Punkt
B an dem Fahrzeug angeordnet und ausgerichtet ist und einen zweiten
Signalprozessor 716A. Der erste Prozessor 714A wandelt
Signale (bezeichnet als Messung ∘A),
die von dem ersten Sensor 714 empfangen werden, um, um
eine Entfernung (RA), eine zeitliche Entfernungsänderung
(R_dotA) und einen Azimutwinkel (ΘA), die für
jede zeitliche Messung des Zielobjekts 730 geschätzt
werden, zu ermitteln. Ähnlich wandelt der zweite Prozessor 716A Signale
(bezeichnet als Messung ∘B), die
von dem zweiten Sensor 716 empfangen werden, um, um einen
zweiten Satz von Schätzwerten der Entfernung (RB), der
Entfernungsänderung (R_dotB) und des Azimutwinkels (ΘB)
für das Objekt 730 zu ermitteln.
-
Das
beispielhafte DAC-Modul 724 umfasst einen Controller 728,
in dem ein Algorithmus und eine zugeordnete Kalibrierung (nicht
gezeigt) gespeichert sind und der ausgestaltet ist, um die Schätzwertdaten
von jedem der Sensoren A, B zu empfangen, um Daten in Verfolgungen
einer gleichen Beobachtung zu bündeln bzw. clustern (d.
h. zeitlich übereinstimmende Beobachtungen für
das Objekt 730 durch die Sensoren 714 und 716 über
eine Reihe von diskreten zeitlichen Ereignissen), und um die gebündelten
Beobachtungen zu vereinigen, um einen wahren Verfolgungsstatus zu
ermitteln. Es ist zu verstehen, dass das Vereinigen von Daten unter
Verwendung verschiedener Erfassungssysteme und Technologien stabile
Ergebnisse liefert. Wieder sei angemerkt, dass bei dieser Technik
eine beliebige Anzahl von Sensoren verwendet werden kann. Es sei
jedoch auch angemerkt, dass eine erhöhte Anzahl von Sensoren
zu einer erhöhten Algorithmuskomplexität und dem
Erfordernis von mehr Rechenleistung zum Erzeugen von Ergebnissen
innerhalb des gleichen Zeitrahmens führt. Der Controller 728 ist
in dem Host-Fahrzeug 710 untergebracht, kann jedoch auch
an einem entfernten Ort angeordnet sein. Diesbezüglich
ist der Controller 728 elektrisch mit den Sensorprozessoren 714A, 716A gekoppelt,
kann jedoch auch drahtlos über eine HF-, LAN-, Infrarot-
oder eine andere herkömmliche Drahtlostechnologie gekoppelt
sein. Das TLM-Modul 726 ist ausgestaltet, um vereinigte
Beobachtungen in einer Liste von Verfolgungen 726A zu empfangen
und zu speichern.
-
Eine
Sensorregistrierung oder ”Ausrichtung” von Sensoren
in einer Multizielverfolgungsvereinigung (”MTT-Vereinigung” von
multi-target tracking fusion) umfasst das Ermitteln des Orts, der
Ausrichtung und des systematischen Fehlers (System-Bias) von Sensoren
zusammen mit Zielzustandsvariablen. In einem allgemeinen MTT-System
mit einer Sensorregistrierung wird eine Zielverfolgung während
des Fahrzeugbetriebs erzeugt. Eine Verfolgung stellt ein physikalisches
Objekt dar und umfasst eine Anzahl von Systemzustandsvariablen,
die z. B. Position und Geschwindigkeit umfassen. Messungen von jedem
einzelnen Sensor wird für gewöhnlich eine bestimmte
Zielverfolgung zugeordnet. In der Technik ist eine Anzahl von Sensorregistrierungstechniken
bekannt, und sie werden hierin nicht ausführlich erläutert.
-
Die
schematische Darstellung von 12 umfasst
die zuvor genannten Objektlokalisierungssensoren 714 und 716,
die an dem beispielhaften Fahrzeug an den Positionen A und B angebracht
sind und vorzugsweise an der Vorderseite des Fahrzeugs 710 angebracht
sind. Das Zielobjekt 730 bewegt sich von dem Fahrzeug weg,
wobei t1, t2 und t3 drei aufeinander folgende Zeitrahmen bezeichnen.
Die Linien ra1-ra2-ra3, rf1-rf2-rf3 bzw. rb1-rb2-rb3 stellen die
Orte des Ziels dar, gemessen durch den ersten Sensor 714,
den Vereinigungsprozessor und den zweiten Sensor 716 zu
Zeitpunkten t1, t2 und t3, gemessen hinsichtlich ∘A = (RA, R_dotA, ΘA) und ∘B = (RB, R_dotB, ΘB) unter
Verwendung der Sensoren 714 und 716, die an den
Punkten A, B angeordnet sind.
-
Ein
bekannter beispielhafter Trajektorievereinigungsprozess wie zum
Beispiel der, der in dem
US-Patent
Nr. 7,460,951 mit dem Titel SYSTEM AND METHOD OF TARGET
TRACKING USING SENSOR FUSION, dessen Offenbarungsgehalt hierin durch
Bezugnahme vollständig miteingeschlossen ist, offenbart
ist, ermöglicht das Ermitteln einer Position einer Einrichtung
in dem XY-Koordinatensystem relativ zu dem Fahrzeug. Der Vereinigungsprozess
umfasst das Messen des Zielobjekts
730 hinsichtlich ∘
A = (R
A, R_dot
A, Θ
A) und ∘
B = (R
B, R_dot
B, Θ
B) unter
Verwendung der Sensoren
714 und
716, die an den
Punkten A, B angeordnet sind. Es wird ein vereinigter Ort für
das Zielobjekt
730 ermittelt, der als x = (RF, R_dotF, ΘF, ΘF_dot)
dargestellt wird und hinsichtlich Entfernung R und Winkel Θ beschrieben
wird, wie zuvor beschrieben. Die Position des sich vorne befindenden
Objekts
730 wird dann in parametrische Koordinaten relativ zu
dem XY-Koordinatensystem des Fahrzeugs umgewandelt. Das Steuersystem
verwendet vorzugsweise Trajektorien einer vereinigten Verfolgung
(Linie rf1, rf2, rf3), die mehrere vereinigte Objekte umfassen,
als Bezugspunkt, d. h. Ground Truth, um wahre Sensorpositionen für
die Sensoren
714 und
716 zu schätzen.
Wie in
12 gezeigt, wird die Trajektorie einer
vereinigten Verfolgung durch das Zielobjekt
730 in Zeitserien
t1, t2 und t3 geliefert. Unter Verwendung einer großen
Anzahl von zugeordneten Objektkorrespondenzen, wie beispielsweise
{(ra1, rf1, rb1), (ra2, rf2, rb2), (ra3, rf3, rb3)} können
die wahren Positionen der Sensoren
714 und
716 an
den Punkten A bzw. B berechnet werden, um Reste zu minimieren, wobei
vorzugsweise ein bekanntes Berechnungsverfahren der kleinsten Quadrate
eingesetzt wird. In
12 bezeichnen die mit ra1,
ra2 und ra3 bezeichneten Elemente eine Objektabbildung, die durch
den ersten Sensor
714 gemessen wird. Die mit rb1, rb2 und
rb3 bezeichneten Elemente bezeichnen eine Objektabbildung, die durch
den zweiten Sensor
716 beobachtet wird.
-
13 zeigt einen Informationsfluss, der beim Erzeugen
einer Verfolgungsliste verwendet wird, gemäß der
vorliegenden Offenbarung. In 13 werden
die referenzierten Verfolgungen vorzugsweise in dem oben beschriebenen
Sensorvereinigungsblock 728 von 14 berechnet
und ermittelt. Der Prozess einer Sensorregistrierung umfasst das
Ermitteln relativer Orte der Sensoren 714 und 716 und
der Beziehung zwischen ihren Koordinatensystemen und dem Rahmen
des Fahrzeugs, identifiziert durch das XY-Koordinatensystem. Nachstehend
wird eine Registrierung für einen einzelnen Objektsensor 716 beschrieben.
Alle Objektsensoren werden vorzugsweise ähnlich behandelt.
Für eine Objektabbildungskompensation werden vorzugsweise
das Sensorkoordinatensystem oder der Sensorkoordinatenrahmen, d.
h. das UV-Koordinatensystem, und der Fahrzeugkoordinatenrahmen,
d. h. das XY-Koordinatensystem, verwendet.
-
Das
Sensorkoordinatensystem (u,v) ist vorzugsweise
definiert durch: (1) einen Ursprung am Mittelpunkt des Sensors;
(2) die v-Achse verläuft entlang
der Längsrichtung (Mittelachse); und (3) eine u-Achse
ist senkrecht zur v-Achse und zeigt nach
rechts. Das Fahrzeugkoordinatensystem wird wie zuvor beschrieben
mit (x,y) bezeichnet, wobei die x-Achse eine Fahrzeuglängsachse
bezeichnet und die Y-Achse die Fahrzeugquerachse bezeichnet.
-
Die
Verfolgungsorte (x) können in dem XY-Koordinatensystem
mit (r) ausgedrückt werden. Die Sensormessung (o) kann
in der UV-Koordinate mit (q) ausgedrückt werden. Die Sensorregistrierungsparameter
(a) umfassen eine Rotation (R) und eine Translation (r0) des UV-Koordinatensystems.
-
15 zeigt eine beispielhafte gemeinsame Verfolgung
und Sensorregistrierung einer Datenflussfreigabe gemäß der
vorliegenden Offenbarung. Das Verfahren wird beim Empfang von Sensordaten
initiiert. Ein Datenzuordnungsmodul bringt die Sensordaten mit dem
vorhergesagten Ort eines Ziels in Übereinstimmung. Das
Modul einer gemeinsamen Verfolgung und Registrierung kombiniert
die vorherige Schätzung (d. h. a priori) mit neuen Daten
(d. h. in Übereinstimmung gebrachte Messungsverfolgungspaare),
und aktualisiert die Zielverfolgungsschätzungs- und Sensorregistrierungsdaten
in der Datenbank. Das Zeitausbreitungsprozessmodul sagt die Zielverfolgungen
oder Sensorregistrierungsparameter im nächsten Zeitzyklus
auf der Grundlage der Sensorregistrierung in der Vergangenheit,
der Verfolgungen und der momentanen Fahrzeugkinematik über
ein Dynamikmodell vorher. Es wird für gewöhnlich
angenommen, dass die Sensorregistrierungsparameter im Wesentlichen
konstant über der Zeit sind. Die Konfidenz der Registrierungsparameter
akkumuliert sich über der Zeit. Es wird jedoch eine A-priori-Information über
die Registrierung auf Null zurückgesetzt, wenn eine signifikante
Sensorregistrierungsänderung detektiert wird (z. B. eine
Fahrzeugkollision).
-
Objektverfolgungen
können für eine Vielzahl von Zwecken verwendet
werden, die einen adaptiven Tempomaten umfassen, bei dem das Fahrzeug
die Geschwindigkeit anpasst, um eine minimale Distanz zu Fahrzeugen
an dem aktuellen Pfad aufrechtzuerhalten, wie es oben beschrieben
ist. Ein anderes ähnliches System, bei dem Objektverfolgungen
verwendet werden können, ist ein Kollisionsvorbereitungssystem
(CPS von collision preparation system), bei dem identifizierte Objektverfolgungen
analysiert werden, um eine wahrscheinlich bevorstehende oder unmittelbar
bevorstehende Kollision auf der Grundlage der Verfolgungsbewegung
relativ zu dem Fahrzeug zu identifizieren. Ein CPS warnt den Fahrer
vor einer bevorstehenden Kollision und reduziert die Kollisionsschwere
durch automatisches Bremsen, wenn eine Kollision als unvermeidbar
betrachtet wird. Es wird ein Verfahren zum Verwenden eines Vereinigungsmoduls
mehrerer Objekte mit einem CPS offenbart, das Gegenmaßnahmen
bereitstellt, wie beispielsweise eine Sitzgurtstraffung, einen Drosselleerlauf,
ein automatisches Bremsen, eine Airbag-Vorbereitung, eine Anpassung
der Kopfstützen, eine Hupen- und Scheinwerferaktivierung,
eine Anpassung der Pedale oder der Lenksäule, Anpassungen
auf der Grundlage einer geschätzten relativen Aufprallgeschwindigkeit,
Anpassungen der Aufhängungssteuerung und Anpassungen von
Stabilitätssteuersystemen, wenn eine Kollision als unmittelbar
bevorstehend ermittelt wird.
-
16 zeigt schematisch ein beispielhaftes System,
bei dem Sensoreingänge zu Objektverfolgungen vereinigt
werden, die bei einem Kollisionsvorbereitungssystem nützlich
sind, gemäß der vorliegenden Offenbarung. Eingänge,
die mit Objekten in einer Umgebung um das Fahrzeug herum in Beziehung
stehen, werden durch ein Datenvereinigungsmodul überwacht.
-
Das
Datenvereinigungsmodul analysiert, filtert oder priorisiert die
Eingänge relativ zu der Zuverlässigkeit der verschiedenen
Eingänge, und die priorisierten oder gewichteten Eingänge
werden summiert, um Verfolgungsschätzwerte für
Objekte vor dem Fahrzeug zu erzeugen. Diese Objektverfolgungen werden
dann in das Kollisionsgefahrenbewertungsmodul eingegeben, wobei
jede Verfolgung hinsichtlich einer Wahrscheinlichkeit für
eine Kollision bewertet wird. Diese Wahrscheinlichkeit für
eine Kollision kann beispielsweise hinsichtlich einer Schwellenwertwahrscheinlichkeit
für eine Kollision bewertet werden, und wenn eine Kollision
als wahrscheinlich bestimmt wird, können Kollisionsgegenmaßnahmen
initiiert werden.
-
Wie
es in 16 gezeigt ist, überwacht
ein CPS kontinuierlich die umgebende Umgebung unter Verwendung seiner
Entfernungssensoren (z. B. Radare und LIDARe) und Kameras und trifft
es geeignete Gegenmaßnahmen, um Vorfälle oder
Situationen zu vermeiden, die sich zu einer Kollision entwickeln.
Eine Kollisionsgefahrenbewertung erzeugt einen Ausgang für
den Systembediener, um darauf zu reagieren.
-
Wie
in 16 beschrieben ist ein Vereinigungsmodul nützlich,
um einen Eingang von verschiedenen Erfassungseinrichtungen zu integrieren
und eine vereinigte Verfolgung eines Objekts vor dem Fahrzeug zu
erzeugen. Die in 16 erzeugte vereinigte Verfolgung
umfasst einen Datenschätzwert eines relativen Orts und einer
Trajektorie eines Objekts relativ zu dem Fahrzeug. Dieser Datenschätzwert,
der auf Radar- und anderen Entfernungsfindungssensoreingängen
basiert, ist nützlich, umfasst jedoch die Unsicherheiten
und Ungenauigkeit der Sensoreinrichtungen, die zum Erzeugen der
Verfolgung verwendet werden. Wie oben beschrieben können
verschiedene Sensoreingänge gemeinsam verwendet werden,
um die Genauigkeit der Schätzwerte zu verbessern, die in
der erzeugten Verfolgung umfasst sind. Im Speziellen erfordert eine
Anwendung mit eingreifenden Konsequenzen, wie beispielsweise ein
automatisches Bremsen und ein möglicher Airbag-Einsatz, eine
hohe Genauigkeit beim Vorhersagen einer unmittelbar bevorstehenden
Kollision, da falsche positive Ergebnisse eine starke Auswirkung
auf das Fahrverhalten des Fahrzeugs haben können und verpasste
Hinweise zu funktionsunfähigen Sicherheitssystemen führen
können.
-
Sichtsysteme
stellen eine alternative Quelle eines Sensoreingangs zur Verwendung
bei Fahrzeugsteuersystemen bereit. Es ist in der Technik bekannt,
dass Verfahren zum Analysieren einer visuellen Information eine
Mustererkennung, eine Eckendetektion, eine Detektion vertikaler
Kanten, eine Erkennung vertikaler Objekte und andere Verfahren umfassen.
Es sei jedoch angemerkt, dass visuelle Darstellungen mit hoher Auflösung
des Felds vor einem Fahrzeug, die mit einer hohen Rate aktualisiert
werden, die notwendig ist, um die Bewegungen in Echtzeit wahrzunehmen,
einen sehr großen zu analysierenden Umfang an Informationen
umfassen. Eine Echtzeitanalyse einer visuellen Information kann äußerst
aufwändig sein. Es wird ein Verfahren zum Vereinigen eines
Eingangs von einem Sichtsystem mit einer vereinigten Verfolgung
offenbart, die durch Verfahren, wie beispielsweise das oben beschriebene
beispielhafte Verfolgungsvereinigungsverfahren, erzeugt wird, um
eine Sichtanalyse auf einen Teil der visuellen Information zu richten,
der am wahrscheinlichsten eine Kollisionsgefahr darstellt, und wobei
die fokussierte Analyse verwendet wird, um auf ein wahrscheinlich unmittelbar
bevorstehendes Kollisionsereignis hinzuweisen.
-
17 zeigt schematisch ein beispielhaftes Bildvereinigungsmodul
gemäß der vorliegenden Offenbarung. Das Vereinigungsmodul
von 17 überwacht als Eingänge
Entfernungssensordaten, die Objektverfolgungen und Kameradaten umfassen.
Die Objektverfolgungsinformation wird verwendet, um ein Bildstück
oder einen definierten interessierenden Bereich in den visuellen
Daten entsprechend einer Objektverfolgungsinformation zu extrahieren.
Als Nächstes werden Bereiche in dem Bildstück
analysiert und werden Merkmale oder Muster in den Daten, die ein
Objekt in dem Stück angeben, extrahiert. Die extrahierten
Merkmale werden dann gemäß einer beliebigen Anzahl
von Klassifizierern klassifiziert. Eine beispielhafte Klassifizierung
kann eine Klassifizierung als ein sich schnell bewegendes Objekt,
wie beispielsweise ein sich bewegendes Fahrzeug, ein sich langsam
bewegendes Objekt, wie beispielsweise ein Fußgänger,
und ein stationäres Objekt, wie beispielsweise ein Verkehrsschild,
umfassen. Daten, die die Klassifizierung umfassen, werden dann gemäß einer Datenzuordnung
analysiert, um eine sichtvereinigungsbasierte Verfolgung zu bilden.
Diese Verfolgungen und zugeordnete Daten bezüglich des
Stücks werden dann für einen iterativen Vergleich
mit neuen Daten und für eine Vorhersage einer relativen
Bewegung für das Fahrzeug gespeichert, wobei ein wahrscheinliches
oder unmittelbar bevorstehendes Kollisionsereignis angedeutet wird.
Ferner können ein interessierendes Gebiet oder interessierende
Gebiete, die zuvor ausgewählte Bildstücke reflektieren,
an das Modul weitergeleitet werden, das eine Bildstückextraktion
durchführt, um eine Kontinuität in der Analyse
von iterativen Sichtdaten bereitzustellen. Auf diese Weise werden
Entfernungsdaten oder wird eine Entfernungsverfolgungsinformation
der Bildebene überlagert, um eine Kollisionsereignisvorhersage
oder eine Wahrscheinlichkeitsanalyse zu verbessern.
-
19 zeigt beispielhafte einer entsprechenden Bildebene überlagerte
Entfernungsdaten, die bei systeminternen Analysen verschiedener
Zielobjekte nützlich sind, gemäß der
vorliegenden Offenbarung. Die schraffierten Balken sind die Radarverfolgungen,
die dem Bild einer nach vorne gerichteten Kamera überlagert sind.
Das Positions- und Bildextraktionsmodul extrahiert die Bildstücke,
die die Entfernungssensorverfolgungen umgeben. Das Merkmalsextraktionsmodul
berechnet die Merkmale der Bildstücke unter Verwendung
der folgenden Transformationen: Kanten, Gradientenorientierungshistogramm
(HOG von histogram of gradient orientation), skaleninvariante Merkmalstransformation
(SIFT von scale-invariant feature transform), Harris-Corner-Detektoren
oder die auf einen linearen Subraum projizierten Stücke.
Das Klassifizierungsmodul nimmt die extrahierten Merkmale als Eingang
her und führt sie zu einem Klassifizierer, um zu ermitteln,
ob ein Bildstück ein Objekt umgibt. Die Klassifizierung
ermittelt das Kennzeichen jedes Bildstücks. Beispielsweise werden
die Kasten A und B in 19 als Fahrzeuge identifiziert,
während der nicht gekennzeichnete Kasten als Objekt am
Straßenrand identifiziert wird. Das Vorhersageprozessmodul
verwendet eine Information des Objekts aus der Vergangenheit (d.
h. Position, Bildstück und Kennzeichen eines vorherigen
Zyklus) und sagt die aktuellen Werte vorher. Die Datenzuordnung
verbindet die aktuellen Messungen mit den vorhergesagten Objekten
oder ermittelt, ob die Quelle einer Messung (d. h. Position, Bildstück
und Kennzeichen) von einem spezifischen Objekt stammt. Schließlich
wird der Objektverfolger aktiviert, um eine aktualisierte Position
zu erzeugen und sie in den Objektverfolgungsdateien zu speichern.
-
18 zeigt schematisch eine beispielhafte Bank von
Kalman-Filtern, die arbeiten, um die Position und Geschwindigkeit
einer Gruppe von Objekten zu schätzen, gemäß der
vorliegenden Offenbarung. Es werden verschiedene Filter für
verschiedene Ziele eines konstanten Rollens, Ziele mit Manövern
mit hoher Längsrichtung und stationäre Ziele verwendet.
Es wird ein Markov-Entscheidungsprozess-Modell (MDP-Modell von Markov
decision process model) verwendet, um das Filter mit der Messung
der größten Wahrscheinlichkeit auf der Grundlage
der Beobachtung und des vorherigen Geschwindigkeitsprofils des Ziels
auszuwählen. Dieses Multimodellfilterschema reduziert die
Verfolgungslatenzzeit, was für eine CPS-Funktion wichtig
ist.
-
Eine
Reaktion auf wahrscheinliche Kollisionsereignisse kann auf der Grundlage
einer erhöhten Wahrscheinlichkeit skaliert werden. Beispielsweise
kann ein leichtes automatisches Bremsen in dem Fall, dass eine geringe
Schwellenwertwahrscheinlichkeit ermittelt wird, verwendet werden,
und können in Ansprechen auf die Ermittlung einer hohen
Schwellenwertwahrscheinlichkeit drastischere Maßnahmen
getroffen werden.
-
Ferner
sei angemerkt, dass eine verbesserte Genauigkeit des Beurteilens
der Wahrscheinlichkeit durch iteratives Trainieren der Alarmmodelle
erreicht werden kann. Wenn beispielsweise ein Alarm ausgegeben wird,
kann dem Fahrer durch eine Sprachaufforderung und eine Anfrage an
einem Bildschirm oder durch ein beliebiges anderes Eingabeverfahren
eine Überprüfungsoption bereitgestellt werden,
die erfordert, dass der Fahrer bestätigt, ob der Alarm
einer unmittelbar bevorstehenden Kollision angemessen war. Es ist
eine Anzahl von Verfahren in der Technik bekannt, um korrekte Alarme,
falsche Alarme oder verpasste Alarme anzupassen. Beispielsweise
sind Maschinenlernalgorithmen in der Technik bekannt und können
sie verwendet werden, um adaptiv eine Programmierung zu verwenden,
die Gewichte und Gewichtungen alternativen Berechnungen in Abhängigkeit
von der Natur der Rückmeldung zuordnet. Ferner kann eine
Fuzzy-Logik verwendet werden, um Eingänge in ein System
gemäß skalierbaren Faktoren auf der Grundlage
einer Rückmeldung zu konditionieren. Auf diese Weise kann
eine Genauigkeit des Systems über der Zeit und basierend
auf den bestimmten Fahrgewohnheiten eines Bedieners verbessert werden.
-
Es
sei angemerkt, dass ähnliche Verfahren, die durch das CPS
eingesetzt werden, in einem Kollisionsvermeidungssystem verwendet
werden können. Häufig umfassen solche Systeme
Warnungen für den Bediener, eine automatische Bremsaktivierung,
eine automatische Quersteuerung des Fahrzeugs, Änderungen eines
Aufhängungssteuersystems oder andere Aktionen, die das
Fahrzeug beim Vermeiden einer wahrgenommenen potentiellen Kollision
unterstützen sollen.
-
Ferner
sind zahlreiche Verfahren zum Erreichen eines Spurhaltens oder Einordnen
eines Fahrzeugs innerhalb einer Spur durch Sensoreingaben bekannt.
Beispielsweise kann ein Verfahren eine visuelle Information analysieren,
die aufgezeichnete Linien auf einer Fahrbahn umfasst, und jene Markierungen
verwenden, um das Fahrzeug innerhalb einer Spur anzuordnen. Einige
Verfahren verwenden Verfolgungen anderer Fahrzeuge, um das Herstellen
einer Spurgeometrie in Bezug auf das Fahrzeug zu synthetisieren
oder zu unterstützen. GPS-Einrichtungen, die in Verbindung
mit 3D-Kartendatenbanken verwendet werden, ermöglichen
ein Schätzen eines Orts eines Fahrzeugs gemäß globalen
GPS-Koordinaten und ein Überlagern dieser Position mit
bekannten Straßengeometrien.
-
Es
wird ein beispielhaftes Verfahren zum Erzeugen von Schätzwerten
einer Geometrie einer Fahrspur für ein Fahrzeug auf einer
Straße offenbart. Das Verfahren umfasst das Überwachen
von Daten von einer Einrichtung einer globalen Positionsbestimmung,
das Überwachen von Kartenwegpunktdaten, die eine projizierte Fahrtroute
auf der Grundlage eines Startpunkts und eines Ziels beschreiben,
das Überwachen von Kameradaten von einem Sichtsubsystem,
das Überwachen von Fahrzeugkinematikdaten, die umfassen:
eine Fahrzeuggeschwindigkeit und eine Fahrzeuggierrate, das Ermitteln
einer Spurgeometrie in einem Bereich des Fahrzeugs auf der Grundlage
der Kartenwegpunktdaten und einer Kartendatenbank, das Ermitteln
einer Fahrzeugposition in Bezug auf die Spurgeometrie auf der Grundlage
der Spurgeometrie, der Daten von der Einrichtung einer globalen
Positionsbestimmung und der Kameradaten, das Ermitteln einer Straßenkrümmung
an der Fahrzeugposition auf der Grundlage der Fahrzeugposition,
der Kameradaten und der Fahrzeugkinematikdaten, das Ermitteln der
Fahrzeugausrichtung und des Fahrzeuglateralversatzes von einem Mittelpunkt
der Fahrspur auf der Grundlage der Straßenkrümmung,
der Kameradaten und der Fahrzeugkinematik und das Verwenden der
Fahrzeugposition, der Straßenkrümmung, der Fahrzeugausrichtung
und des Fahrzeuglateralversatzes in einem Steuerschema des Fahrzeugs.
-
20 zeigt ein beispielhaftes Fahrzeug, das einen
Sensor verwendet, um Straßengeometriedaten vor dem Fahrzeug
zu erlangen, gemäß der vorliegenden Offenbarung.
Das beispielhafte Fahrzeug umfasst einen Personenkraftwagen, der
zur Verwendung auf Schnellstraßen vorgesehen ist, wobei
anzumerken sei, dass die hierin beschriebene Offenbarung auf jedes
Fahrzeug oder jedes andere System anwendbar ist, das die Position
und Trajektorie von entfernten Fahrzeugen und anderen Objekten überwachen
möchte. Das Fahrzeug umfasst ein Steuersystem, das verschiedene
Algorithmen und Kalibrierungen enthält, die zu verschiedenen
Zeitpunkten ausgeführt werden. Das Steuersystem ist vorzugsweise
ein Teilsatz einer gesamten Fahrzeugsteuerarchitektur und stellt
eine koordinierte Fahrzeugsystemsteuerung bereit. Das Steuersystem überwacht
Eingänge von verschiedenen Sensoren, synthetisiert entsprechende
Informationen und Eingänge und führt Algorithmen
zum Steuern verschiedener Aktoren, um Steuerziele zu erreichen,
aus, um beispielsweise eine Kollisionsvermeidung und einen adaptiven
Tempomat zu realisieren. Die Fahrzeugsteuerarchitektur umfasst mehrere
verteilte Prozessoren und Einrichtungen, die einen System-Controller
umfassen, der eine Funktionalität, wie beispielsweise ein
Antiblockiersystem, eine Traktionssteuerung und eine Fahrzeugstabilität,
bereitstellt.
-
In
der beispielhaften Ausführungsform von 20 umfasst ein Fahrzeug 760 ein Sichtsubsystem 766. Das
Sichtsubsystem 766 verwendet eine Kamera oder eine Bilderfassungseinrichtung,
die eine digitale Bilddarstellung des Bereichs vor dem Fahrzeug
erzeugen kann. Die Daten von dem Sichtsubsystem 766 werden verwendet,
um die Bedingungen vor dem Fahrzeug zu beschreiben, und werden in
Bezug auf die Mittelachse des Fahrzeugs 760 in ein XY-Koordinatensystem 770 übersetzt.
Durch die gestrichelten Linien ist ein beispielhaftes Sichtfeld
für das Sichtsubsystem gezeigt. Gemäß Spurmarkierungen 775A und 775B ist
eine Fahrspur auf der Straße gezeigt, und allgemeine Merkmale
können visuell detektiert und verwendet werden, um eine Spurgeometrie
relativ zum Fahrzeug 760 zu beschreiben. Auf diese Weise
kann durch Fachleuten bekannte Verfahren eine aus der Analyse von
Bild- oder Kameradaten erhaltene Information als Bedingungen in
Bezug auf die Vorwärtsfahrt des Fahrzeugs 760 verwendet
werden.
-
Jeder
Prozessor in dem System ist vorzugsweise ein digitaler Universalrechner,
der im Wesentlichen einen Mikroprozessor oder eine zentrale Verarbeitungseinheit,
einen Nurlesespeicher (ROM), einen Direktzugriffsspeicher (RAM),
einen elektrisch programmierbaren Nurlesespeicher (EPROM), einen
Hochgeschwindigkeitstakt, einen Analog-Digital-(A/D-) und einen
Digital-Analog-(D/A-)Schaltkreis und einen Eingabe/Ausgabe-Schaltkreis
und Eingabe/Ausgabe-Einrichtungen (I/O) und einen geeigneten Signalkonditionierungs-
und -pufferschaltkreis umfasst. Jeder Prozessor weist einen Satz
von Steueralgorithmen auf, die in dem ROM gespeicherte residente
Programmanweisungen und Kalibrierungen umfassen und ausgeführt
werden, um die jeweiligen Funktionen bereitzustellen.
-
Hierin
beschriebene Algorithmen werden typischerweise während
voreingestellter Schleifenzyklen ausgeführt, so dass jeder
Algorithmus mindestens einmal in jedem Schleifenzyklus ausgeführt
wird. In den nichtflüchtigen Speichereinrichtungen gespeicherte
Algorithmen werden von einer der zentralen Verarbeitungseinheiten
ausgeführt und dienen dazu, Eingänge von den Erfassungseinrichtungen
zu überwachen und Steuer- und Diagnoseroutinen auszuführen,
um den Betrieb einer jeweiligen Einrichtung zu steuern, wobei voreingestellte
Kalibrierungen verwendet werden. Schleifenzyklen werden typischerweise
in regelmäßigen Intervallen ausgeführt,
zum Beispiel alle 3, 6,25, 15, 25 und 100 Millisekunden während
eines laufenden Fahrzeugbetriebs. Alternativ können Algorithmen
in Ansprechen auf ein Stattfinden eines Ereignisses ausgeführt
werden.
-
Die
Sensoren, die durch das Fahrzeug 760 verwendet werden,
wie beispielsweise ein Sichtsubsystem 766 oder eine andere
Radar- oder Entfernungsmessungseinrichtung, sind vorzugsweise innerhalb
des Fahrzeugs 760 an relativ hindernisfreien Positionen
relativ zu einer Sicht vor dem Fahrzeug positioniert. Es sei auch angemerkt,
dass alle diese Sensoren einen Schätzwert tatsächlicher
Details der Straße oder von Objekten auf der Straße
vor dem Fahrzeug bereitstellen. Es sei angemerkt, dass diese Schätzwerte
keine exakten Orte sind und Standardabweichungen für jeden
Schätzwert möglich sind. Es sei ferner angemerkt,
dass die Eigenschaften dieser Sensoren darin komplementär
sind, dass einige beim Schätzen bestimmter Parameter zuverlässiger sind
als andere. Herkömmliche Sensoren weisen verschiedene Betriebsreichweiten
und Winkelabdeckungen auf und können innerhalb ihrer Betriebsreichweite
verschiedene Parameter abschätzen. Beispielsweise können
Radarsensoren für gewöhnlich die Entfernung, die
Entfernungsänderung und den Azimutort eines Objekts schätzen,
sie sind normalerweise jedoch beim Schätzen des Umfangs
eines detektierten Objekts nicht stabil. Eine Kamera mit Sichtprozessor
ist beim Schätzen einer Form und einer Azimutposition des
Objekts stabiler, ist jedoch beim Schätzen der Entfernung
und Entfernungsänderung des Objekts weniger effizient.
Lidare vom Abtasttyp arbeiten in Bezug auf das Schätzen
von Entfernung und Azimutposition effizient und genau, können jedoch
typischerweise die Entfernungsänderung nicht abschätzen
und sind daher in Bezug auf eine Erlangung/Erkennung eines neuen
Objekts nicht genau. Ultraschallsensoren können eine Entfernung
abschätzen, können jedoch im Allgemeinen nicht
die Entfernungsänderung und die Azimutposition schätzen
oder berechnen. Sensoren, die die Kinematik des Fahrzeugs, wie beispielsweise
Geschwindigkeit und Gierrate, beschreiben, sind nicht exakt und
sind insbesondere beim Verfolgen kleiner Änderungen der
Fahrzeugbewegung möglicherweise nicht stabil. Ferner sei
angemerkt, dass das Leistungsvermögen jeder Sensortechnologie
durch unterschiedliche Umgebungsbedingungen beeinflusst wird. Somit
stellen herkömmliche Sensoren parametrische Abweichungen
dar, deren wirksame Überlappung Möglichkeiten
für eine Sensorvereinigung erzeugt.
-
Ein
bevorzugtes Steuermodul umfasst einen Controller, in dem ein Algorithmus
und eine zugeordnete Kalibrierung gespeichert sind und der ausgestaltet
ist, um die Schätzwertdaten von verfügbaren Sensoren
zu empfangen, um Daten in verwendbare Schätzungen der Bedingungen
vor dem Fahrzeug zu bündeln bzw. zu clustern, und um die
gebündelten Beobachtungen zu vereinigen, um die erforderliche
Spurgeometrie und relative Fahrzeugpositionsschätzwerte
zu ermitteln. Es ist zu verstehen, dass das Vereinigen von Daten
unter Verwendung verschiedener Erfassungssysteme und -technologien
stabile Ergebnisse liefert. Wieder sei angemerkt, dass bei dieser
Technik eine beliebige Anzahl von Sensoren verwendet werden kann.
-
Es
wird ein Verfahren zum Erzeugen und Aufrechterhalten von Schätzwerten
einer Straßen- und Spurgeometrie innerhalb eines Systems
bereitgestellt, wobei Messungen aus der Vergangenheit verwendet
werden, um nachfolgende Verfolgungsdaten zu bewerten oder vorherzusagen.
Beispielhafte Systeme erzeugen Schätzwerte auf der Grundlage
von Funktionen zu einem Zeitpunkt T, um einen Systemzustand zum
Zeitpunkt T + 1 zu beschreiben. Häufig wird, um eine Echtzeitschätzung
zu unterstützen, eine Informationsanordnung zum Darstellen
einer Gauss-Verteilung verwendet, um die Auswirkungen eines unbekannten
Fehlers zu schätzen. Solche Systeme ermöglichen
eine Sammlung und Vereinigung von Schätzungen der Straßenbedingungen
vor dem Fahrzeug. Es sei jedoch angemerkt, dass solche Systeme,
die Daten aus der Vergangenheit und eine Gauss-Verteilung verwenden,
einen Eigenfehler umfassen, der auf Mittelwertbildungs- und Normalverteilungsannahmen
basiert. Beispielsweise hat in einem Spurgeometrieschätzungsbetrieb,
der eine geschätzte sichere Fahrspur festlegt, auf der
das Fahrzeug fahren kann, eine gerade Spur hinter einem Fahrzeug
keine tatsächliche vermindernde Auswirkung auf eine scharfe
Kurve der Straße vor dem Fahrzeug. Eine Divergenz von Daten
bezüglich der Spur vor dem Fahrzeug wird nicht notwendigerweise
durch die Anwendung eines Zufallsvektors mit einer Gauss-Verteilung
zum Lösen der Divergenz verbessert. Verfahren, die eine
Verlaufsmittelwertbildung und normalisierte oder Gauss-Verteilungen
verwenden, wie beispielsweise Verfahren, die auf Kalman-Filtern
beruhen, umfassen häufig einen Fehlerfaktor, der zu einer
Zeitverzögerung hinsichtlich Änderungen oder Übergängen
der Straßengeometrie führt.
-
Es
wird ein alternatives Verfahren zum Erzeugen von Schätzwerten
einer Spurgeometrie und einer Fahrzeugposition und Ausrichtung in
Relation zu der Spur ohne Übernahme von Fehlern auf der
Grundlage von Daten aus der Vergangenheit oder normalisierten Verteilungen,
indem aktuelle Messungen von GPS-Daten, einem Sichtkamerasubsystem
und einer Fahrzeugkinematik vereinigt werden, offenbart.
-
Die
allgemeine Straßengeometrie ist eine Information, die durch
die Verwendung von GPS-Einrichtungen und 3D-Karten leicht verfügbar
gemacht wurde. Mit einem angenäherten Ort von der GPS-Einrichtung können
lokalisierte Straßengeometrien in einer Liste von Straßenformpunkten
ausgegeben werden. Ähnlich stehen GPS-Koordinaten, die
eine globale Breitengradmessung und eine globale Längengradmessung
umfassen, durch die GPS-Einrichtung zur Verfügung. Die
Fahrzeugkinematik, die zumindest die Fahrzeuggeschwindigkeit und
die Gierrate umfasst, steht durch Sensoren zur Verfügung,
die den Fahrzeugbetrieb überwachen und/oder Beschleunigungsmesserauslesungen überwachen.
Die Kameradaten stehen zum Lokalisieren des Fahrzeugs auf einer
tatsächlichen Fahrspur zur Verfügung. Spurerfassungskoeffizienten
werden durch Kameradaten definiert (d. h. y = a + bx + cx2 + d3, wobei x die
Spurlongitudinalverschiebung ist und y die Lateralverschiebung von
der Spurmitte aus ist). Durch diese Daten kann das Vorwärtsspurschätzungsmodul
die Krümmung der Spur, die laterale Verschiebung von der
Spurmitte aus und die Fahrzeugausrichtung in Bezug auf die Tangente
der Spur schätzen.
-
21 zeigt einen beispielhaften Vorwärtsspurschätzungsprozess
gemäß der vorliegenden Offenbarung. Der beispielhafte
Prozess umfasst ein Kartengeometriemodellmodul, ein Fahrzeugposenlokalisierungsmodul,
ein Krümmungsschätzungsmodul und ein Fahrzeuglateralverfolgungsmodul.
Das Kartengeometriemodellmodul gibt Kartenwegpunkte ein, die durch
in der Technik bekannte Verfahren ermittelt werden und das Ermitteln
von allgemeinen Pfaden von einem Start- oder momentanen Punkt zu
einem Ziel- oder Durchgangspunkt in einer Kartendatenbank umfassen,
und gibt eine Spurgeometrie in dem Bereich des Fahrzeugs aus. Diese
Spurgeometrie kann als Bogen beschrieben werden, der eine geometrische
Darstellung der Straßen in dem Bereich umfasst. Das Fahrzeugposenlokalisierungsmodul
gibt die Spurgeometrie von dem Kartengeometriemodellmodul, GPS-Koordinaten
von einer GPS-Einrichtung und Kameradaten von einem Sichtsubsystem
ein und gibt eine geschätzte Fahrzeugposition in Relation
zu der Spurgeometrie in dem Bereich des Fahrzeugs aus. Diese Fahrzeugposition
in Relation zu der Spurgeometrie oder dem Bogen kann als Bogenlängenparameter
(sm) beschrieben werden. Das Krümmungsschätzungsmodul
gibt Kameradaten, Fahrzeugkinematikdaten, wie beispielsweise eine
Fahrzeuggeschwindigkeit und eine Gierrate, von den Fahrzeugsensoren
und sm ein und gibt eine Krümmung
(K) oder ein Kurvenmaß der Straße an dem Ort des
Fahrzeugs aus. Schließlich gibt das Fahrzeuglateralverfolgungsmodul
Kameradaten, Fahrzeugkinematikdaten und K ein und gibt es Daten
bezüglich der Position des Fahrzeugs in Bezug auf die Mitte
der aktuellen Spur und der Winkelausrichtung des Fahrzeugs in Bezug
auf die momentane Vorwärtsrichtung der Spur aus. Auf diese
Weise können momentane Eingänge in Bezug auf die
aktuelle Position und Fahrt des Fahrzeugs verwendet werden, um Daten
in Bezug auf die Spurgeometrie in dem Bereich des Fahrzeugs und
die Position und Ausrichtung des Fahrzeugs in Relation zu der Spur
zu erzeugen.
-
Wie
oben beschrieben gibt das Kartengeometriemodellmodul Kartenwegpunkte
ein und gibt es eine Spurgeometrie in dem Bereich des Fahrzeugs
aus. Insbesondere überwacht das Kartengeometriemodell den Eingang
von Kartenformpunkten wie in einer Kartendatenbank beschrieben und
konstruiert es ein geometrisches Modell, das die Formpunkte darstellt. 22 zeigt einen beispielhaften Prozess, bei dem
eine Information von einer Kartendatenbank verwendet werden kann,
um ein geometrisches Modell einer Straße in einem Bereich
eines Fahrzeugs zu konstruieren, gemäß der vorliegenden
Offenbarung. Der beispielhafte Prozess umfasst, dass Kartenformpunkte,
die Straßengeometrien beschreiben, von einer Kartendatenbank
gesammelt werden. Eine Kartendatenbank liefert Kartenformpunkte
in globalen Koordinaten, die häufig Positionen hinsichtlich
einer Breitengradposition, einer Längengradposition und
einer Höhe oder Höhenlage beschreiben. Die globalen
Koordinaten werden dann in ein System lokaler Koordinaten umgewandelt,
wobei für gewöhnlich ein Punkt in der Nähe
des Fahrzeugorts als statischer Referenzpunkt identifiziert wird
und beliebige andere Orte als nördliche Verlagerung von
dem Referenzpunkt und östliche Verlagerung von dem Referenzpunkt
beschrieben werden. Als Nächstes werden die Kartenformpunkte
mit einem Spline angepasst, um eine geometrische Form oder einen
Bogen zu erzeugen, die oder der die Geometrie der dargestellten
Straßen annähert. Schließlich werden
eine Tangente und eine Krümmung der angepassten Splines
an einer geschätzten Position des Fahrzeugs ermittelt.
-
Es
wird eine beispielhafte Ermittlung innerhalb eines Kartengeometriemodells
beschrieben. Es seien {(lat
i, lon
i)|i = 1, ..., N} die Formpunkte. Durch Auswählen
eines Punkts als Referenzpunkt kann man die Formpunkte in lokale
Koordinaten umwandeln {(e
i, n
i)|i
= 1, ... N}, wobei die östliche und die nördliche
Verlagerung von dem Referenzpunkt dargestellt werden. Durch Definieren
der Serie {(s
i, e
i,
n
i)|i = 1, ... N} mit s
1 =
0,
wird eine Funktion eines
zweidimensionalen kubischen Splines erhalten, um die Formpunkte
anzupassen wie folgt:
wobei
s der Bogenlängenparameter ist und e und n die östliche
bzw. nördliche Komponente der Verlagerung sind. Der Gradientenvektor
wird dann bei s wie folgt berechnet.
-
-
Und
der Ausrichtungswinkel wird wie folgt berechnet. ξ = atan2(n', e') [3]
-
Schließlich
kann die Krümmung K bei s wie folgt berechnet werden:
wobei
-
Wie
oben beschrieben gibt das Fahrzeugposenlokalisierungsmodul die Spurgeometrie
von dem Kartengeometriemodellmodul, GPS-Koordinaten von einer GPS-Einrichtung
und einer Kamera ein und gibt es eine geschätzte Fahrzeugposition
in Relation zu der Spurgeometrie in dem Bereich des Fahrzeugs aus.
Ein Fachmann wird erkennen, dass ein Problem als Lokalisierung in
einer Karte hinsichtlich überwachter GPS-Daten beschrieben
werden kann. Die Kartengeometrie wird durch eine Spline-Funktion,
wie beispielsweise die in Gleichung 1 beschriebene Funktion, dargestellt.
Dieser Spline beschreibt diskrete Orte, an denen eine Spur einer
Straße existieren soll. Ein durch GPS-Daten gemessener
Punkt wird in einer beispielhaften Form
zurückgegeben. Eine
fehlende Genauigkeit und Ungenauigkeit einer Abweichung ist in GPS-Einrichtungen normal.
Die Spline-Funktion weist auch einen Eigenfehler auf. P fällt
selten genau mit dem Kartengeometrie-Spline zusammen. Die Spline-Funktion
beschreibt einen Punkt auf der Spur, beispielsweise die Mitte der Spur,
und die tatsächliche Fahrzeugposition weicht häufig
um einen messbaren Betrag von der Mitte der Spur ab. Ein angenäherter
Ort des Fahrzeugs auf einer Karte muss auf der Grundlage von P und
der geschätzten Straßengeometrie in dem Bereich
ermittelt werden. Eine beispielhafte Lösung zum Korrigieren
der Abweichung zwischen P und der geometrischen Darstellung der
Straße ist, den naheliegendsten Punkt [e
m,
n
m]
T = f(s
m) zu finden, so dass
sm = argmin s
||P – f(s)||. Dieser beispielhafte
Prozess ist beim Annähern von s
m nützlich
und kann iterativ angewandt werden, um den Fahrzeugort in einer
Straßenkurve zu finden und den geschätzten Ort
als überwachte Datenänderungen zu verbessern.
-
23 zeigt grafisch ein beispielhaftes iteratives
Verfahren zum Finden eines ungefähren Orts eines Fahrzeugs
in Bezug auf eine geschätzte Straßengeometrie
gemäß der vorliegenden Offenbarung. Es sei so die
anfängliche Vermutung von s
m. Die
Korrektur des Bogenlängenparameters kann wie folgt geschrieben
werden:
wobei
P
m = f(s
0) und
P ' / m
=
f'(s0). Mit anderen Worten ist die Korrektur Δs
die Projektion an dem Einheitsvektor des Gradienten an dem Vermutungsort
so.
-
Wie
ein Fachmann erkennen wird, werden GPS-Messungen im Vergleich zu
typischen fahrzeuginternen Sensorauslesungen nicht häufig
aktualisiert. Für die meisten fahrzeugeigenen GPS-Empfänger
ist eine beispielhafte Erneuerungsrate von 1 Hz üblich.
Ferner werden nicht immer Aktualisierungen empfangen und können
sie in urbanen Gebieten oder anderen Bereichen, in denen die Sicht
auf Satellitensignale verdeckt ist, verrauscht sein. Es können
Filtertechniken verwendet werden, um die niedrige Rate von GPS-Signalaktualisierungen
zu kompensieren.
-
Ein
beispielhaftes Fahrzeugposenlokalisierungsmodul verwendet ein Kalman-Filter.
Für die Fahrzeugpose wird ein Modell als Vektor erstellt,
der aus einer östlichen Verlagerung (e), einer nördlichen
Verlagerung (n), einer Ausrichtung in Bezug auf die Spur (Φ)
und der Bogenlänge (s) besteht. Aufgrund der Trägheit ändert sich
die Fahrzeugpose nicht abrupt. Daher wird das folgende Modell einer
konstanten Kurvenfahrt angenommen: e'
= e + vcos(ϕ + ξ)ΔT + w1
n'
= n + vsin(ϕ + ξ)ΔT + w2ϕ'
= ϕ + ωΔT – κΔT
+ w3s' = s + vΔT [6] wobei v die
Fahrzeuggeschwindigkeit ist; ω die Fahrzeuggierrate ist; ΔT
die Deltazeit von dem vorherigen Zyklus ist; ξ die aktuelle
Ausrichtung der Straße ist (vgl. (2)); κ die aktuelle
Krümmung der Straße auf der Grundlage der Kartenkurve
ist; w1, w2 und
w3 ein Prozessrauschterm sind, der eine
nicht modellierte Störung darstellt.
-
24 zeigt einen beispielhaften Fahrzeugposenlokalisierungsprozess
gemäß der vorliegenden Offenbarung. Der Prozess
wird iterativ ausgelöst, wann immer neue Daten von dem
GPS, den Fahrzeugkinematiksensoren oder den Kameraeinrichtungen überwacht
werden. Die beispielhaften Zykluszeiten für die verschiedenen
Datenquellen umfassen 1 Sekunde für die GPS-Daten, 20 ms
für die Kinematikdaten und 50 ms für die Kameradaten.
Die Deltazeit ΔT wird aus der Differenz von Zeitstempeln
zwischen den aktuellen und vorherigen Zyklen berechnet. Dann wird
die vorhergesagte Fahrzeugpose unter Verwendung von Gleichung 5 berechnet.
Wenn GPS-Daten zur Verfügung stehen, sind die Messungsaktualisierungen
für die Fahrzeugpose unter Verwendung der folgenden GPS-Messungsgleichungen
einfach: egps =
e + k1
[7]
ngps = n + k2
[8] wobei (egps, ngps) der durch
das GPS gemessene Ort des Fahrzeugs ist; k1 und
k2 das Messungsrauschen sind. Nach dem Aktualisieren
der Fahrzeugpose unter Verwendung einer GPS-Messung wird der korrekte
Bogenlängenparameter (s) unter Verwendung von Gleichung
5 berechnet. Dieser Schritt ist wichtig, um korrekte K- und ξ-Werte
durch Entfernen des akkumulierten Fehlers zu erhalten, der durch
die Koppelnavigationsverarbeitung in Gleichung 6 verursacht wird.
-
Wenn
Kameradaten zur Verfügung stehen, können die folgenden
Messungsgleichungen durch das Kalman-Filter verwendet werden:
a = e + k3
[9]
b = ϕ + k4
[10] wobei a
und b Kameraspurerfassungsparameter sind; d die senkrechte Distanz
der aktuellen Fahrzeugposition zu der Mitte einer Spur ist, die
durch die Kartenkurve dargestellt ist; und k
3 und
k
4 das nicht modellierte Messungsrauschen
sind. Es sei P
m der Punkt an der Kartenkurve
mit der kleinsten Distanz zu der aktuellen Fahrzeugposition, ausgedrückt
durch P = (e, n). Vektor m soll die Normale der Kartenkurve bei
P
m bezeichnen. Dann kann die senkrechte
Distanz d mit d = (P – P
m)
Tm ausgedrückt werden, wobei die
Normale m wie folgt berechnet wird:
-
Wie
oben beschrieben gibt das Krümmungsschätzungsmodul
Kameradaten, Fahrzeugkinematikdaten, wie beispielsweise eine Fahrzeuggeschwindigkeit
und eine Gierrate, von den Fahrzeugsensoren und sm ein
und gibt es eine Krümmung (K) oder eine ein Maß einer
Kurve der Straße an dem Ort des Fahrzeugs aus. Sobald das
Fahrzeug in der durch s dargestellten Kartenkurve lokalisiert wurde,
kann die entsprechende Kartenkrümmung κmap durch Gleichung 4 gefunden werden.
-
Es
ist zu erkennen, dass es drei Informationsquellen zum Schätzen
der Straßenkrümmung gibt: eine Kartenkrümmung
(κ
map), eine Kamerakrümmung
(κ
cam = 2c), eine gierratenbasierte
Krümmung
(κyaw = ω / v
). Das Folgende
beschreibt einen beispielhaften Prozess, der zum Vereinigen dieser
drei Krümmungen verwendet werden kann. κ
fus soll die vereinigte Krümmung
mit der Varianz
σ 2 / fus
bezeichnen.
σ 2 / map
, σ 2 / yaw
und σ 2 / cam
bezeichnen die
Varianz der Kartenkrümmung, der gierratenbasierten Krümmung
bzw. der Kamerakrümmung. Es gibt die folgenden Aktualisierungsgleichungen.
Wenn ein Kartenkrümmungsschätzwert zur Verfügung
steht, dann ist
und
-
Wenn
ein Gierratenkrümmungsschätzwert zur Verfügung
steht, dann ist
und
-
Wenn
ein Kartenkrümmungsschätzwert zur Verfügung
steht, dann ist
und
-
In
den obigen Gleichungen stellen σ 2 / map
, σ 2 / yaw
und σ 2 / cam
die
Konfidenz der Krümmungsinformation von den verschiedenen
Quellen dar: Karte, fahrzeuginterner Sensor bzw. Kamera. Je höher
die Varianz einer Informationsquelle ist, desto geringer ist der
Beitrag dieser Quelle zu der vereinigten Krümmung. Es werden
einige heuristische Regeln eingesetzt, um verschiedene Gewichte
für die drei Quellen zu wählen. Wenn beispielsweise
die Gierrate hoch ist, wird eine kleine σ 2 / yaw
gewählt,
um die vereinigte Krümmung abzuleiten.
-
Wie
oben beschrieben gibt das Fahrzeuglateralverfolgungsmodul Kameradaten,
Fahrzeugkinematikdaten und K ein und gibt es Daten bezüglich
der Position des Fahrzeugs in Bezug auf die Mitte der aktuellen Spur
und die Winkelausrichtung des Fahrzeugs in Bezug auf die momentane
Vorwärtsrichtung der Spur aus. 25 zeigt
eine beispielhafte Ermittlung, die innerhalb des Lateralmodells
des Fahrzeugs durchgeführt wird, gemäß der
vorliegenden Offenbarung. Das Fahrzeuglateralverfolgungsmodul überwacht
die Eingänge der Fahrzeugkinematik (Raddrehzahl v und Gierrate ω)
und die Eingänge der Spurerfassungsparameter. Es kann ein
Kalman-Filter verwendet werden, um die Daten von der Fahrzeugkinematik
und der Spurerfassungseinrichtung zu integrieren. Wie in 25 gezeigt ist die laterale Verschiebung yL die Verlagerung von der Mitte der Spur. κroad ist die geschätzte Krümmung. κyaw ist die durch den momentanen Fahrzeugpfad
geschätzte Krümmung, d. h. κyaw = ω / v
. Die Messungsgleichung des Kalman-Filters
wird mit b = Φ und a = yL ausgedrückt. Es
wird eine Gatterlogik realisiert, wenn der Innovationsfehler größer
als ein Schwellenwert ist. Mit anderen Worten wird, wenn die Differenz
zwischen einer vorhergesagten und einer tatsächlichen Messung
größer als ein Schwellenwert ist, die tatsächliche
Messung zum aktuellen Zeitpunkt ignoriert.
-
22 beschrieb ein Verfahren zum Erzeugen eines
geometrischen Modells, das die Straße darstellt, auf der
das Fahrzeug fahren wird. Es sei jedoch angemerkt, dass andere Verfahren
zum Erreichen des gleichen Ziels möglich sind. Beispielsweise
umfasst ein offenbartes Verfahren, dass eine Reihe von Wegpunkten vor
dem Fahrzeug, die eine projizierte Fahrspur bilden, auf der Grundlage
von Kartendaten und einer Information bezüglich des projizierten
Ziels des Fahrzeugs zugeordnet wird. 26 zeigt
eine beispielhafte Verwendung von Wegpunkten entlang einer projizierten
Spur vor dem Fahrzeug, um die Spurgeometrie zu schätzen, gemäß der
vorliegenden Offenbarung. Iterative Erzeugungen von Wegpunkten in
aufeinander folgenden Zeitintervallen, wobei die Partikelpunkte
in Inkrementen mit kurzer Distanz beabstandet sind, können
verwendet werden, um die geschätzte Spurgeometrie vor dem
Fahrzeug zu untermauern. Wenn das Fahrzeug an Wegpunkten vorbeifährt,
können die Wegpunkte ignoriert werden, und es werden nur
Wegpunkte verwendet, die immer noch vor dem Fahrzeug liegen. Auf
diese Weise kann eine Projektion von Wegpunkten vor dem Fahrzeug
entlang eines geschätzten Pfads verwendet werden, um eine
Spurgeometrie zu schätzen, durch die das Fahrzeug wahrscheinlich
fährt.
-
Eine
Echtzeit- und zuverlässige Information bezüglich
der Spurgeometrie und Fahrzeugposition und -ausrichtung in Bezug
auf die Spur kann bei einer Anzahl von Anwendungen oder Fahrzeugsteuerschemas nützlich
sein. Beispielsweise kann solch eine Information bei Anwendungen
verwendet werden, die den Bediener bei einer Spureinhaltung, eine
Scheinwerfermodulation, verbesserte Navigationsunterstützungen
und Müdigkeitsalarme unterstützen. Ein Fachmann
wird jedoch erkennen, dass eine große Anzahl von Anwendungen solch
eine Information verwenden kann, und die Offenbarung soll nicht
auf die hierin beschriebenen bestimmten Ausführungsformen
beschränkt sein.
-
Die
zuvor genannten Verfahren beschreiben die Verwendung von Sicht-
oder Kamerasystemen. Eine Analyse solch einer Information kann durch
in der Technik bekannte Verfahren durchgeführt werden.
Eine Bilderkennung umfasst häufig eine Programmierung,
um nach Änderungen des Kontrasts oder der Farbe in einem
Bild zu suchen, die vertikale Linien, Kanten, Ecken oder andere
Muster, die ein Objekt angeben, angeben. Ferner sind zahlreiche
mit einer Bilderkennung in Beziehung stehende Filter- und Analysetechniken
in der Technik bekannt und werden diese hierin nicht ausführlich
beschrieben.
-
Ein
beispielhaftes System zum Verwenden von verfügbaren Daten,
die beispielsweise durch eine Bilderkennung zur Verfügung
stehen, die auf Sichtbilder angewandt wird, um einen freien Pfad
vor dem Host-Fahrzeug zur Fahrt darauf zu definieren, ist in der
ebenfalls anhängigen US-Patentanmeldung Nr. 12/108,581
mit dem Titel VEHICLE CLEAR PATH DETECTION offenbart, deren Offenbarungsgehalt
hierin durch Bezugnahme vollständig mit eingeschlossen
ist.
-
Wie
oben beschrieben benötigt ein beispielhaftes EVS-System
Eingangsquellen für Eingänge, die eine Betriebsumgebung
für das Fahrzeug beschreiben. Wie in den obigen beispielhaften
Verfahren beschrieben, sind in der Technik eine Anzahl von Sensoreinrichtungen
bekannt, die ohne Einschränkung Radar-, Lidar-, Ultraschalleinrichtungen
und Sichtsysteme umfassen. Ferner sei angemerkt, dass eine Information
bezüglich der Betriebsumgebung von anderen Typen von Einrichtungen
erlangt werden kann. Infrarotsensoren oder Infrarotentfernungskamerasysteme
können verwendet werden, um Temperaturdifferenzen zu detektieren.
Solch eine Information kann nützlich sein, um Objekte zu
sehen, die normalerweise für normale Sicht- oder Kamerasysteme
oder das menschliche Auge verdeckt wären. Es sind Verfahren
bekannt, um Infrarotkameradaten im visuellen Spektrum auszugeben,
so dass kleine Temperaturdifferenzen Objekte für den Betrachter
in unterschiedlichen Farben anzeigen. Wie oben beschrieben kann
eine GPS-Einrichtung, die in Verbindung mit einer 3D-Kartendatenbank
verwendet wird, nicht nur verwendet werden, um das Fahrzeug in Bezug
auf eine katalogisierte Straßengeometrie zu positionieren,
sondern auch, um das Fahrzeug im Kontext von Straßendetails,
wie beispielsweise Fahrbahntyp und Straßensteigung oder
-gefälle zu platzieren. Ferner ist eine Anzahl von Sensoren
und Überwachungsverfahren bekannt, um Betriebsparameter
in dem Fahrzeug zu quantifizieren. Ferner ermöglicht eine
entfernte Verarbeitung, die durch ein drahtloses Netz zur Verfügung
gestellt wird, eine Koordination zwischen dem durch eine GPS-Einrichtung
festgelegten Fahrzeugort und Echtzeitdetails, wie beispielsweise
Konstruktion, Wetter und Verkehr.
-
Ferner
kann auf ähnliche Weise über das drahtlose Netz
auf Details, die nicht mit einer Straße/nicht mit Verkehr
in Beziehung stehen, zugegriffen werden, welche beispielsweise über
das Internet verfügbare Daten und Infotainment-Dienste
umfassen, die durch Online-Anbieter zur Verfügung stehen.
Ferner können fahrzeugeigene Systeme mit dem EVS integriert
sein, wobei beispielsweise Wartungsanforderungen, die durch ein fahrzeugeigenes
Diagnosemodul protokolliert werden, wie beispielsweise ein Überwachen
eines akkumulierten Alters des Motoröls oder ein Überwachen
von Reifendrücken, als Eingänge in das EVS verwendet
werden können. Diese Information kann auf der Grundlage
einer fahrzeugeigenen Verarbeitung direkt angezeigt werden; die
Information kann mit Online-Diensten koordiniert werden, wobei beispielsweise
ein Problem mit einem ausgewählten Prozessor einer Wartungseinrichtung
diagnostiziert wird; oder die Information kann gemäß einer 3D-Kartendatenbank
verarbeitet werden, wobei beispielsweise eine Notwendigkeit eines
Anhaltens an einem Reifenladen identifiziert wird und mehrere benachbarte
Läden einschließlich Öffnungszeiten und
Kundenbewertungen auf der Grundlage des Fahrzeugorts lokalisiert
werden. Es steht eine große Vielzahl von Eingängen zur
Verwendung durch ein EVS und die EVS-Systemverwaltungseinrichtung
zur Verfügung, und die Offenbarung soll nicht auf die hierin
beschriebenen beispielhaften Eingänge beschränkt
sein.
-
Alle
erwähnten Eingänge können durch eine
beispielhafte EVS-Systemverwaltungseinrichtung verwendet werden.
Ferner sei angemerkt, dass die EVS-Systemverwaltungseinrichtung
Zugriff auf oben beschriebene Verfahren hat, die mit einer Zielverfolgung,
CPS, einer Kollisionsvermeidung, einer Spureinhaltung und einer
Detektion eines freien Pfads in Beziehung stehen. Diese Verfahren
und eine in Beziehung stehende Programmierung ermöglichen
der EVS-Systemverwaltungseinrichtung, Fahrbedingungen zu bewerten,
die Verfolgungen von Objekten um das Fahrzeug herum, eine Spuridentifikation
und Straßenbedingungen umfassen, und eine Information,
die für den Betrieb des Fahrzeugs gemäß einem
Satz von kritischen Kriterien kritisch ist, zu identifizieren.
-
Die
EVS-Systemverwaltungseinrichtung überwacht Eingänge
und ermittelt, ob eine wahrnehmbare Information in Bezug auf die
Betriebsumgebung des Fahrzeugs ein Anzeigen der Information an der
Frontscheibe berechtigt. Es können eine große
Vielzahl und eine große Breite von Informationen für
eine EVS-Systemverwaltungseinrichtung zur Verfügung gestellt
werden. Ein Bediener eines Fahrzeugs hat jedoch die primäre Pflicht,
auf die Straße zu schauen, und die zusätzliche
Information ist insofern hilfreich, als die Information dezent in
einem Format dargestellt wird, das das Lenken der Aufmerksamkeit
des Fahrers auf eine kritische Information unterstützt
und den Fahrer von der primären Pflicht nicht ablenkt.
Eine beispielhafte EVS-Systemverwaltungseinrichtung umfasst eine
Programmierung, um Eingänge von verschiedenen Quellen zu überwachen;
eine kritische Information aus den Eingängen zu erkennen,
indem kritische Kriterien, die voreingestellte Schwellenwerte, gelernte
Schwellenwerte und/oder auswählbare Schwellenwerte umfassen,
auf die Eingänge angewandt werden, wobei die Schwellenwerte
derart festgelegt sind, dass sie ein nicht kritisches Ablenken des Bedieners
minimieren; und Grafiken für eine Anzeige auf der Grundlage
der kritischen Information anzufordern.
-
Schwellenwerte,
die eine kritische Information aus den Eingängen ermitteln,
können auf einer Anzahl von Basen basieren. Die HUD-Systemverwaltungseinrichtung
hat Zugriff auf eine Anzahl von Eingangsinformationsquellen und
umfasst verschiedene programmierte Anwendungen, um ein kontextabhängiges
Betriebsumgebungsmodell zu erzeugen, um zu ermitteln, ob eine erfasste
Information eine kritische Information ist. Beispielsweise kann
ein Kollisionsvermeidungssystem oder ein Kollisionsvorbereitungssystem
wie oben beschrieben verwendet werden, um eine Wahrscheinlichkeit
eines Aufpralls auf der Grundlage von Rückführungen
von einem Radarerfassungssystem zu beurteilen. Eine relative Trajektorie
eines erfassten Objekts kann verwendet werden, um das Objekt als
kritische Information zu kennzeichnen, um eine Kollision zu vermeiden.
Der Kontext des Eingangs, der das erfasste Objekt beschreibt, kann
jedoch wichtig sein, um einen Schwellenwert zum Kennzeichnen des
Eingangs als kritische Information zu definieren. 27–29 zeigen eine
beispielhafte Anwendung einer kontextabhängigen Information
auf erfasste Objektdaten, um zu ermitteln, ob die erfassten Daten
eine kritische Information sind, gemäß der vorliegenden
Offenbarung. 27 zeigt ein Fahrzeug mit drei
sequentiellen Datenpunkten, die ein Zielobjekt vor dem Fahrzeug
beschreiben, wobei jeder nachfolgende Datenpunkt näher
an dem Fahrzeug liegt als der vorausgehende Datenpunkt. Es ist ein
Fahrzeug 500 gezeigt, das eine Information bezüglich
des Zielobjekts als relative Entfernung von dem Fahrzeug zu den
Zeitpunkten T1, T2 und
T3 sammelt. Ohne Kontext deuten solche Datenpunkte,
die sich dem Fahrzeug nähern, auf eine unmittelbar bevorstehende
Kollision des Fahrzeugs mit dem Zielobjekt hin. 28 zeigt eine beispielhafte Situation, in der
entsprechende Datenpunkte eine kritische Information für
einen Bediener korrekt angeben würden. Das Fahrzeug 500 ist
auf einer Spur 510 fahrend gezeigt. Es ist auch ein Fahrzeug 520 gezeigt,
das auf der gleichen Spur 510, jedoch in die entgegengesetzte
Richtung wie die des Fahrzeugs 500 fährt. In diesem
Fall befindet sich das Zielobjekt auf einem Kollisionspfad mit dem
Host-Fahrzeug, und daher würden gesammelte Datenpunkte,
die die kleiner werdende Entfernung zu dem Zielobjekt angeben, korrekt
als kritische Information identifiziert werden. Ein Identifizieren
des Zielobjekts an der HUD wäre in diesem Fall keine unberechtigte
Störung des Fahrzeugbedieners. 29 zeigt
eine beispielhafte Situation, in der entsprechende Datenpunkte eine
kritische Information inkorrekt für einen Bediener anzeigen
könnten. Es ist das Fahrzeug 500 gezeigt, das
auf der Spur 510 fährt. Es ist auch ein Verkehrsschild 530 direkt
vor dem Fahrzeug 500 gezeigt. An das Fahrzeug zurückgegebene
Objektverfolgungsdaten würden angeben, dass das Verkehrsschild 530 auf
einem Kollisionskurs mit dem Fahrzeug 500 liegt. In diesem
Fall können jedoch eine Kontextinformation, die die Geschwindigkeit
des Verkehrsschilds in Bezug auf die Geschwindigkeit des Fahrzeugs
umfasst und ein feststehendes Verkehrsschild angibt und eine kontextabhängige
Information in Bezug auf die Kurve der Spur 510 verwendet
werden, um die Objektverfolgungsdaten von dem Verkehrsschild 530 als
unterhalb eines Schwellenwerts für eine kritische Information
liegend ausschließen. In den obigen beispielhaften Ermittlungen
kann eine kontextabhängige Information hinsichtlich der
Zielverfolgungsdaten durch eine Anzahl von Verfahren erreicht werden,
die ohne Einschränkung ein Korrelieren einer relativen
Bewegung des Ziels mit der Geschwindigkeit des Host-Fahrzeugs, GPS-Daten,
die Kartendaten umfassen, die eine Spurgeometrie für den aktuellen
Ort des Fahrzeugs beschreiben, eine Spurgeometrie, die durch visuelle
oder Kameradaten beschrieben wird, und/oder eine Mustererkennungsprogrammierung,
die Bilder des verfolgten Objekts analysiert, was für eine
Unterscheidung zwischen einem sich nähernden Fahrzeug und
einem Verkehrsschild ausreicht, umfassen. Durch Erzeugen eines kontextabhängigen
Umgebungsmodells auf der Grundlage von ermittelten räumlichen
Beziehungen in Relation zu dem Fahrzeug für die HUD-Systemverwaltungseinrichtung
zum Bewerten der Eingangsdatenpunkte bezüglich einer Zielverfolgung
kann eine Ermittlung bezüglich der kritischen Natur der
Information durchgeführt werden, wobei beispielsweise eine
Wahrscheinlichkeit einer Kollision indiziert wird. Solch ein Modell
kann auf einer komplexen Programmierung basieren, die Faktoren umfasst,
die eine große Anzahl von Eingängen beschreiben,
die beispielsweise die Wahrscheinlichkeit eines Radschlupfs an einem
Stück einer Straße vor dem Fahrzeug, ein Straßengefälle,
ein Fahrzeug, das im Gegenverkehr oberhalb der Geschwindigkeitsschränkung
fährt, und die Lautstärke in dem Host-Fahrzeug,
die auf eine möglicherweise ablenkende Lautstärke
hochgedreht ist, beurteilen. Andererseits kann solch ein kontextabhängiges
Umgebungsmodell so einfach sein wie ein Vergleich der aktuellen
Geschwindigkeit des Fahrzeugs mit einer identifizierten Geschwindigkeitsbeschränkung
oder ein Vergleich einer Entfernung zu einem Zielfahrzeug vor dem Host-Fahrzeug
mit einer Schwellenwertminimalentfernung.
-
Die
obigen Beispiele sind lediglich Beispiele mehrerer kontextabhängiger
Ermittlungen, die eine HUD-Systemverwaltungseinrichtung bezüglich
einer kritischen Information vornehmen kann. Bekannte Verfahren
ermöglichen die Verwendung von GPS-Daten in Kombination
mit einer Information von einer 3D-Kartendatenbank, um eine vorgeschlagene
Route zu einem identifizierten Ziel zu identifizieren. Ein Integrieren
solcher Verfahren mit der Verwendung einer HUD ermöglicht
eine Projektion von Turn-by-Turn-Anweisungen an der HUD, was einen
wichtigen Nutzen des Ermöglichens einer Registrierung der
Anweisungen an den tatsächlichen Straßenmerkmalen,
die durch die Frontscheibe sichtbar sind, umfasst. Eine Verwendung
eines kontextabhängigen Modells, das das Fahrzeug in Bezug
auf sichtbare Merkmale an einem Ort anordnet, ermöglicht,
dass die Anweisungen an den Betrieb des Fahrzeugs und die Umgebungsbedingungen
angepasst werden. Solch eine Registrierung an den sichtbaren Straßenmerkmalen
ermöglicht genauere Anweisungen für den Fahrer
im Gegensatz zu verbalen und/oder LCD-Kartenanzeigen.
-
Bekannte
Systeme, die GPS-Einrichtungen verwenden, können ein eingegebenes
Ziel verwenden, um routeninterne Anweisungen für den Bediener
zu liefern. Bekannte GPS-Einrichtungen umfassen jedoch langsame
Abtastraten und ungenaue GPS-Messungen. Als Ergebnis können
GPS-Einrichtungen auf der Grundlage des kontextabhängigen
Fahrzeugbetriebs in Bezug auf eine geplante Route keinen Eingang
für den Bediener bereitstellen. Die HUD-Systemverwaltungseinrichtung
kann Richtungspfeile an der Straße projizieren, um die
geplante Route zu zeigen, wobei die HUD-Systemverwaltungseinrichtung
jedoch zusätzlich ein kontextabhängiges Betriebsumgebungsmodell
der geplanten Fahrtroute konstruieren kann, wobei eine verfügbare
Information zur Identifikation als kritischer Informationseingang,
der eine Abweichung von der geplanten Route beschreibt, synthetisiert
wird. Die HUD-Systemverwaltungseinrichtung kann nicht nur verschiedene
Informationsquellen verwenden, um die Genauigkeit der dargestellten
Information zu erhöhen, wobei beispielsweise eine visuelle
oder eine Kamerainformation verwendet wird, um die Genauigkeit eines
GPS-Orts zu verbessern, sondern der Information kann ferner eine
kontextabhängige Wichtigkeit bezüglich der Umgebung
des Fahrzeugs verliehen werden, die beispielsweise eine Objektverfolgungsinformation
oder 3D-Kartendaten umfasst. Wenn bei einem Beispiel eine geplante
Route umfasst, dass das Fahrzeug eine Schnellstraße an
einer bevorstehenden Ausfahrt auf der rechten Seite der Straße
verlässt, können GPS-Daten verwendet werden, um
den Bediener aufzufordern, die Ausfahrt zu nehmen. Jedoch können
GPS-Daten, die in ein kontextabhängiges Modell synthetisiert
wurden, das eine visuelle Information umfasst, die eine Fahrtspur
beschreibt, verwendet werden, um die GPS-Daten und die entsprechende
geplante Route hinsichtlich eines Schwellenwerts einer kritischen Information
zu beurteilen. Wenn beispielsweise visuelle Daten das Fahrzeug auf
einer linken Spur einer dreispurigen Straße anordnen und
ein Verwenden der bevorstehenden Ausfahrt zwei Spurwechsel erfordert,
kann die Information, die die bevorstehende Ausfahrt angibt, als
kritische Information, die eine grafische Anzeige oder eine gesteigerte
Dringlichkeit in einer grafischen Anzeige an der HUD berechtigt,
identifiziert werden. Unter den gleichen Umständen kann
bei einem Überwachen einer visuellen Information, die angibt,
dass sich das Auto auf der rechten Spur befindet, die der Ausfahrt
entspricht, und einer Fahrzeuginformation, die angibt, dass der
Rechtsblinker des Fahrzeugs aktiviert wurde, die Information, die
die bevorstehende Ausfahrt angibt, als nicht kritische Information
ermittelt werden, die keine grafische Anzeige oder nur eine minimale
Anzeige an der HUD berechtigt. Ferner können eine Objektverfolgung,
das Wetter, die Sichtverhältnisse oder andere Informationsquellen
verwendet werden, um zu beeinflussen, wie und wann Navigationsunterstützungen
angezeigt werden sollen.
-
Es
werden weitere Beispiele des Anwendens von Schwellenwerten einer
kritischen Information auf eine Information in Betracht gezogen.
Eine Adresseninformation, die einem bestimmten Ort eines Fahrzeugs an
einer Straße entspricht, kann durch GPS-Daten und eine
Anwendung einer 3D-Kartenbank ermittelt werden. Visuelle Daten,
die eine Bilderkennungsprogrammierung umfassen, können
verwendet werden, um ein Gebäude oder eine Entfernung von
Gebäuden, die als die Zieladresse umfassend geschätzt
wurden, abzugrenzen. Es können Daten aus der Vergangenheit überwacht
werden, und solch eine Zielabgrenzung kann als kritische Information
betrachtet werden, wenn das Fahrzeug nie zuvor zu dem Ziel gefahren
ist oder wenn das Ziel unter einer besonders dichten Anordnung von
Gebäuden umfasst ist. Alternativ kann ein Sprachbefehl
von dem Bediener verwendet werden, um die Zielabgrenzung als kritisch
zu definieren. Alternativ können ein Bedienerkopfort und
eine Augenausrichtung gemäß nachstehend beschriebenen
Verfahren überwacht werden und kann die Zielabgrenzung
auf der Grundlage dessen, dass der Kopf und die Augenbewegung des
Bedieners ein Suchen einer Adresse angeben, als kritische Information
betrachtet werden.
-
Ein
weiteres Beispiel des Anwendens eines Schwellenwerts einer kritischen
Information kann eine Analyse momentaner Wetterbedingungen umfassen.
Unter normalen Fahrbedingungen würde eine Projektion von
Linien an der HUD, die Spurgrenzen angeben, wahrscheinlich als unberechtigt
und eine Ablenkung betrachtet werden. Bei einem Hinweis, dass Wetterbedingungen,
wie beispielsweise Nebel, Schnee, Regen, grelles Sonnenlicht oder
andere Faktoren vorliegen oder kombiniert sind, so dass sie Bedingungen
erzeugen, unter denen die Sicht auf die Spurmarkierungen behindert
sein kann, können Spurgrenzen jedoch als kritische Information
bestimmt werden. Die Wetterbedingungen können durch eine
Anzahl von Verfahren erkannt werden. Es können Online-Daten
in Verbindung mit GPS-Daten verwendet werden, um die momentanen
Wetterbedingungen zu schätzen. Es können visuelle
Daten analysiert werden, um zu ermitteln, ob Spurmarkierungen visuell
erkennbar sind oder ob Niederschlag oder Nebel die Sichtdistanz
ausreichend übermäßig verringern, um
eine Projektion von Spurmarkierungen zu berechtigen. Gemäß einem
Kalender und einem GPS-Ort können die Sonnenaufgangs- und
Sonnenuntergangszeiten und der Ort am Himmel ermittelt werden. Diese
Information bezüglich der Position der Sonne kann mit einer
Richtungsorientierung des Autos in Korrelation gesetzt werden, um
auf der Grundlage dessen, dass das Auto in Richtung Sonne weist,
zu ermitteln, dass die Spurmarkierungen eine kritische Information
sind. Alternativ kann auf der Grundlage einer visuellen Information
die Sonnenposition geschätzt werden. Bei einem ähnlichen
Beispiel können, wenn eine visuelle Information angibt,
dass ein Fahrzeug im Gegenverkehr mit eingeschalteten hohen Scheinwerfern
möglicherweise eine Blendungssituation bewirkt, Spurmarkierungen
als kritische Information angegeben werden, um den Bediener des Host-Fahrzeugs
beim Bleiben auf der aktuellen Spur zu unterstützen. Auf
diese Weise können die geschätzten Bedienersichtverhältnisse
verwendet werden, um eine geeignete Spurmarkierungsprojektion an
der HUD zu ermitteln. Alternativ können Spurmarkierungen
auf der Grundlage einer geschätzten Fahrzeugposition hinsichtlich
der Spur als kritische Information ermittelt werden, wobei beispielsweise
die Spurmarkierungen zu einer kritischen Information werden, wenn
sich das Host-Fahrzeug den Spurmarkierungen nähert oder
diese überquert. Eine Position auf der Spur zeigt ferner
eine Bedingung, unter der ein Wichtigkeitsgrad für die
kritische Information angegeben werden kann, wobei eine erhöhte
Wichtigkeit angegeben wird, wenn sich das Fahrzeug den Spurmarkierungen
nähert und diese dann überquert. Ein Erhöhen
der Intensität der an der HUD projizierten grafischen Bilder,
ein Blinken der grafischen Bilder und entsprechende Audiosignale
für den Bediener können auf der Grundlage eines
Erhöhens einer angegebenen Wichtigkeit der kritischen Information
verwendet werden. Solche Kriterien einer Position auf der Spur könnten
als Müdigkeitsindikator verwendet werden, wobei beispielsweise
eine einzelne Abweichung als nicht kritische Information behandelt
wird, jedoch eine wiederholte Abweichung von der Mitte der Spur
zu einer kritischen Information oder einer Information einer gesteigerten
Wichtigkeit wird, wobei beispielsweise eine koordinierte Information
in Textform oder akustische Warnungen veranlasst werden. Unter bestimmten
Bedingungen könnte ein überlagertes Thermo- oder
Infrarotkamerabild der Straße durch den Bediener verwendet
oder angefordert werden, wobei visuelle Bedingungen verhindern,
dass der Bediener die korrekte Fahrspur sieht, was beispielsweise
durch einen nicht funktionierenden Scheinwerfer verursacht wird.
-
Ein
weiteres Beispiel des Anwendens eines Schwellenwerts einer kritischen
Information kann eine Analyse eines Fußgängervorhandenseins
und einer Fußgängerbewegung umfassen. Beispielsweise
kann eine normale Bewegung eines Fußgängers auf
einem Gehsteig, der sich parallel zu der Richtung des Fahrzeugverkehrs
bewegt, als nicht kritische Information ermittelt werden. Eine Bewegung
eines Fußgängerverkehrs in eine andere Richtung,
beispielsweise senkrecht zum Fahrzeugverkehr, kann jedoch als Schwellenwert
zum Identifizieren einer kritischen Information verwendet werden.
Innerhalb dieses Beispiels kann ein anderes Beispiel des Angebens
einer gesteigerten Wichtigkeit der kritischen Information dargestellt
werden. Wenn ein Fußgänger senkrecht zum Fahrzeugverkehr
auf einem vorgegebenen Gehsteig läuft, kann eine Grafik,
die eine geringe oder moderate Wichtigkeit angibt, angegeben werden.
In dem Fall, dass sich ein Fußgängerverkehr von
dem Gehsteig zu der Fahrspur erstreckt oder innerhalb der Fahrspur
detektiert wird, kann eine Grafik, die eine starke oder erhöhte
Wichtigkeit angibt, angegeben werden. Bei einem anderen Beispiel
zum Identifizieren einer kritischen Information bezüglich
eines Fußgängerverkehrs können aktuelle
Ampelmuster realisiert und verwendet werden, um eine kritische Information
zu identifizieren. Wenn sich das Host-Fahrzeug an einer Ampel befindet,
kann ermittelt werden, dass ein Fußgängerverkehr,
der visuellen Bildern entspricht, die eine Ampelangabe ”Gehen” angeben,
eine nicht kritische Information ist. Unter den gleichen Umständen kann
jedoch ein Fußgängerverkehr, der einer Ampelangabe ”Stehen” entspricht,
als kritische Information ermittelt werden. Alternativ können
eine visuelle Information und eine Entfernungsinformation zu einem
Ziel verwendet werden, um eine geschätzte Größe
des Ziels zu projizieren. Solch eine geschätzte Größe
könnte verwendet werden, um beispielsweise alle Fußgänger,
die kleiner als 122 cm (4 Fuß) geschätzt werden,
als kritische Information zu identifizieren, um den Fahrer hinsichtlich
Kinder in der Betriebsumgebung zu alarmieren. Alternativ kann durch
eine Verkehrsschilderkennungsanwendung von GPS-Daten und eine 3D-Karte,
eine lokale Hochfrequenzübertragung oder Tagging etc. eine
Schulzone oder ein Bereich gehörloser Kinder identifiziert
werden und können in solch einer Zone alle Fußgänger
als kritische Information gekennzeichnet werden. In Situationen,
in denen Fußgängerverkehr detektiert, jedoch als
nicht sichtbar ermittelt wird, kann eine Grafik, die Daten einer
Thermografie oder eines Infrarotbilds verwendet, selektiv der Ansicht
des Fußgängers überlagert werden, um
dem Fahrzeugbediener zu ermöglichen, eine bessere Entscheidung
bezüglich der Situation zu treffen.
-
Es
werden weitere Ausführungsformen einer kritischen Information,
die durch die EVS-Systemverwaltungseinrichtung wahrnehmbar ist,
offenbart. Bei einer beispielhaften Verwendung können empfohlene
Folgedistanzen zwischen dem Host-Fahrzeug und anderen Fahrzeugen
mit gemessenen Entfernungen verglichen werden und kann jede Entfernung
unterhalb den minimalen empfohlenen Distanzen als kritische Information für
eine Anzeige identifiziert werden. Bei einem anderen Beispiel, bei
dem ein Fahrzeug verwendet wird, um einen neuen Bediener zu trainieren,
kann eine Grafik, die für den Fahrgast/Trainer angezeigt
wird, verwendet werden, um das Prüfen der neuen Aktionen
des Bedieners zu verbessern. Bei einem anderen Beispiel kann ein
Fahrzeug, das unter einer semiautonomen Steuerung oder einem ACC
betrieben wird, eine kritische Information, die aktuelle Entfernungen
zu anderen Fahrzeugen übermittelt, oder eine andere Information,
die Aktionen durch das Steuersystem beschreibt, für den
Bediener anzeigen, so dass der Bediener schnell sicherstellen kann,
ob ein manueller Eingriff durch den Bediener notwendig ist. Bei
einem anderen Beispiel kann eine Fahrzeug-Fahrzeug-Kommunikation
verwendet werden, um gleichzeitig ein Einfädelmanöver
zwischen zwei Fahrzeugen unter Verwendung eines ACC zu verwalten.
Die Grafik an der HUD kann verwendet werden, um die Absicht des
Durchführens eines Einfädelmanövers an
jeden der Fahrer zu übermitteln, um jeden Fahrer hinsichtlich
der übermittelten Absicht zu informieren, um unerwartete Änderungen
der Fahrzeugbewegung zu vermeiden und eine Wahrnehmung einer unmittelbar
bevorstehenden Kollision zu vermeiden. Bei einer ähnlichen
Anwendung kann in Fahrzeugen, die ein semiautonomes Fahren verwenden,
bei dem eine automatische Fahrzeuglateralsteuerung durch ein Spureinhaltesystem
gekoppelt mit einem Mechanismus eines automatischen Lenkens verwendet
wird, eine Grafik an der HUD verwendet werden, um den Bediener vorab
zu informieren, dass ein Spurwechsel oder eine andere Aktion unmittelbar
bevorsteht, so dass der Bediener durch die Aktion, die nachfolgend
durch die semiautonomen Steuerungen durchgeführt wird,
nicht überrascht ist.
-
Bei
einer anderen Ausführungsform kann eine Fahrzeug-Fahrzeug-
oder eine Fahrzeug-entfernter Server-Kommunikation verwendet werden,
um den Fahrzeugbetrieb zu überwachen und Muster im Fahrzeugbetrieb
zu identifizieren. Beispielsweise kann ein Verlangsamen aufgrund
eines Unfalls über den Betrieb zahlreicher Fahrzeuge überwacht
werden und kann die Information an weitere Fahrzeuge, die sich dem
Bereich nähern, weitergeleitet werden. Auf der Grundlage
des Überwachens, wie viel Verzögerung das Verlangsamen bei
den bereits betroffenen Fahrzeugen verursacht hat, kann die Information
kritische Information genannt werden und es kann hinsichtlich der
Verzögerung geeignet alarmiert werden und es kann eine
alternative Route empfohlen werden. Bei einem anderen Beispiel kann
bei einer Anzahl von Fahrzeugen ein Radschlupf überwacht werden
und kann ein Fahrzeug, das sich der bestimmten Strecke der Straße
nähert, die den Radschlupf verursacht, ein grafisches Stück
umfassen, das an der Fahrbahn projiziert wird und einen wahrscheinlich
rutschigen Straßenzustand angibt. Die Information kann
auf der Grundlage eines Auftretens von Schlupfereignissen an der
bestimmten Strecke einer Straße als kritische Information
ermittelt werden oder kann auf einem Vergleich des Betriebs des
anzeigenden Fahrzeugs mit dem Betrieb des Fahrzeugs, das den Schlupf
erfährt, basieren. Beispielsweise wird ermittelt, dass
in den letzten vier Stunden drei Fahrzeuge, die schneller als 80 km/h
(50 Meilen pro Stunde) fuhren, auf dieser Strecke der Straße
rutschten, wobei jedoch auf der Grundlage dessen, dass das Host-Fahrzeug
mit 56 km/h (35 Meilen pro Stunde) fährt, ermittelt wird,
dass die Information nicht kritisch ist. Bei einer anderen Ausführungsform
kann durch das Sichtsystem, potentiell durch ein Radarsystem erweitert,
Wild überwacht werden und in Abhängigkeit von
einer projizierten Klassifizierung des Wilds als kritische Information
angegeben werden. Eine Identifikation eines Pferds auf einem Feld
kann als nicht kritische Information ermittelt werden, wohingegen
eine Identifikation eines Weißwedelhirschs, der in Richtung der
Straße springt, als kritische Information ermittelt werden
kann.
-
Es
werden Ausführungsformen in Betracht gezogen, die eine
Information bezüglich der Umgebung des Fahrzeugs betreffen.
Beispielsweise können interessierende Punkte als kritische
Information für eine Anzeige an der HUD ausgewählt
werden. Eine Familie, die in einer unbekannten Stadt unterwegs ist,
kann eine Information bezüglich Sehenswürdigkeiten,
die auf der Route liegen, empfangen. Ähnlich können
Anweisungen zu Sehenswürdigkeiten oder eine vorgeschlagene
Reiseroute ausgewählt und durch das EVS angezeigt werden.
Ein Sportfreund kann ein interessierendes Sportteam auswählen
und beim Vorbeifahren an einem Stadion oder einer Arena kann ein
Zugriff durch eine drahtlose Kommunikation zum Prüfen von
Spielzeiten, Ticketkosten und einer aktuellen Sitzplatzverfügbarkeit
für eine automatische Projektion an der HUD verwendet werden.
Ein Antiquitätensammler kann eine Benachrichtigung beim
Vorbeifahren an einem Antiquitätenladen, einem Nachlassverkauf
oder einem Flohmarkt innerhalb einer bestimmten Distanz anfordern,
und bei einer Anforderung können grafische Anweisungen
zu dem Ort angezeigt werden. Ein Insasse, der nach einem neuen Eigenheim
sucht, kann eine Benachrichtigung und Anweisungen zu diesem anfordern,
wenn eine neue Auflistung für ein zum Verkauf stehendes
Eigenheim aufgegeben wird, das ausgewählte Kriterien erfüllt,
um die jüngsten Auflistungen zu erhalten. Ein Autoliebhaber
kann anfordern, dass eine Fahrzeugmarke oder ein Fahrzeugmodell,
die oder das durch eine visuelle Erkennung identifiziert wird, durch
ein grafisches Bild identifiziert wird. Es wird eine Anzahl von
Anwendungen zum Identifizieren von Punkten von Interesse in Betracht gezogen,
und die Offenbarung soll nicht auf die hierin beschriebenen bestimmten
Ausführungsformen beschränkt werden.
-
Es
werden Ausführungsformen zur Verwendung durch Notfallpersonal
in Betracht gezogen. Beispielsweise kann ein Krankenwagen, der mit
dem offenbarten EVS-System ausgestattet ist, mit Fahrzeugen oder einem
entfernten Server kommunizieren, um auf dem Weg zu dem Unfallort
eine entsprechende Information einzubeziehen. Beispielsweise können
unterwegs vorgeschlagene Routen durch eine Leitstelle aktualisiert werden,
kann ein Polizist an der Unfallstelle den sich nähernden
Krankenwagen hinsichtlich einer gefährlichen Situation
alarmieren oder kann ein Fahrzeug vor Ort mit einem identifizierten
schweren Schaden mit dem Krankenwagen kommunizieren, um eine Grafik
zu realisieren, um das Fahrzeug mit dem Schaden beim Heranfahren
zu identifizieren. Polizeifahrzeuge können Grafiken zur
Kommunikation zwischen Polizeifahrzeugen verwenden, wobei beispielsweise
ein verfolgtes Zielfahrzeug in einem Fahrzeug identifiziert wird
und in anderen Polizeifahrzeugen, die sich der Verfolgung anschließen,
eine Grafik erzeugt wird. Bei einem anderen Beispiel können
Fahrzeuge Kommunikationen mit einem entfernten Server verwenden,
um eine Information bezüglich Fahrzeugen zu empfangen,
die in Verbindung mit einer Situation, beispielsweise einem Amber-Alarm,
identifiziert werden. Beispielsweise können als gesucht
identifizierte Autokennzeichen durch eine in der Technik bekannte
Software in Kombination mit dem Sichtsystem erkannt werden. Diese
Information kann ohne die Kenntnis des Fahrzeugs, das kein Notfallfahrzeug
ist, und daher ohne die Gefährdung der Insassen des Fahrzeugs dem
Notfallpersonal übermittelt werden und an die EVS-Systemverwaltungseinrichtung
des nächsten Polizeifahrzeugs für eine grafische
Anzeige weitergeleitet werden. Ferner können Polizeifahrzeuge
eine Thermografie verwenden, um einen Ort nach versteckten oder
verletzten Personen in der Landschaft zu durchsuchen. Feuerwehrfahrzeuge
können das EVS-System verwenden, um den Betrieb zu verbessern,
indem sie beispielsweise beim Bewerten der Situation bei einer Ankunft
unterstützt werden. Wenn beispielsweise die Leitstelle einen
Anruf von einer im dritten Stock in der Nordwestecke eines Gebäudes
gefangenen Person empfangen hat, könnte die Leitstelle
die Adresse und die Rauminformation eingeben und könnte
der bestimmte Raum des Gebäudes als kritische Information
identifiziert werden, die ein grafisches Bild durch das EVS-System
erfordert. Bei einem anderen Beispiel könnte eine Thermografie
an einem Fahrzeug, das an dem Ort eines Feuers angehalten hat, eingeschaltet
werden, um die Feuerwehrmänner beim Ermitteln des Orts
und des Fortschritts des Feuers von einem sicheren Ort aus zu unterstützen.
Es wird eine Anzahl solcher Anwendungen in Betracht gezogen, und
die Offenbarung soll nicht auf die hierin beschriebenen bestimmten
Beispiele beschränkt sein.
-
Es
wird eine Anzahl von Komfortanwendungen in Betracht gezogen. Beispielsweise
wird eine eingeschränkte Architektur eines Pixel-Sichtfelds
offenbart, die einem Betrachter, der aus einer Richtung auf die HUD
schaut, ermöglicht, ein Bild zu sehen, wobei ein anderer
Betrachter, der aus einer anderen Richtung auf die HUD schaut, das
bestimmte Bild entweder nicht sieht oder ein anderes Bild sieht
als der erste Betrachter. Solch ein System würde einem
Fahrgast ermöglichen, Bilder, die nicht mit der Fahrt in
Beziehung stehen, an der Frontscheibe zu sehen, während
der Fahrzeugbediener weiterhin nur Bilder sieht, die mit dem Betrieb
des Fahrzeugs in Beziehung stehen. Beispielsweise könnte
ein Fahrgast Bilder vom Infotainment-Typ sehen, wie beispielsweise
Internetinhalt, ein Video von einer Datenspeichereinrichtung, oder
könnte er eine fahrzeugeigene Kamera verwenden, um die
Anzeige als Schminkspiegel zu verwenden, ohne die Sicht des Fahrers
zu stören. Solch ein Inhalt könnte an andere Systeme
angebunden sein, wobei der Fahrgast Speisekarten aus dem Internet
entlang der projizierten Route des Fahrzeugs prüft und
ein Restaurant als Zwischenziel auf der projizierten Route auswählt,
ohne den Fahrzeugbediener zu stören. Solch ein System könnte
ferner einem Bediener eines Fahrzeugs ermöglichen, geeignet
registrierte Bilder an der Frontscheibe zu sehen, ohne dass der Fahrgast
die gleichen Bilder sieht, die für den Fahrgast nicht registriert
sind und ihn möglicherweise stören.
-
Ein
Vorteil von HUD-Anwendungen ist das Anordnen einer Information vor
einem Bediener in einem einzigen Sichtfeld mit einer anderen kritischen
Information, wie beispielsweise einer Sicht durch eine Frontscheibe.
In bekannten Luftfahrtanwendungen werden HUD-Einrichtungen verwendet,
um einem Pilot zu ermöglichen, die Augen auf der Sicht
nach außen zu halten, während ihm eine kritische
Information, wie beispielsweise Fluggeschwindigkeit und Höhe,
dargestellt wird. Solch eine Informationsdarstellung in dem gleichen
Sichtfeld mit einer visuellen Information reduziert den Konzentrationsverlust,
die Ablenkung und die vorübergehende Desorientierung, die
damit in Verbindung stehen, dass man die Augen von einer Sicht nach
außen zu einem Armaturenbrett bewegt. Auf ähnliche
Weise kann das EVS eine Anzeigeinformation für einen Fahrzeugbediener
in einem einzelnen Sichtfeld mit der Sicht nach außen,
die durch die Frontscheibe sichtbar ist, darstellen. Solch eine
Information kann die ganze Zeit dargestellt werden. Um jedoch eine
Ablenkung zu vermeiden, kann die Information gemäß einem
Status einer kritischen Information oder gemäß einer
Wichtigkeit gefiltert werden. Beispielsweise ist bei einer niedrigen
Geschwindigkeit im Vergleich zu einer hohen Geschwindigkeit eine
andere Information kritisch oder wichtig. Eine kritische Information
für die Anzeige an der Windschutzscheibe kann auf der Grundlage
von Schwellenwertfahrzeuggeschwindigkeiten abgestimmt werden. Eine
Motordrehzahl innerhalb normaler Bereiche kann nicht als kritische
Information klassifiziert werden oder nur eine minimale Anzeige
mit niedriger Intensität erhalten. Wenn sich die Motordrehzahlen
jedoch auf höhere Niveaus erhöhen, kann die Anzeige
aktiviert oder intensiviert werden, um den Bediener hinsichtlich
einer möglichen Beschädigung des Motors zu warnen.
Ein Kraftstoffstandstatus in den Fahrzeugkraftstofftanks kann auf
der Grundlage eines vollen oder nahezu vollen Tanks auf ähnliche
Weise nicht angezeigt oder minimal angezeigt werden. Es können
verschiedene Niveaus einer erhöhten Wichtigkeit realisiert
werden, wobei beispielsweise die Größe einer Anzeige
verdoppelt wird, wenn sich der Kraftstofftank unter einen viertel
Tank leert und ein Indikator blinkt, wenn ein kritischer niedriger
Kraftstofftank unterschritten wird. Die Niveaus einer kritischen
Information und die Niveaus einer Wichtigkeit können durch
den Fahrzeugbediener beispielsweise über auswählbare
Menüs an einer Fahrzeuganzeige angepasst werden. Ferner
können Anzeigen und Niveaus einer kritischen und wichtigen
Information auf der Grundlage einer Bedienervorliebe durch ein drahtloses
Netz oder durch eine direkte Verbindung eines Computers, beispielsweise
durch eine USB-Verbindung, mit dem Fahrzeug angepasst werden. Solch
eine Anpassung könnte umfassen, dass ein Bediener Anzeigeformen,
Linienstärken, Linienfarben, Orte an der Frontscheibe oder
andere ähnliche Präferenzen auswählt.
Auf der Grundlage der Fahrzeuggeschwindigkeit oder des Straßentyps
kann ein Anzeigemotiv oder eine Anzeigedarstellung wählbar
umgeschaltet werden, wobei ein Bediener beispielsweise ein Autobahnmotiv
und ein Seitenstraßenmotiv konfiguriert. Gemäß einem
GPS-Ort könnten Motive mit einem Stadtmotiv und einem Landschaftsmotiv
ausgewählt werden. Entwürfe für angepasste
Anzeigen an der Frontscheibe könnten auf Nutzer-Websites
gemeinsam genutzt oder kommerziell von dem Fahrzeughersteller oder
Dritten erlangt werden. Die Anzeigen können mit im Handel
erhältlichen Einrichtungen, beispielsweise einer Abspieleinrichtung
für digitale Musik, koordiniert werden und in ein Anzeigemotiv
integriert werden, wobei beispielsweise die Anzeige der Musikabspieleinrichtung
in eine Ecke der HUD übertragen wird. Ein einzelnes Fahrzeug,
ausgestattet mit bekannten Verfahren zum Ermitteln einer Bedieneridentität,
könnte automatisch Präferenzen für diesen
Bediener laden. Es werden viele Ausführungsformen für
Anzeigen, die an die Frontscheibe projiziert werden können, in
Betracht gezogen, und die Offenbarung soll nicht auf die bestimmten
hierin beschriebenen Ausführungsformen beschränkt
sein.
-
An
die Frontscheibe können andere Anzeigen projiziert werden,
um die Notwendigkeit für den Bediener, seine Augen von
der Frontscheibe wegzubewegen, zu minimieren. Beispielsweise können
anpassbare Kameras im hinteren Bereich des Fahrzeugs verwendet werden,
um ein kleines Bild eines schlafenden Kinds in einem Autositz in
einer hinteren Reihe des Fahrzeugs zu projizieren, was dem Bediener
ermöglicht, das Kind zu überwachen, ohne dass
er sich zum Schauen umdreht. Es könnte eine panoramaartigere
Ansicht realisiert werden, um mehrere Kinder zu überwachen.
Solch eine Überwachungsfunktion könnte in Echtzeit
stattfinden oder könnte eine Wiedergabefunktion umfassen.
-
Wie
oben beschrieben kann ein Fahrgast unter bestimmten Umständen
eine Information vom Infotainment-Typ sehen. Ablenkungen für
den Fahrzeugbediener müssen deutlich und wie manchmal durch
eine Regulierung erforderlich minimiert werden. Wenn sich ein Fahrzeug
bewegt, wäre eine Information, wie beispielsweise Videoinhalt
oder Email-Kommunikationen, für den Bediener ratsamerweise
nicht sichtbar. Solche Anwendungen können jedoch zur Verfügung
gestellt werden, wenn es zulässig ist, wie beispielsweise
bei einer Fahrzeuginformation, die angibt, dass sich das Fahrzeug
in einem Parkgetriebezustand befindet, oder wenn die Parkbremse
des Fahrzeugs betätigt ist. Es können andere Anwendungen
möglich sein, die eine eingeschränkte Information
für den Bediener darstellen, ohne eine übermäßige
Ablenkung herbeizuführen, welche beispielsweise Sportpunktestände
aus dem Internet, neue Überschriften aus dem Internet oder
eine Information über Musik, die momentan in dem Fahrzeug
gespielt wird, wobei beispielsweise ein Liedtitel und ein Interpretenname
als minimale Grafik an der HUD bereitgestellt werden, umfassen.
-
Eine
beispielhafte Ausführungsform einer eingeschränkten
Architektur eines Pixel-Sichtfelds, die eine Bildansicht aus einer
eingeschränkten Richtung ermöglicht, umfasst die
Verwendung von Mikrostrukturen oder einer Anordnung von Partikeln,
die ein Anregungslicht wie oben beschrieben aufnehmen und Licht
in einer eingeschränkten Richtung emittieren. 30 und 31 zeigen
schematisch eine beispielhafte Verwendung einer eingeschränkten
Architektur eines Pixel-Sichtfelds gemäß der vorliegenden
Offenbarung. 30 zeigt einen beispielhaften
Emitter, der Licht an ein eingeschränktes Sichtfeld emittieren
kann. Der beispielhafte Emitter umfasst einen UV-transparenten Verkapselungsstoff,
der beispielsweise aus SiO2 hergestellt
ist und mit einem LIF-Material gefüllt ist, das bei einer
Bestrahlung mit ultravioletter Strahlung sichtbare Wellenlängen
fluoresziert, mit einer parabelförmigen Schmalbandmehrschichtreflexionsstruktur.
Bei dieser beispielhaften Ausführungsform wird ein dünner
Film dieser Emitter auf einem Polymer abgeschieden. Als Vorbereitung
für den Film werden Prägungen in Form von Parabeln ähnlich
der in den Emittern gebildeten Form in das Polymermaterial geprägt.
Die Emitter werden durch chemische Dampfabscheidung auf das Polymersubstrat
abgeschieden, wobei die Parabelprägungen mit Emittern gefüllt
werden. 31 beschreibt einen beispielhaften
Prozess zum Erzeugen der notwendigen Struktur von Emittern, die
mit einem Polymersubstrat ausgerichtet werden, um das Sehen eines
eingeschränkten Sichtfelds zu ermöglichen. Durch
einen beispielhaften Prozess, wie beispielsweise Ätzen,
werden freistehende Parabeln, die mit emittierendem Material gefüllt
sind, erzeugt, indem sie von dem Substrat abgelöst werden.
Das Entfernen von dem Polymersubstrat kann auch durch Auflösen des
Kunststoffsubstrats mit einem geeigneten Lösungsmittel
erreicht werden. Die freistehenden Parabeln werden dann in kleine
Stücke eingefügt, die in dem Glassubstrat durch
fotolithografische Verfahren oder Prägen erzeugt wurden.
Das Verfahren des Ineingriffbringens der Parabel mit dem kleinen
Stück kann durch einen Prozess, wie beispielsweise Aufschwemmen
aus einer Flüssigkeit (fluidic self assembly), der ähnlich
dem durch Alien Technology ausgeführten ist, erreicht werden,
wobei man die Parabeln über das Substrat fließen lässt
und das Eingreifen von Parabeln und kleinen Stücken auf
statistische Weise stattfindet.
-
In
der Technik sind Kopf- und Augenerfassungseinrichtungen bekannt
und werden hier nicht ausführlich erklärt. Für
den Zweck dieser Offenbarung wird eine kamerabasierte Einrichtung
in Kombination mit einer Bilderkennungssoftware verwendet, um einen
dreidimensionalen Kopfort in dem Fahrzeug, was mit einem Fahrzeugkoordinatensystem
koordiniert werden kann, und eine Richtung eines Bedienerblicks
auf der Grundlage einer Bilderkennungsprogrammierung zu schätzen.
Durch Sensoreingänge, wie beispielsweise gemäß den
oben beschriebenen Verfolgungsverfahren, kann ein Ort eines Objekts
in Relation zu einem Fahrzeugkoordinatensystem festgestellt werden.
Auf der Grundlage der Koordination des Bedienerkopforts mit dem
Fahrzeugkoordinatensystem und der Koordination der Objektverfolgungen
mit dem Fahrzeugkoordinatensystem kann ein geschätzter
Schnittpunkt zwischen dem verfolgten Objekt und den Bedieneraugen
an der Frontscheibe ermittelt werden, wodurch eine Registrierung
einer Information hinsichtlich relevanter Merkmale, die durch die
Frontscheibe sichtbar sind, ermöglicht wird, gemäß der
Offenbarung. Es sind ähnliche Verfahren mit einer Spurmarkierungsprojektion
und andere hierin beschriebene Verfahren möglich, wobei
eine genaue Registrierung einer Information für die HUD
ermöglicht wird. Auf ähnliche Weise ermöglicht
eine Kombination des Kopforts mit einer Schätzung der Richtung
des Bedienerblicks eine Projektion einer Information gemäß Verfahren, die
vorgesehen sind, um sicherzustellen, dass der Bediener eine kritische
Information sobald wie möglich sieht. Es könnten ähnliche
Verfahren mit dem Fahrgast auf dem Beifahrersitz oder Fahrgästen
auf den hinteren Sitzen der Fahrzeuge realisiert werden, wobei eine
registrierte Projektion für Fahrzeuginsassen an verschiedenen
Flächen ermöglicht wird.
-
Kopf-
und Augenerfassungseinrichtungen ermöglichen dem EVS, eine
Richtung des Bedienerblicks wahrzunehmen. Dieser Blickort kann mit
einer identifizierten kritischen Information verglichen werden.
Es wird ein Verbesserungsmerkmal eines peripheren hervorstechenden
Merkmals offenbart, wobei die Anzeigeeigenschaften auf der Grundlage
dessen abgestimmt werden, dass die Aufmerksamkeit der Augen des
Bedieners auf eine kritische Information gelenkt werden, wenn sich
der Bedienerblick an einer anderen Stelle befindet, während
der Fahrer nicht übermäßig abgelenkt
wird, wenn sich der Bedienerblick in der Nähe der angezeigten kritischen
Information befindet. Wenn beispielsweise ein Fahrzeug auf der linken
Seite des sichtbaren Sichtfelds rückwärts aus
einer Lücke herausfährt und ermittelt wird, dass
es sich auf einem potentiellen Kollisionskurs mit dem Host-Fahrzeug
befindet und ermittelt wird, dass sich der Bedienerblick in Richtung
der rechten Seite des sichtbaren Sichtfelds befindet, kann ein Kasten
um das Gefahr bringende Fahrzeug angeordnet werden und kann ein
blinkender Pfeil an der Stelle des Bedienerblicks angeordnet werden,
der den Bediener auffordert, seine Aufmerksamkeit auf den Kasten
zu richten.
-
Das
umfasste EVS kann registrierte Bilder über die gesamte
Frontscheibe projizieren, wobei Bilder für sichtbare Objekte
oder Bereiche durch die transparente Frontscheibe registriert werden.
Die Fahrzeugsensoren können jedoch eine Information verarbeiten
und identifizieren, die Bedingungen außerhalb der Sicht
der Frontscheibe betrifft. Beispielsweise können Radareinrichtungen
und/oder Kameraeinrichtungen, die auf Bereiche auf den Seiten oder
der Rückseite des Fahrzeugs gerichtet sind, eine Ampelinformation,
Fahrzeugtrajektorien, das Vorhandensein von Notfallfahrzeugen und
andere entsprechende Informationen identifizieren. Die EVS-Verwaltungseinrichtung
ermittelt beim Bewerten des Umgebungsmodells, das entsprechend einer
kritischen Information erzeugt wird, ob die kritische Information
an der Frontscheibe an einer Position angezeigt werden kann, die
für relevante Merkmale, die durch die Frontscheibe sichtbar
sind, und der kritischen Information entsprechen, registriert ist.
In dem Fall, dass die Bewertung ermittelt, dass die relevanten Merkmale
auf der Grundlage der Insassenkopf- und -augenposition nicht in
dem sichtbaren Bereich der Frontscheibe liegen, kann eine Grafik
für die Frontscheibe registriert sein, beispielsweise an
einem Rand der Frontscheibe, der am nächsten an der Quelle
der kritischen Information liegt, oder mit einem Abstand zu dem
Insassenblick, welche die Notwendigkeit, in die Richtung der kritischen
Information zu schauen, angibt. Wenn beispielsweise eine Zielfahrzeugtrajektorie
und eine Geschwindigkeit angeben, dass das Fahrzeug wahrscheinlich
eine rote Ampel links oder rechts des Host-Fahrzeugs überfährt,
kann das EVS akut eine Notfallwarnung für den Bediener
aufrufen, um eine Seitenkollision zu vermeiden. Obwohl ein beispielhaftes
EVS mit nur einer Projektion an der Frontscheibe keine grafische
Darstellung bei einem sichtbaren Objekt registrieren kann, das nicht
innerhalb des sichtbaren Bereichs der Frontscheibe liegt, kann das
EVS den Fahrzeugbediener auffordern, in Richtung der identifizierten
kritischen Information zu schauen. In dem Fall, dass eine kritische
Information hinter dem Fahrzeug identifiziert wird, kann eine Aufforderung
an der Frontscheibe angezeigt werden, die in Richtung des Rückspiegels
weist oder diesen skizziert. Alternativ kann ein virtueller Rückspiegel
an der Frontscheibe angezeigt werden, wobei eine nach hinten gerichtete
Kamera verwendet wird. Alternativ könnte unter Verwendung mehrerer
Kameras, beispielsweise an einem breiten, vertikal dünnen
Stück einer Anzeige entlang der Oberseite der Frontscheibe
eine Panoramaansicht projiziert werden, die beispielsweise eine
Sicht um die hinteren 180 Grad des Fahrzeugs darstellt, wodurch
herkömmliche tote Winkel, die durch bekannte Spiegelkonfigurationen
verursacht werden, beseitigt werden. Bei einem anderen Beispiel
kann eine HUD in einer Heckscheibe eines Fahrzeugs verwendet werden,
um eine Vollbild-Parkunterstützung durch grafische Bilder
an der Scheibe bereitzustellen. Solch eine Heckscheibenanzeige kann
beispielsweise durch eine Spracherkennungssoftware wählbar
im normalen oder Rückwärtsmodus angezeigt werden,
wobei eine Sicht direkt oder durch den Rückspiegel ermöglicht
wird. Bei einem anderen Beispiel könnte auf der Grundlage
einer Verfolgungsinformation eine taktische oder simulierte Überkopf-Anzeige
synthetisiert und an die Frontscheibe projiziert werden. Beispielsweise
könnten in einer Parksituation eine Radar- und eine visuelle
Information verwendet werden, um einen relativen Ort einer Parklücke,
anderer Fahrzeuge, von Randsteinen und Fußgängerverkehr
zu schätzen und können diese geschätzten
Orte an einer grafischen Anzeige dargestellt werden. Ähnlich
könnte solch eine taktische Anzeige während Spurwechselmanövern
erzeugt werden, die beispielsweise zu einer kritischen Information
werden, sobald ein Blinker eingeschaltet wird, und könnte
eine Anzeige, die erfasste Objekte um das Fahrzeug herum zeigt,
angezeigt werden. Wieder auf eine Parksituation Bezug nehmend, wie
beispielsweise ein Manöver eines Rückwärtseinparkens,
könnte ein Satz von Kriterien programmiert sein, wobei
beispielsweise Parkverbotszonen überwacht werden und ein
Bereich von Distanzen von dem Randstein und von benachbarten Fahrzeugen
angefordert wird. An der Windschutzscheibe könnten basierend
auf räumlichen Beziehungen Aufforderungen oder Empfehlungen
angezeigt werden, die ein Hervorheben von verfügbaren Parklücken entlang
Straßen in einer Stadt in der Nähe eines programmierten
Ziels oder empfohlene Rad- und Pedalsteuerungen zum Navigieren in
die Parklücke umfassen. Beispielhafte Bedingungen und grafische
Anzeigen sind Beispiele für eine kritische Information,
die angezeigt werden kann und einen Bediener auffordert, seine Aufmerksamkeit
auf Bedingungen außerhalb der Sicht der Frontscheibe zu
richten. Diese Beispiele sollen jedoch nur eine Teilmenge der in
Betracht gezogenen Beispiele darstellen, und die Offenbarung soll
nicht darauf beschränkt sein.
-
Es
wird eine Anzahl von Verbesserungen für das EVS in Betracht
gezogen, die Merkmale realisieren, die insbesondere für
Kraftfahrzeuganwendungen solcher Projektionstechniken relevant sind.
Ein Fachmann wird erkennen, dass Laser- und Projektorentwürfe,
die zum Projizieren komplexer Bilder verwendet werden, häufig
einen Spiegel sehr kleiner oder mikroelektromechanischer Systeme
(MEMS von microelectromechanical systems) verwenden, um die projizierte
Grafik an gewünschte Orte zu lenken. MEMS-Spiegellaserprojektorentwürfe
des Stands der Technik weisen entweder einen Einzelkonturvektor
(single stroke vector) oder eine Bitmap-Architektur auf, was die
Effizienz und Menge an dargestellter Information einschränkt.
Es wird ein alternatives Verfahren offenbart, das weiterhin die
Konturrealisierung verwendet, jedoch mehrere MEMS-Spiegel (MEMS-Chip)
umfasst, um eine Reihe von Teilstrahlen (Beamlettes) zu lenken.
Dieses offenbarte Verfahren realisiert zuerst ein Galileo-Teleskop,
um den UV-Laserstrahl zu einem Punkt aufzuweiten, an dem mehrere
der Spiegel in einer X-Richtungs-MEMS-Mehrfachspiegeleinrichtung
bestrahlt werden. Jeder der x-Spiegel (oder der Gruppe von x-Spiegeln)
ist einem y-Spiegel oder einer Gruppe von y-Spiegeln zugeordnet
oder passt zu diesem oder dieser. An dem geeigneten Gebiet des emittierenden
Materials wird dann unabhängig auf die y-Spiegel abgezielt.
-
Kraftfahrzeuganwendungen
umfassen raue Bedingungen, die umfassen, dass die Materialien, die oben
als in der HUD verwendet beschrieben wurden, möglicherweise
einem Kratzen, Abrieb und einer nachteiligen chemischen Verunreinigung
ausgesetzt werden. Eine andere Ausführungsform von Systemverbesserungen
umfasst die Verwendung einer Schutzbeschichtung über dem
Licht emittierenden Material an der HUD. Die Einführung
solch einer Schicht erzeugt hinsichtlich des Vorhandenseins des
Anregungslichts von der Projektionseinrichtung und des Vorhandenseins
des emittierten Lichts von der Frontscheibe sowie des Vorhandenseins
von Licht, das von außerhalb des Fahrzeugs durch die Frontscheibe
gelangt, jedoch die Möglichkeit für Reflexions-
und Refraktionsprobleme, was Doppelbilder oder Geisterbilder erzeugt.
Es kann eine Ultraviolettentspiegelungsbeschichtung (Ultraviolett-AR-Beschichtung
von ultraviolet anti-reflective coating) auf die Innenfläche
der Frontscheibe aufgebracht werden, um Geisterbilder zu minimieren.
Die AR-Beschichtung kann entweder eine Einzelschicht-MgF2- oder eine Mehrschichtbeschichtung sein.
Es ist ein harter AR-Mantel erforderlich, um das ausstrahlende Material,
das in einer HUD für eine gesamte Frontscheibe verwendet
wird, zu schützen, welcher eine Beschichtung eines organischen
ultraviolettlaserinduzierten Fluoreszenzmaterials aufweist. Eine
Geisterbildbeseitigung erfordert eine Beschichtung, um das optische
Feld effektiv zu koppeln, wobei eine Fehlanpassung des Brechungsindex
des Materials mit dem Brechungsindex der Luft vermieden wird. Es
können verschiedene Materialien hinzugefügt werden,
um das AR-Beschichtungs- und Haltbarkeitsleistungsvermögen
des Materials zu verbessern. Es können Mehrschichtbeschichtungen
einer Vielzahl von Materialien und einer Vielzahl von absoluten
und relativen Dicken verwendet werden, um die AR-Funktion zu erreichen.
Geeignete Materialien, die über Magnetron-Sputter- oder
andere Verfahren einer physikalischen und chemischen Dampfabscheidung
abgeschieden werden können, umfassen SiO2, Si3N4, TiO2
und SiOxNy. Das zuletzt genannte Material, Siliziumoxinitrid, weist
den Vorteil auf, dass es einen Brechungsindex hat, der über
das O/N-Verhältnis (Stöchiometrie) abstimmbar
ist.
-
Ein
Projizieren eines Bilds an einer gekrümmten und schrägen
Frontscheibe erzeugt ein Potential für Unregelmäßigkeiten
in den resultierenden Grafikbildern. Ein beispielhaftes Problem,
das vermieden werden muss, umfasst eine Luminanzschwankung oder
unbeabsichtigte Unterschiede der Grafikhelligkeit, die durch geometrische
Unterschiede beim Interagieren des Anregungslichts mit verschiedenen
Teilen der HUD verursacht werden. Die Luminanzkorrektur ist eine
Kompensationstechnik, die für Vektorprojektionsanzeigen
notwendig ist. Ein Verfahren zum Erreichen einer Luminanzkorrektur
umfasst eine Reparametrisierung einer Parameterkurve, die bei einer
grafischen Ausgabe verwendet wird, so dass jedes Segment des Pfads
beim Durchführen einer dünnen Abtastung (sparse
sampling) die gleiche effektive Abtastlänge hat. Die effiziente
Abtastlänge kann aus der Abtasteinheitsbereichszeitrate
bewertet werden, die eine Simulation der Darstellungsenergie an
der Anzeigeprojektionsfläche ist. Die perspektivischen
Faktoren und Faktoren einer nicht planaren Fläche können
bei der Berechnung der effektiven Länge in Betracht gezogen
werden.
-
Die
Luminanzschwankung ist eine potentielle Unregelmäßigkeit,
die eine Projektion an einer Frontscheibe schwierig machen kann.
Eine weitere potentielle Unregelmäßigkeit umfasst
eine Verzerrung der grafischen Bilder, die durch geometrische Verzerrungen
aufgrund von nicht flachen Anzeigeflächen, der Perspektive
und optischen Abweichungen in Ausgestaltungen eines großen
Projektionssystems mit weitem Sichtwinkel erzeugt wird. Es wird
ein Verzerrungskorrekturschema mit zwei Durchgängen offenbart,
um eine geometrische Verzerrung von Laservektorprojektionsanzeigen
zu korrigieren, indem die Abtastkurven und Projektionsflächen
mit Parameterkurven/-stücken eines nicht-uniformen rationalen
b-Splines (NURB von non-uniform-rational b-spline) modelliert werden.
Im ersten Durchgang werden die gewünschten NURBs im Objektraum
in den durch einen Sichtpunkt definierten Sichtraum transformiert.
Die Perspektive wird dann aufgrund ihrer affinen und perspektivischen
Invarianten auf eine virtuelle Anzeigeebene abgebildet. Schließlich
wird sie auf die nicht flache Anzeigefläche mit Parameterraumabbildung,
falls dies notwendig ist, abgebildet. Im zweiten Durchgang wird
der Pfad in einen Projektionsraum transformiert, der durch die Position
des Projektors definiert ist, und dann wird der Pfad auf der Projektorebene
abgebildet. Die nicht linearen Verzerrungen werden durch Kalibrierungsverfahren
korrigiert.
-
Eine
weitere potentielle Unregelmäßigkeit, die beim
Projizieren grafischer Bilder an einer Frontscheibe erzeugt werden
kann, umfasst Ineffizienzen, die in der Abtastschleife erzeugt werden,
die zum Projizieren der grafischen Bilder verwendet wird. Die Abtastschleife
besteht aus den grafischen Primitivpfaden, die grafische Primitive
darstellen, und den Ausblendungspfaden, die die Primitivsegmente
verbinden. Ein schlechter Abtastschleifenentwurf verursacht eine
ineffiziente Anzeige oder einen Anzeigefehler. Die Optimierung an
den Pfaden führt zu einem glatten und effizienten Abtasten,
wenn spiegelbasierte Abtasteinrichtungen eingesetzt werden. Ein
Optimieren unter allen Abtastpfaden liefert eine effiziente und
glatte Vektorabtastung während einer Abtastperiode oder
eines Frames in einer Rasterprojektionsanzeige. Unsichtbare Ausblendpfade
können während eines Einsetzens der Abtastpfadliste
zum Zusammenführen der Abtastpfade wie ein kursives Skript
optimiert werden. Es kann eine Optimierung an den Ausblendpfaden
durchgeführt werden, so dass alle Ausblendpfade den ersten/zweiten
Kontinuitätsgrad mit ihren benachbarten Pfaden aufweisen.
Es wird die Parameterkurvenmodellerstellung eingesetzt. Dieses Verfahren
verwendet auch die Optimierung zwischen allen Abtastpfaden zum Erhalten
einer effizienten und glatten Vektorabtastung während einer
Abtastperiode oder eines Frames in einer Rasterprojektionsanzeige.
Die gesamte Schleife wird reparametrisiert, so dass die Schleife
die kürzeste Abtastlänge und den größten
lokalen Krümmungsradius aufweist.
-
Eine
Anzeige erfordert häufig Bereiche einer Intensität
von Null, beispielsweise in projizierten Bildern, die eine gestrichelte
Linie umfassen. Es wird ein Verfahren zum Verbessern der Bildqualität
von Vektorprojektionsmaschinen offenbart, die Lichtquellen aufweisen,
die mit Mikrospiegeln gelenkt werden. Das Verfahren wird auf Laserprojektionseinrichtungen angewandt,
die unter Verwendung von Mikrospiegeln (eines x-Abtast- und eines
y-Abtastspiegels) an Anzeigeflächen gelenkt werden. Der
Ausgang ist ein Lichtvektor, dessen Position über die Anzeigefläche
streicht, und die Intensität des Lichts kann über
den Laserstrom moduliert werden. Wenn eine Luminanz von Null erwünscht
ist, ist ein ”Aus-Zustand” des Lasers erwünscht.
Leider ist die Ansprechzeit auf das Aus- und Einschalten eines Lasers
relativ zu typischen Abtastgeschwindigkeiten langsam. Bekannte Verfahren
erzeugen Linien mit schwacher Luminanz, wenn eine Luminanz von Null
erwünscht ist. Es wird ein Verfahren zum Erzeugen einer
Luminanz von Null, indem ein Objekt in dem Pfad der Lichtquelle verwendet
wird, um das an die HUD projizierte Anregungslicht steuerbar zu
unterbrechen, offenbart. Beispielsweise könnten in den
Lichtpfad eingesetzte Objekte eine Messerkante, eine Aperturblende
oder einen Spiegel umfassen. Solch eine mechanische Ausblendung
kann in der Größenordnung der Zeitskala des Abtastspiegels
erreicht werden, so dass es eine Ansprechzeitübereinstimmung
gibt.
-
Oben
ist eine Anzahl von verschiedenen Verwendungen offenbart, die durch
selektive Projektion einer Information an einer HUD durch ein EVS
erreicht werden können. 32–37 zeigen
ausgewählte beispielhafte Anzeigen einer kritischen Information,
die an eine HUD projiziert werden könnte, gemäß der
vorliegenden Offenbarung. 32 zeigt
eine beispielhafte nicht verbesserte externe Ansicht, die Merkmale
umfasst, die für den Bediener des Fahrzeugs wünschenswerterweise
sichtbar zugänglich sind. Die Ansicht 200 umfasst eine
Fahrbahn 206, die eine erste Spurmarkierung 202 und
eine zweite Spurmarkierung 204 umfasst; ein Fahrzeug 208,
das sich auch auf der Fahrbahn befindet; einen Fußgänger 210;
ein Geschwindigkeitsbeschränkungsverkehrsschild 214;
und eine bevorstehende Kurve der Straße 216. Alle
Objekte und Merkmale in der Ansicht 200 sind direkt sichtbar
und es sind keine grafischen Anzeigen durch ein EVS gezeigt.
-
33 zeigt eine beispielhafte Sicht, die durch starken
Nebel behindert ist, und beispielhafte verbesserte Sichtanzeigen,
die verwendet werden könnten, um die Auswirkung des Nebels
zu kompensieren. Die Ansicht 220 zeigt die gleiche Ansicht
wie es in 32 gezeigt ist, außer,
dass die Sicht durch Nebel behindert ist. Die Ansicht 220 umfasst
Nebel 221; eine erste Spurmarkierung 202 und eine
zweite Spurmarkierung 204, die beide für kurze
Distanzen direkt sichtbar sind, bis sie durch den Nebel 221 verdeckt
werden; projizierte Spurindikatoren 222 und 224;
einen Fahrzeugindikator 228; einen Fußgängerindikator 230;
eine Fahrzeuggeschwindigkeitsanzeige 234; und einen Warnindikator 237.
Die projizierten Spurindikatoren 222 und 224 sind Projektionen
von Spurindikatoren, die nicht sichtbar sind, und sind Hilfen, um
den Bediener beim Einhalten der Spur trotz des Vorhandenseins des
Nebels 221 zu unterstützen. Die projizierten Spurindikatoren 222 und 224 umfassen
gekrümmte Teilabschnitte 236, die eine bevorstehende
Kurve auf der Straße entsprechend der Kurve 216 in 32 angeben. Es sei angemerkt, dass die Spurindikatoren 222 und 224 als
eindeutige Linien gezeigt sind. Wenn zahlreiche Sensoren zur Verfügung
stehen, um die Positionsdaten zu verfeinern und beispielsweise eine
3D-Karte oder Radarrückführungen von unterscheidbaren
Merkmalen, wie beispielsweise Randsteinen oder Leitplanken, verwendet
werden, können eindeutige Linien verwendet werden, um mit
einer bestimmten Gewissheit die Position einer Geometrie einer bevorstehenden
Spur zu übermitteln. Wenn jedoch weniger Informationsquellen
zur Verfügung stehen, wird die Fahrzeugposition nicht genau
festgelegt, oder wenn aus dem einen oder anderen Grund die Spurgeometrie
unsicher ist, können Bereiche oder Bänder von Linien
verwendet werden, um dem Bediener bei der Führung zu helfen,
während übermittelt wird, dass man besonders vorsichtig
sein sollte, um die tatsächliche Straßengeometrie
visuell zu ermitteln. Der Fahrzeugindikator 228 zeigt dem
Bediener den Ort und das allgemeine Verhalten des Fahrzeugs 208.
Ferner kann eine Information in Textform, die Faktoren, wie beispielsweise
eine Entfernung und eine Bewertung der relativen Bewegung, umfasst,
angezeigt werden, um den Bediener beim korrekten Kompensieren des
Vorhandenseins des Fahrzeugs zu unterstützen. Der Fußgängerindikator 230 teilt
dem Bediener mit, dass ein Fußgänger detektiert wurde,
und teilt die allgemeine Position in Bezug auf die Fahrbahn mit.
Gemäß oben beschriebenen Verfahren kann eine andere
Grafik oder ein anderer Text verwendet werden, um verschiedene Verhalten
oder Eigenschaften des Fußgängers zu beschreiben.
Das Verkehrsschild 214, das in 32 gezeigt
ist, ist in 33 aufgrund des Nebels 221 nicht
sichtbar. Die Geschwindigkeitsbeschränkungen für
Strecken der Straße sind jedoch durch andere Mittel erkennbar,
wie beispielsweise durch GPS-Einrichtungen gemäß 3D-Karten.
Ein Fahrzeuggeschwindigkeitsindikator 234 stellt eine Auflistung
der momentanen Fahrzeuggeschwindigkeit und der Geschwindigkeitsbeschränkung
für die Straße, auf der momentan gefahren wird,
bereit. Wie oben erwähnt ist in 32 die
Kurve 216 gezeigt und liefern gekrümmte Teilabschnitte
der projizierten Spurindikatoren 222 und 224 einen
Ort für die bevorstehende Kurve. Ferner kann eine Textanzeige
die Annäherung der Kurve beschreiben, was eine Distanz
zu der Kurve umfasst, wie es in 33 beschrieben
ist. Ferner könnte eine empfohlene Geschwindigkeitsänderung
oder ein anderer Indikator hinsichtlich der Stärke der
Kurve entweder als Text 237 oder in Kombination mit der
Grafik der gekrümmten Teilabschnitte 236 angegeben
werden.
-
34 zeigt eine beispielhafte Anzeige einer Grafik
zum Verbessern der Sicherheit bei einem Spurwechsel. Die Ansicht 240 umfasst
eine erste Spurmarkierung 202 und eine zweite Spurmarkierung 204,
die direkt durch die Frontscheibe sichtbar sind; eine benachbarte
Spurmarkierung 242, die auch direkt sichtbar ist; einen
Blinkerindikator 244; eine taktische Spurwechselanzeige 246;
und Textanzeigen 248 und 249. Der Blinkerindikator 244 kann
einen einfachen Pfeil, einen blinkenden Pfeil, ein zyklisches Verändern
der Grafik hinsichtlich Größe, Farbe, Intensität,
Position oder eine andere Grafik, in Abhängigkeit davon,
dass die Nachricht an den Bediener übermittelt wird, umfassen.
Beispielsweise kann bei einem Spurwechsel, bei dem in der Nachbarspur
keine Gefahr detektiert wird, ein einfacher Pfeil diskret an der
HUD angezeigt werden, um zu übermitteln, dass keine Gefahr,
die das Manöver verhindert, zu erwarten ist. Für
den Fall, dass, wie in 34 gezeigt,
sich ein Fahrzeug auf der Nachbarspur befindet, das eine Kollisionsgefahr
darstellt, wenn ein Spurwechsel ausgeführt wird, kann die
Grafik jedoch geändert werden, um eine Nachricht zum Stoppen
des Spurwechsels anzugeben, und zwar beispielsweise durch Blinkenlassen
des Indikators, Ändern des Indikators in Rot, Ausgeben
einer durchgestrichenen/Verbotsgrafik über dem Indikator
oder durch jedes beliebige andere annehmbare Anzeigeverfahren zum
Angeben eines Alarms für den Betrachter. Es ist die taktische
Anzeige 246 gezeigt, die einen Ort des Fahrzeugs und eine
relative Verfolgung des Fahrzeugs, angegeben als Gefahr, darstellt.
Die Spurmarkierungsprojektionen können an der taktischen
Anzeige angegeben werden, um die Wahrnehmung der relativen Positionen
der Fahrzeuge zu verbessern. 34 zeigt
Pfeile, die auf das Fahrzeug deuten, das die Gefahr darstellt, um
mehr Aufmerksamkeit von dem Bediener auf die Situation zu lenken.
Ferner sind ein der taktischen Anzeige beigefügter Text 248 und
ein unabhängig an der HUD angeordneter Text 249 gezeigt,
die die Aufmerksamkeit des Bedieners stark auf die Situation lenken.
-
35 zeigt eine beispielhafte Situation, in der
ein Verbesserungsmerkmal eines peripheren hervorstechenden Merkmals
in Kombination mit einem geschätzten Blickort des Bedieners
verwendet wird, um einen Bediener hinsichtlich einer kritischen
Information zu alarmieren. Die Ansicht 250 umfasst eine
erste Spurmarkierung 202 und eine zweite Spurmarkierung 204,
die direkt durch die Frontscheibe zu sehen sind; ein ablenkendes
Schild 254 und ein Fahrzeug 208, die beide direkt
durch die Frontscheibe zu sehen sind; und eine Anzahl von Grafiken,
wie nachstehend beschrieben. Es ist der Blickort 252 eines
Bedieners gezeigt, der einen Punkt beschreibt, auf den sich die
Augen des Bedieners offensichtlich konzentrieren, beispielsweise
als Ergebnis des Konzentrierens auf das ablenkende Schild 254.
Der Ort 252 ist lediglich zur beispielhaften Darstellung
gezeigt und würde als Ergebnis der Ablenkung, die solch
eine sich bewegende Grafik für den Bediener darstellen
würde, wahrscheinlich nicht an der HUD angezeigt werden.
Eine Verfolgung des Fahrzeugs 208 gibt eine Bewegung an,
die bewirkt, dass das Fahrzeug 208 als Gefahr klassifiziert
wird. Beispielsweise ist das Fahrzeug 208 auf einer Trajektorie
des Kreuzens der Spurmarkierung 202 auf die Spur des Fahrzeugs
des Bedieners gezeigt. Beim Angeben der Identifikation des Fahrzeugs 208 als
Gefahr wird ein Fahrzeugindikatorkasten 256 um das Fahrzeug 208 herum
angezeigt, der einen Richtungspfeil umfasst, welcher eine relevante
Information angibt, wie beispielsweise eine Fahrtrichtung des Fahrzeugs.
Ferner wird ein Text 259 angezeigt, der den Gefahrenzustand
beschreibt. Um die Aufmerksamkeit des Bedieners von dem Bereich
des ablenkenden Schilds 254 auf die kritische Information
des Fahrzeugs 208 zu lenken, werden ein Alarm in Textform
und ein begleitender Pfeil in der Nähe des Blickorts des
Bedieners angezeigt. Auf diese Weise kann die Aufmerksamkeit des
Bedieners so schnell wie möglich auf die kritische Information
gelenkt werden.
-
36 zeigt eine beispielhafte Ansicht, die eine
Anzeige von Navigationsanweisungen an einer HUD beschreibt. Die
Sicht durch die Frontscheibe in 36 umfasst
eine komplexe Kreuzung 262, bei der sich fünf Straßen
gemeinsam schneiden. Die Ansicht 260 umfasst die Kreuzung 262,
die direkt durch die Frontscheibe sichtbar ist; Gebäude 266,
die direkt durch die Frontscheibe sichtbar sind; eine Ampel 268,
die direkt durch die Frontscheibe sichtbar ist; und eine Anzahl
von Grafiken, wie nachstehend beschrieben. Es ist ein Navigationspfeil 264 gezeigt,
der für die spezifische Straße, auf die an der
Kreuzung 262 abgebogen werden soll, registriert ist. Ferner
werden Navigationsdaten, die eine 3D-Karte umfassen, verwendet,
um ein bestimmtes Gebäude 266 als Ziel zu identifizieren,
und ist ein Zielindikator 267 gezeigt, der eine Box und
einen Text umfasst. Ferner wird auf der Grundlage einer Fahrzeuginformation
oder der Komplexität der dem Bediener dargestellten Kreuzung
eine Angabe über einen Warntext 269 als kritische
Information angezeigt, wobei eine Ermittlung einer Ampel, die einen
Stopp befiehlt, als Fahrunterstützung übermittelt
wird.
-
37 zeigt eine weitere beispielhafte Ansicht, die
eine kritische Information beschreibt, die an einer HUD angezeigt
werden kann. Die Ansicht 270 beschreibt eine Sicht durch
eine Frontscheibe bei Nacht. Die Ansicht 270 umfasst eine
Scheinwerferbeleuchtung 271, die zwei Lichtkegel beschreibt,
die durch die Frontscheibe sichtbar sind. Ferner ist ein virtueller
Rückspiegel 272 gezeigt, der eine Panoramasicht
um die Seiten und die Rückseite des Fahrzeugs anzeigt,
wie durch eine Kamera oder eine Gruppe von Kameras erfasst. Die beispielhafte
Ansicht umfasst ein Fahrzeug 208. Die dargestellten Ansichten
in dem Rückspiegel können als einfache Bilder
aufrechterhalten werden oder können eine Information, wie
beispielsweise eine Entfernung zu einem Zielfahrzeug, umfassen.
Ferner ist ein Wildindikator 274 gezeigt, der einen überlagerten
Teilabschnitt eines Infrarotbilds, in 37 als
schraffiertes Quadrat gezeigt, umfasst, um den Bediener beim Sehen
des Wilds außerhalb der Scheinwerferbeleuchtung 271 zu
unterstützen. Ferner umfasst der Wildindikator 274 einen
Richtungspfeil und einen Warntext, der die Situation für
den Bediener beschreibt. Ferner ist eine Textwarnung 276 gezeigt,
die eine Detektion einer akustischen Sirene, noch nicht korreliert
mit einer visuellen Information, beschreibt und den nahen Ort eines
Notfallfahrzeugs angibt. Ferner wird in Textform ein Punktestand 278 angezeigt,
der eine Information, die für den Bediener von Interesse
ist, in einem Format beschreibt, das entworfen ist, um die Ablenkung
für den Fahrer zu minimieren. Ferner wird eine Radioinformation
angezeigt, die den Namen eines momentan gespielten Lieds und der
Gruppe, die das Lied spielt, umfasst, was die Tendenz reduziert,
dass der Bediener seinen Blick auf das Display des Fahrzeugradios
richtet.
-
Oben
sind Ausführungsformen beschrieben, bei denen eine Grafik
für einen Insassenblick registriert sein kann. Es sei angemerkt,
dass ein Anzeigen einer Grafik unmittelbar in der Mitte des Blicks
des Betrachters ablenkend sein kann. Stattdessen kann anfänglich
eine Grafik mit einer Verschiebung von dem Ort des Blicks des Betrachters
und fixiert an diesem Ort registriert sein. Auf diese Weise befindet
sich die Grafik für den Betrachter bequem nahe an dem aktuellen
Ort des Blicks des Betrachters, wobei der Betrachter jedoch dann, wenn
es seine Prioritäten erlauben, direkt auf die Grafik schauen
kann. Der Ort der Grafik kann ferner Orte verfolgter relevanter
Merkmale berücksichtigen. Beispielsweise kann eine Grafik
angeordnet sein, um einen ablenkenden Konflikt mit einer Ampel,
einem Fußgänger oder einem anderen wichtigen Merkmal,
das durch die Frontscheibe sichtbar ist, zu vermeiden.
-
Die
Informationsflüsse und Prozesse zum Steuern der oben beschriebenen
Verfahren können viele Ausführungsformen annehmen. 38 zeigt schematisch einen beispielhaften Informationsfluss,
der oben beschriebene Verfahren erreicht, gemäß der
vorliegenden Offenbarung. Der Prozess 900 umfasst eine EVS-Systemverwaltungseinrichtung 110,
die eine Information von verschiedenen Quellen überwacht
und Anzeigeanforderungen erzeugt, ein EVS-Grafiksystem 155,
das Anzeigeanforderungen von der EVS-Systemverwaltungseinrichtung 110 überwacht
und Grafikbefehle erzeugt, und ein Grafikprojektionssystem 158,
das Licht an eine Head-Up-Anzeige 150 projiziert. Es wird
eine Anzahl von beispielhaften Informationsquellen beschrieben,
die Bedienereingänge, eine visuelle Information über
das Kamerasystem 120, eine Radarinformation von dem Radarsystem 125,
eine Fahrzeuginformation von dem beispielhaften Fahrzeuggeschwindigkeitssensor 130,
eine GPS-Information von der GPS-Einrichtung 140, eine
3D-Karteninformation von der 3D-Kartendatenbank 910 und
Internetinhalt von dem Drahtloskommunikationssystem 145 umfassen.
Es sei angemerkt, dass diese Informationsquellen wie in dieser Offenbarung
beschrieben viele Formen annehmen können und dass die Offenbarung
nicht auf die hierin beschriebenen bestimmten Ausführungsformen
beschränkt sein soll. Es kann ein Insassenaugenortserfassungssystem
wie in 1 beschrieben verwendet werden;
bei dieser bestimmten Ausführungsform werden jedoch andere
Informationsquellen wie beispielsweise Bedienereingänge verwendet,
um den Ort von Kopf und Augen des Bedieners für die Zwecke
der Bildregistrierung zu schätzen. Es sei angemerkt, dass
die GPS-Information, die 3D-Karteninformation und der Internetinhalt
eine voneinander abhängige Information sein können.
Es kann eine Korrelation zwischen diesen Informationsquellen innerhalb
der EVS-Systemverwaltungseinrichtung 100 stattfinden, oder,
wie in 38 gezeigt, die Einrichtungen, die
die Information für die EVS-Systemverwaltungseinrichtung 110 bereitstellen,
können eine Programmierung zum Koordinieren einer Information
vor oder gleichzeitig mit einem Bereitstellen der Information für
die Systemverwaltungseinrichtung umfassen. Durch diesen beispielhaften
Prozess kann die Information überwacht und verwendet werden,
um Bilder an eine HUD zu projizieren.
-
Die
obigen Ausführungsformen beschreiben eine Bildprojektion
an einer Frontscheibe eines Fahrzeugs. Die hierin beschriebenen
Verfahren können jedoch auf jede geeignete Fläche
innerhalb des Fahrzeugs angewandt werden. Beispielsweise könnte
ein Projektionssystem lediglich an der Heckscheibe des Fahrzeugs verwendet
werden. Bei einem anderen Beispiel könnte ein Projektionssystem
an den Seitenfenstern des Fahrzeugs in einer beliebigen Reihe, beispielsweise
in der zweiten Reihe des Fahrzeugs, verwendet werden. Solch ein
System könnte in Kooperation mit einer auswählbaren
oder hinzufügbaren Programmierung verwendet werden, um
Kinder auf einer Reise zu unterhalten, indem Spiele gespielt werden,
wie beispielsweise, indem Kinder aufgefordert werden, verschiedene
Sehenswürdigkeiten oder Buchstaben an Objekten außerhalb
des Fahrzeugs zu finden. Es könnte eine Information für
die Fahrgast an solchen Flächen angezeigt werden, wie beispielsweise
die Zeit bis zu einem Ziel, eine digitale Karte, die den Fortschritt
einer Reise beschreibt, Unterhaltungsbilder oder Internetinhalt.
Fahrzeuge, die alternative Frontscheibenkonfigurationen einsetzen,
wie beispielsweise einen kreisförmigen, halbkreisförmigen,
kuppelförmigen oder einen auf andere Weise verkapselnden
Abdeckentwurf, könnten ähnlich die Frontscheibe
als Fläche verwenden, an der grafische Bilder angezeigt werden
können.
-
Oben
wird eine an die HUD projizierte Information zur Einbeziehung der
gesamten Frontscheibe beschrieben. Die hierin beschriebenen Verfahren
müssen jedoch nicht auf eine gesamte Frontscheibe angewandt
werden. Beispielsweise könnten, um zu vermeiden, dass der
Bediener zu weit von der Geradeausposition wegschauen muss, Bilder
auf einen konischen Bereich in der Sicht des Bedieners beschränkt
sein. Alternativ könnten Bilder hinsichtlich einer Projektion
vor einem Fahrgast eingeschränkt sein, um die Störung
des Fahrgasts zu vermeiden. Alternativ könnte eine Zone
in der Mitte der Sicht des Bedieners von Bildern befreit sein, wodurch
sichergestellt wird, dass keine Bilder die Aufmerksamkeit des Bedieners
von der kritischsten Ansicht des Pfads des Fahrzeugs ablenken. Alternativ
könnte eine Zone um den Umfang der Frontscheibe herum verwendet
werden, um Bilder zu projizieren, wobei die gesamte Mitte der Projektionsfläche
für eine alleinige Sicht des Bedieners aufrechterhalten
bleibt. In den oben beschriebenen Fällen, bei denen nicht
die gesamte Sicht des Bedieners verwendet wird, können
immer noch Bilder für die Frontscheibe registriert sein,
beispielsweise mit horizontalen und vertikalen Teilstrichen um den
anzeigefreien Bereich herum, die den Ort des Objekts oder Zustands,
auf das oder den gezeigt wird, indizieren. Gemäß hierin
oben beschriebenen Verfahren können durch den Bediener
oder die Insassen Anzeigeausgestaltungen auswählbar sein,
oder können sie ausgestaltet sein, um in Abhängigkeit
von einer Anzahl von Kriterien, wie beispielsweise die Tageszeit,
die Anzahl von Insassen in dem Fahrzeug, der Ort oder das Niveau
einer Wichtigkeit der Information, andere Schemen anzuzeigen. Die
Gebiete zum Einbeziehen oder Ausschließen einer Projektion
einer Anzeige innerhalb des Fahrzeugs können eine Anzahl
von verschiedenen Ausführungsformen annehmen, und die Offenbarung
soll nicht auf die bestimmten hierin beschriebenen Ausführungsformen
beschränkt sein.
-
Wie
oben erläutert erzeugt ein Projizieren eines Bilds an eine
gekrümmte und schräge Frontscheibe eine Möglichkeit
für Unregelmäßigkeiten der resultierenden
grafischen Bilder, die an der im Wesentlichen transparenten Frontscheiben-Head-Up-Anzeige
angezeigt werden. Es ist erwünscht, Unregelmäßigkeiten
bezüglich einer Luminanzschwankung oder unbeabsichtigte
Unterschiede der Grafikhelligkeit zu vermeiden, die durch geometrische
Unterschiede des Anregungslichts, das mit verschiedenen Teilen der
HUD in Interaktion steht, verursacht werden. Eine Luminanzkorrektur
ist eine Kompensationstechnik, die in Vektorprojektionsanzeigen
verwendet werden kann, wobei die Luminanzintensität einer
gewünschten Parameterkurve, die eine Form einer Grafik
modelliert, die an der im Wesentlichen transparenten Frontscheiben-Head-Up-Anzeige
angezeigt werden soll, modifiziert oder reparametrisiert werden
kann, um eine projizierte Parameterkurve mit einer Luminanz zu projizieren,
die im Wesentlichen einheitlich ist. Ferner kann die Abtastzeit
oder die Abtastgeschwindigkeit der gewünschten Parameterkurve
modifiziert werden, um die projizierte Parameterkurve zu projizieren.
Alternativ kann die gewünschte Parameterkurve reparametrisiert
werden, um die projizierte Parameterkurve zu projizieren.
-
39 zeigt gemäß der vorliegenden
Offenbarung schematisch ein Luminanzkorrektursystem 901, das
das Grafiksystem 155 zum Erzeugen von Grafikbefehlen für
das Grafikprojektionssystem 158 verwendet, das eine projizierte
Parameterkurve 912 an einer Projektionsfläche 914 anzeigt.
In Bezug auf 38 und 39 empfängt
das Grafiksystem 155 Anzeigeanforderungen, die eine gewünschte
Parameterkurve 153 umfassen, von der EVS-Systemverwaltungseinrichtung 110,
wobei die EVS-Systemverwaltungseinrichtung 110 eine Information
von verschiedenen Quellen überwacht und die gewünschte
Parameterkurve 153 daraus erzeugt. Wie es hierin ausführlicher
erläutert wird, werden die Formen von grafischen Bildern,
die an der Projektionsfläche 914 unter Verwendung
einer Vektorprojektion angezeigt werden sollen, mit Parameterkurven
eines nicht-uniformen rationalen b-Splines (NURB) parametrisiert,
um vor potentiellen Unregelmäßigkeiten in den
resultierenden Bildern, wie beispielsweise einer Verzerrung, zu
schützen. Die gewünschte Parameterkurve 153 umfasst
mehrere Steuerpunkte und mehrere Grafiksegmente (hierin nachfolgend
Segmente), die auf den Steuerpunkten basieren. Die Luminanz der
in der gewünschten Parameterkurve 153 enthaltenen
Segmente kann oftmals schwanken, wobei einige Segmente eine geringere
Luminanz (d. h. weniger hell) aufweisen als andere, und somit kann
eine Uneinheitlichkeit hinsichtlich der Luminanz in der gewünschten
Parameterkurve 153 dargestellt werden.
-
Das
Grafiksystem 155 umfasst einen Intensitätsmodulationstreiber 904 zum
Empfangen und Überwachen der gewünschten Parameterkurve 153 von
der EVS-Systemverwaltungseinrichtung 110. Ein dem Intensitätsmodulationstreiber 904 zugeordneter
Intensitätsmodulator 902 ist ausgestaltet, um
die gewünschte Parameterkurve 153 durch Erhöhen
der Intensität des Anregungslichts (z. B. ultraviolettes
Licht oder Infrarotlicht) von Lichtquellen (z. B. einem Projektor
oder Laser, gezeigt durch die in 2 gezeigte
Einrichtung 20) in Segmenten in der gewünschten
Parameterkurve 153, die weniger hell sind als andere Segmente,
zu modifizieren und auf diese Weise eine Luminanzeinheitlichkeit
in der zu projizierenden Parameterkurve 912 herzustellen. Ähnlich
kann die Intensität des Anregungslichts von den Lichtquellen
in Segmenten in der gewünschten Parameterkurve 153,
die heller sind als andere Segmente, verringert werden. Bei der
beispielhaften Ausführungsform ist das Anregungslicht ein
ultravioletter Laserstrahl (UV-Laserstrahl) 903, der die
grafischen Befehle für das Grafikprojektionssystem 158 enthält.
Somit kompensiert der dem Intensitätsmodulationstreiber 904 zugeordnete
Intensitätsmodulator 902 ungewollte Unterschiede
einer Grafikhelligkeit in Vektorprojektionsanzeigen, wenn angegeben
wird, dass eine Luminanzschwankung zwischen den mehreren Grafiksegmenten
vorliegt.
-
Bei
der beispielhaften Ausführungsform werden die in dem UV-Laserstrahl 903 enthaltenen
grafischen Befehle in das Grafikprojektionssystem 158 eingegeben.
Das Grafikprojektionssystem 158 umfasst einen Phasenmodulator 906 und
eine Projektionslinse 910. Der Phasenmodulator 906kann
eine akustooptische 2-D-Abtasteinrichtung (siehe 11, Einrichtung 615) oder eine Spiegeleinrichtung
eines mikroelektromechanischen Systems (MEMS-Spiegeleinrichtung)
umfassen. Bei der beispielhaften Ausführungsform kann der
UV-Laserstrahl 903 durch den Phasenmodulator 906 aufgeweitet
und abgetastet werden, um mehrere Laserteilstrahlen 908 zu
leiten. Es sei angemerkt, dass das Luminanzkorrektursystem 901 unter
Verwendung des Phasenmodulators 906 eine einheitliche Luminanz
unter den mehreren Grafiksegmenten durch Verringern der Abtastgeschwindigkeit
bei den Grafiksegmenten, die eine geringere Luminanz enthalten als
andere Grafiksegmente, befehlen kann, und auf diese Weise eine Luminanzeinheitlichkeit
bei der zu projizierenden Parameterkurve 9120 herstellen
kann. Ähnlich kann die Abtastgeschwindigkeit bei den Grafiksegmenten,
die mehr Luminanz enthalten als andere Grafiksegmente, erhöht
werden. Alternativ kann der Phasenmodulator 906 verwendet werden,
um die Abtastzeit bei den Grafiksegmenten, die eine geringere Luminanz
enthalten als andere Grafiksegmente, zu erhöhen, und die
Abtastzeit bei den Grafiksegmenten, die mehr Luminanz enthalten
als andere Grafiksegmente, zu verringern, um auf diese Weise eine
Luminanzeinheitlichkeit bei der zu projizierenden Parameterkurve 912 herzustellen.
Die Laserteilstrahlen 908 werden auf diese Weise in die
Projektionslinse 910 eingegeben, wobei eine projizierte
Parameterkurve 912 mit einer im Wesentlichen einheitlichen
Luminanz an eine Projektionsfläche 914 projiziert
wird. Ein Betrachter 912 kann die projizierte Parameterkurve 916 an der
Projektionsfläche 914 sehen, wobei die Projektionsfläche 914 die
im Wesentlichen transparente Frontscheiben-Head-Up-Anzeige sein
kann.
-
Beispielhafte
Ausführungsformen umfassen das Ermitteln eines Luminanzindikators
für jedes Grafiksegment, das in der gewünschten
Parameterkurve 135 enthalten ist. Es sei angemerkt, dass
der Luminanzindikator eine Luminanzschwankung bei jedem Segment
auf der Grundlage einer effektiven Abtastlänge jedes Segments
und/oder des Krümmungsradius jedes Segments bei der gewünschten
Parameterkurve ermitteln kann. Somit kann der Luminanzindikator
auf einer direkt proportionalen Beziehung zwischen dem Umfang an Luminanz
in jedem der Grafiksegmente und der effektiven Abtastlänge
und/oder dem Krümmungsradius jedes der Segmente basieren.
Beispielsweise weisen Grafiksegmente mit längeren effektiven
Abtastlängen eine geringere Luminanz auf als Grafiksegmente
mit kürzeren effektiven Abtastlängen und weisen
Grafiksegmente mit einem größeren Krümmungsradius
eine geringere Luminanz auf als Grafiksegmente mit einem kleineren Krümmungsradius.
Somit erfordern, um eine Uneinheitlichkeit einer Luminanz zwischen
Grafiksegmenten zu kompensieren, Grafiksegmente mit kürzeren
effektiven Abtastlängen eine verringerte Luminanz, erfordern Grafiksegmente
mit längeren effektiven Abtastlängen eine erhöhte
Luminanz, erfordern Grafiksegmente mit einem größeren
Krümmungsradius eine erhöhte Luminanz und erfordern
Grafiksegmente mit einem kleineren Krümmungsradius eine
verringerte Luminanz. Unter Verwendung des Luminanzindikators kann
das Luminanzkorrektursystem 901 eine einheitliche Luminanz
unter den mehreren Segmenten, die in der zu projizierenden Parameterkurve 912 enthalten
sind, befehlen.
-
Bei
einem Beispiel kann das Luminanzkorrektursystem 901, wenn
der Luminanzindikator auf einem Ermitteln der effektiven Abtastlänge
jedes der Grafiksegmente basiert, dem Intensitätsmodulationstreiber 904 befehlen,
die Luminanzintensität für Grafiksegmente mit
längeren effektiven Abtastlängen zu erhöhen
und die Luminanzintensität für Grafiksegmente
mit kürzeren effektiven Abtastlängen zu verringern.
Auf ähnliche Weise kann das Luminanzkorrektursystem, wenn
der Luminanzindikator auf einem Ermitteln des Krümmungsradius jedes
der Grafiksegmente basiert, dem Intensitätsmodulationstreiber 904 befehlen,
die Luminanzintensität für Grafiksegmente mit
größerem Krümmungsradius zu erhöhen
und die Luminanzintensität für Grafiksegmente mit
kürzerem Krümmungsradius zu verringern.
-
Wenn
der Luminanzindikator bei einem anderen Beispiel auf einem Ermitteln
der effektiven Abtastlänge jedes der Grafiksegmente basiert,
kann das Luminanzkorrektursystem 901 dem Phasenmodulator 906 befehlen,
die Abtastzeit für Grafiksegmente mit längerer
effektiver Abtastlänge zu erhöhen und die Abtastzeit
für Grafiksegmente mit kürzerer effektiver Abtastlänge
zu verringern. Auf ähnliche Weise kann das Luminanzkorrektursystem 901,
wenn der Luminanzindikator auf einem Ermitteln des Krümmungsradius
jedes der Grafiksegmente basiert, dem Phasenmodulator 906 befehlen,
die Abtastzeit für Grafiksegmente mit größerem
Krümmungsradius zu erhöhen und die Abtastzeit
für Grafiksegmente mit kleinerem Krümmungsradius
zu verringern.
-
Bei
noch einem anderen Beispiel kann das Luminanzkorrektursystem 901,
wenn der Luminanzindikator auf einem Ermitteln der effektiven Abtastlänge
jedes der Grafiksegmente basiert, dem Phasenmodulator 906 befehlen,
die Abtastgeschwindigkeit für Grafiksegmente mit längerer
effektiver Abtastlänge zu verringern und die Abtastgeschwindigkeit
für Grafiksegmente mit kürzerer effektiver Abtastlänge
zu erhöhen. Ähnlich kann das Luminanzkorrektursystem 901,
wenn der Luminanzindikator auf einem Ermitteln des Krümmungsradius
jedes der Grafiksegmente basiert, dem Phasenmodulator 906 befehlen,
die Abtastgeschwindigkeit für Grafiksegmente mit einem
größeren Krümmungsradius zu verringern
und die Abtastgeschwindigkeit für Grafiksegmente mit einem
kleineren Krümmungsradius zu erhöhen.
-
In
Bezug auf 40 wird die in 39 erläuterte gewünschte Parameterkurve 153 ausführlicher
erläutert. Die gewünschte Parameterkurve 153 umfasst
mehrere Steuerpunkte 802 und mehrere Segmente 804, die
auf den mehreren Steuerpunkten 802 basieren. Es sei angemerkt,
dass jedes Segment 804 eine effektive Abtastlänge
umfasst, die im Wesentlichen gleich der Distanz zwischen jedem benachbarten
Paar von Steuerpunkten 802 ist. Die mehreren Steuerpunkte 802 definieren
die gewünschte Parameterkurve 153, wobei die mehreren
Segmente 804 jedoch nicht notwendigerweise direkt durch
die mehreren Steuerpunkte 802 führen. In Bezug
auf den Abschnitt 808 sind mehrere Steuerpunkte 802d–g
gezeigt. In Bezug auf den Abschnitt 806 ist im Vergleich
zu dem Abschnitt 808 eine größere Verteilung
von Steuerpunkten 802 in einem kleineren Bereich offensichtlich.
Wie es durch die Abschnitte 806 und 808 offensichtlich
ist, verringert sich die Distanz zwischen jedem Steuerpunkt 802,
wenn sich der Krümmungsradius der gewünschten
Parameterkurve 153 verringert. Beispielsweise ist die Distanz
zwischen jedem der Steuerpunkte 802 in dem Abschnitt 806 kleiner
als die Distanz zwischen den Steuerpunkten 802d–g
in dem Abschnitt 808, da der Krümmungsradius der
gewünschten Parameterkurve 153 in dem Abschnitt 808 größer
ist als der Krümmungsradius der gewünschten Parameterkurve 153 in
dem Abschnitt 806.
-
Wie
oben erläutert weist jedes der Segmente 804 eine
effektive Abtastlänge auf. Beispielsweise ist die effektive
Abtastlänge zwischen den Steuerpunkten 802a und 802b kürzer
als die effektive Abtastlänge zwischen den Steuerpunkten 802b und 802c.
Ferner entspricht die Verteilung der Steuerpunkte dem Krümmungsradius.
Beispielsweise ist die Verteilung der Steuerpunkte 802 in
dem Abschnitt 806 größer als die Verteilung der
Steuerpunkte 802d–g in dem Abschnitt 808,
da der Krümmungsradius in dem Abschnitt 806 kleiner
ist als der Krümmungsradius in dem Abschnitt 808.
Folglich ist die effektive Abtastlänge jedes Segments 804 im
Abschnitt 806 kleiner als die effektive Abtastlänge
jedes Segments 804 im Abschnitt 808. Es sei angemerkt,
dass die über jedem der Segmente 804 übermittelte
Gesamtmenge an photonischer Energie gleich ist, ungeachtet der Schwankungen
der effektiven Abtastlängen. Ferner sei angemerkt, dass
die Luminanzintensität, die Abtastzeit und die Abtastgeschwindigkeit
bei einem Segment 804 im Wesentlichen gleich der Luminanzintensität, der
Abtastzeit bzw. der Abtastgeschwindigkeit jedes der anderen Segmente 804 sind.
Beispielsweise ist die auf das Segment 804 zwischen den
Steuerpunkten 802a und 802b aufgebrachte Luminanzintensität
gleich der auf das Segment 804 zwischen den Steuerpunkten 802b und 802c aufgebrachten
Luminanzintensität; ist die zum Abtasten des Segments 804 zwischen
den Steuerpunkten 802a und 802b verstrichene Zeit
(d. h. Abtastzeit) gleich der zum Abtasten des Segments 804 zwischen
den Steuerpunkten 802b und 802c verstrichenen Zeit;
und ist die Abtastgeschwindigkeit zum Abtasten des Segments 804 zwischen
den Steuerpunkten 802a und 802b gleich der Abtastgeschwindigkeit
zum Abtasten des Segments 804 zwischen den Steuerpunkten 802b und 802c.
-
Allerdings
weisen die Segmente 804 mit längeren effektiven
Abtastlängen eine geringere Luminanz auf als die Segmente 804 mit
kürzeren effektiven Abtastlängen. Ähnlich
weisen die Segmente 804 mit kürzeren effektiven
Abtastlängen mehr Luminanz (d. h. heller) auf als die Segmente 804 mit
längeren effektiven Abtastlängen. Beispielsweise
weist das Segment 804 zwischen den Steuerpunkten 802a und 802b mehr
Luminanz auf als das Segment 804 zwischen den Steuerpunkten 802b und 802c.
Dieser Luminanzkontrast zwischen den Segmenten 804 mit
unterschiedlichen effektiven Abtastlängen führt
zu einer Uneinheitlichkeit hinsichtlich der in der gewünschten
Parameterkurve 153 dargestellten Luminanz. Beispielsweise
würde der Abschnitt 808 aufgrund eines kleineren
Krümmungsradius eine geringere Luminanz aufweisen als der
Abschnitt 806, und somit führt ein größerer
Abstand zwischen den benachbarten Steuerpunkten 802d–g
zu längeren effektiven Abtastlängen bei den Segmenten 804 im
Abschnitt 808. Ein Ermitteln eines Luminanzindikators für
jedes der Segmente und ein Verwenden des Luminanzindikators zum
Befehlen einer einheitlichen Luminanz unter den mehreren Grafiksegmenten 804 kann
eine Uneinheitlichkeit hinsichtlich der Luminanz korrigieren und
auf diese Weise eine projizierte Parameterkurve projizieren, die
hinsichtlich der Luminanz im Wesentlichen einheitlich ist.
-
In
Bezug auf 39 und 40 wird
die gewünschte Parameterkurve 153 in das Grafiksystem 155 des
Luminanzkorrektursystems 901 eingegeben. Bei nicht einschränkenden
Beispielen wird das beispielhafte Verfahren der Einfachheit halber
auf das Segment 804 zwischen den Steuerpunkten 802a und 802b und
das Segment 804 zwischen den Steuerpunkten 802b und 802c angewandt.
Das bei diesen nicht einschränkenden Beispielen beschriebene
Verfahren kann jedoch auf alle Segmente 804 und die jeweiligen
Steuerpunkte 802 der gewünschten Parameterkurve 153 angewandt
werden.
-
Es
wird ein Luminanzindikator für das Segment 804 zwischen
den Steuerpunkten 802a und 802b ermittelt und
es wird ein Luminanzindikator für das Segment 804 zwischen
den Steuerpunkten 802b und 802c ermittelt. Der
Luminanzindikator für jedes der Segmente basiert auf der
effektiven Abtastlänge für jedes der Segmente,
wobei die effektive Abtastlänge für das Segment 804 zwischen
den Steuerpunkten 802a und 802b kürzer
ist als die effektive Abtastlänge für das Segment
zwischen den Steuerpunkten 802b und 802c. Daher weist
das Segment zwischen den Steuerpunkten 802a und 802b mehr
Luminanz auf als das Segment 804 zwischen den Steuerpunkten 802b und 802c.
Unter Verwendung des ermittelten Luminanzindikators, der der effektiven
Abtastlänge jedes der Segmente 804 entspricht,
kann die Luminanzintensität für das Segment 804 zwischen
den Steuerpunkten 802b und 802c erhöht
werden und/oder kann die Luminanzintensität für
das Segment 804 zwischen den Steuerpunkten 802a und 802b verringert
werden, um eine einheitliche Luminanz unter den mehreren Grafiksegmenten
in der gewünschten Parameterkurve 153 zu befehlen.
Bei einem alternativen Beispiel kann die Luminanzintensität
für jedes Segment durch den Krümmungsradius des
abgetasteten Pfads ermittelt werden.
-
Es
sei angemerkt, dass die Anregungslichtquelle eine rein elektronische
Einrichtung ist, wobei die Intensität leichter zu steuern
ist als die Abtastgeschwindigkeit und oder die Abtastzeit der gewünschten
Parameterkurve, da das Abtasten mit einer Oberschwingungsfrequenz
durchgeführt wird. Ferner ist jedoch anzumerken, dass ein
Steuern der Laserintensität für Anregungslichtquellen,
die grüne Laser einsetzen, schwierig ist. Somit kann es,
wenn die Anregungslichtquelle grüne Laser einsetzt, erwünscht
sein, die Zeit zum Abtasten jedes Segments 804 (d. h. Abtastzeit)
zu steuern oder die Abtastgeschwindigkeit jedes Segments 804 zum Befehlen
einer einheitlichen Luminanz zu steuern.
-
Bei
einem anderen nicht einschränkenden Beispiel und unter
Verwendung des ermittelten Luminanzindikators, der der effektiven
Abtastlänge jedes der Segmente 804 entspricht,
kann die zum Abtasten des Segments 804 zwischen den Steuerpunkten 802a und 802b verstrichene
Zeit (d. h. Abtastzeit) verringert werden und/oder kann die zum
Abtasten des Segments 804 zwischen den Steuerpunkten 802b und 802c verstrichene Zeit
erhöht werden, um eine einheitliche Luminanz unter den
mehreren Grafiksegmenten in der gewünschten Parameterkurve 153 zu
befehlen. Bei einem alternativen Beispiel kann die Abtastzeit für
jedes Segment auch durch den Krümmungsradius des abgetasteten
Pfads ermittelt werden.
-
Bei
noch einem anderen nicht einschränkenden Beispiel und unter
Verwendung des ermittelten Luminanzindikators, der der effektiven
Abtastlänge jedes der Segmente 804 entspricht,
kann die Abtastgeschwindigkeit zum Abtasten des Segments 804 zwischen
den Steuerpunkten 802a und 802b erhöht
werden und/oder kann die Abtastgeschwindigkeit zum Abtasten des
Segments 804 zwischen den Steuerpunkten 802b und 802c verringert
werden, um eine einheitliche Luminanz unter den mehreren Grafiksegmenten 804 in
der gewünschten Parameterkurve 153 zu befehlen.
Bei einem alternativen Beispiel kann das Abtasten für jedes
Segment auch durch den Krümmungsradius des abgetasteten
Pfads ermittelt werden. Es sei ferner angemerkt, dass ein Abtasten
der gewünschten Parameterkurve 153 mit einer Oberschwingungsfrequenz
durchgeführt wird.
-
Es
sei angemerkt, dass, wenn der Intensitätsmodulator 902 die
Luminanzintensität zum Erhöhen der Luminanz bei
einem Segment 804 erhöht, die photonische Energie,
die über dem Segment 804 übermittelt wird,
auch erhöht wird, wenn die projizierte Parameterkurve 912 an
die Fläche 914 projiziert wird. Ähnlich
wird, wenn der Intensitätsmodulator 902 die Luminanzintensität
verringert, um die Luminanz bei einem Segment 804 zu verringern,
die photonische Energie, die über jedem Segment übermittelt
wird, auch verringert, wenn die projizierte Parameterkurve 912 an
die Fläche 914 projiziert wird. Es sei ferner
angemerkt, dass, wenn der Phasenmodulator 906 die Abtastzeit
erhöht, um die Luminanz bei einem Segment 804 zu
erhöhen, die über dem Segment 804 übermittelte
photonische Energie auch erhöht wird, wenn die projizierte
Parameterkurve 912 an die Fläche 914 projiziert
wird. Ähnlich wird, wenn der Phasenmodulator 906 die
Abtastzeit verringert, um die Luminanz bei einem Segment 804 zu
verringern, die über dem Segment 804 übermittelte
photonische Energie auch verringert, wenn die projizierte Parameterkurve 912 an
die Fläche 914 projiziert wird. Es sei ferner
angemerkt, dass, wenn der Phasenmodulator 906 die Abtastgeschwindigkeit
verringert, um die Luminanz bei einem Segment 804 zu erhöhen,
die über dem Segment 804 übermittelte
photonische Energie auch erhöht wird, wenn die projizierte
Parameterkurve 912 an die Fläche 914 projiziert
wird. Ähnlich wird, wenn der Phasenmodulator 906 die
Abtastgeschwindigkeit erhöht, um die Luminanz bei einem
Segment 804 zu verringern, die über dem Segment 804 übermittelte
photonische Energie auch verringert, wenn die projizierte Parameterkurve 912 an
die Fläche 914 projiziert wird.
-
Es
sei angemerkt, dass der Abschnitt 808, der die Steuerpunkte 802d–g
umfasst, bei einem anderen nicht einschränkenden Beispiel
eine geringere Luminanz aufweist als der Abschnitt 806,
da der Krümmungsradius der mehreren Segmente 804,
die in dem Abschnitt 808 enthalten sind, größer
ist als der Krümmungsradius der mehreren Segmente 806,
die in dem Abschnitt 806 enthalten sind. Somit ist jedes
Segment 804 zwischen jedem der Steuerpunkte 802d–g
länger als die effektiven Abtastlängen der Segmente 804 zwischen
jedem der Steuerpunkte 802 in dem Abschnitt 806,
da der Krümmungsradius im Abschnitt 808 größer
ist. Das beispielhafte Verfahren, das mit Bezug auf das Segment 804 zwischen
den Steuerpunkten 802a und 802b und das Segment 804 zwischen
den Steuerpunkten 802b und 802c in den obigen
Beispielen beschrieben wurde, kann auf die mehreren in den Abschnitten 808 bzw. 808 enthaltenen
Segmente 804 angewandt werden, um eine einheitliche Luminanz
unter den mehreren Segmenten 804 in der gewünschten
Parameterkurve 153 zu befehlen.
-
Ferner
kann ein Befehl einer reduzierten Luminanzintensität für
jeden der Steuerpunkte 802 verwendet werden. Der Befehl
einer reduzierten Luminanzintensität kann eine Luminanzintensität
von Null umfassen, um jeden der Steuerpunkte an der projizierten
Parameterkurve 912 an der Fläche 914 von
dem Betrachter im Wesentlichen zu beseitigen.
-
In
Bezug auf 39 und 41 zeigt 41 eine alternative Ausführungsform,
bei der die gewünschte Parameterkurve 153 reparametrisiert
wird, um eine einheitliche Luminanz unter mehreren neuen Grafiksegmenten 840 zum
Projizieren der projizierten Parameterkurve 912 an die
Fläche 914 zu befehlen. Eine reparametrisierte
Parameterkurve 853 umfasst das Anordnen mehrerer neuer
gleich weit beabstandeter Steuerpunkte 820 und das Anordnen
der mehreren neuen Grafiksegmente 840 auf der Grundlage
der neuen gleich weit beabstandeten Steuerpunkte 820. Es
sei angemerkt, dass, da die neuen Steuerpunkte 820 gleich
weit voneinander beabstandet sind, die effektive Abtastlänge
jedes der neuen Grafiksegmente 840 im Wesentlichen gleich ist.
Da die effektive Abtastlänge jedes der neuen Grafiksegmente 840 im
Wesentlichen gleich ist, ist die Luminanz unter den mehreren neuen
Grafiksegmenten 840 im Wesentlichen einheitlich, ohne dass
Verfahren zum Erhöhen oder Verringern der Luminanzintensität,
Abtastzeit und/oder Abtastgeschwindigkeit der neuen Grafiksegmente 840 verwendet
werden, um eine einheitliche Luminanz zu erzeugen. Es sei angemerkt,
dass die mehreren neuen gleich weit beabstandeten Steuerpunkte 820 die
reparametrisierte Kurve definieren, wobei die mehreren neuen Grafiksegmente 840 jedoch
nicht notwendigerweise direkt durch die mehreren neuen gleich weit
beabstandeten Steuerpunkte 820 führen. Es sei
ferner angemerkt, dass die gewünschte Parameterkurve 153 in
dem Grafiksystem 155 reparametrisiert wird.
-
Ferner
kann ein Befehl einer reduzierten Luminanzintensität für
jeden der neuen gleich weit beabstandeten Steuerpunkte 820 verwendet
werden. Der Befehl einer reduzierten Luminanzintensität
kann eine Luminanzintensität von Null umfassen, um jeden
der neuen gleich weit beabstandeten Steuerpunkte 820 an
der projizierten Parameterkurve 912 an der Fläche 914 von
dem Betrachter im Wesentlichen zu beseitigen.
-
Die
obige Offenbarung beschreibt eine im Wesentlichen transparente Head-Up-Anzeige
mit der Fähigkeit einer Vollbildanzeige. Es sei angemerkt,
dass an Frontscheiben ähnliche Verfahren eingesetzt werden können,
die eine Anzeige einer im Wesentlichen gesamten Frontscheibe, eine
Teil-Frontscheibenanzeige, beispielsweise beschränkt auf
die Fahrerhälfte der Frontscheibe, oder eine Anzeige, die
auf das typische Sichtzentrum geradeaus des Bedieners konzentriert
oder beschränkt ist, verwenden. Es werden viele Ausführungsformen
von Anzeigen in Betracht gezogen, und die Offenbarung soll nicht
auf die bestimmten hierin beschriebenen beispielhaften Ausführungsformen
beschränkt sein.
-
Die
Offenbarung beschrieb bestimmte bevorzugte Ausführungsformen
und Abwandlungen dieser. Weitere Abwandlungen und Änderungen
können für Dritte beim Lesen und Verstehen der
Beschreibung ersichtlich werden. Daher soll die Offenbarung nicht
auf die bestimmte(n) Ausführungsform(en) beschränkt
sein, die als die beste Ausführungsform offenbart ist/sind,
die zur Ausführung dieser Offenbarung in Betracht gezogen
wird, sondern die Offenbarung soll alle Ausführungsformen
umfassen, die in den Schutzumfang der beigefügten Ansprüche
fallen.
-
ZITATE ENTHALTEN IN DER BESCHREIBUNG
-
Diese Liste
der vom Anmelder aufgeführten Dokumente wurde automatisiert
erzeugt und ist ausschließlich zur besseren Information
des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen
Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt
keinerlei Haftung für etwaige Fehler oder Auslassungen.
-
Zitierte Patentliteratur
-