DE69123359T3 - Videobildverarbeitung - Google Patents
VideobildverarbeitungInfo
- Publication number
- DE69123359T3 DE69123359T3 DE69123359T DE69123359T DE69123359T3 DE 69123359 T3 DE69123359 T3 DE 69123359T3 DE 69123359 T DE69123359 T DE 69123359T DE 69123359 T DE69123359 T DE 69123359T DE 69123359 T3 DE69123359 T3 DE 69123359T3
- Authority
- DE
- Germany
- Prior art keywords
- image
- region
- sub
- vector
- fields
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000012545 processing Methods 0.000 title description 6
- 239000013598 vector Substances 0.000 claims abstract description 141
- 238000000034 method Methods 0.000 claims description 41
- 238000001914 filtration Methods 0.000 claims description 4
- 230000000875 corresponding effect Effects 0.000 description 11
- 230000001934 delay Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 230000004044 response Effects 0.000 description 5
- 230000002123 temporal effect Effects 0.000 description 5
- 230000006870 function Effects 0.000 description 3
- 230000015654 memory Effects 0.000 description 3
- 101100311330 Schizosaccharomyces pombe (strain 972 / ATCC 24843) uap56 gene Proteins 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000000750 progressive effect Effects 0.000 description 2
- 101150018444 sub2 gene Proteins 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000013213 extrapolation Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/14—Picture signal circuitry for video frequency region
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/223—Analysis of motion using block-matching
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/523—Motion estimation or motion compensation with sub-pixel accuracy
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/14—Picture signal circuitry for video frequency region
- H04N5/144—Movement detection
- H04N5/145—Movement estimation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Closed-Circuit Television Systems (AREA)
- Television Systems (AREA)
- Ultra Sonic Daignosis Equipment (AREA)
- Image Processing (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Image Analysis (AREA)
- Silver Salt Photography Or Processing Solution Therefor (AREA)
- Lubricants (AREA)
- Cameras Adapted For Combination With Other Photographic Or Optical Apparatuses (AREA)
- Color Television Image Signal Generators (AREA)
- Lubrication Of Internal Combustion Engines (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Coating With Molten Metal (AREA)
- Control Of Ac Motors In General (AREA)
- Photoreceptors In Electrophotography (AREA)
Description
- Die Erfindung betrifft eine Videobildverarbeitung bzw. Fernsehbildverarbeitung und insbesondere die Zuweisung bzw. Bestimmung von Bewegungsvektoren, die die Richtung und den Betrag einer scheinbaren bzw. offensichtlichen Bewegung zu verschiedenen Regionen des Bildes anzeigt, um bei der Erzeugung gewünschter Ausgabebilder zu helfen.
- Unser Vereinigtes Königreich-Patent Nr. GB-B-2, 188,510 und der BBC Research Department Report RD 1987/11 beschreiben ein Verfahren zur Verarbeitung eines Videobildes, um so eine Liste von Bewegungsvektoren bereitzustellen, die über das gesamte Gebiet verwendet werden können, und von denen einer so angesehen werden kann, als ob er für jede Region des Bildes zutrifft. Andere Verfahren sind ebenso möglich, um eine derartige Liste von Bewegungsvektoren zu erzeugen. Um derartige Vektoren zu verwenden, ist es dann notwendig, auszuwählen, welche dieser Vektoren auf gegebene Regionen des Bildes angewendet werden können bzw. zutreffen können. Jede Region kann so klein sein, wie ein Bildelement (Pixel) oder es kann eine Anzahl von Bildelementen oder einen Block des Bildes aufweisen.
- Die Bewegungsvektoren können zum Beispiel verwendet werden, um Ausgabeteilbilder zu erzeugen, die einen Zeitpunkt in der Zeit entsprechen, der zwischen der Zeit zweier Eingabeteilbilder liegt. Dies kann zum Beispiel bei der Erzeugung von Zeitlupeneffekten, bei der Übertragung von Videobildern zu oder von einem Film oder bei einer Normenumwandlung erforderlich sein.
- Eine der am meisten herausfordernden Anwendung einer Bewegungskompensation ist es, Zeitlupensequenzen ohne die ruckartige Bewegung zu erzeugen, die sich aus einer einfachen mehrmaligen Wiederholung eines jeden Bildes ergibt. Die Kenntnis des Bewegungsvektors eines jeden Gegenstandes in dem Bild ermöglicht neue Bilder, die jedem zu erzeugenden Zeitpunkt entsprechen und die Objekte bzw. Gegenstände korrekt positioniert zeigen. Die Verwendung einer derartigen Technik in Verbindung mit einer Verschluß-CCD-Kamera sollte ermöglichen, daß scharfe, sich glatt bewegende Bilder mit einer Qualität erzeugt werden, die sich jener annähern, die von einer Kamera mit hoher Vollbildrate erzielbar ist, und zwar ohne die Betriebsprobleme, die die Verwendung einer derartigen Kamera mit sich bringen würde.
- Ein typisches Bild kann bei seiner einfachsten Ausgestaltung so angesehen werden, als ob es eine sich bewegende Vordergrundregion und eine Hintergrundregion aufweist, wie etwas graphisch bzw. schematisch in Fig. 1 der Zeichnungen gezeigt ist. Bei (a) ist eine Teilbild eines Bildes mit einem Vordergrundgegenstand bzw. Vordergrundobjekt, wie zum Beispiel einem Ball vor einem Hintergrund gezeigt. Bei (b) ist das nächste Feld bzw. Teilbild des Bildes gezeigt. Der Ball wird sich von der Position A zu der Position B bewegen müssen. Betrachtet man das Bild (b), so ist nun ein Teil des Hintergrunds, der in (a) zu sehen war, verdeckt, und ein Teil des Hintergrunds, der in (a) nicht zu sehen war, ist nun freigegeben oder nicht verdeckt.
- Im allgemeinen kann der Hintergrund sich in dem Bild ebenso "bewegen", falls zum Beispiel die Kamera geschwenkt wird. Somit werden Bewegungsvektoren sowohl dem Vordergrund als auch dem Hintergrund jeweilig zugeordnet. Der geeignete Bewegungsvektor wird in jedem Fall von der Liste möglicher Bewegungsvektoren gewählt (die zum Beispiel wie in einem zuvor erwähnten Patent beschrieben, erzeugt wird), indem die zwei aufeinanderfolgenden Teilbilder verglichen werden und auf die Bewegung geblickt wird, die über verschiedene Regionen bzw. Bereiche des Bildes stattgefunden hat.
- Diese Operation wird eine genaue Information über den Großteil des Bildgebiets bereitstellen. Somit kann der Hintergrund, der nicht durch irgendeine Bildposition des Balles A oder B verdeckt ist, zwischen den beiden Bildern verglichen werden. Ebenso kann die Überlappregion zwischen den beiden Positionen A und B des Balles verglichen werden, um einen geeigneten Vektor bereitzustellen. Jedoch enthält eines der Teilbilder sowohl in dem Gebiet eines überdeckten Hintergrunds als auch in dem Gebiet eines freigelegten oder nicht abgedeckten Hintergrunds ein Bild des Balles und das andere ein Bild des Hintergrunds. Das kann nicht sinntragend bzw. bedeutungstragend korreliert werden.
- Viele Bewegungs-Schätzalgorithmen wurden vorgeschlagen, siehe zum Beispiel Proceedings of the International Zurich Seminar on Digital Communications, März 1984, Seiten D2.1-D2.5, Bergmann, H. C., "Motion-adaptive frame interpolation". Die meisten können eine Bewegung in derartigen Regionen bzw. Bereichen nicht detektieren oder sie können derartige Regionen nur detektieren, wenn der Hintergrund stationär ist, aber von jenen, die ihre Existenz detektieren können, glauben wir nicht, daß irgendeiner die Richtung oder den Betrag der Bewegung der Region zu der Zeit bestimmen kann, zu der sie aus der Ansicht verschwindet oder wenn sie wieder erscheint.
- Die europäische Patentanmeldung Nr. EP-A-0 395 264, die am 31. Oktober 1990 veröffentlicht ist, beschreibt eine Ausführungsform zur Konvertierung eines 1125/60/2:1 HDTV-Signals in ein 24 Hz progressives (nicht-verflochtenes bzw. "noninterlaced") Format zur Aufnahme auf einen Film, das eine Bewegungs-Schätztechnik verwendet, die einen zweistufigen Algorithmus aufweist, in dem die erste Stufe eine Korrelierung (durch Blockanpassung) relativ großer Gebiete des Bildes aufweist, um eine Liste möglicher Bewegungsvektoren zu bestimmen, und zwar gefolgt von einem Zuweisungsprozeß, um Vektoren individuellen Pixeln zuzuordnen. Bei diesem Zuweisungsprozeß werden Vektoren Pixeln in existierenden Eingabeteilbildern zugewiesen, und diese Information muß dann umgewandelt werden, um auf Pixel in Eingabevollbilder werden bei dem Vergleich verwendet.
- EP-A-0 294 961 beschreibt eine Anordnung, bei der einer einer Anzahl von Bewegungsvektoren Regionen eines Videobildes zugewiesen wird. Vier Spitzenvektoren werden für die Zuweisung bzw. Bestimmung ausgewählt und für jeden Pixel wird die Differenz zwischen aufeinanderfolgenden Teilbildern berechnet, indem wiederum vier Vektoren verwendet werden. Der Vektor, der den minimalen Fehler bei der Ableitung eines Teilbildes von einem anderen ergibt, wird dann jenem Pixel zugewiesen. Ein drittes Feld bzw. Teilbild wird nur jemals unter Umständen verwendet, wo einer der anderen Vektoren einen Fehler innerhalb eines voreingestellten Fensters von dem Minimum erzeugt. Somit wird das dritte Teilbild nur jemals dann verwendet, wenn das Testen mit den vier Spitzenvektoren kein verläßliches Ergebnis ergibt.
- Eine andere zweistufige Konsitenzüberprüfung auf Verlässlichkeit von Bewegungsvektoren ist in "Signal Processing of HDTV; proceedings of the Third International Workshop on HDTV, Turin, Italien, 30.08.-01.09.89, Seiten 649-655" offenbart.
- Die vorliegende Erfindung ist in den beigefügten Ansprüchen festgelegt, auf die bezuggenommen werden sollte.
- Bei einer bevorzugten Ausführungsform der Erfindung wird ein Bildwert für jede Region bzw. für jeden Bereich eines Videobildes bzw. Fernsehbildes für jedes von vier aufeinanderfolgenden Teilbildern bzw. Halbbildern bestimmt, und zwar für jeden einzelnen einer Liste möglicher Bewegungsvektoren. Die Werte für die vier Teilbilder werden verglichen und wenn die Werte für einen gegebenen Vektor im wesentlichen gleich sind, wird angenommen, daß dies der Vektor ist, der für jene Region geeignet ist. Die Vektoren, die für Regionen mit verdeckten oder freigelegten Hintergrund geeignet sind, können ebenso bestimmt werden, indem Zwischen-Teilbild-Differenzen verglichen werden und Regionen, wo die Zwischen-Teilbild-Differenzen für das zentrale Paar und ein äußeres Paar hoch sind und für das andere äußere Paar der Gruppe von vier Teilbildern niedrig ist.
- Ausgabeteilbilder können durch Interpolation erzeugt werden. Um Regionen zu erzeugen, die einem verdeckten Hintergrund entsprechen, werden nur Informationen von den früheren Teilbildern verwendet, und um Regionen entsprechend einem freigelegten Hintergrund zu erzeugen, werden nur Informationen von den späteren Feldern bzw. Teilbildern verwendet.
- Die bevorzugte Ausführungsform der Erfindung wird detaillierter beschrieben, und zwar beispielhaft unter Bezugnahme auf die Zeichnungen, in diesen gilt:
- Fig. 1 (oben erwähnt) zeigt zwei aufeinanderfolgende Teilbilder einer Sequenz von Videobildern, bei denen eine Bewegung eines Vordergrundgegenstandes stattfindet;
- Fig. 2 ist ein Diagramm, das entsprechende Punkte auf vier aufeinanderfolgenden Teilbildern für einen gegebenen Bewegungsvektor zeigt;
- Fig. 3 ist ein Diagramm, das eine Bewegung eines Vordergrunds und eines Hintergrunds zwischen den vier aufeinanderfolgenden Bildern zeigt;
- Fig. 4 ist ein Blockdiagramm eines Apparats, um vier Luminanzwerte entlang einer Versuchsbewegungstrajektorie zu erhalten;
- Fig. 5 ist ein Blockdiagramm eines Apparats, um Zuweisungsfehler zu berechnen; und
- Fig. 6 zeigt eine Schaltung zum Vergleich von Klassifikationskodes und Fehlern.
- Nimmt man an, daß das gesamte Bild in Übereinstimmung mit dem selben Versuchs- Bewegungsvektor dargestellt wird, d. h. mit einem der Vektoren in der Liste möglicher Bewegungsvektoren, dann kann der Wert eines jeden Pixels geschätzt werden, indem zu dem Punkt in dem vorhergehenden Teilbild zurückgesehen wird, das bzw. der um den Umfang jenes Vektors versetzt ist. Alternativ kann man zurücksehen und vorwärtssehen, wobei man irgendein gegebenes Teilbild als Bezug annimmt, und man kann für jeden Pixel in dem Bezugsteilbild erzeugen, welchen Wert jener Pixel zur Zeit des Auftretens des vorhergehenden und nachfolgenden Feldes bzw. Teilbildes haben würde. Dies wird erreicht, indem man die Punkte in jenen vorhergehenden und nachfolgenden Teilbildern bzw. Halbbildern ansieht, die von dem Pixel in dem Bezugsteilbild um einen Umfang bzw. Betrag versetzt sind, der bezüglich jenes Bewegungsvektors geeignet ist. Diese Operation ist in Fig. 2 gezeigt, die graphisch vier Teilbilder eines Videosignals zu den Zeiten t - 1, t, t + 1 und t + 2 jeweilig gezeigt. Auf der vertikalen Achse ist in einer Dimension ein räumlicher Schnitt durch das Bild gezeigt. Aufgrund der Bewegung sind die Punkte, die sich auf den verschiedenen Teilbildern bzw. Feldern entsprechen, räumlich versetzt.
- Somit kann man für jeden gegebenen Bewegungsvektor für jeden Pixel in dem Bezugsteilbild die Werte aufbauen, von denen man erwartet, daß der Pixel sie in einer Aufeinanderfolge von Teilbildern hat. Falls der Bewegungsvektor in der Tat der Richtige bzw. Korrekte für jenen Pixel ist, ist es wahrscheinlich, daß diese Werte mehr oder weniger die gleichen sind. Falls die Operation für alle möglichen Bewegungsvektoren wiederholt wird, dann ist der Vektor, der die geringste Variation in den erzielten Werten erzeugt, wahrscheinlich der geeignete Vektor für jenen Pixel. Die Werte können verarbeitet werden, um ein Maß eines Zuweisungsfehlers für jeden Pixel und jeden Vektor zu ergeben, wie im folgenden beschrieben wird.
- In Übereinstimmung mit dieser Erfindung schlagen wir deshalb vor, den Inhalt von vier aufeinanderfolgenden Teilbildern bzw. Feldern zu verwenden, um die geeigneten Bewegungsvektoren für die verschiedenen Bereiche des Bildes zu bestimmen. Es wird auf Fig. 3 bezuggenommen, die in ähnlicher Weise graphisch vier Teilbilder eines Fernsehsignals bzw. Videos zeigt, die zu den Zeiten t - 1, t, t + 1 und t + 2 jeweilig gezeichnet sind. Auf der vertikalen Achse ist in einer Dimension ein Vordergrundgegenstand gezeigt, der sich über einen Hintergrund bewegt, der sich selbst bewegt. Wie in der Figur gezeigt, bewegt sich der Vordergrundgegenstand stetig nach oben zwischen den Teilbildern t - 1 und t + 2, wohingegen sich der Hintergrund langsamer nach unten bewegt.
- Bestehende Systeme vergleichen die zwei zentralen Teilbilder t und t + 1 und sind nicht dazu in der Lage, den Vektor geeignet für gewisse Bereiche des Bildes zu bestimmen. Insbesondere sind sie unfähig, den Vektor geeignet für den Bereich zu bestimmen, der mit c markiert ist, der einen Hintergrund darstellt, der zwischen den Teilbildern t und t + 1 verdeckt ist, oder den Vektor zu bestimmen, der für den Bereich geeignet ist bzw. dafür paßt, der mit e markiert ist und der freigelegten Hintergrund darstellt.
- Die Bewegungsvektoren können bei einer Interpolationsoperation verwendet werden, um ein Ausgabeteilbild zu einem Zeitpunkt t + δt zu erzeugen, der einer Zeit zwischen zwei Teilbildern t und t + 1 entspricht. Indem alle vier Teilbilder verwendet werden, ist die Detektion des Bewegungsvektors nicht nur genauer, sondern es wird auch möglich, Vektoren zu den Regionen bzw. Bereichen c und e des Bildes zuzuordnen. Die Verarbeitung, die bei jeder der verschiedenen Regionen a bis g, die in Fig. 2 gezeigt sind, angewendet wird, ist wie folgt:
- Regionen a und g: Der Bewegungsvektor des Hintergrundes ergibt einen geringen Zuweisungsfehler über alle vier Teilbilder, so daß eine Vierteilbild-Interpolation verwendet werden kann.
- Region b: Der Bewegungsvektor des Hintergrundes ergibt einen geringen Zuweisungsfehler zwischen den zentralen Teilbildern bzw. Feldern, aber nicht über alle vier; eine Zweiteilbild-Interpolation über zentrale Teilbilder wird verwendet, oder eine mögliche Extrapolation des Teilbildes zu der Zeit t, falls der Zuweisungsfehler über die ersten zwei Teilbilder geringer ist, als jener über das zentrale Teilbild.
- Region c: Der Hintergrundvektor ergibt nur über die ersten zwei Teilbilder einen geringen Fehler; keine anderen Vektoren ergeben einen geringen Zuweisungsfehler über irgendeinen Zeitraum. Das Gebiet wird somit als "verdeckt" markiert bzw. gekennzeichnet und es wird von dem Teilbild zu der Zeit t extrapoliert, indem der Hintergrundvektor verwendet wird.
- Region d: Der Bewegungsvektor des Gegenstandes bzw. Objekts ergibt einen geringen Vierteilbild-Zuweisungsfehler, so daß Vierteilbild-Interpolation verwendet wird.
- Region e: Der Hintergrundvektor ergibt einen geringen Zuweisungsfehler über die letzten zwei Teilbilder; keine anderen Vektoren ergeben einen geringen Zuweisungsfehler über irgendeinen Zeitraum. Das Gebiet wird somit als "freigelegt" bezeichnet und von dem Teilbild zu der Zeit t + 1 extrapoliert, indem der Hintergrundvektor verwendet wird.
- Region f: Der Hintergrundvektor ergibt einen geringen Zuweisungsfehler zwischen den zentralen Halbbildern, aber nicht über alle vier; Zweiteilbild-Interpolation über die zentralen Teilbilder wird somit verwendet, oder möglicherweise wird das Teilbild zu der Zeit t + 1 extrapoliert, falls der Zuweisungsfehler über die letzten zwei Teilbilder geringer ist, als jener über die zentralen Teilbilder.
- Somit ist eine Vektorzuweisung für alle gezeigten Bildregionen möglich, und zwar egal ob auf einer Pixel-um-Pixel- oder auf einer Block-um-Block-Basis. Regionen, die einen verdeckten Hintergrund entsprechen, werden erzeugt, indem nur Information in vorhergehenden Teilbildern verwendet wird und bezüglich Information in Gebieten freigelegten Hintergrund, werden nur aufeinanderfolgende Teilbilder bzw. Teilbilder einer Folge verwendet.
- Die Art und Weise, in der die Zuweisungsfehler erzeugt werden, wird nun beschrieben. Vier Teilbilder des Videosignals bzw. Fernsehbildsignals werden gleichzeitig durch eine geeignete Speicherung verfügbar gemacht. Für jeden Versuchsvektor werden die vier Werte entlang der vorgeschlagenen Bewegungstrajektorie bestimmt (siehe Fig. 2). Die genommenen Werte sind die Luminanzwerte des Signals. Der Bewegungsvektor kann bis zu einer Genauigkeit von besser als ein Pixel bestimmt werden und wenn dies der Fall ist, wird die Bewegungstrajektorie nicht exakt durch die bestehenden Abtastpositionen auf Teilbildern t - 1, t + 1 oder t + 2 hindurchgehen. Eine räumliche Interpolationseinrichtung wird dann verwendet, um die Luminanzwerte zu berechnen, die zu den nächstliegenden Pixelpositionen in jenen Teilbildern bzw. Feldern gehören.
- Die somit erhaltenen vier Werte werden durch einen Hochpaßfilter hindurchgeführt, der die Amplitude der mit der Zeit variierenden Luminanzkomponente mißt. Viele Filterantworten sind möglich, aber ein Beispiel einer möglichen Filterantwort, die einen gewichteten Mittelwert des Moduls der Differenz bereitstellt, ist folgende:
- 0,25 · { a&submin;&sub1; - a&sub1; + a&sub0; - a&sub2; }
- + 0,125 · { a&submin;&sub1; - a&sub0; + 2 a&sub0; - a&sub1; + a&sub1; - a&sub2; }
- Somit wird ein Wert für jede Pixelposition erhalten. Die Werte über dem Bild werden dann geglättet, indem sie einem räumlichen Tiefpaßfilter zugeführt werden, um einen Vierteilbild-Vektor-Zuweisungsfehler für jeden Vektor auszubilden. Für jeden Pixel werden die Beträge des Vierteilbild-Vektor-Zuweisungsfehlers für alle möglichen Versuchsvektoren dann verglichen. Falls der Betrag des niedrigsten Vierteilbild- Vektor-Zuweisungsfehlers unter einer gegebenen Schwelle bzw. einem gegebenen Schwellwert liegt, wird dann der entsprechende Vektor jenem Pixel zugewiesen und der Pixel wird so gekennzeichnet, als ob er eine einfache Translationsbewegung durchmacht.
- Falls der niedrigste Vierteilbild-Zuweisungsfehler über diesem Schwellwert liegt, werden dann die Unterschiede zwischen aufeinanderfolgenden Teilbildern für alle Versuchsvektoren untersucht, um zu bestimmen, welcher Vektor und welcher Zeitabschnitt den geringsten Fehler ergibt, wie oben unter Bezugnahme auf die Fig. 3 beschrieben wurde. Falls die Region einem freigelegten Hintergrund entspricht, so würde man erwarten, daß a&sub1; - a eine kleinere Amplitude für den korrekten Bewegungsvektor aufweist, wohingegen a&sub0; - a&sub1; und a&sub1; - a&sub0; hoch sein würde. In ähnlicher Weise würde ein verdeckter Hintergrund eine niedrige Amplitude von a&submin;&sub1; - a&sub0; erhöhen. Falls der niedrigste Werte für den mittigen Zeitabschnitt vorlag, könnte daraus dann geschlossen werden, daß die Region gerade freigelegt worden ist oder gerade dabei war, verdeckt zu werden. Die drei Fehler werden einem räumlichen Filter unterworfen und vorzugsweise mit Wichtungsfaktoren multipliziert, bevor sie verglichen werden. Die Wichtungsfaktoren werden so gewählt, daß sie gewährleisten, daß ein Gebiet als freigelegter oder verdeckter Hintergrund nur gekennzeichnet wird, wenn der Fehler für einen der äußersten Teilbildperioden bzw. Teilbild-Zeitabschnitte beträchtlich kleiner ist, als für die mittige bzw. zentrale Periode.
- Eine mögliche Hardwareimplementation des Verfahrens der Fig. 3 wird nun unter Bezugnahme auf Fig. 4 bis 6 beschrieben. Fig. 4 zeigt, wie die vier Luminanzwerte entlang einer Versuchsbewegungstrajektorie erhalten werden können. Drei fixierte bzw. festgelegte Teilbildverzögerer 10 werden verwendet, um Signalwerte von vier aufeinanderfolgenden Teilbildperioden bereitzustellen. Veränderliche Verzögerer 12 werden verwendet, um die Verschiebung in Übereinstimmung mit dem Versuchsvektorwert durchzuführen, und zwar multipliziert mit einem Wert entsprechend der Zeitperiode zwischen dem relevanten hereinkommenden Teilbild und der Zeit, zu der das Vektorteilbild erzeugt wird. Derartige variable Verzögerer können leicht realisiert werden, indem eine Anzahl von Speicher mit wahlfreiem Zugriff bzw. RAMs verwendet werden, die durch geeignete Lese- und Schreibezeiger adressiert werden. Bei einer Ausführungsform, bei der die Teilbilder auf Unter-Pixel-Genauigkeit versetzt werden, wird jede Schiebeeinrichtung durch eine Anzahl von Schiebeeinrichtungen ersetzt, um die Werte der umgebenden Pixel bereitzustellen; diese Werte werden dann einer räumlichen Interpolationseinrichtung zugeführt, um den Unter- Pixel-Teil der Verschiebung durchzuführen. Eine derartige Interpolationseinrichtung ist gut bekannt.
- Fig. 5 zeigt eine mögliche Anordnung zur Berechnung von Vierteilbild- und Zweiteilbild-Zuweisungsfehlern und den Luminanzwerten, die in Fig. 4 berechnet sind. Die Fehler werden berechnet, indem Substrahierer 14 verwendet werden, denen Schaltungen 16 folgen, um den Modulus der Teilbilddifferenz zu berechnen. Die Modulus-Differenzen werden räumlich gefiltert, um die Zweiteilbild-Fehler zu bilden; diese werden verwendet, um die Vierteilbild-Fehler zu berechnen. Es sind integrierte Schaltungen verfügbar, die verwendet werden können, um eine derartige räumliche Filterung durchzuführen; ein Beispiel stellt Inmos A110 dar. Bei diesem Beispiel wird der Vierteilbild-Fehler einfach in einem Summierer 18 von der Summe der drei Zweiteilbild-Fehler abgeleitet; eine komplexere Hochpaß-Filteranordnung kann ebenso verwendet werden, wie zuvor erklärt wurde. Diese Fehler werden zu einer Entscheidungsschaltung 20 übermittelt, die eine Entscheidung, basierend auf den Werten der Fehler in Beziehung zueinander und zu gegebenen Schwellenwerten und Wichtungsfaktoren, die zuvor beschrieben wurden, trifft. Eine derartige Schaltung kann aus Komponenten, wie zum Beispiel Komparatoren und Logikgattern aufgebaut werden.
- Fig. 6 zeigt, wie die Klassifikationskodes und Fehler, die mit jedem Versuchsvektor verbunden sind, verglichen werden, um zu einer Endentscheidung zu gelangen. Dies bringt es mit sich, die Fehler für jeden Vektor zu vergleichen, indem Komparatoren verwendet werden, um den kleinsten zu bestimmen. Die Fehler können vor dem Vergleich in Abhängigkeit von ihrer Klassifikation gewichtet werden; eine derartige Gewichtung könnte ausgeführt werden, indem ein programmierbarer Nur-Lesespeicher bzw. ein programmierbarer ROM 22 verwendet wird, der von dem Fehlerwert und dem Klassifikationskode adressiert wird. Die Zahl, die den gewählten Vektor anzeigt, kann leicht in horizontale und vertikale Vektorkomponenten jenes Vektors umgewandelt werden, indem die Zahl verwendet wird, um eine Nachschlagtabelle zu adressieren, die die Liste der Versuchsbewegungsvektoren beinhaltet.
- Eine Bildinterpolation, die den Vektor und die Klassifikationsinformation verwendet, die wie oben beschrieben erhalten wird, kann leicht ausgeführt werden, indem eine Anordnung von Teilbild-Verzögerern und variablen Verzögerern verwendet wird, die jener in Fig. 4 gezeigten sehr ähnlich ist. Die variablen Verzögerer werden durch den gewählten Vektor gesteuert; die erhaltenen vier Luminanzwerte werden zu einem Vierabgriffs-Filter übermittelt, dessen Koeffizienten durch den Klassifikationskode und die zeitliche Position des zu erzeugenden Teilbildes bestimmt werden. Ein derartiger Filter kann leicht aufgebaut werden, indem Addierer und Multiplizierer zusammen mit Nur-Lesespeichern verwendet werden, um die Filterkoeffizienten zu halten.
- Als eine Alternative für die Verwendung von Teilbilddifferenzen als eine Messung eines Zuweisungsfehlers, ist es möglich, eine genauere Messung auszubilden, indem der Luminanzgradient in der Region eines jeden Pixels berücksichtigt wird. Dies erlaubt es, daß ein geringeres Gewicht Fehlern in hoch detaillierten Gebieten gegeben wird, und ist vorteilhaft, da eine geringe Ungenauigkeit in einem Bewegungsvektor eine Hochteilbild-Differenz bzw. einen Hoch-Halbbild-Unterschied in einer derartigen Region verursachen kann. Ein geeignetes Verfahren zum Berechnen von Zuweisungsfehlern ist wie folgt:
- Zuweisungsfehler = ( Differenz + Konst)/ ( Gradient + Konst)
- wobei: Differenz = (a&sub0; + a&sub1;)(in dem Fall des Zuweisungsfehlers zwischen den ersten beiden Teilbildern); Konst ist eine Konstante, deren Funktion es ist, Probleme bezüglich Rauschen und Null-Gradienten zu verringern, und zwar zum Beispiel gleich 4 Luminanz-Quantisierungspegeln;
- und
- Gradient = Quadratwurzel {(Y(x - 1,y) - Y(x + 1,y))² + (Y(x, y - 1) - Y(x, y + 1))}²
- wobei Y(x,y) der Luminanzpegel in dem Eingabeteilbild ist, der bezüglich der Zeit dem Zeitpunkt am nächsten liegt, zu dem das Vektorteilbild erzeugt wird, (x,y) sind die Koordinaten in diesem Bild, durch die der betrachtete Bewegungsvektor hindurchgelangt.
- Diese Technik kann verwendet werden, wenn irgendeiner der Zuweisungsfehler berechnet wird. Die sich ergebenen Fehler werden einem räumlichen Tiefpaßfilter, wie oben beschrieben, unterzogen.
- Eine weitere mögliche Verbesserung der Berechnung von Zuweisungsfehlern liegt darin, Informationen von dem Luminanzsignal zusätzlich zu jenen von der Luminanz, wie soweit beschrieben wurde, mit einzubeziehen. Zwei Chrominanz-Zuweisungsfehler können in derselben Art und Weise, wie für die Luminanz beschrieben, berechnet werden, indem die sogenannten U- und V-Chrominanzsignale verwendet werden. Die Chrominanzzuweisungsfehler werden dann zu jenen dazuaddiert, die von der Luminanzkomponente erhalten werden, um ein kombiniertes Zuweisungsfehlersignal zu ergeben, das in Bildgebieten mit geringem Luminanzdetail, aber beachtlichem Chrominanzdetail verläßlicher sein kann, als ein reines Luminanzsignal.
- Falls die Zuweisungsfehler groß sind, so kann dann geschlossen werden, daß kein Vektor zu der Bewegung paßt bzw. mit ihr übereinstimmt; der Pixel wird dann so gekennzeichnet, als ob er einen unbekannten Vektor aufweist.
- Falls zwei oder mehr Vektoren ähnliche oder geringe Zuweisungsfehler ergeben, ist es möglich, daß der unkorrekte Fehler gewählt werden kann. In Praxis ist dies nur ein Problem, falls die Vektoren wesentlich unterschiedliche Werte aufweisen. Bei einer Ausführungsform der Erfindung wird die Verläßlichkeit in diesem Umstand verbessert, indem der gesamte Zuweisungsprozeß wiederholt wird, indem räumliche Filter mit größeren Öffnungen bzw. Aperturen verwendet werden, bis ein einziger Vektor gefunden ist. Alternativ kann das räumliche Filtern der Fehlersignale parallel durchgeführt werden, indem eine Anzahl von Filteraperturen verwendet wird, und das Signal von der kleinsten Filterapertur, die eine einzige Antwort ergibt, wird verwendet. Falls kein einziger Vektor gefunden werden kann, der einen niedrigen Zuweisungsfehler ergibt, wird der Pixel dann so gekennzeichnet, als ob er eine unbekannte Bewegung aufweist.
- Ausgeklügeltere Verfahren der Kombination und Wichtung der Anpassungsfehler zwischen aufeinanderfolgenden Teilbildern können verwendet werden, um die Verläßlichkeit des Vektor-Zuweisungsprozesses zu verbessern. Zum Beispiel werden bei einer bevorzugten Ausführungsform der Erfindung sieben Anpassungsfehler von drei ungewichteten Anpassungsfehlern wie folgt berechnet:
- Berechne zuerst drei ungewichtete Zuweisungsfehler E0, E1 und E2, indem das oben beschriebene Gradientenverfahren verwendet wird; E0 sei der Zuweisungsfehler zwischen den ersten beiden der vier Teilbilder, der bestimmt wird, indem (a&sub0; - a&sub1;) verwendet wird, E1 liege zwischen den zentralen beiden und E2 sei der Fehler zwischen den letzten beiden.
- Dann kalkuliere sieben Fehler W0-W6, und zwar basierend auf gewichteten Kombinationen von E0, E1 und E2:
- W0 = E0* erste_wt
- W1 = E1* eins_wt
- W2 = E2* zweite_wt
- W3 = (E0 + E1)/2*zwei_wt
- W4 = (E1 + E2)/2*zwei_wt
- W5 = (E0 + E2)/2*zwei_wt
- W6 = (E0 + E1 + E2)/3*drei_wt
- Die Wichtungsfaktoren können Konstanten sein, die gewählt sind, um den Betrieb des Vektorauswahlprozesses zu optimieren, oder sie können Funktionen von Parametern, wie zum Beispiel dem Betrag des Versuchsvektors, die Dimensionen der räumlichen Apertur des Zuweisungsfilters und der Ausgabe-Teilbildposition sein.
- Bei einer Ausführungsform sind erste_wt und zweite_wt Funktionen, die in einer solchen Art und Weise variieren, daß sie Probleme an Objektgrenzen bzw. Gegenstandsgrenzen verringern, wenn Vordergrund- und Hintergrundvektoren in Konkurrenz treten; in derartigen Regionen neigt der räumliche Tiefpaßfilter, der auf E0-E2 angewendet wird, dazu, den Hintergrundvektor zu veranlassen, gerade innerhalb der Kante des Gegenstandes ausgewählt zu werden. Die folgende Formel kann für diese zwei Wichtungsfaktoren verwendet werden:
- erste_wt = 1 + (δt * Vektorlänge) / Aperturlänge
- zweite_wt = 1 + ((1-δt) * Vektorlänge) / Aperturlänge
- wobei δt die Ausgabeteilbildposition in dem Bereich 0-1, wie in Fig. 3 gezeigt, ist, und
- die Aperturlänge die Größe des Raumfilters ist, der auf die Zuweisungsfehler E0-E2 angewendet wird.
- Diese Wichtungsfaktoren können auf einen festen maximalen Wert für den Fall sehr großer Vektoren beschränkt werden.
- Die anderen Wichtungsfaktoren (eins_wt, zwei_wt und drei_wt) sind Konstanten, die so gewählt werden, daß sie kleiner sind, als eins und somit immer kleiner sind, als erste_wt oder zweite_wt. Dies gewährleistet, daß Vektoren, die einen Vordergrund darstellen, im Verhältnis zu jenen, die einen freigelegten oder verdeckten Hintergrund anzeigen, bevorzugt werden. Dies liegt daran, weil zwangsweise es für einen Hintergrund um die Kante eines sich bewegenden Objekts besser ist, als Vordergrund behandelt zu werden (der leicht unscharf bzw. verwaschen wird), als daß es für Ecken eines Vordergrundobjekts wäre, als Hintergrund behandelt zu werden (der verursacht, daß Löcher in dem Objekt bzw. Gegenstand erscheinen).
- Für jeden Versuchsvektor werden die gewichteten Summen W0-W6 verglichen und für jede Abtastung wird die kleinste ausgewählt. Gemäß dieser Auswahl wird die Vektor- und Gebietsklassifikation durchgeführt: Falls W1, W3, W4, W5 oder W6 die kleinsten sind, wird der entsprechende Vektor als Vordergrund bestimmt und gekennzeichnet. Falls WO der kleinste ist, wird der entsprechende Vektor als verdeckter Hintergrund bestimmt und gekennzeichnet. In ähnlicher Weise wird der Vektor gekennzeichnet, als ob er einen verdeckten Hintergrund darstellt, falls W2 am kleinsten ist. Wie zuvor erwähnt, kann, falls der kleinste Fehler über einer voreingestellten Schwelle liegt, dann der Pixel so gekennzeichnet werden, als ob er einen unbekannten Vektor aufweist.
- Die erhaltene Vektor- und Gebietklassifikations-Information kann einer zusätzlichen Nachverarbeitung unterworfen werden, falls erforderlich; dies kann die Verwendung von Tiefpaß- oder Median-Raumfiltern miteinschließen. Derartige Filter sind gut bekannt.
- Wie unter Bezugnahme auf Fig. 3 bemerkt wurde, findet die Vektor- und Klassifikations-Information, die von der oben beschriebenen Operation erhalten wird, insbesondere Anwendung bei der zeitlichen Interpolation von Bildsequenzen. Derartige Anwendungen beinhalten die Erzeugung einer Zeitlupen-Wiedergabe hoher Qualität, einer Normenwandlung zwischen unterschiedlichen Teilbild-Raten bzw. Feldraten, und die Interpolation von Bildern in Filmsequenzen, um die Darstellungsrate auf jene des Fernsehens zu erhöhen.
- Nimmt man Bezug auf Fig. 3, so ist ein Ausgabebild so gezeigt, als ob es zu einer beliebigen Zeit zwischen existierenden Teilbildern interpoliert wird. Die Berechnung der Koeffizienten für die Zweiteilbild- und Vierteilbild-Interpolationsfilter ist relativ einfach und ein gutbekannter Prozeß. Die Figur zeigt nicht irgendwelche Bereiche, an die kein Vektor zugewiesen werden könnte; derartige Bereiche bzw. Regionen werden interpoliert, indem ein nicht adaptiver, Vierabgriffs-Zeitfilter verwendet wird, dessen Antwort der Antwort des Bewegungskompensations-Vierabgriffs-Filters ähneln kann, der in Regionen bzw. Bereichen a, d und g in Fig. 3 verwendet wird.
- Bei einer Ausführungsform der Erfindung kann der Vektorauswahlprozeß ausgedehnt werden, um zu ermöglichen, daß bis zu zwei Vektoren für jedes Ausgabepixel in Regionen eines freigelegten und verdeckten Hintergrunds erzeugt wird. Dies ermöglicht ein sanftes Umschalten zwischen Vektoren, die zur Bildinterpolation an Verbindungen zwischen Vordergrund und Hintergrundgegenständen verwendet werden. Zum Beispiel wird für jeden Pixel, der als freigelegter Hintergrund bestimmt ist (d. h. der am niedrigsten gewichtete Zuweisungsfehler trat zwischen den letzten zwei Teilbildern auf), der Vektor, der den minimalen Zuweisungsfehler über die ersten zwei Teilbilder ergibt, ebenso bestimmt. Das Ausgabebild wird dann von den folgenden Teilbildern interpoliert, die um den zugewiesenen bzw. bestimmten freigelegten Hintergrundvektor (skaliert für die erforderliche Ausgabezeit), wie zuvor beschrieben, verschoben werden, und zwar zusammen mit einem Beitrag von den vorhergehenden Teilbildern, die um diesen zweiten Vektor verschoben werden. Das relative Verhältnis der zwei Beiträge kann wie folgt bestimmt werden: Ein Steuersignal wird für jeden zu interpolierenden Pixel berechnet, wobei der Teil des Ausgabebildes, der von den folgenden Teilbildern genommen werden soll, spezifiziert wird. Bezüglich aller Abtastungen in Vordergrundgebieten wird dies eine Konstante gleich δt in Fig. 3 sein, dies ist der normale Operationsmodus eines zeitlichen Interpolationsfilters. In einem Bereich, der als freigelegter Hintergrund gekennzeichnet ist, wird das Steuersignal gleich eins gesetzt, da alle Informationen von den folgenden Teilbildern, wie zuvor beschrieben, für eine Region e in Fig. 3 genommen werden sollte. Dieses Steuersignal wird dann einem Tiefpaßraumfilter unterworfen, so daß es gerade innerhalb von Regionen freigelegten Hintergrunds nicht mehr eins sein wird.
- Sowohl die Vektorzuweisung als auch die zeitlichen Interpolationsprozesse wurden ohne Bezugnahme auf eine Verflechtung bzw. auf Interlace beschrieben. Beide Prozesse können direkt auf ein verflochtenes Signal bzw. Interlace-Signal angewendet werden (indem die vertikale Positionierung der abgetasteten Zeilen berücksichtigt wird); alternativ kann ein verflochtenes Signal bzw. Interlace-Signal in eine sequentielle und fortschreitende Form vor der Verarbeitung konvertiert werden.
- Man wird erkennen, daß bei dem unüblichen Ereignis es nur erwünscht ist, entweder verdeckten Hintergrund oder freigelegten Hintergrund zu detektieren, aber nicht beides, denn nur drei aufeinanderfolgende Teilbilder müssen verglichen werden.
- Bezüglich eines Blockdiagramms eines Zeitlupen-Wiedergabesystems, bei dem die Erfindung verwendet bzw. eingebaut werden kann, wird auf die IEE Conference. Publication Nr. 327 (IBC'90) Seiten 121 bis 125 und auf die Referenzen, die in dieser Veröffentlichung aufgeführt sind, verwiesen.
- Man wird ebenso erkennen, daß die Operationen, die oben beschrieben wurden, im allgemeinen eher von einem Computersystem als durch eine diskrete Schaltung realisiert werden. Die obige Beschreibung bezüglich der Operationen liefert alle für die Produktion eines derartigen Systems notwendigen Informationen, wie für einen Fachmann leicht verständlich sein wird, und eine detaillierte Beschreibung der Programmierblöcke ist deshalb unnötig und wird hierin nicht mit aufgenommen.
Claims (23)
1. Verfahren der Zuordnung des geeigneten einer Mehrzahl von Versuchs-
Bewegungsvektoren zu Regionen eines Videobildes in Übereinstimmung mit einer
offensichtlichen bzw. scheinbaren Bewegung in jener Region zwischen einem Bezugsfeld
bzw. Bezugsteilbild und benachbarten Feld bzw. benachbarten Teilbild, wobei das
Verfahren die folgende Schritte umfaßt:
für jede Region des Bezugsfeldes bzw. Bezugsteilbildes und für jeden der Mehrzahl
von Versuchs-Bewegungsvektoren, werden wenigstens vier Bildwerte, die für jene Region
und jenen Bewegungsvektor geeignet sind, bestimmt, indem jeder Versuchs-
Bewegungsvektor durch wenigstens vier aufeinanderfolgende Felder bzw. Teilbilder
projeziert wird und indem Bildwerte entlang eines jeden bzw. zusammen mit jedem
Versuchs-Bewegungsvektor von jedem Feld bzw. Teilbild bestimmt werden; und
für jede Region werden die wenigstens vier Bildwerte oder Werte, die davon, ein
Wert für jedes Feld, für die unterschiedlichen Bewegungsvektoren abgeleitet wurden,
verglichen, um zu bestimmen, welcher Bewegungsvektor wahrscheinlich der für jene
Region geeignete ist.
2. Verfahren nach Anspruch 1, in welchem die Bildwerte
Luminanzwerte sind.
3. Verfahren nach Anspruch 1, bei welchem die Versuchs-Bewegungsvektoren eine
Genauigkeit aufweist, die besser als ein Pixel ist, und der Schritt zur Bestimmung der
Bildwerte für die benachbarten Felder eine räumliche Interpolation umfaßt.
4. Verfahren nach Anspruch 1, in welchem jede Region ein
Pixel umfaßt.
5. Verfahren nach Anspruch 1, in welchem jede Region einen
Pixelblock umfaßt.
6. Verfahren nach Anspruch 1, in welchem die Bildwerte
temporär einer Hochpaßfilterung unterzogen werden, um einen
Zuordnungsfehlerwert für jede Region und jeden Vektor
vorzusehen, und in welchem der Vergleich das Vergleichen von
Zuordnungsfehlerwerten umfaßt.
7. Verfahren nach Anspruch 6, in welchem, wenn für
irgendeine Region nur ein Zuordnungsfehlerwert unter einem
Schwellwert liegt, der entsprechende Vektor dieser Region zugeordnet
wird.
8. Verfahren nach Anspruch 7, in welchem, wenn für
irgendeine Region kein Zuordnungsfehlerwert vorliegt, der unter dem
Schwellwert liegt, der Schritt des Vergleichens ferner die
Berechnung sukzessiver Differenzen zwischen den Teilbildern
für jeden möglichen Vektor und die Zuordnung von
Bewegungsvektoren in Abhängigkeit von diesen Differenzen umfaßt.
9. Verfahren nach Anspruch 8, in welchem die Differenzen
einer Ortsfilterung unterzogen werden.
10. Verfahren nach Anspruch 5. in welchem die Differenzen mit
Wichtungsfaktoren bearbeitet werden.
11. Verfahren nach Anspruch 8, bei welchem die vier aufeinanderfolgenden Felder bzw.
Teilbilder, die untersucht werden, zwei zentrale Felder bzw. Teilbilder und zwei
entgegengesetzte, äußere Felder bzw. Teilbilder sind.
12. Verfahren nach Anspruch 11, in welchem, wenn die
Differenz zwischen den zentralen Teilbildern unter einem
Schwellwert liegt, jedoch die Differenz zwischen einem der äußeren
Teilbilder und dem angrenzenden zentralen Teilbild hoch ist,
zumindest dieses eine der äußeren Teilbilder bei der
Zuordnung der Bewegungsvektoren ignoriert wird.
13. Verfahren nach Anspruch 11, in welchem, wenn die
Differenz zwischen den zentralen Teilbildern hoch ist, die
Differenz zwischen dem vorausgehenden äußeren Teilbild und dem
angrenzenden zentralen Teilbild hoch ist und die Differenz
zwischen dem folgenden äußeren Teilbild und dem angrenzenden
zentralen Teilbild gering ist, die Region als aufgedeckter
Hintergrund identifiziert wird.
14. Verfahren nach Anspruch 13, in welchem der Vektor, der
zwischen dem vorhergehenden äußeren Teilbild und dem
angrenzenden zentralen Teilbild den geringsten Zuordnungsfehler
ergibt, ebenfalls ermittelt wird und als zur Vordergrundmaterie
angrenzend an die Region des identifizierten aufgedeckten
Hintergrundes gehörend identifiziert wird.
15. Verfahren nach Anspruch 11, in welchem, wenn die
Differenz zwischen den zentralen Teilbildern hoch ist, die
Differenz zwischen dem folgenden äußeren Teilbild und dem
angrenzenden zentralen Teilbild hoch ist und die Differenz zwischen
dem vorhergehenden äußeren Teilbild und dem angrenzenden
zentralen Teilbild gering ist, die Region als verdeckter
Hintergrund identifiziert wird.
16. Verfahren nach Anspruch 14, in welchem der Vektor, der
den geringsten Zuordnungsfehler zwischen dem folgenden
äußeren Teilbild und dem angrenzenden zentralen Teilbild ergibt,
ebenfalls ermittelt wird und als zur Vordergrundmaterie
angrenzend an die Region des identifizierten verdeckten
Hintergrundes gehörend identifiziert wird.
17. Verfahren nach Anspruch 1, ferner aufweisend die
Erzeugung eines Ausgangsteilbildes zeitlich zwischen den
Eingangsteilbildern durch bewegungskompensierte Interpolation unter
Verwendung der so zugewiesenen Bewegungsvektoren.
18. Verfahren nach Anspruch 15, in welchem eine weiche
Umschaltung zwischen einer Interpolation in Bereichen
aufgedeckten oder verdeckten Hintergrundes und
Vordergrundbereichen dadurch ausgeführt wird, daß zwei Vektoren verwendet
werden, die in solchen aufgedeckten oder verdeckten Regionen
ermittelt sind, um die vorhergehenden und folgenden
Teilbilder im Interpolator zu verschieben.
19. Verfahren nach Anspruch 1, in welchem die
Zuordnungsfehler im wesentlichen aus dem Verhältnis von
Luminanzdifferenzwerten zum lokalen Luminanzgradienten ermittelt werden.
20. Verfahren nach Anspruch 1, in welchem die
Chrominanzdifferenzwerte längs einer Bewegungstrajektorie zusätzlich zu
Luminanzdifferenzwerten bei der Berechnung eines
Zuordnungsfehlers verwendet werden.
21. Verfahren nach Anspruch 1, in welchem eine Mehrzahl
gewichteter Zuordnungsvektoren durch Kombination der
Zuordnungsfehler zwischen angrenzenden Teilbildern gebildet werden
und die kombinierten Fehler untersucht werden, wenn ermittelt
wird, ob die Region einem Vordergrund, aufgedeckten oder
abgedeckten Hintergrund entspricht.
22. Verfahren nach Anspruch 1, in welchem die Vektoren zu
einer beliebigen Zeit in Relation zu den ursprünglichen
Bildern zugeordnet werden.
23. Apparat zum Zuweisen des geeigneten einer Mehrzahl von Versuchs-
Bewegungsvektoren zu Regionen eines Videobildes in Übereinstimmung mit einer
offensichtlichen bzw. scheinbaren Bewegung in jener Region zwischen einem Bezugsfeld
bzw. Bezugsteilbild und einem benachbarten Feld bzw. Teilbild, wobei der Apparat
folgendes umfaßt:
Eine Einrichtung, um für jede Region das Bezugsfeld bzw. Bezugsteilbild und für jeden der
Vielzahl von Versuch-Bewegungsvektoren wenigstens vier Bildwerte zu bestimmen, die für
jene Region und jenen Bewegungsvektor geeignet sind, indem jeder Versuchs-
Bewegungsvektor durch wenigstens vier aufeinanderfolgende Felder projeziert wird, und
indem Bildwerte entlang eines jeden bzw. zusammen mit einem jedem Versuchs-
Bewegungsvektor von jedem Feld bzw. Teilbild bestimmt werden; und
eine Einrichtung, die mit der Bestimmungseinrichtung verbunden ist, um für jede Region
die wenigstens vier Bildwerte oder Werte, die davon abgeleitet sind, und zwar ein Wert für
jeden der aufeinanderfolgenden Felder, für die unterschiedlichen Bewegungsvektoren zu
vergleichen, um zu bestimmen, welcher Bewegungsvektor wahrscheinlich für jene Region
geeignet ist.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
GB909020497A GB9020497D0 (en) | 1990-09-20 | 1990-09-20 | Video signal processing |
GB909020498A GB9020498D0 (en) | 1990-09-20 | 1990-09-20 | Video image processing |
PCT/GB1991/001621 WO1992005662A1 (en) | 1990-09-20 | 1991-09-20 | Video image processing |
Publications (3)
Publication Number | Publication Date |
---|---|
DE69123359D1 DE69123359D1 (de) | 1997-01-09 |
DE69123359T2 DE69123359T2 (de) | 1997-06-12 |
DE69123359T3 true DE69123359T3 (de) | 2000-06-08 |
Family
ID=26297674
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE69123359T Expired - Fee Related DE69123359T3 (de) | 1990-09-20 | 1991-09-20 | Videobildverarbeitung |
Country Status (17)
Country | Link |
---|---|
US (1) | US6005639A (de) |
EP (1) | EP0549681B2 (de) |
JP (1) | JPH06501358A (de) |
KR (1) | KR930701888A (de) |
CN (1) | CN1063190A (de) |
AT (1) | ATE145776T1 (de) |
AU (1) | AU643565B2 (de) |
BG (1) | BG97555A (de) |
BR (1) | BR9106851A (de) |
CA (1) | CA2092076A1 (de) |
DE (1) | DE69123359T3 (de) |
FI (1) | FI931224A (de) |
GB (1) | GB2261342B (de) |
HU (1) | HUT64661A (de) |
NO (1) | NO301307B1 (de) |
SK (1) | SK399692A3 (de) |
WO (1) | WO1992005662A1 (de) |
Families Citing this family (36)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
HU9300005D0 (en) * | 1991-05-24 | 1993-04-28 | British Broadcasting Corp | Method for processing video picture |
GB2265783B (en) * | 1992-04-01 | 1996-05-29 | Kenneth Stanley Jones | Bandwidth reduction employing a classification channel |
GB2279531B (en) * | 1993-06-24 | 1997-07-16 | Sony Uk Ltd | Motion compensated image interpolation |
US6178265B1 (en) * | 1994-09-22 | 2001-01-23 | Intel Corporation | Method and apparatus for motion vector compression |
JP3224514B2 (ja) * | 1996-08-21 | 2001-10-29 | シャープ株式会社 | 動画像符号化装置および動画像復号装置 |
JP3226020B2 (ja) * | 1997-05-28 | 2001-11-05 | 日本電気株式会社 | 動きベクトル検出装置 |
US6404901B1 (en) * | 1998-01-29 | 2002-06-11 | Canon Kabushiki Kaisha | Image information processing apparatus and its method |
EP1110407B1 (de) * | 1998-08-18 | 2002-05-08 | Siemens Aktiengesellschaft | Verfahren und anordnung zur codierung und decodierung eines digitalisierten bildes mit anwendung eines gesamtbewegungsvektors |
JP2002523985A (ja) | 1998-08-21 | 2002-07-30 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | 画像信号における問題領域位置決め |
EP1164545B1 (de) | 1999-12-28 | 2009-07-22 | Sony Corporation | Signalverarbeitungsvorrichtung und verfahren und aufzeichnungsmedium |
JP4106874B2 (ja) * | 2001-02-05 | 2008-06-25 | ソニー株式会社 | 画像処理装置および方法、並びに記録媒体 |
JP4596219B2 (ja) * | 2001-06-25 | 2010-12-08 | ソニー株式会社 | 画像処理装置および方法、記録媒体、並びにプログラム |
WO2003007618A2 (en) * | 2001-07-10 | 2003-01-23 | Koninklijke Philips Electronics N.V. | Unit for and method of motion estimation and image processing apparatus provided with such motion estimation unit |
KR100924906B1 (ko) | 2001-11-07 | 2009-11-03 | 엔엑스피 비 브이 | 폐쇄 영역들을 검출하기 위한 폐쇄 검출기 및 방법, 모션 추정기 및 이미지 처리 장치 |
NL1019365C2 (nl) * | 2001-11-14 | 2003-05-15 | Tno | Bepaling van een beweging van een achtergrond in een reeks beelden. |
EP1474781A2 (de) * | 2002-02-05 | 2004-11-10 | Koninklijke Philips Electronics N.V. | Verfahren und einheit zur schätzung eines bewegungsvektors einer gruppe von pixeln |
JP3840129B2 (ja) * | 2002-03-15 | 2006-11-01 | 株式会社東芝 | 動きベクトル検出方法と装置、補間画像作成方法と装置及び画像表示システム |
JP2003339029A (ja) * | 2002-05-20 | 2003-11-28 | Sony Corp | 動きベクトル補正回路及び方法 |
EP1418546A1 (de) * | 2002-11-07 | 2004-05-12 | Mitsubishi Electric Information Technology Centre Europe B.V. | Verfahren und Gerät zur Darstellung von sich bewegenden Objekten in einer Bildsequenz |
AU2003285682A1 (en) * | 2003-01-23 | 2004-08-13 | Koninklijke Philips Electronics N.V. | Background motion vector detection |
US7277581B1 (en) * | 2003-08-19 | 2007-10-02 | Nvidia Corporation | Method for video format detection |
JP4396496B2 (ja) * | 2004-12-02 | 2010-01-13 | 株式会社日立製作所 | フレームレート変換装置、及び映像表示装置、並びにフレームレート変換方法 |
CN100459693C (zh) * | 2005-11-08 | 2009-02-04 | 逐点半导体(上海)有限公司 | 一种运动补偿插帧装置及插帧方法 |
JP4303748B2 (ja) * | 2006-02-28 | 2009-07-29 | シャープ株式会社 | 画像表示装置及び方法、画像処理装置及び方法 |
EP1855474A1 (de) | 2006-05-12 | 2007-11-14 | Sony Deutschland Gmbh | Verfahren zur Erzeugung eines interpolierten Bildes zwischen zwei Bildern einer Eingangsbildsequenz |
GB0618323D0 (en) | 2006-09-18 | 2006-10-25 | Snell & Wilcox Ltd | Method and apparatus for interpolating an image |
US7990476B2 (en) * | 2007-09-19 | 2011-08-02 | Samsung Electronics Co., Ltd. | System and method for detecting visual occlusion based on motion vector density |
KR101540138B1 (ko) * | 2007-12-20 | 2015-07-28 | 퀄컴 인코포레이티드 | 적응적 조사영역을 갖는 모션추정 장치 및 방법 |
WO2009085205A1 (en) * | 2007-12-20 | 2009-07-09 | Integrated Device Technology, Inc. | Image interpolation with halo reduction |
US8213512B2 (en) * | 2008-05-28 | 2012-07-03 | Cyberlink Corp. | Determining an intermediate image |
CN101753795B (zh) * | 2008-12-16 | 2012-05-16 | 晨星软件研发(深圳)有限公司 | 用以决定插补画面的移动向量的影像处理方法及其相关装置 |
EP2224740A1 (de) * | 2009-02-27 | 2010-09-01 | Nxp B.V. | Einschlussdetektion |
EP2237559B1 (de) | 2009-03-30 | 2016-05-11 | Vestel Elektronik Sanayi ve Ticaret A.S. | Estimation du mouvement de l'arrière-plan basé sur la réduction du halo |
EP2237560A1 (de) | 2009-03-30 | 2010-10-06 | Vestel Elektronik Sanayi ve Ticaret A.S. | Interpolation à compensation de mouvement de réduction de halo |
US8537283B2 (en) | 2010-04-15 | 2013-09-17 | Qualcomm Incorporated | High definition frame rate conversion |
ES2660610T3 (es) * | 2010-04-30 | 2018-03-23 | Vestel Elektronik Sanayi Ve Ticaret A.S. | Procedimiento y aparato para la detección y clasificación de regiones de oclusión |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2609263B2 (ja) * | 1986-03-19 | 1997-05-14 | ブリティッシュ・ブロードキャスティング・コーポレーション | テレビジョン画像における運動の測定方法及び装置 |
EP0294958B1 (de) * | 1987-06-09 | 1995-08-23 | Sony Corporation | Bewegungskompensierte Interpolation von digitalen Fernsehbildern |
DE3851786T2 (de) * | 1987-06-09 | 1995-03-09 | Sony Corp | Auswahl eines Bewegungsvektors in Fernsehbildern. |
GB8722612D0 (en) * | 1987-09-25 | 1987-11-04 | British Telecomm | Motion estimator |
DE3850034D1 (de) * | 1987-10-20 | 1994-07-14 | Sanyo Electric Co | Verfahren und Vorrichtung zur Bewegungsvektorkompensation im Empfang eines auf MUSE-System basierenden Fernsehsignals. |
US4979036A (en) * | 1988-05-31 | 1990-12-18 | U.S. Philips Corporation | Television motion detection arrangement |
GB2231743B (en) * | 1989-04-27 | 1993-10-20 | Sony Corp | Motion dependent video signal processing |
GB2231746B (en) * | 1989-04-27 | 1993-07-07 | Sony Corp | Motion dependent video signal processing |
GB2231225B (en) * | 1989-04-27 | 1993-10-20 | Sony Corp | Motion dependent video signal processing |
US4937666A (en) * | 1989-12-04 | 1990-06-26 | Bell Communications Research, Inc. | Circuit implementation of block matching algorithm with fractional precision |
-
1991
- 1991-09-20 SK SK3996-92A patent/SK399692A3/sk unknown
- 1991-09-20 DE DE69123359T patent/DE69123359T3/de not_active Expired - Fee Related
- 1991-09-20 AT AT91916977T patent/ATE145776T1/de active
- 1991-09-20 KR KR1019930700471A patent/KR930701888A/ko not_active Application Discontinuation
- 1991-09-20 CA CA002092076A patent/CA2092076A1/en not_active Abandoned
- 1991-09-20 BR BR919106851A patent/BR9106851A/pt unknown
- 1991-09-20 EP EP91916977A patent/EP0549681B2/de not_active Expired - Lifetime
- 1991-09-20 WO PCT/GB1991/001621 patent/WO1992005662A1/en active IP Right Grant
- 1991-09-20 CN CN91108500A patent/CN1063190A/zh active Pending
- 1991-09-20 HU HU9300004A patent/HUT64661A/hu unknown
- 1991-09-20 AU AU86245/91A patent/AU643565B2/en not_active Ceased
- 1991-09-20 JP JP3515794A patent/JPH06501358A/ja active Pending
-
1992
- 1992-12-18 GB GB9226485A patent/GB2261342B/en not_active Expired - Fee Related
-
1993
- 1993-03-19 NO NO930999A patent/NO301307B1/no unknown
- 1993-03-19 FI FI931224A patent/FI931224A/fi unknown
- 1993-03-19 BG BG097555A patent/BG97555A/bg unknown
-
1997
- 1997-08-25 US US08/917,411 patent/US6005639A/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
GB2261342B (en) | 1994-11-02 |
NO930999D0 (no) | 1993-03-19 |
EP0549681A1 (de) | 1993-07-07 |
NO930999L (no) | 1993-03-19 |
HU9300004D0 (en) | 1993-04-28 |
EP0549681B2 (de) | 2000-03-01 |
HUT64661A (en) | 1994-01-28 |
FI931224A0 (fi) | 1993-03-19 |
JPH06501358A (ja) | 1994-02-10 |
ATE145776T1 (de) | 1996-12-15 |
WO1992005662A1 (en) | 1992-04-02 |
CN1063190A (zh) | 1992-07-29 |
BG97555A (bg) | 1993-12-24 |
DE69123359D1 (de) | 1997-01-09 |
CA2092076A1 (en) | 1992-03-21 |
EP0549681B1 (de) | 1996-11-27 |
AU643565B2 (en) | 1993-11-18 |
GB9226485D0 (en) | 1993-03-10 |
DE69123359T2 (de) | 1997-06-12 |
BR9106851A (pt) | 1993-06-15 |
FI931224A (fi) | 1993-03-19 |
NO301307B1 (no) | 1997-10-06 |
GB2261342A (en) | 1993-05-12 |
AU8624591A (en) | 1992-04-15 |
US6005639A (en) | 1999-12-21 |
SK399692A3 (en) | 1995-01-05 |
KR930701888A (ko) | 1993-06-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE69123359T3 (de) | Videobildverarbeitung | |
DE69605936T2 (de) | Bewegungskompensierte interpolation | |
DE69434467T2 (de) | Verfahren und Vorrichtung zum Bilden eines Videosignals durch Bewegungsschätzung und Signalwege mit verschiedenen Interpolationsverarbeitungen | |
DE69131591T2 (de) | Bewegungsabhängige Videosignalverarbeitung | |
DE69031055T2 (de) | Bewegungsabhängige Videosignalverarbeitung | |
DE69027479T2 (de) | Bewegungsabhängige Videosignalverarbeitung | |
DE69022470T2 (de) | Bewegungsabhängige Videosignalverarbeitung. | |
DE69324922T2 (de) | Bewegungsausgeglichene fernsehbildbearbeitung | |
DE69019877T2 (de) | Räumliche Interpolation von digitalen Videobildern. | |
DE69422255T2 (de) | Verfahren und Vorrichtung zum bewegungsausgeglichenen Interpolieren von zwischenliegenden Halbbildern oder Bildern | |
DE3850709T2 (de) | Reduzierung der Bewegungsvektoren in Fernsehbildern. | |
DE69027809T2 (de) | Bewegungsabhängige Videosignalverarbeitung | |
DE3854337T2 (de) | Bewegungskompensierte Interpolation von digitalen Fernsehbildern. | |
DE3854171T2 (de) | Bewertung von Bewegungsvektoren in Fernsehbildern. | |
DE69324486T2 (de) | Bildsignalumsetzer | |
DE69030896T2 (de) | Bewegungsabhängige Videosignalverarbeitung | |
DE69021431T2 (de) | Bewegungsabhängige Videosignalverarbeitung. | |
DE69223925T2 (de) | Videobildverarbeitung | |
DE602004002455T2 (de) | Bewegungsvektorschätzung durch adaptive zeitliche Vorhersage | |
DE69611113T3 (de) | Vorrichtung zur Videorauschreduktion | |
DE69510753T2 (de) | Vorrichtung zum Interpolieren von Abtastzeilen und Bewegungsvektordetektor | |
DE3687434T2 (de) | Geraet zum ausgleich von bewegung in einem von einem von einem fernsehsignal abgeleiteten bild. | |
DE69126930T2 (de) | Video-Bewegungsvektorabschätzung mit asymmetrischem Aktualisierungsgebiet | |
DE69318216T2 (de) | Verfahren und Vorrichtung zur adaptiven Interpolation | |
EP0259562A1 (de) | Verfahren zur bewegungskompensierten Bild-zu-Bild-Prädiktionscodierung |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8363 | Opposition against the patent | ||
8366 | Restricted maintained after opposition proceedings | ||
8339 | Ceased/non-payment of the annual fee |