DE69801998T2 - Signal der animation einer grafischen szene, entsprechende vorrichtung und verfahren - Google Patents

Signal der animation einer grafischen szene, entsprechende vorrichtung und verfahren

Info

Publication number
DE69801998T2
DE69801998T2 DE69801998T DE69801998T DE69801998T2 DE 69801998 T2 DE69801998 T2 DE 69801998T2 DE 69801998 T DE69801998 T DE 69801998T DE 69801998 T DE69801998 T DE 69801998T DE 69801998 T2 DE69801998 T2 DE 69801998T2
Authority
DE
Germany
Prior art keywords
animation
fields
mask
objects
dynamic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69801998T
Other languages
English (en)
Other versions
DE69801998D1 (de
Inventor
Julien Signes
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Telediffusion de France ets Public de Diffusion
Orange SA
Original Assignee
Telediffusion de France ets Public de Diffusion
France Telecom SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Telediffusion de France ets Public de Diffusion, France Telecom SA filed Critical Telediffusion de France ets Public de Diffusion
Application granted granted Critical
Publication of DE69801998D1 publication Critical patent/DE69801998D1/de
Publication of DE69801998T2 publication Critical patent/DE69801998T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/23412Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs for generating or manipulating the scene composition of objects, e.g. MPEG-4 objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/20Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44012Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving rendering scenes according to scene graphs, e.g. MPEG-4 scene graphs

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Processing Or Creating Images (AREA)

Description

  • Die Erfindung betrifft das Feld der Wiedergabe animierter graphischer Szenen, beispielsweise auf einem Multimedia-Terminal. Genauer gesagt betrifft die Erfindung die Übertragung von animierten Szenen oder von Elementen derartiger Szenen.
  • Unter graphischer Szene versteht man hier die räumliche und zeitliche Zusammensetzung einer Menge graphischer Objekte, Bilder und/oder Video. Diese graphischen Szenen können zwei- oder dreidimensional sein und mehrere Arten graphischer Parameter umfassen.
  • Die Erfindung ist insbesondere in allen Fällen anwendbar, bei denen eine kompakte und wirksame Animation von graphischen Szenen gefordert wird. Dies ist beispielsweise in den folgenden Fällen gegeben:
  • - Spiele und andere Anwendungen mit mehreren Benutzern in einem Netzwerk, wie kooperative Arbeit, wo beispielsweise neue Positionen von Objekten ausgetauscht werden müssen;
  • - multimediale Beratungsdienstleistungen, bei denen 2D oder 3D graphische Objekte verwendet werden.
  • Es sind Beschreibungsformate für graphische Szenen bereits bekannt. So beschreibt die Norm ISO/IEC DIS 14772-1 das Format VRML 2.0. Die Normierungsgruppe MPEG-4 definiert ebenfalls ein BIFS (Binary Format for Scene (binäres Szenenformat)) genanntes Format für die Beschreibung einer Szene, das auf VRML 2.0 basiert. Das BIFS-Format wird insbesondere in "The MPEG-4 Systems Verification Model" (ISO/IEC JTC1/SC29/WG 11-N1693, MPEG 97, April 1997) vorgestellt.
  • Zweck dieses Formats für die Beschreibung einer Szene ist das Beschreiben der räumlich-zeitlichen Beziehungen zwischen den verschiedenen graphischen Objekten einer Szene. Dazu definiert es eine bestimmte Anzahl von Knoten oder Objekten, die all die darzustellenden graphischen Anfangselemente darstellen. Jeder dieser Knoten hat im voraus definierte Felder, die seine Eigenschaften darstellen. Anders ausgedrückt, ermöglicht das BIFS-Format das Übertragen einer Struktur einer Szene in der Form einer parametrischen Beschreibung oder eines Szenarios.
  • Es wurden Versuche unternommen, um bestimmte Arten von Szenen zu animieren. So ist ein Format für die Gesichtsanimation bekannt, welches von der SNHC-Gruppe der MPEG-4-Normierung definiert ist ("The MPEG-4 SNHC Verification Model, ISO/IEC 1/SC29IWG11 N 1693, MPEG 97, April 1997). Dieses Format ist aber für die Visiophonie, eine ganz bestimmte Anwendung, spezifisch, und kann nicht verallgemeinert werden.
  • Durch das Dokument AVARO O. et al "The MPEG. 4 systems and description languages: a way ahead in audio visual information representation" ("Die MPEG. 4 Systeme und Beschreibungssprachen: ein Weg zum Vorwärtskommen auf dem Gebiet der audiovisuellen Informationsdarstellung") (signal processing - image communication, Vol 4, Nr. 9, Mai 1997, Seiten 385-431) ist ebenfalls eine Technik bekannt, die insbesondere im Fernladen eines Szenarios besteht (Klasse JAVA (eingetragenes Markenzeichen)), wobei das Verhalten der Szene programmiert wird. In der Praxis ist diese Technik jedoch sehr schwerfällig.
  • Das Dokument DOENGES P.K. et al "AudioNideo- and synthetic graphics/audio for mixed media" ("Audio/Video und synthetische Graphic/Audio für gesmischte Medien") (signal processing - image communication, Vol 4, Nr. 9, Mai 1997, Seiten 433-463) dient insbesondere dem Kodieren menschlicher Gesichter und Körper, wobei eine Kodierung graphischer Objekte auf drei Ebenen eingesetzt wird.
  • Die VRML-Sprache hat ebenfalls zwei Methoden zum Übertragen der Animation graphischer Szenen definiert:
  • - eine erste, auf Linearinterpolation basierende Methode, mit der lineare Änderungen stückweise über Szenenparameter beschrieben werden können. Dieser Mechanismus verwendet die "ROUTE" Anweisungen und die Knoten des Typs "Interpolator". Die "ROUTES" sind Mechanismen für den Übergang von Ereignissen, mit denen Verbindungen zwischen Feldern derart definiert werden können, dass, wenn sich der Wert eines ersten Feldes ändert, das zweite Feld mit dem es über eine "ROUTE" verbunden ist, den selben Wert annimmt;
  • - eine zweite Methode, mit der die Animation mit Hilfe von Szenarien beschrieben werden kann, wobei diese Szenarien Funktionen sind, mit denen zwischen jeder Wiedergabe der Szene ein neuer Wert für das Feld mit Hilfe einer mathematischen Funktion berechnet wird.
  • Auf einem anderen Gebiet schlägt KATKERE in "Interactive video or WWW: Beyond VCR-like interface" (computer networks and ISDN systems, Vol. 11, Nr. 28, Mai 1996, Seiten 1559-1572) eine Technik für die Übertragurig von 3D- Szenen vor, die das besondere Problem eines Videos mit mehrfachen Fluchtpunkten betrifft.
  • Diese bekannte Methoden haben mindestens zwei erhebliche Nachteile.
  • Zuerst erfordern sie das Neuberechnen eines Wertes, was zu einer großen Komplexität bezüglich der Zahl der zum Erzielen der Animation erforderlichen Operationen führen kann und somit ausreichend aufwendige Mittel im Terminal erfordert.
  • Andererseits setzen diese Methoden voraus, dass die Animationsparameter vorher bekannt sind. Dies ist eindeutig nicht der Fall, beispielsweise beim Verwenden von Animationen für eine Kommunikationsanwendung.
  • Ein Hauptziel der Erfindung ist es, diesen Nachteilen des Standes der Technik entgegenzuwirken.
  • Genauer gesagt besteht ein Zweck der Erfindung im Bereitstellen einer Übertragungsstruktur für Animationsdaten sowie eines entsprechenden Verfahrens und einer entsprechenden Vorrichtung, die für jegliche Art von graphischen Szenen und insbesondere solche, deren Ablauf nicht im voraus bekannt ist, eine einfach zu bewerkstelligende Animation ermöglichen, welche darüber hinaus geringe Übertragungsressourcen benötigt.
  • Anders ausgedrückt ist ein Hauptzweck der Erfindung das Bereitstellen einer Animationstechnik für graphische Szenen, die mindestens einem der folgenden Aspekte entsprechen:
  • - Einfache Aufbereitung und Interpretation von Daten;
  • - geringer Bedarf an Speichermitteln und/oder an Übertragungsressourcen;
  • - Fähigkeit zum Animieren jeder Art von Objekt oder von graphischer Szene;
  • - Möglichkeit zum Animieren von Objekten oder Knoten in jeder beliebigen, d. h., nicht im voraus definierten Art.
  • Ein weiterer Zweck der Erfindung ist die Bereitstellung einer Technik, mit der die Realisierung von einfachen und preiswerten Multimedia-Terminals möglich ist, d. h., dass diese Terminals weder umfangreiche Rechner- noch Speicherkapazitäten benötigen.
  • Noch ein Zweck der Erfindung ist das Bereitstellen einer Technik, die mit Netzwerken anwendbar ist, die mit niedrigem Durchsatz arbeiten.
  • Ferner hat die Erfindung den Zweck eine Technik bereitzustellen, die mit den VRML- und MPEG-4-Normen kompatibel ist.
  • Diese Ziele sowie andere, die nachfolgend deutlicher werden, erreicht die Erfindung mit Hilfe eines Datensignals für die Animation einer graphischen Szene für Mittel zum Erstellen von Bildern, die auf mindestens einem Bildschirm dargestellt werden können, wobei die zu animierende graphische Szene wahrscheinlich vorher in die Mittel zum Erstellen von Bildern in der Form einer Menge von Objekten geladen wurde, wobei mindestens einige dieser Objekte eine eigene Kennzeichnung besitzen und wobei das Signal folgendes umfasst:
  • - eine einzige Animationsmaske, die als Präambel dieser Animation geliefert wird, welche mindestens einem dieser Objekte eine Elementarmaske zuordnet, die ihrerseits folgendes umfasst:
  • - die Kennzeichnung des erwähnten Objektes, wie in der zu animierenden grafischen Szene definiert und
  • - die Bezeichnung von zumindest einem dynamischen Charakterisierungsfeld dieses Objektes, welches repräsentativ ist für eine Charakteristik des Objektes, das verändert werden kann;
  • - Animationsteilbilder, die gemäß der von der erwähnten Maske definierten Reihenfolge Daten für die Aktualisierung der dynamischen Charakterisierungsfelder dieser Objekte umfasst, um deren Änderung zu ermöglichen,
  • wobei die Mittel zum Erstellen von Bildern die Daten der Animationsmaske dekodieren und, ausgehend von dieser Animationsmaske, die Animation initialisieren und die Szene als Funktion der Animationsteilbilder aktualisieren.
  • So ist die Animation einer Szene besonders einfach und wirksam. Die Menge der gesendeten Daten hält sich in Grenzen und es bedarf keiner besonderen Verarbeitungsmittel in den Terminals. Die Anwendung der vorher definierten Maske ermöglicht das Vereinfachen und die Reduzierung der Teilbilder.
  • Ferner können Szenen animiert werden, ohne ihren Verlauf im Voraus zu kennen. Dies ermöglicht beispielsweise die Anwendung aller Arten von interaktiven Anwendungen.
  • Vorteilhafterweise umfasst jede der Elementarmasken:
  • - die Kennzeichnung des erwähnten Objektes (ID);
  • - einen Bezeichnungsblock (Maske bin), der die aktiven dynamischen Felder präzisiert, welche bei der Animation verändert werden können und die bei der Animation unverändert bleiben;
  • - eventuell einen Definitionsblock (Qpi) von Quantifizierungsdaten, die auf ein jedes der dynamischen aktiven Felder anwendbar sind.
  • Mindestens einige der aktiven dynamischen Felder können Mehrfachfelder sein, die einen Vektor bilden. In diesem Falle umfasst die Elementarmaske eine Information, die angibt, ob alle Felder, welche den Vektor bilden oder ob nur einige unter ihnen aktiv sind, wobei der Definitionsblock entsprechend angepasst ist.
  • Bei einer bevorzugten Ausführung sind in zumindest einigen der Animationsteilbilder, zumindest einige der dynamischen Felder mit Hilfe einer vorhersagenden Kodierung kodiert sind. In jedem Animationsteilbild wird dann einem jeden dynamischen Feld eine Information zugeordnet, die angibt, ob dieses Animationsteilbild nach dem vorhersagenden oder nach dem absoluten Modus kodiert ist.
  • Vorteilhafterweise umfasst jedes der Animationsteilbilder:
  • - eine Definitionszone, die für jedes der Objekte angibt, ob die das Objekt betreffende Animationsparameter in dem Animationsteilbild übertragen werden;
  • - eine Zone von Animationsdaten, welche die zur Animation der in der Definitionszone erfassten Objekte liefert.
  • Nach einer besonderen Ausführung kann die Zone von Animationsdaten mindestens einige der Informationen aus der folgenden Gruppe umfassen:
  • - den Kodierungstyp (isIntra);
  • - ein Synchronisierungswort (Sync);
  • - eine Synchronisierungsreferenz oder "time code" (IParam);
  • - einen Frequenzwert der Animationsteilbilder für das betrachtete Objekt (IParam);
  • - einen Sprung von N Teilbildern, während dem eine Information nicht gesendet wird (IParam);
  • - eine Angabe für die Wertänderung des Quantifizierungsparameters (hasQP);
  • - einen neuen Wert für den Quantifizierungsparameter (Qpi);
  • - einen kodierten Wert eines dynamischen Feldes (Ivaluei oder Pvaluei ):
  • Die dynamischen Felder können insbesondere der Gruppe angehören, die folgendes umfasst:
  • - Felder, welche das Aussehen des Objektes definieren;
  • - Felder, welche die Position des Objektes definieren;
  • - Felder, welche die Bewegung des Objektes definieren;
  • - Felder, welche die Form des Objektes definieren;
  • - Felder, welche die Beleuchtung des Objektes definieren;
  • Die Erfindung betrifft ebenfalls ein Übertragungsverfahren für Animationsdaten einer graphischen Szene, die auf mindestens einem Bildschirm dargestellt werden soll, wobei das Verfahren folgendes umfasst:
  • - einen Initialisierungsschritt für die Animation, in der die Übertragung der folgenden Elemente sichergestellt wird:
  • - eine einzige Animationsmaske, die in der Präambel dieser Animation geliefert wird, welche mindestens einem dieser Objekte eine Elementarmaske zuordnet, die folgendes umfasst:
  • - die Kennzeichnung des erwähnten Objektes, wie in der zu animierenden grafischen Szene definiert, und
  • - die Bezeichnung von zumindest einem dynamischen Charakterisierungsfeld dieses Objektes, welches repräsentativ ist für eine Charakteristik des Objektes, das verändert werden kann;
  • - einen Animationsschritt, in dem man die Übertragung von Animationsteilbildern sicherstellt, welche, nach der von der erwähnten Maske definierten Reihenfolge, Daten für die Aktualisierung der dynamischen Charakterisierungsfelder dieser Objekte umfasst, um deren Änderung zu ermöglichen.
  • Zuletzt betrifft die Erfindung ein Animationsverfahren für eine graphische Szene, die auf mindestens einem Bildschirm dargestellt werden soll, wobei das Verfahren folgendes umfasst:
  • - Mittel zum Erstellen einer Initialisierung der Animation, ausgehend von:
  • - einer einzigen Animationsmaske, die in der Präambel dieser Animation geliefert wird, welche mindestens einem dieser Objekte eine Elementarmaske zuordnet, die folgendes umfasst:
  • - die Kennzeichnung des erwähnten Objekts, wie in der zu animierenden grafischen Szene definiert, und
  • - die Bezeichnung von zumindest einem dynamischen Charakterisierungsfeld dieses Objektes, welches repräsentativ ist für eine Charakteristik des Objektes, das verändert werden kann;
  • - dynamische Animationsmittel der Szene, ausgehend von Animationsteilbildern, die gemäß der von der erwähnten Maske definierten Reihenfolge, Daten für die Aktualisierung der dynamischen Charakterisierungsfelder dieser Objekte umfasst, um deren Änderung zu ermöglichen.
  • Weitere Eigenschaften und Vorteile der Erfindung werden deutlicher beim Lesen der nachfolgenden Beschreibung einer bevorzugten Ausführung der Erfindung, die als veranschaulichendes und nicht einschränkendes Beispiel vorgestellt wird, sowie der beigefügten Figuren, wobei:
  • Fig. 1 das allgemeine Animationsprinzip einer graphischen Szene nach der Erfindung darstellt;
  • - die Fig. 2 und 3 zwei vorteilhafte Ausführungen des Prinzips der Erfindung darstellen, die einer Anwendung mit mehreren Benutzern bzw. einer Anwendung bei welcher der Animationsfluss im voraus berechnet ist darstellen;
  • - Fig. 4 eine allgemeine Übersicht des Animationsverfahrens nach der Erfindung darstellt;
  • - Fig. 5 die allgemeine Struktur einer Animationsmaske nach der Erfindung darstellt;
  • - Fig. 6 die Struktur einer Elementarmaske der Fig. 5 zeigt;
  • - Fig. 7 ein Detail der Elementarmaske der Fig. 6 zeigt, für den Fall der Felder mit Mehrfachwerten;
  • - Fig. 8 ein Diagramm zum Veranschaulichen der Kodierung der nach der Erfindung übertragenen Parameter zeigt;
  • - Fig. 9 die der Kodierung der Fig. 8 entsprechenden Dekodierung vorstellt;
  • - Fig. 10 eine schematische Darstellung eines Animationsteilbildes nach der Erfindung zeigt.
  • In Fig. 1 wird eine schematische Darstellung eines Terminals wiedergegeben, das beispielsweise mit der MPEG-4 Norm kompatibel ist und das Animationssignal oder den Signalfluss der Erfindung integriert.
  • Dieses Terminal umfasst Mittel 11 zum Erzeugen der Ausgangszene, ausgehend von einem Datenfluss 12 im BIFS-Format oder von einer Animationsmaske. Anders ausgedrückt, das Terminal lädt die grafische Szene. Diese wird in Objekttermen oder Knoten beschrieben.
  • Es wird darauf hingewiesen, dass das Formats der Szenenbeschreibung den Zweck hat, die Raum-Zeit-Beziehungen zwischen den grafischen Objekten einer Szene zu beschreiben. Dazu definiert das BIFS-Format eine bestimmte Anzahl von "Knoten", die alle grafischen Primitiven darstellen, die darstellbar sein sollen. Jeder dieser Knoten hat im voraus definierte, die Eigenschaften der Knoten darstellende Felder. So ist beispielsweise "Radius" das Feld der Primitive Kreis, wobei dieses Feld von der Art einer schwimmenden Zahl ist. Die Parameter der Primitiven "Video-Objekt" sind die Anfangs- und die Endzeit des Videos.
  • Nach der Erfindung können einige dieser Knoten als veränderbar erklärt werden, was ihre Änderung in der Zukunft ermöglicht. Dies kann in der VRML-Norm mittels des, "DEF"-Mechanismus ausgedrückt werden oder durch einen ähnlichen Mechanismus in der MPEG-4-Norm.
  • Nachdem die Szene geladen wurde, entweder auf Anforderung des Benutzers (interaktiver Modus) oder automatisch (Passivmodus, auch "push model" genannt), wird ein "BIFS Anim" genannter Animationsfluss 13 geladen, der die Szenenparameter ändert.
  • Die Änderung oder Animation bewerkstelligt der Decoder 14. Bei jedem neuen Wert der von der Animation betroffenen Knotenfelder ändert er die entsprechenden Felder, wobei die neuen Werte bei der nachfolgenden Wiedergabeschleife berücksichtigt werden. Bei der Wiedergabeschleife werden, für jeden Szenenknoten, die grafischen Anweisungen auf der grafischen Verarbeitungseinheit aufgerufen, mit denen die entsprechende Primitive gezeichnet werden kann.
  • Somit erhält man ein animiertes Bild 15, das dem Benutzer (16) vorgestellt werden kann. Gegebenenfalls kann dieser mit Hilfe einer entsprechenden Schnittstelle intervenieren (17).
  • Wird ein Audio-Video-Fluss 18 verwendet, so kommt ein ähnlicher Mechanismus 19 zum Einsatz.
  • Diese Technik hat eine große Zahl von Anwendungen. So zeig Fig. 2 den Fall eines Spieles mit mehreren Teilnehmern. Die Teilnehmer 21 und 22 laden die Ausgangsszene, die das Spiel beschreibt. Danach teilt der Server 23 dem Teilnehmer 21 mit, dass er die aufeinanderfolgenden Positionen 24 des Teilnehmers 22 erhalten wird. Diese Positionen werden durch den Teilnehmer 22 an den Server 23 übermittelt (25), wobei der Server sie an den Teilnehmer 21 weiterleitet. Die Menge der Konfigurationsdaten der Animation und der Animationsparameter (hier die Positionen des Teilnehmers 22) bilden einen Fluss "BIFS-Anim" 13. Diese Übertragung ist symmetrisch. Der Teilnehmer 21 übermittelt nach demselben Verfahren seine Positionen an den Teilnehmer 22.
  • Es folgt ein weiteres Beispiel für die Verwendung des Animationsflusses, der in einem Zusammenhang angewandt wird, in dem er im voraus berechnet und in Fig. 3 dargestellt ist. Es wird zunächst die Datei 31 geladen, welche die Ausgangszene beschreibt (z. B. von einer CD-ROM 33). Diese Datei wird vom Szenendecoder 32 dekodiert. Die Ausgangszene wird angezeigt und danach liest der Decoder für den Animationsfluss 38 die Animationsparameter 35 und bewirkt eine synchrone Animation der Fig. 36 sowie des Weltglobus 37.
  • Fig. 4 stellt das allgemeine Prinzip der Erfindung dar, in Form von aufeinanderfolgenden Schritten. Man kann zwei aufeinanderfolgende Schritte unterscheiden, nämlich einen Schritt 41 zum Konstruieren der Ausgangszene oder Initialisierungsschritt, der von einer Animationsmaske ausgeht und einen Animationsschritt 42, durch regelmäßige Aktualisierung der Szene, ausgehend von den Animationsteilbildern.
  • So besteht das allgemeine Prinzip des Animationsformats in der Übertragung der folgenden Parameter:
  • Zuerst die Konfigurationsparameter der auch Animationsmaske genannten Animation, mit denen die zu übertragenden Felder beschrieben werden und gegebenenfalls ihre Quantifizierungs- und Kompressionsparameter spezifiziert werden. Die Parameter lassen sich unter den Feldern der Typen eventln oder exposedField (wie in der VRML-Norm definiert) der Knoten wählen, die als innerhalb der Szene veränderbar erklärt wurden. Die Animationsmaske wird in mehrere Elementarmasken zerlegt, welche diese Parameter definieren.
  • Es folgen die Animationsdaten, die als eine Reihe von Animationsteilbildern übertragen werden. Ein Animationsteilbild enthält die Menge der neuen Werte der Animationsparameter zu einem gegebenen Zeitpunkt. Diese Parameter können nach zwei Modi übertragen werden:
  • - "Intra"-Modus. In diesem Falle werden die Parameter absolut gesendet. Im Intra-Modus lassen sich neue Quantifizierungsparameter definieren;
  • - "Vorhersagender" Modus, bei dem die Differenz zwischen diesem Parameter und einer Vorhersage nach den vorhergehenden Rastern übertragen wird.
  • Diese Animationsparameter können auf jedes beliebige Feld eines beliebigen Knoten einer vorher als animierbar erklärten Szene angewandt werden.
  • Betrachten wir das Beispiel des Transform-Knotens in der VRML-Spezifikation. Die Spezifikation ist gegeben durch:
  • In diesem Beispiel wird ersichtlich, dass es sich bei den Feldern
  • - rotation,
  • - scale,
  • - scaleOrientation
  • - translation,
  • typischerweise um Parameter handelt, die für die Animation von Interesse sind. So müssen alle animationsfähigen Knoten deklariert werden, um dann die spezifischen Animationsfelder kennzeichnen zu können. In diesem Falle spricht man vom "dynamischen" Feld. Dynamische Felder müssen in unserem System im voraus gekennzeichnet werden, um die Anwendung des möglichst kompaktesten Animationsformat zuzulassen.
  • Nur Skalarwerte können bei den Animationen geändert werden. Nimmt man beispielsweise Bezug auf die VRML 2.0 Norm, so lassen sich die folgenden Parameter animieren:
  • - SFInt32,
  • - SFFloat,
  • - SFDouble,
  • - SFRotation,
  • - SFColor.
  • Alle Wertetabellen der vorhergehenden Art lassen sich ebenfalls ändern. Im Falle eines Tabellenwertes, kann man entweder die Gesamtheit der Felder oder bestimmte, explizit gewählte, Werte verändern.
  • Es folgt nun eine detailliertere Beschreibung der im Rahmen der Erfindung zur Anwendung kommenden Signale.
  • Die Animationsmasken stellen die zu übertragenden Animationsmasken sowie ihre Quantifizierungsparameter dar. Für jeden Knoten und jeden zu ändernden Wert wird eine Maskenstruktur verwendet, deren Syntax weiter unten angegeben ist. Das Prinzip der Maske besteht in der Bezeichnung der dynamischen Felder, die man animieren will. Danach werden gegebenenfalls die Quantifizierungsparameter eines jeden Parameter angegeben.
  • So lässt sich die Struktur der Animations-Konfigurationsparameter wie in Fig. 5 veranschaulicht darstellen.
  • Die Parametersemantik ist:
  • - Elementarmaske 51: Definition der für diesen Knoten zu animierenden dynamischen Felder sowie der entsprechenden Quantifizierungsparameter:
  • - Continue 52: das Bit wird auf 1 gesetzt, wenn es noch im selben Fluss weitere zu animierende Knoten gibt.
  • Fig. 6 zeigt eine Elementarmaske. Die entsprechende Semantik ist:
  • - ID 61: einzige Identifizierung des zu ändernden Knotens. Diese Identifizierung ist in der Ausgangszene bekannt.
  • - Maske bin 62: Binärmaske, deren Länge der Zahl der dynamischen Knoten der animierten Knotenart gleicht. Es wird 0 übertragen, wenn das dynamische Feld nicht animiert ist, andernfalls 1.
  • Im Falle von Mehrfachfeldern müssen außerdem die Indizes der zu ändernden Felder präzisiert werden im Falle von zu ändernden Mehrfachindizes hat man die Wahl, entweder die Gesamtheit der Felder oder nur einen Teil des Vektors zu ändern. Die Syntax der Meldung wird in Fig. 7 vorgeschlagen.
  • - Qpi 63: Quantifizierungsparameter für das dynamische Feld i. Es gibt so viele Quantifizierungsparameter wie als aktiv erklärte dynamische Felder in der Binärmaske. Diese Felder können insbesondere leer sein, falls die Quantifizierung keine besonderen Parametern erfordert. Die Feststellung der Syntax und der Semantik dieser Felder ist eine im voraus gegebene Erkenntnis des Servers, der den Animationsfluss sendet.
  • Fig. 7 zeigt die Details der Syntax der Binärmaske für Mehrfachwertfelder. Die Semantik ist in diesem Falle die folgende:
  • - isTotal 71: wenn diese Maske auf 1 gesetzt wird, will man alle Feldwerte ändern. Ansonsten werden einige Elemente des zu ändernden Vektors gewählt.
  • - index72: Feldindex in dem zu ändernden Vektor.
  • - Continue 73: wird diese Fahne auf 1 gesetzt, so zeigt dies an, dass noch weitere Elemente des Vektors geändert werden sollen.
  • Vorteilhafterweise wird, zumindest unter bestimmten Umständen, eine vorhersagende Kodierung angewandt, die das Reduzieren der Zahl zu übertragenden Informationen in den Informationsteilbildern ermöglicht.
  • Die Kompression der Parameter kann durch Anwendung eines Kompressionsschemas des Typs DPCM erfolgen: die Werte eines Parameters lassen sich entweder im "vorhersagenden" Modus (P) oder im "Intra" Modus (I) kodieren:
  • - Im P-Modus wird, für jeden neuen zu kodierenden Wert eines Feldes, die Differenz dieses Wertes im Verhältnis zum vorhergehenden Wert kodiert. Diese Differenz wird quantifiziert und dann in optimaler Form durch eine entropische Kodierung variabler Länge dargestellt.
  • - I-Modus werden die Werte der dynamischen Felder durch Anwendung einer einfachen Quantifizierung direkt kodiert und dann durch einen Code variabler Länge dargestellt.
  • So lässt sich das Blockschema des allgemeinen Kompressionsalgorithmus durch die Fig. 8 darstellen. Man subtrahiert (81) die von den Vorhersagemitteln 84 gelieferten geschätzten Daten 83 von den Quelldaten 82. Das entsprechende Fehlersignal 85 wird quantifiziert (86) und wird dann einer entropischen Kodierung 87 unterworfen. Das quantifizierte Signal 88 speist die Vorhersagemittel 84.
  • Zum Dekodieren wird dann das entsprechende, in Fig. 9 dargestellte Mittel eingesetzt. Die empfangenen Daten 91 unterlaufen eine entropische Dekodierung 92, und es wird dem dekodierten Signal 93 das von den Vorhersagemitteln 96 vorhergesagte Signal 95 addiert (94). Das Signal wird dann einer umgekehrten Quantifizierung (97) unterworfen.
  • Der Datenfluss kann demnach die in Fig. 10 gezeigte Struktur aufweisen.
  • Jedes Animationsteilbild beginnt mit einer Maske 101 der Wertgruppen ("GMask"). Diese Maske 101 besteht aus einer Folge von Binärelementen "0" und "1 ", die für jeden Knoten und in der Reihenfolge der Spezifizierung der Animationsmaske betimmt, ob Animationsparameter folgen oder nicht.
  • Danach wird, mit Hilfe des Indikators 102 "isIntra" präzisiert, ob eine vorhersagende Kodierung angewandt wird oder nicht. Ist der Wert dieses Indikators beispielsweise "1", so wird der Wert absolut kodiert ("Intra"-Modus). Ist er im selben Beispiel "0", so wird eine vorhersagende Kodierung angewandt.
  • Wird der "Intra"-Modus angewandt, so kann ein Synchronisierungswort 103 vorgesehen werden, mit dem man sich in den Fluss wieder einordnen kann. Danach wird für jeden animierten Knoten folgendes übertragen:
  • - als Option und wenn man sich im "Intra"-Modus befindet, mit der Übertragung ("IParam") zusammenhängende Parameter 104 der folgenden Art:
  • - eine Synchronisierungsreferenz oder "time code" für das betroffene "Intra"-Teilbild;
  • - ein neuer Frequenzwert der Animationsteilbilder für den animierten Knoten;
  • - ein eventueller Teilbildsprung, womit angegeben wird, dass während N Teilbilder gewisse Informationen nicht mehr übertragen werden;
  • - eine Parameterfolge in der Reihenfolge der Felder, mit nacheinander:
  • - im Falle einer "Intra"-Kodierung, einen Indikator 105 "has QP", mit dem präzisiert wird, ob die Werte der Quantifizierungsparameter für die nachfolgenden Werte erneut definiert sind (beispielsweise "has QP" = 1) oder nicht (beispielsweise "has QP" = 0);
  • - wenn "has QP" = 1, den neuen Wert 106 der Quantifizierungsparameter "QPi";
  • - den Wert 107 "Ivaluei" oder 108 "Pvaluei", welcher der kodierte Wert des dynamischen Feldes i im gewählten Modus (intra oder vorhersagend) ist.
  • Jede Art eines entropischen Quantifizierungs- oder Kodierungsschemas kann von der Kodiereinheit für Animationsdaten genutzt werden. So kann man für die Quantifizierung verschiedene Arten skalarer oder vektorieller Quantifizierung nutzen und für die entropische Kodierung, jedes verlustfreie Durchflussreduzierungsschema.
  • Um das Laufen oder den Stillstand eines Animationsflusses interaktiv zu steuern, wird nach der Erfindung ein neuer Knoten mit dem BIFS- oder VRML-Format vorgeschlagen. Dieser AnimationStream-Knoten ist ein Knoten vom Typ "Time Dependent Node" in der VRML-Terminologie. Die Darstellungssyntax dieses Knotens ist:
  • Dieser Knoten wird in den VRML- oder BIFS-Animationsfluss befördert. Ein Anwendungsbeispiel für diesen Knoten ist unten angegeben. In diesem Beispiel wird ein Würfel angezeigt. Wenn der Benutzer "klickt", werden die Farbe, die Position und die Größenkomponente X des Würfels animiert. Das Beispiel wird im ASCII-Format angegeben. Es kann jedoch in die Binärversion BIFS überschrieben werden. Die Ausgangszene ist gegeben durch:
  • ROUTE TOUCH.touchTime TO ANIMATION.set_starTime
  • Wenn der Benutzer mit der Maus den Würfel anklickt, wird der der "ANIMATION"- Kennzeichnung entsprechende Animationsfluss in Gang gesetzt. Die Animationsmaske des Flusses, oder Datei "Scene.anim" enthält die folgenden Informationen:
  • T Transformationskennzeichnung
  • 0001 Nur das Verschiebungsfeld wird verändert
  • 1 die Gesamtheit des Positions-Vektorfeldes soll animiert werden
  • 0 0 4 0 5 1 0 8 Die Position variiert innerhalb des durch die Punkte (0,0,4) und (0,5,10) definierten Quaders, und es werden auf der Achse Ox 256 Kugeln genutzt, um im Intra-Modus zu quantifizieren
  • 0-2 -5 0 3 7 6 Die relative Position variiert innerhalb des durch die Punkte (0,0,4) und (0,0,10) definierten Würfels, und es werden 64 = 2&sup6;- 1 Kränze in D3 auf der Ox-Achse genutzt, um im P-Modus zu quantifizieren
  • 1 Es wird fortgesetzt
  • M Die Farbe des Objektes soll animiert werden
  • 010001 Die Farbe und die Transparenz des Objektes sollen animiert werden
  • 10 240 8 Die Farbe variiert im I-Modus zwischen 10 und 240 über 8 Bits
  • -5 5 8 Die Farbe variiert im P-Modus zwischen 10 und 240 über 8 Bits
  • 10 240 8 Das gleiche für die Transparenz im I-Modus
  • -5 5 8 Das gleiche für die Transparenz im P-Modus
  • 1 Es wird fortgesetzt
  • C Die Größe des Würfels soll geändert werden
  • 1 Die Größe wird geändert
  • 0 Es sollen nur einige Elemente des Größenvektors geändert werden
  • 0 Die Größe der Schachtel soll nur auf der Ox-Achse geändert werden
  • 2 5.5 5 Der Wert wird zwischen 0 und 5.5 im Intra-Modus geändert, über 5 Bits ausgedrückt
  • -3 3 4 Der Relativwert variiert zwischen -3 und 3 über 4 Bits im P- Modus
  • 0 Ende der Animationsmaske

Claims (9)

1. Datensignal für die Animation einer graphischen Szene für Mittel zum Erstellen von Bildern (15), die auf mindestens einem Bildschirm dargestellt werden können (16), wobei die zu animierende graphische Szene vorher in die Mittel zum Erstellen von Bildern in der Form einer Menge von Objekten geladen wurde, wobei mindestens einige dieser Objekte eine eigene Kennzeichnung besitzen,
dadurch gekennzeichnet, daß es folgendes umfaßt:
- eine einzige Animationsmaske, die als Präambel (41) dieser Animation geliefert wird, welche mindestens einem dieser Objekte eine Elementarmaske (51) zuordnet, die ihrerseits folgendes umfaßt:
- die Kennzeichnung (61) des erwähnten Objektes, wie in der zu animierenden grafischen Szene definiert und
- die Bezeichnung von zumindest einem dynamischen Charakterisierungsfeld (62) dieses Objektes, welches repräsentativ ist für eine Charakteristik des Objektes, das verändert werden kann;
- Animationsteilbilder (42), die gemäß der von der erwähnten Maske definierten Reihenfolge Daten für die Aktualisierung der dynamischen Charakterisierungsfelder dieser Objekte umfaßt, um deren Änderung zu ermöglichen,
wobei die Mittel zum Erstellen von Bildern (15) die Daten der Animationsmaske dekodieren und, ausgehend von dieser Animationsmaske, die Animation initialisieren und die Szene als Funktion der Animationsteilbilder aktualisieren.
2. Signal nach Anspruch 1,
dadurch gekennzeichnet, daß jede der Elementarmasken folgendes umfaßt:
- die Kennzeichnung (61) des erwähnten Objektes (ID);
- einen Bezeichnungsblock (62) (Maske bin), der die aktiven dynamischen Felder präzisiert, welche bei der Animation verändert werden können und die bei der Animation unverändert bleiben;
- eventuell einen Definitionsblock (63) (Qpi) von Quantifizierungsdaten, die auf ein jedes der dynamischen aktiven Felder anwendbar sind.
3. Signal nach Anspruch 2,
dadurch gekennzeichnet, daß es sich zumindest bei einigen der erwähnten dynamischen aktiven Felder (63) um Mehrfachfelder handelt, die einen Vektor bilden
und,
daß die Elementarmaske eine Information (71) umfaßt, die genau angibt, ob alle Felder, welche den Vektor bilden oder ob nur einige unter ihnen aktiv sind, wobei der Definitionsblock entsprechend angepaßt ist.
4. Signal nach einem der Ansprüche 1 bis 3,
dadurch gekennzeichnet, daß in zumindest einigen der Animationsteilbilder, zumindest einige der dynamischen Felder mit Hilfe einer vorhersagenden Kodierung (84) kodiert sind und,
daß in jedem Animationsteilbild einem jeden dynamischen Feld eine Information (102) zugeordnet wird, die angibt, ob dieses Animationsteilbild nach dem vorhersagenden oder nach dem absoluten Modus kodiert ist.
5. Signal nach einem der Ansprüche 1 bis 4,
dadurch gekennzeichnet, daß jedes der Animationsteilbilder folgendes umfaßt:
- eine Definitionszone (101), die für jedes der Objekte angibt, ob die das Objekt betreffenden Animationsparameter in dem Animationsteilbild übertragen werden;
- eine Zone von Animationsdaten (102 bis 108), welche die zur Animation der in der Definitionszone erfaßten Objekte liefert.
6. Signal nach Anspruch 5,
dadurch gekennzeichnet, daß die Zone von Animationsdaten mindestens einige der Informationen aus der folgenden Gruppe umfaßt:
- den Kodierungstyp (isIntra) (102);
- ein Synchronisierungswort (Sync) (103);
- eine Synchronisierungsreferenz (IParam) (104);
- einen Frequenzwert der Animationsteilbilder für das betrachtete Objekt (IParam) (104);
- einen Sprung von N Teilbildern, während dem eine Information nicht gesendet wird (IParam) (104);
- eine Angabe für die Wertänderung des Quantifzierungsparameters (hasQP) (105);
- einen neuen Wert für den Quantifizierungsparameter (Qpi) (106);
- einen kodierten Wert eines dynamischen Feldes (Ivaluei oder Pvaluei) (107, 108).
7. Signal nach einem der Ansprüche 1 bis 6,
dadurch gekennzeichnet, daß die dynamischen Felder der Gruppe angehören, die folgendes umfaßt:
- Felder, welche das Aussehen des Objektes definieren;
- Felder, welche die Position des Objektes definieren;
- Felder, welche die Bewegung des Objektes definieren;
- Felder, welche die Form des Objektes definieren;
- Felder, welche die Beleuchtung des Objektes definieren;
8. Übertragungsverfahren für Animationsdaten einer graphischen Szene, die auf mindestens einem Bildschirm dargestellt werden soll und die vorher in Mittel zum Erstellen von Bildern in der Form einer Menge von Objekten geladen wurde, dadurch gekennzeichnet, daß es folgendes umfaßt:
- einen Initialisierungsschritt (41) für die Animation, in der die Übertragung der folgenden Elemente sichergestellt wird:
- eine einzige Animationsmaske, die in der Präambel dieser Animation geliefert wird, welche mindestens einem dieser Objekte eine Elementarmaske (51) zuordnet, die folgendes umfaßt:
- die Kennzeichnung (61) des erwähnten Objektes, wie in der zu animierenden grafischen Szene definiert und
- die Bezeichnung von zumindest einem dynamischen Charakterisierungsfeld (62) dieses Objektes, welches repräsentativ ist für eine Charakteristik des Objektes, das verändert werden kann;
- einen Animationsschritt (42), in dem man die Übertragung von Animationsteilbildern sicherstellt, welche, nach der von der erwähnten Maske definierten Reihenfolge, Daten für die Aktualisierung der dynamischen Charakterisierungsfelder dieser Objekte umfaßt, um deren Änderung zu ermöglichen.
9. Animationsverfahren für eine graphische Szene, die auf mindestens einem Bildschirm dargestellt werden soll und die vorher in Mittel zum Erstellen von Bildern in der Form einer Menge von Objekten geladen wurde, dadurch gekennzeichnet, daß es folgendes umfaßt:
- Mittel (11) zum Erstellen einer Initialisierung der Animation, ausgehend von:
- einer einzigen Animationsmaske, die in der Präambel dieser Animation geliefert wird, welche mindestens einem dieser Objekte eine Elementarmaske (51) zuordnet, die folgendes umfaßt:
- die Kennzeichnung (61) dieses Objektes gemäß ihrer Definition in der zu animierenden graphischen Szene;
- die Bezeichnung von zumindest einem dynamischen Charakterisierungsfeld (62) dieses Objektes, welches repräsentativ ist für eine Charakteristik des Objektes, das verändert werden kann;
- dynamische Animationsmittel (12) der Szene, ausgehend von Animationsteilbildern, die gemäß der von der erwähnten Maske definierten Reihenfolge, Daten für die Aktualisierung der dynamischen Charakterisierungsfelder dieser Objekte umfaßt, um deren Änderung zu ermöglichen.
DE69801998T 1997-07-11 1998-07-10 Signal der animation einer grafischen szene, entsprechende vorrichtung und verfahren Expired - Lifetime DE69801998T2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR9709119A FR2765982B1 (fr) 1997-07-11 1997-07-11 Signal de donnees d'animation d'une scene graphique, procede et dispositif correspondants
PCT/FR1998/001523 WO1999003281A1 (fr) 1997-07-11 1998-07-10 Signal d'animation d'une scene graphique, procede et dispositif correspondants

Publications (2)

Publication Number Publication Date
DE69801998D1 DE69801998D1 (de) 2001-11-15
DE69801998T2 true DE69801998T2 (de) 2002-05-29

Family

ID=9509348

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69801998T Expired - Lifetime DE69801998T2 (de) 1997-07-11 1998-07-10 Signal der animation einer grafischen szene, entsprechende vorrichtung und verfahren

Country Status (10)

Country Link
EP (1) EP1004206B1 (de)
JP (2) JP3955178B2 (de)
KR (1) KR100574754B1 (de)
CN (1) CN1237816C (de)
AU (1) AU739379B2 (de)
DE (1) DE69801998T2 (de)
ES (1) ES2165694T3 (de)
FR (1) FR2765982B1 (de)
IL (1) IL133789A (de)
WO (1) WO1999003281A1 (de)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001041156A1 (en) * 1999-12-01 2001-06-07 Ivast, Inc. Optimized bifs encoder
CN101273641B (zh) 2005-09-26 2013-03-06 三菱电机株式会社 运动图像编码装置以及运动图像译码装置
KR100877066B1 (ko) * 2007-01-22 2009-01-09 삼성전자주식회사 Layout 구조를 이용한 GUI 위짓 구성 장치 및이를 운영하는 방법
JP4953980B2 (ja) * 2007-08-20 2012-06-13 株式会社アトレータ 採尿用容器
NO333026B1 (no) * 2008-09-17 2013-02-18 Cisco Systems Int Sarl Styringssystem for et lokalt telepresencevideokonferansesystem og fremgangsmate for a etablere en videokonferansesamtale.

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5909218A (en) * 1996-04-25 1999-06-01 Matsushita Electric Industrial Co., Ltd. Transmitter-receiver of three-dimensional skeleton structure motions and method thereof

Also Published As

Publication number Publication date
WO1999003281A9 (fr) 1999-04-22
FR2765982B1 (fr) 2004-10-15
IL133789A (en) 2005-06-19
EP1004206B1 (de) 2001-10-10
CN1263670A (zh) 2000-08-16
FR2765982A1 (fr) 1999-01-15
JP3955178B2 (ja) 2007-08-08
DE69801998D1 (de) 2001-11-15
AU8735098A (en) 1999-02-08
JP2004272935A (ja) 2004-09-30
IL133789A0 (en) 2001-04-30
ES2165694T3 (es) 2002-03-16
WO1999003281A1 (fr) 1999-01-21
KR20010021727A (ko) 2001-03-15
KR100574754B1 (ko) 2006-04-28
AU739379B2 (en) 2001-10-11
CN1237816C (zh) 2006-01-18
EP1004206A1 (de) 2000-05-31
JP2001510313A (ja) 2001-07-31

Similar Documents

Publication Publication Date Title
DE69715239T2 (de) Videokompressionsmethode und vorrichtung
DE69715037T2 (de) Skalierbares medienverteilungssystem
DE69418580T2 (de) Fernanzeige von einem Bild durch Übertragung von komprimierten Videorahmen, die seinen Hintergrund und seinen überlagerten Vordergrund darstellen
DE602004009591T2 (de) Differenz-codierung durch verwendung eines 3d-graphikprozessors
DE69636277T2 (de) Verfahren und Vorrichtung zur Erzeugung von Farbart-Forminformation einer Video-Objektebene in einem Videosignal
DE69831961T2 (de) Bildobjekterzeugungsverfahren für objektbasierte kodierungssysteme unter verwendung von masken und gerundeten mittelwerten
DE69518937T2 (de) System und Verfahren zur Darstellung komprimierter Videografikbilder
DE69836893T2 (de) Bewegtbildkompositionssystem
DE69722040T2 (de) 2-d gittergeometrie und bewegungsvektorkompression
DE69619220T2 (de) Manipulaton von grafikbildern
DE69813230T2 (de) Verfahren zur markierung eines komprimierten digitalvideosignals
DE19739266B4 (de) Verfahren und Vorrichtung zum Kodieren binärer Formen
DE69521255T2 (de) Verfahren zum betrieb eines interaktiven bildanzeigesystems und bildanzeigesystem zur durchführung des verfahrens
DE19743202B4 (de) Verfahren zum Codieren eines Bewegungsvektors
DE102020108357A1 (de) Umkodieren vorhergesagter bilder in live-videostream-anwendungen
DE69728757T2 (de) Verfahren und Vorrichtung zum Kodieren eines Objektes unter Verwendung einer Konturbewegungsschätztechnik
EP1371229B1 (de) Verfahren zur komprimierung und dekomprimierung von videodaten
DE60107149T2 (de) Digitales Bildausgabegerät
DE19744859B4 (de) Verfahren zum Codieren eines binären Formsignals
DE69737711T2 (de) Verfahren und Vorrichtung zur Kodierung einer Objektkontur unter Verwendung ihrer Zeitkorrelation
DE69801998T2 (de) Signal der animation einer grafischen szene, entsprechende vorrichtung und verfahren
DE69800934T2 (de) Bewegungssignaldaten von einem graphischen scene mit quantifikationobjekt, verfahren und einrichtung dafür
DE19749655B4 (de) Verfahren und Vorrichtung zum Kodieren eines Bewegungsvektors
DE69602125T2 (de) MPEG Dekoder
EP0981909B1 (de) Verfahren und vorrichtung zur codierung und decodierung eines digitalisierten bildes

Legal Events

Date Code Title Description
8364 No opposition during term of opposition