-
Die
vorliegende Erfindung bezieht sich auf Bildverarbeitungsgeräte, Bildverarbeitungsverfahren und
Aufzeichnungsträger.
Insbesondere bezieht sich die Erfindung auf ein Bildverarbeitungsgerät und ein Bildverarbeitungsverfahren,
bei dem Information in ein Bild mit einem minimalen Verschlechterungsgrad der
Qualität
reproduzierter Bilder und ohne die Datenmenge zu vergrößern eingebettet
werden kann.
-
Eines
der Verfahren, Information einzubetten, ohne die Datenmenge zu vergrößern, besteht darin,
das niedrigwertigste Bit (LSB) oder die unteren zwei Bits von beispielsweise
digitalen Audiodaten in Information, die einzubetten ist, umzusetzen.
Bei diesem Verfahren werden die unteren Bits von digitalen Audiodaten,
die die Tonqualität
nicht wesentlich beeinflussen, einfach durch die Information, die
einzubetten ist, ersetzt. Wenn folglich die digitalen Audiodaten
reproduziert werden, werden sie unverändert ausgegeben, ohne die
unteren Bits in den Ursprungszustand zurückzubringen. Da es insbesondere schwierig
ist, die unteren Bits, in welche Information eingebettet, im Ursprungszustand
wiederherzustellen, und außerdem,
da die unteren Bits die Tonqualität nicht wirksam beeinflussen,
werden die digitalen Audiodaten ausgegeben, wobei sie die Information, die
darin eingebettet ist, enthalten.
-
Gemäß dem oben
beschriebenen Verfahren wird jedoch ein Signal, welches gegenüber dem
Ursprungssignal verschieden ist, unvorteilhaft ausgegeben, was bis
zu einem bestimmten Grad die Tonqualität beeinträchtigt, wenn das Signal Audiodaten sind,
oder die Bildqualität
beeinflusst, wenn das Signal Videodaten sind.
-
Im
Hinblick auf den obigen technischen Hintergrund ist es folglich
eine Aufgabe der vorliegenden Erfindung, Information in ein Bild
mit einem reduzierten Verschlechterungsgrad der Bildqualität und ohne die
Datenmenge zu vergrößern einzubetten.
-
Um
die obige Aufgabe zu lösen,
wird gemäß einem
Merkmal der vorliegenden Erfindung ein Bildverarbeitungsgerät bereitgestellt,
um eine Verarbeitung zum Einbetten von Information in ein Bild durchzuführen. Das
Gerät besitzt
eine Auswahleinrichtung, um ein Pixel des Bilds auszuwählen. Die
Verarbeitungseinrichtung führt
eine Verarbeitung bezüglich des
Pixels, welches durch die Auswahleinrichtung ausgewählt wurde,
gemäß der Information durch,
so dass das Pixel unter Verwendung einer Korrelation des Bilds reproduzierbar
ist, wodurch die Information in das Pixel eingebettet wird.
-
Gemäß einem
anderen Merkmal der vorliegenden Erfindung wird ein Bildverarbeitungsverfahren
bereitgestellt, um eine Verarbeitung zum Einbetten von Information
in ein Bild durchzuführen.
Das Verfahren weist einen Auswahlschritt auf, um ein Pixel des Bilds
auszuwählen,
und einen Verarbeitungsschritt, um eine Verarbeitung in bezug auf
das Pixel, welches im Auswahlschritt ausgewählt wurde, gemäß der Information
durchzuführen,
so dass das Pixel unter Verwendung einer Korrelation des Bilds reproduzierbar
ist, wodurch die Information in das Pixel eingebettet wird.
-
Gemäß einem
noch weiteren Merkmal der vorliegenden Erfindung wird ein Träger (Medium)
bereitgestellt, um ein Computerprogramm zu liefern, um einen Computer
in die Lage zu versetzen, eine Verarbeitung zum Einbetten von Information
in ein Bild durchzuführen.
Das Computerprogramm weist einen Auswahlschritt auf, um ein Pixel
des Bilds auszuwählen,
und einen Verarbeitungsschritt, um eine Verarbeitung in bezug auf
das Pixel, welches im Auswahlschritt ausgewählt wurde, gemäß der Information durchzuführen, so
dass das Pixel unter Verwendung einer Korrelation des Bilds reproduzierbar
ist, wodurch die Information in das Pixel eingebettet ist.
-
Gemäß einem
weiteren Merkmal der vorliegenden Erfindung wird ein Bereitstellungsträger bereitgestellt,
um ein Bild, in welches Information eingebettet ist, bereitzustellen.
Das Bild, in welches Information eingebettet ist, wird durch Einbetten
der Information in das Bild erhalten, wobei ein Pixel des Bilds ausgewählt wird,
und wobei eine Verarbeitung in bezug auf das ausgewählte Pixel
gemäß der Information
durchgeführt
wird, so dass das Bild unter Verwendung einer Korrelation des Bilds
reproduzierbar ist.
-
Gemäß einem
weiteren Merkmal der vorliegenden Erfindung wird ein Bildverarbeitungsgerät bereitgestellt,
welches einen Übertrager
aufweist, um ein Bild, in welches Information eingebettet ist, zu übertragen,
welches durch Einbetten von Information erhalten wird, und einen
Empfänger,
um ein Bild, in welches Information eingebettet ist, vom Übertrager zu
empfangen und um das Bild zu decodieren. Der Übertrager weist eine erste
Auswahleinrichtung auf, um ein Pixel des Bilds auszuwählen. Die
erste Verarbeitungseinrichtung führt
eine Verarbeitung in bezug auf das Pixel, welches durch die erste
Auswahleinrichtung ausgewählt
wurde, gemäß der Information durch,
so dass das Pixel unter Verwendung einer Korrelation des Bilds reproduzierbar
ist, um dadurch die Information im Pixel einzubetten und das Bild,
in welches Information eingebettet ist, auszugeben. Der Empfänger weist
eine zweite Auswahleinrichtung auf, um ein Pixel des Bilds, in welches
Information eingebettet ist, auszuwählen. Die zweite Verarbeitungseinrichtung
führt eine
vorher festgelegte Verarbeitung in bezug auf das Pixel durch, welches
durch die zweite Auswahleinrichtung ausgewählt wurde. Eine Korrelationsberechnungseinrichtung
berechnet eine erste Korrelation zwischen dem Pixel, welches durch
zweite Auswahleinrichtung ausgewählt
wurde, und einem peripheren Pixel rundum das ausgewählte Pixel
und berechnet eine zweite Korrelation zwischen dem Pixel, welches
durch die zweite Auswahleinrichtung ausgewählt wurde und welches durch
die zweite Verarbeitungseinrichtung verarbeitet wurde, und dem peripheren
Pixel rundum das Pixel. Die Vergleichseinrichtung vergleicht die
erste Korrelation und die zweite Korrelation. Die Decodiereinrichtung
decodiert das Pixel, welches durch die zweite Auswahleinrichtung
ausgewählt
wurde, und die Information, die in das Pixel eingebettet wurde,
auf der Basis eines Ergebnisses, welches durch die Vergleichseinrichtung
erhalten wird.
-
Gemäß einem
weiteren Merkmal der vorliegenden Erfindung wird ein Bildverarbeitungsverfahren
zur Verwendung in einem Bildverarbeitungsgerät bereitgestellt, welches einen Übertrager
aufweist, um ein Bild, in welches Information eingebettet ist, zu übertragen,
welches durch Einbetten von Information erhalten wird, und einen
Empfänger,
um das Bild, in welches Information eingebettet wurde, vom Übertrager
zu empfangen und um das Bild zu decodieren. Das Verfahren weist
die Schritte auf, ein Pixel des Bilds durch den Übertrager auszuwählen, eine
Verarbeitung durch den Übertrager
in bezug auf das ausgewählte
Pixel gemäß der Information
durchzuführen,
so dass das Pixel unter Verwendung einer Korrelation des Bilds reproduzierbar
ist, wodurch die Information in das Pixel eingebettet wird und das
Bild, in welches Information eingebettet ist, ausgegeben wird, das
Pixel des Bilds, in welches Information eingebettet ist, durch den
Empfänger
auszuwählen,
die vorher festgelegte Verarbeitung durch einen Empfänger in
bezug auf das ausgewählte
Pixel durchzuführen,
durch den Empfänger
eine erste Korrelation zwischen dem Pixel, welches durch das Bild,
in welches Information eingebettet wurde, und einem peripheren Pixel
rundum das ausgewählte
Pixel zu berechnen, und eine zweite Korrelation zwischen dem Pixel,
welches von dem Bild, in welches Information eingebettet ist, ausgewählt und
der vorher festgelegten Verarbeitung unterworfen wird, und dem peripheren
Pixel rundum das Pixel zu berechnen, um die erste Korrelation und
die zweite Korrelation durch den Empfänger zu vergleichen, und das
Pixel, welches vom Bild, in welches Information eingebettet ist,
und der Information, die in das Pixel eingebettet ist, ausgewählt wird,
durch den Empfänger
auf der Basis eines Vergleichsergebnisses zu decodieren.
-
Eine
Ausführungsform
der Erfindung wird nun lediglich beispielhaft mit Hilfe der beiliegenden Zeichnungen
beschrieben, in denen:
-
1 ein
Blockdiagramm ist, welches ein Beispiel der Ausbildung eines Bildübertragungssystems
zeigt, welches die vorliegende Erfindung verkörpert;
-
2 ein
Bild, welches zu codieren ist, zeigt;
-
3A und 3B den
Codier-/Decodierbetrieb zeigen, der unter Verwendung der Korrelation
durchgeführt
wird;
-
4A und 4B den
Codier-/Decodierbetrieb zeigen, der unter Verwendung der Kontinuität durchgeführt wird;
-
5A und 5B den
codier-/Decodierbetrieb zeigen, der unter Verwendung der Ähnlichkeit durchgeführt wird;
-
6 ein
Blockdiagramm ist, welches ein Beispiel des Aufbaus eines Einbettungscodierers 3, der
in 1 gezeigt ist, zeigt;
-
7 ein
Flussdiagramm ist, welches die Einbettungscodierungsverarbeitung
zeigt;
-
8 die
Verarbeitung im Schritt S1 von 7 zeigt;
-
9 ein
Blockdiagramm ist, welches ein Beispiel des Aufbaus eines Einbettungsdecodierers 6,
der in 1 gezeigt ist, zeigt;
-
10 die
Verarbeitung zeigt, welche durch eine CPU 43 durchgeführt wird,
die in 9 gezeigt ist;
-
11 ein
Flussdiagramm ist, welches die Einbettungsdecodierungsverarbeitung
zeigt; und
-
12 die
Verarbeitung zeigt, um eine Ein-Bit-Information in vier Pixeln zu
verarbeiten.
-
Eine
Ausführungsform
der vorliegenden Erfindung wird anschließend beschrieben. Um die Beziehung
zwischen den individuellen Einrichtungen, die in den Patentansprüchen aufgeführt sind,
und den entsprechenden Komponenten der folgenden Ausführungsform
klarzustellen, werden die Merkmale der vorliegenden Erfindung durch
Hinzufügen
der entsprechenden Komponenten der Ausführungsform (lediglich als Beispiel)
zu den entsprechenden Einrichtungen beschrieben.
-
Ein
Bildverarbeitungsgerät,
welches im Anspruch 1 beschrieben ist, führt eine Verarbeitung durch,
um Information in ein Bild einzubetten. Das Bildverarbeitungsgerät besitzt
eine Auswahleinrichtung, um ein Pixel des Bilds auszuwählen (beispielsweise
einen Pro grammverarbeitungsschritt S1 von 7). Die
Verarbeitungseinrichtung (beispielsweise ein Programmverarbeitungsschritt
S3 von 7) führt
eine Verarbeitung in bezug auf das Pixel, welches durch die Auswahleinrichtung
ausgewählt
wurde, gemäß der Information
durch, so dass das Pixel unter Verwendung einer Korrelation des
Bilds reproduzierbar ist, wodurch die Information in das Pixel eingebettet
wird.
-
Ein
Bildverarbeitungsgerät
nach Anspruch 20 führt
eine Verarbeitung durch, um ein Bild, in welches Information eingebettet
ist, in ein Ursprungsbild und in eine Ursprungsinformation zu decodieren.
Das Gerät
besitzt eine Auswahleinrichtung, um ein Pixel der Information, in
welche das Bild eingebettet ist, auszuwählen (beispielsweise einen
Programmverarbeitungsschritt S11 von 11). Eine
Verarbeitungseinrichtung (beispielsweise ein Programmverarbeitungsschritt
S12 von 11) führt eine vorher festgelegte
Verarbeitung in bezug auf das Pixel, welches durch die Auswahleinrichtung
ausgewählt
wurde, durch. Eine Korrelationsberechnungseinrichtung (beispielsweise
ein Programmverarbeitungsschritt S15 von 11) berechnet
eine erste Korrelation zwischen dem Pixel, welches durch die Auswahleinrichtung
ausgewählt
wurde, und einem peripheren Pixel rundum das ausgewählte Pixel,
und berechnet eine zweite Korrelation zwischen dem Pixel, welches durch
die Auswahleinrichtung ausgewählt
wurde und durch die Verarbeitungseinrichtung verarbeitet wurde,
und dem peripheren Pixel rundum das Pixel. Eine Vergleichseinrichtung
(beispielsweise ein Programmverarbeitungsschritt S16 von 11)
vergleicht die erste Korrelation und die zweite Korrelation. Eine
Decodiereinrichtung (beispielsweise Programmsverarbeitungsschritte
S17 bis S19 von 11) decodiert das Pixel, welches
durch die Auswahleinrichtung ausgewählt wurde, und die Information,
die in das Pixel eingebettet wurde, auf der Basis eines Ergebnisses,
welches durch die Vergleichseinrichtung erhalten wird.
-
Ein
Bildverarbeitungsgerät
nach Anspruch 33 weist einen Übertrager
auf, um ein Bild, in welches Information eingebettet ist, welches
durch Einbetten von Information erhalten wird, zu übertragen,
und einen Empfänger,
um das Bild, in welches Information eingebettet ist, vom Übertrager
zu empfangen und um das Bild zu decodieren. Der Übertrager besitzt eine erste
Auswahleinrichtung, um ein Pixel des Bilds auszuwählen (beispielsweise
einen Programmverarbeitungsschritt S1 von 7). Die
erste Verarbeitungseinrichtung (beispielsweise ein Programmverarbeitungsschritt
S3 von 7) führt
eine Verarbeitung in bezug auf das Pixel, welches durch die erste Auswahleinrichtung
ausgewählt
wurde, gemäß der Verarbeitung
durch, so dass das Pixel unter Verwendung einer Korrelation des
Bilds reproduzierbar ist, um dadurch die Information in das Pixel
einzubetten und das Bild, in welches Information eingebettet wurde,
auszugeben. Der Empfänger
weist eine zweite Auswahleinrichtung auf, um ein Pixel des Bilds,
in welches Information eingebettet wurde, auszuwählen (beispielsweise einen
Programmverarbeitungsschritt S11 von 11). Eine
zweite Verarbeitungseinrichtung (beispielsweise ein Programmverarbeitungsschritt
S12 von 11) führt eine vorher festgelegte Verarbeitung
in bezug auf das Pixel durch, welches durch die zweite Auswahleinrichtung
ausgewählt wurde.
Eine Korrelationsberechnungseinrichtung (beispielsweise ein Programmverarbeitungsschritt S15
von 11) berechnet eine erste Korrelation zwischen
dem Pixel, welches durch die zweite Auswahleinrichtung ausgewählt wurde,
und einem peripheren Pixel rundum das ausgewählte Pixel, und berechnet eine
zweite Korrelation zwischen dem Pixel, welches durch die zweite
Auswahleinrichtung ausgewählt
wurde und durch die zweite Verarbeitungseinrichtung verarbeitet
wurde, und dem peripheren Pixel rundum das Pixel. Eine Vergleichseinrichtung
(beispielsweise ein Programmverarbeitungsschritt S16 von 11)
vergleicht die erste Korrelation und die zweite Korrelation. Eine
Decodiereinrichtung (beispielsweise die Programmverarbeitungsschritte
S17 bis S19 von 11) decodiert das Pixel, welches durch
die zweite Auswahleinrichtung ausgewählt wurde, und die Information,
die in das Pixel eingebettet wurde, auf der Basis eines Ergebnisses,
welches durch die Vergleichseinrichtung erhalten wurde.
-
Die
obige Beschreibung ist nicht dazu vorgesehen, die Einrichtung, die
in den Ansprüchen
beschrieben wurde, gemäß den oben
beschriebenen Komponenten zu beschränken.
-
1 ist
ein schematisches Diagramm, welches ein Bildübertragungssystem nach der
vorliegenden Erfindung zeigt. Bei dieser Darstellung kann ein "System" eine Einheit sein,
welche logisch aus mehreren Geräten
gebildet sein kann, und es ist nicht notwendig, dass die Geräte im gleichen
Gehäuse
untergebracht sind.
-
Gemäß 1 besteht
das Bildübertragungssystem
aus einer Codiereinheit 10 und einer Decodiereinheit 20.
Die Codiereinheit 10 codiert beispielsweise ein Bild (erste
Information) und gibt die codierten Daten aus. Die Decodiereinheit 20 reproduziert die
codierten Daten in das Ursprungsbild.
-
Insbesondere
speichert eine Bilddatenbank 1 Bilder, welche zu codieren
sind (beispielsweise Digitalbilder), und ein Bild wird von der Bilddatenbank 1 gelesen
und zu einem Einbettungscodierer 3 geliefert. Eine Zusatzinformations-Datenbank 2 speichert Zusatzinformation
(Digitaldaten) als Information, die in das zu codierende Bild einzubetten
ist. Die Zusatzinformation wird von der Zusatzinformations-Datenbank 2 gelesen
und zum Einbettungscodierer 3 geliefert.
-
Beim
Empfang des Bilds von der Bilddatenbank 1 und der Zusatzinformation
von der Zusatzinformationsdatenbank 2 codiert der Einbettungscodierer 3 das
Bild gemäß der Zu satzinformation,
welche von der Zusatzinformationsdatenbank 2 geliefert wird,
so dass das codierte Bild unter Verwendung der Energieverteilung
des Bilds decodiert werden kann, welches von der Bilddatenbank 1 geliefert
wird. Das heißt,
der Einbettungscodierer 3 codiert das Bild durch Einbetten
der Zusatzinformation in das Bild, so dass das codierte Bild unter
Verwendung der Energieverteilung des Bilds decodiert werden kann,
und gibt die codierten Daten aus. Die codierten Daten können dann
auf einem Aufzeichnungsträger 4 aufgezeichnet
werden, beispielsweise einer magneto-optischen Platte, einer Magnetplatte,
einer optischen Platte, einem Magnetband oder einer PD-Platte. Alternativ
können
die codierten Daten zur Decodiereinheit 20 über ein Übertragungsmedium 5 übertragen
werden, beispielsweise ein terrestrisches Rundfunksignal, ein Satelliten-Rundfunksignal,
ein Kabelfernsehnetz (CATV), das Internet oder ein öffentliches
Netz.
-
Die
Decodiereinheit 20 besteht aus einem Einbettungsdecoder 6,
in welchem die codierten Daten, welche über den Aufzeichnungsträger 4 oder den Übertragungsträger S bereitgestellt
werden, empfangen werden. Der Einbettungsdecoder 6 decodiert
außerdem
die codierten Daten in das Ursprungsbild und in Zusatzinformation
unter Verwendung der Energieverteilung des Bilds. Das decodierte Bild
wird dann zu einem Monitor (nicht gezeigt) geliefert und angezeigt.
Die decodierte Zusatzinformation wird dazu verwendet, eine vorher
festgelegte Verarbeitung durchzuführen.
-
Das
Prinzip des Codierbetriebs, der durch den Einbettungscodierer 3 durchgeführt wird,
und des Decodierbetriebs, der durch den Einbettungsdecoder 6 durchgeführt wird,
wird anschließend
beschrieben.
-
Was
im Allgemeinen als Information bezeichnet wird, besitzt eine Energieteilung
(Entropie), die als Information (nützliche Information) identifiziert wird.
Insbesondere kann beispielsweise ein Bild, welches durch Fotografieren
einer Landschaft erhalten wird, als ein Bild der Landschaft identifiziert
werden. Der Grund dafür
liegt darin, dass das Bild (die Werte der Pixel, die das Bild bilden)
eine Energieverteilung besitzt, die der Landschaft entspricht. Ein
Bild ohne eine Energieverteilung ist lediglich Rauschen und als Information
nicht nützlich.
-
Sogar,
wenn folglich die Energieverteilung, die in Besitz eines Stücks nützlicher
Information ist, durch Durchführen
einer bestimmten Operation zerstört
wird, kann die ursprüngliche
Information durch Wiederherstellen der zerstörten Energieverteilung in den
Ursprungszustand reproduziert werden. Das heißt, die codierten Daten, die
durch Codieren der Information erhalten werden, können in
die ursprüngliche
Information decodiert werden, wobei die Energieverteilung genutzt
wird, die zur Information gehört.
-
Die
Energieverteilung der Information kann beispielsweise durch Korrelation,
Kontinuität
und Ähnlichkeit
dargestellt werden.
-
Die
Korrelation der Information ist die Korrelation zwischen den Elementen
der Information (beispielsweise, wenn die Information ein Bild ist,
den Pixeln oder den Zeilen, die das Bild bilden), d.h., die Selbstkorrelation
oder der Abstand zwischen den Elementen, die die Information bilden.
-
Ein
Bild, welches aus H Zeilen besteht, beispielsweise eines, welches
in 2 gezeigt ist, wird als Beispiel hergenommen.
Was die Korrelation zwischen der ersten Zeile und einer anderen
Zeile betrifft, so ist, wie in 3A gezeigt,
die Korrelation der ersten Zeile zu einer Zeile die näher an der
ersten Zeile angeordnet ist (eine obere Zeile des Bilds, die in 2 gezeigt
ist) größer. Umgekehrt
ist die Korrelation der ersten Zeile zu einer Zeile, die weiter
weg von der ersten Zeile liegt (eine untere Zeile des Bilds, welche
in 2 gezeigt ist) kleiner. Anders ausgedrückt hat
das in 2 gezeigte Bild eine Korrelationsverteilung, bei
der eine Zeile, die enger an der ersten Zeile ist, einen größeren Korrelationspegel, und
eine Zeile, die weiter weg von der ersten Zeile ist, hat einen kleineren
Korrelationspegel.
-
In
dem in 2 gezeigten Bild sind die M-te Zeile, die enger
an der ersten Zeile ist, und die N-te Zeile, die weiter weg von
der ersten Zeile ist, vertauscht (1 < M < N ≤ H), und nach
Berechnen der Korrelation zwischen der ersten Zeile und der M-ten Zeile
und der N-ten Zeile kann das resultierende Bild angezeigt werden,
wie in 3B gezeigt ist. Das heißt, im Bild,
bei dem die M-te Zeile und die N-te Zeile vertauscht wurden, wird
die Korrelation der ersten Zeile zur M-ten Zeile, die enger an der
ersten Zeile ist (entsprechend der N-ten Zeile, bevor diese vertauscht wurde),
kleiner, während
die Korrelation der ersten Zeile zur N-ten Zeile, die weiter weg
von der ersten Zeile ist (entsprechend der M-ten Zeile, bevor diese
getauscht wurde), größer wird.
-
Damit
ist die ursprüngliche
Korrelationsverteilung in der Korrelation, die in 3B gezeigt
ist, zerstört.
Allgemein jedoch, was Bilder anbetrifft, kann die zerstörte Korrelationsverteilung
in den Ursprungszustand wiederhergestellt werden, indem die ursprüngliche
Korrelationsverteilung genutzt wird. Das heißt, die in 3B gezeigte
Korrelationsverteilung ist unnatürlich
(nicht korrekt) hinsichtlich der Ursprungskorrelationsverteilung,
die im Besitz des Bilds ist, wobei die M-te Zeile und die N-te Zeile
vertauscht werden sollten. Somit kann die unnatürliche Verteilung zur korrekten
Verteilung wiederhergestellt werden, die in 3A gezeigt
ist, so dass das Ursprungsbild decodiert werden kann.
-
Gemäß dem in 2, 3A und 3B gezeigten Beispiel
wird das Bild durch Austauschen der Zeilen codiert. In diesem Fall
bestimmt der Einbettungscodierer 3, welche Zeilen verschoben
und getauscht werden sollten, gemäß der Zusatzinformation. In
der Zwischenzeit bringt der Einbettungsdecoder 6 die getauschten
Zeilen in die Ursprungspositionen zurück, indem die Korrelation genutzt
wird, d.h., er ersetzt das codierte Bild durch das Ursprungsbild,
wodurch das codierte Bild decodiert wird. Während dieses Decodierbetriebs
ermittelt der Einbettungsdecoder 6, welche Zeilen verschoben
und getauscht wurden, um somit die Zusatzinformation, die im Bild
eingebettet ist, zu decodieren.
-
Was
die Kontinuität
betrifft, so kann ein anderes Element der Energieteilung, beispielsweise
eine Zeile eines Bilds dargestellt werden durch, wie in 4A gezeigt ist, eine Signalschwingungsform, welche
die Kontinuität
einer Frequenzänderung
zeigt (eine gleitende Frequenzänderung).
Anders ausgedrückt
wird die Frequenz einer Zeile eines Bilds fortlaufend geändert.
-
Dann
wird die Signalschwingungsform, deren Frequenz fortlaufend geändert wird,
wie in 4A gezeigt ist, teilweise durch
eine extrem niedrigere Frequenz ersetzt, wie in 4B gezeigt
ist.
-
In
diesem Fall wird die Kontinuität
einer Frequenzänderung
zerstört.
Allgemein jedoch kann die zerstörte
Kontinuität
der Signalschwingungsform in den Ursprungszustand wiederhergestellt
werden, indem die Merkmale genutzt werden, bei denen die Frequenzänderung
fortlaufend ist. Das heißt,
in 4B ist es unnatürlich, dass ein Teil der Frequenz der
Signalschwingungsform viel niedriger ist als der des verbleibenden
Teils der Schwingungsform, und somit sollte dieser auf einen Bereich
korrigiert werden, der dem verbleibenden Bereich ähnlich ist. Dann
kann die Signalschwingungsform, welche in 4B gezeigt
ist, in die Signalschwingungsform decodiert werden, die in 4A gezeigt ist, d.h., in die ursprüngliche
Signalschwingungsform.
-
In
dem Beispiel, welches in 4A und 4B gezeigt ist, wird das Bild codiert,
indem ein Teil der Signalschwingungsform signifikant geändert wird (durch
Ersetzen durch eine niedrigere Frequenz). Wenn das Bild codiert
wird, bestimmt der Einbettungscodierer 3 aus der Zusatzinformation,
welcher Teil der Frequenz signifikant geändert werden soll und bis zu
welchem Grad die Frequenz geändert werden
soll. Der Einbettungsdecoder 6 reproduziert die ursprüngliche
Signalschwingungsform aus dem codierten Signal, bei dem ein Teil
stark unterschiedlich gegenüber
den verbleibenden Teilen ist, wobei die Kontinuitätscharakteristik
des Signals genutzt wird, um dadurch das codierte Signal in das
Ursprungssignal zu decodieren. Wenn das Signal decodiert wird, ermittelt
der Einbettungsdecoder 6, welcher Teil der Frequenz signifikant
geändert
wurde und bis zu welchem Grad die Frequenz geändert wurde, wodurch die eingebettete
Zusatzinformation decodiert wird.
-
Die Ähnlichkeit,
welche ein anderes Element ist, welches die Energieverteilung darstellt,
ist wie folgt. Beispielsweise sei nun angenommen, dass ein Bild
durch Fotografieren einer Landschaft erhalten wurde. Ein vergrößertes Bild
des ursprünglichen Landschaftsbilds
kann durch Verwenden eines Fraktals (Selbstähnlichkeit) erzeugt werden.
Insbesondere wird beispielsweise ein Bild, welches durch Fotografieren
eines Meeres erhalten wird, wie in 5A gezeigt
ist, durch Verwenden eines Fraktals vergrößert, was ein Bild zur Folge
hat (vergrößertes Bild), dessen
Charakteristiken ähnlich
denjenigen des Ursprungsbilds sind. Folglich besitzt das Ursprungsbild Ähnlichkeit.
-
Dann
wird das Bild des Meeres, welches in 5A gezeigt
ist, teilweise durch einen Teil des Bilds ersetzt, das durch Fotografieren
eines Waldes erhalten wird (dargestellt durch den schraffierten
Bereich von 5B).
-
In
diesem Fall wird die Ähnlichkeit
in dem Bereich des Bilds des Meers zerstört, der durch den Teil des
Bilds des Walds ersetzt wurde. Allgemein jedoch kann die zerstörte Ähnlichkeit
unter Verwenden der folgenden Ähnlichkeitscharakteristik
wiederhergestellt werden. Das heißt, gleich welcher Teil des
Bilds des Meers vergrößert wird,
besitzt der vergrößerte Bereich
eine Charakteristik ähnlich
der des Ursprungsbilds. Insbesondere ist es hinsichtlich der Ähnlichkeit
unnatürlich,
die durch das Bild des Meeres eingenommen wird, dass ein Teil des
Bilds durch einen Teil des Bilds des Walds ersetzt wird. Der Bereich
des Waldes sollte durch ein Bild ersetzt werden, welches eine Charakteristik ähnlich derjenigen
des Umgebungsbereichs des Meers hat. Dann kann das komplette Bild
des Meers, welches in 5A gezeigt ist, d.h., das Ursprungsbild,
von dem Bild, welches in 5B gezeigt
ist, decodiert werden.
-
In
dem Beispiel, welches in 5A und 5B gezeigt
ist, kann das Bild codiert werden, wobei ein Teil des Bilds des
Meers durch das Bild des Waldes ersetzt wird. Wenn das Bild codiert
wird, bestimmt der Einbettungscodierer 3 aus der Zusatzinformation,
welcher Teil des Bilds des Meers durch ein Bild des Waldes zu ersetzen
ist. In der Zwischenzeit reproduziert der Einbettungsdecoder 6 das
komplette Bild des Meers aus dem codierten Signal, d.h., von dem
Bild, welches einen Bereich des Walds hat, wobei die Ähnlichkeitscharakteristik
verwendet wird, um dadurch das codierte Bild in das Ursprungsbild
zu decodieren. Während
des Decodierbetriebs ermittelt der Einbettungsdecoder 6,
welcher Bereich des Bildes des Meers durch das Bild des Waldes ersetzt wurde,
um dadurch die eingebettete Zusatzinformation zu decodieren.
-
Wie
oben erläutert
codiert der Einbettungscodierer 3 das Bild entsprechend
der Zusatzinformation, so dass das codierte Bild unter Verwendung
der Energieverteilung, die durch das Bild eingenommen wird, decodiert
werden kann. Beim Empfangen der codierten Daten decodiert der Einbettungsdecoder 6 die
codierten Daten in das Ursprungsbild und in die Zusatzinformation,
wobei die Energieverteilung verwendet wird, die durch das Bild eingenommen
wird, ohne dass der Zusatzaufwand zum Decodieren erforderlich ist.
-
Der
Zustand des codierten Bildes, in welchem die Information eingebettet
ist, ist gegenüber dem
des Ursprungsbildes verschieden, wodurch eine Verschlüsselung
des Bilds erreicht wird, ohne, dass der Zusatzaufwand erforderlich
ist.
-
Zusätzlich kann
eine vollständig
umkehrbare digitale Wasserzeichenmarkierung ausgeführt werden.
Insbesondere werden gemäß der digitalen
herkömmlichen
Wassermarkierung die unteren Bits von Pixelwerten, welche die Bildqualität nicht
signifikant beeinflussen, einfach in Werte geändert, die der digitalen Wassermarkierung
entsprechen. Da es schwierig ist, die unteren Bits in den ursprünglichen
Zustand wiederherzustellen, kann das Ursprungsbild nicht komplett
reproduziert werden. Als Ergebnis wird die Qualität des decodierten
Bilds bis zu einem bestimmten Grad verschlechtert, indem die unteren
Bits für
digitales Wassermarkieren verwendet werden. Wenn im Gegensatz die
codierten Daten unter Verwendung der Energieverteilung decodiert
werden, die im Besitz von dem Ursprungsbild ist, können das
Ursprungsbild und die Zusatzinformation reproduziert werden. Damit
kann die Zusatzinformation als digitale Wassermarkierung sicher
verwendet werden, ohne einen Verlust an Qualität des decodierten Bilds, welche
nicht durch herkömmliches
digitales Wassermarkieren ausgeführt
werden kann.
-
Die
eingebettete Information kann durch Decodieren des Bilds von den
codierten Daten extrahiert werden, wodurch das Bereitstellen einer
Seiteninformation ermöglicht
wird, um das codierte Bild ohne das Erfordernis des Zusatzaufwands
zu erhalten. Da anders ausgedrückt
die Zusatzinformation eingebettet werden kann, ohne dass der Zusatzaufwand
benötigt
wird, um die Zusatzinformation zu extrahieren, wurden die resultierenden
codierten Daten mit der eingebetteten Information um einen Betrag komprimiert,
der gleich der Zusatzinformation ist (Einbettungs-Kompression).
Wenn folglich beispielsweise eine Hälfte des Bilds codiert ist
und die verbleibende Hälfte
als Zusatzinformation verwendet wird, kann die Hälfte des Gesamtbildes in der
anderen Hälfte
eingebettet sein, wodurch das Gesamtbild auf eine Hälfte komprimiert
wird.
-
Da
die codierten Daten unter Verwendung der Energieverteilung decodiert
werden, die in Besitz des Ursprungsbilds sind, d.h., unter Verwendung
der Statistik, sind die decodierten Daten gegenüber Fehlern widerstandsfähig. Das
heißt,
es kann ein robustes Codie ren (statistisches Codieren), welches
eine hochrobuste Charakteristik hat, durchgeführt werden.
-
Da
außerdem
die codierten Daten unter Verwendung der Energieverteilung decodiert
werden, die zum Ursprungsbild gehört, kann eine größere Menge
zusätzlicher
Information in das Bild eingebettet werden, dessen Energieverteilung
ausgeprägtere Charakteristik
hat, beispielsweise ein Bild, welches einen höheren Aktivitätspegel
und einen niedrigeren Redundanzpegel hat. Wie oben erläutert wurden, wenn
die Zusatzinformation in das Ursprungsbild eingebettet ist, die
codierten Daten mit einer Menge gleich der Zusatzinformation komprimiert.
Hinsichtlich der Kompression wird, wenn das Bild gemäß der Zusatzinformation
codiert wird (unter Verwendung des Einbettungscodierungsverfahrens),
so dass das codierte Bild unter Verwendung der Energieverteilung
decodiert werden kann, die im Besitz des Bildes ist, das Kompressionsverhältnis höher, da
das Bild einen höheren
Aktivitätspegel
und einen niedrigeren Redundanzpegel hat. In diesem Punkt unterscheidet sich
das Einbettungscodierungsverfahren wesentlich gegenüber herkömmlichen
Codierungsverfahren, bei denen das Kompressionsverhältnis niedriger
wird, wenn das Bild einen höheren
Aktivitätspegel
und einen niedrigeren Redundanzpegel hat.
-
Unter
Verwendung eines Bilds als Objekt, welches codiert werden soll,
und unter Verwendung eines Trägers,
der gegenüber
dem Bild verschieden ist, beispielsweise eines Tons als Zusatzinformation kann
zusätzlich
das Bild unter Verwendung des Tons wie ein Schlüssel bereitgestellt werden.
Insbesondere ist in der Codiereinheit 10 der Ton "open sesame", der durch einen
Unternehmer ausgegeben wird, in das Bild als Zusatzinformation eingebettet.
In der Decodiereinheit 20 wird der Benutzer gezwungen,
den Ton "open sesame!" auszugeben, der
mit dem Ton verglichen wird, der im Bild eingebettet ist, wodurch eine
Sprecheridentifikation durchgeführt
wird. Bei der Durchführung
der Sprecheridentifikation wird das Bild automatisch nur dann bereitgestellt,
wenn bestimmt wird, dass der Benutzer eine Vertragsperson ist. In
diesem Fall kann, da der Ton als Zusatzinformation verwendet wurde,
eine Tonschwingungsform selbst verwendet werden, anstelle von dem,
was als Merkmalsparameter bezeichnet wird.
-
Umgekehrt
kann durch Verwenden des Tons als Objekt, das zu codieren ist, und
unter Verwendung eines Trägers,
der vom Ton verschieden ist, beispielsweise eines Bilds, als Zusatzinformation
der Ton bereitgestellt werden, wobei das Bild als Schlüssel verwendet
wird, d.h., dass eine Gesichtserkennungs-Tonantwort kann ausgeführt werden.
Insbesondere ist in der Codiereinheit 10 beispielsweise
ein Bild des Gesichts eines Benutzers in den Ton als Ansprechen
auf den Benutzer eingebettet. In der Codiereinheit 20 ist
das Gesicht eines Benut zers fotografiert, um ein Bild zu erlangen,
und das Bild des Gesichts, welches im Ton eingebettet ist, welches zum
obigen Bild passt, wird gesucht, um dadurch den entsprechenden Ton
auszugeben. Es ist somit möglich,
ein Tonantwortsystem auszuführen,
um auf die Benutzer zu antworten, indem unterschiedliche Tonarten
gemäß den Benutzern
ausgegeben werden.
-
Es
ist außerdem
möglich,
Information unter Verwenden eines bestimmten Trägers in Information einzubetten,
wobei die gleiche Trägerart
verwendet wird, beispielsweise Ton in Ton oder ein Bild in Bild. Alternativ
können
die Stimme eines Unternehmers und das Bild eines Gesichts in ein
Ursprungsbild eingebettet sein. Wenn lediglich die Stimme eines
Benutzers und ein Bild eines Gesichts mit denen übereinstimmen, die in das Bild
eingebettet sind, wird dann das Ursprungsbild bereitgestellt, wodurch
die Durchführung
erreicht wird, was man als duales Schlüsselsystem bezeichnet.
-
Was
dagegen beispielsweise ein Bild und einen Ton betrifft, die miteinander
synchronisiert sind, die ein Fernseh-Rundfunksignal bilden, wird
einer der beiden Träger
in den anderen eingebettet, wobei in diesem Fall eine verschiedene
Trägerinformation integriert
werden kann, d.h., integriertes Codieren durchgeführt werden
kann.
-
Bei
dem Einbettungscodierverfahren kann, wie oben ausgeführt, eine
größere Menge
an Zusatzinformation in Information eingebettet werden, deren Energieverteilung
ausgeprägtere
Merkmale zeigen. Folglich wird beispielsweise zwischen zwei Informationsposten
die Information, deren Energieverteilung ausgeprägtere Merkmale hat, adaptiv
ausgewählt, und
die andere Information in die ausgewählte Information eingebettet,
wodurch es ermöglicht
wird, die gesamte Datenmenge zu steuern. Das heißt, dass zwischen zwei Informationsposten
die Menge eines Postens an Information im anderen Informationsposten
absorbiert werden kann. Da die gesamte Datenmenge als Folge davon
gesteuert werden kann, ist es möglich,
Information zu übertragen,
die eine Datenmenge hat, die mit dem Datenband und dem Verkehr des Übertragungskanals
und anderer Übertragungsumgebung
kompatibel ist. Das heißt,
dass eine umgebungs-kompatible Netzwerkübertragung durchgeführt werden
kann.
-
Zusätzlich wird
ein reduziertes Bild in das Ursprungsbild eingebettet (oder dezimierter
Ton wird in den Ursprungston eingebettet.), um dadurch die Durchführung hierarchischer
Codierung ohne Vergrößerung der
Datenmenge zu erreichen.
-
In
Ein Ursprungsbild wird ein Bild, welches als Schlüssel zum
Wiederauffinden des Ursprungsbilds verwendet wird, eingebettet.
Als Konsequenz ist es möglich,
eine Datenbank bereitzustellen, um Ursprungsbilder auf der Basis
von Bildern, die als Schlüssel
verwendet werden, wiederzugewinnen.
-
6 zeigt
ein Beispiel des Aufbaus des Einbettungscodierers 3, der
in 1 gezeigt ist, der Einbettungscodierung durch
Einbetten von Zusatzinformation in ein Bild durchführt, so
dass das codierte Bild in das Ursprungsbild decodiert werden kann,
wobei die Korrelation des Bilds verwendet wird.
-
Bilder,
welche von der Bilddatenbank 1 ausgegeben werden, werden
zu einem Rahmenspeicher 31 geliefert, in welchem die Bilder
vorübergehend
in Rahmeneinheiten gespeichert werden. Eine Zentralverarbeitungseinheit
(CPU) 32 führt
eine Einbettungscodierungsverarbeitung durch, was anschließend beschrieben
wird, indem ein Programm ausgeführt
wird, welches in einem Programmspeicher 33 gespeichert
ist. Das heißt,
die CPU 32 empfängt
jedes Bit zusätzlicher
Information von der Zusatzinformationsdatenbank 2 und bettet
die zusätzliche Ein-Bit-Information
in dem Bild ein, welches im Rahmenspeicher 31 gespeichert
ist. Insbesondere wählt die
CPU 32 einen Teil der Pixel aus, die das Bild bilden, die
im Rahmenspeicher 31 gespeichert sind, und führt eine
vorher festgelegte Verarbeitung in bezug auf die ausgewählten Pixel
gemäß der Zusatzinformation
durch, so dass das Ursprungsbild unter Verwendung der Korrelation
des Bildes reproduziert werden kann. Als Ergebnis kann die Zusatzinformation
in die ausgewählten
Pixel eingebettet werden.
-
Der
Programmspeicher 33 besteht beispielsweise aus einem Nur-Lese-Speicher
(ROM) oder aus einem Speicher mit wahlfreiem Zugriff (RAM) und speichert
ein Computerprogramm, um es der CPU 37 zu ermöglichen,
die Einbettungscodierungsverarbeitung auszuführen. Eine Ausgangsschnittstelle
(I/F) 34 liest ein Bild, in welchem eingebettete Zusatzinformation
vorhanden ist, vom Rahmenspeicher 31 und gibt dieses als
codierte Daten aus.
-
Der
Rahmenspeicher 31 besteht aus mehreren Datenbanken, so
dass mehrere Rahmen gespeichert werden können. Durch Umschalten der
Datenbanken speichert der Rahmenspeicher 31 simultan das
Bild, welches von der Bilddatenbank 1 geliefert wird, und
die Pixel des Bilds, welche durch die CPU 32 zu verarbeiten
sind. Gleichzeitig damit gibt der Rahmenspeicher 31 außerdem das
Bild aus, in welchem die eingebettete Information vorhanden ist
(codierte Daten). Mit dieser Anordnung können die codierten Daten in
Realzeit ausgegeben werden, sogar, wenn das Bild, welches von der
Bilddatenbank 1 geliefert wird, ein Bewegtbild ist.
-
Die
Einbettungscodierungsverarbeitung, welche durch den Einbettungscodierer 3 durchgeführt wird,
wird anschließend
mit Hilfe des Flussdiagramms von 7 beschrieben.
-
Bilder
werden von der Bilddatenbank 1 gelesen und zum Rahmenspeicher 31 geliefert
und hier in Rahmeneinheiten gespeichert. In der Zwischenzeit empfängt die
CPU 32 jedes Bit von Zusatzinformation von der Zusatzinformationsdatenbank 2.
Im Schritt S1 wählt beim
Empfang von zusätzlicher Ein-Bit-Information
die CPU 32 vom Rahmenspeicher 31 die Pixel aus,
in der die hinzugefügte
Information einzubetten ist (zu verarbeitende Pixel).
-
Bei
dieser Ausführungsform
werden die Pixel abwechselnd von dem Bild, welches im Rahmenspeicher 31 gespeichert
ist, gemäß einem
Schachbrettmuster ausgewählt,
wie in 8 gezeigt ist. Das heißt, jedes Mal dann, wenn die
Verarbeitung des Schritts S1 ausgeführt wird, wählt die CPU 32 nach und
nach ein Pixel ohne einen schraffierten Bereich, eines nach dem
anderen, als ein Pixel aus, welches gemäß beispielsweise dem Zeilenabtasten
zu verarbeiten ist. In 8 zeigt p(x, y) das Pixel, welches
an der x-ten Spalte von links und welches bei der y-ten Reihe vom
Kopf (das gleiche gilt für
die Pixel, die in 12 gezeigt sind) positioniert
ist.
-
Nachfolgend
bestimmt im Schritt S2 die CPU 32, ob die Zusatzinformation,
welche von der Zusatzinformationsdatenbank 2 empfangen
wird, 1 oder 0 ist. Wenn im Schritt S2 herausgefunden wird, dass die
Zusatzinformation 0 ist, kehrt die Verarbeitung zurück zum Schritt
S1. Das heißt,
wenn die Zusatzinformation 0 ist, führt die CPU 32 keine
Verarbeitung in bezug auf das ausgewählte Pixel durch (addiert 0
als vorher festgelegte Konstante), und kehrt zum Schritt S1 zurück. Im Schritt
S1 wartet die CPU 32 auf die nachfolgende zusätzliche
Ein-Bit-Information, welche von der Zusatzinformationsdatenbank 2 geliefert wird,
und wählt
ein zu verarbeitendes Pixel aus. Danach wird die Verarbeitung ähnlich der
oben erläuterten
wiederholt.
-
Wenn
im Schritt S2 bestimmt wird, dass die Zusatzinformation die 1 ist,
läuft die
Verarbeitung weiter zum Schritt S3. Im Schritt S3 führt die
CPU 32 eine vorher festgelegte Verarbeitung in bezug auf
das ausgewählte
Pixel durch, insbesondere fügt
die CPU 32 eine vorher festgelegte Konstante dem Wert des ausgewählten Pixel
hinzu, beispielsweise zwei zur Potenz des Werts, der durch Subtrahieren
von eins von der Anzahl von Pixeln erhalten wird, die dem Pixel
zugeteilt ist. Wenn beispielsweise acht Bits dem Pixel des Bilds
zugeteilt sind, wird 27 dem Wert des Pixels,
welches im Schritt S3 zu verarbeiten ist, hinzugefügt.
-
Wenn
der Pixelwert durch eine Luminanzkomponente Y und Farbkomponenten
U und V dargestellt wird, kann die oben beschriebene Hinzufügung in
bezug auf irgendeine der Komponenten Y, U und V ausgeführt werden.
Wenn der Pixelwert durch Komponenten R, G und B zeigt wird, kann
die oben beschriebene Hinzufügung
in bezug auf irgendeine der Komponenten R, G und B durchgeführt werden.
-
Im
Schritt S4 wird bestimmt, ob der Wert, der im Schritt S3 erhalten
wurde, ein Überlaufen
verursacht. Wenn das Ergebnis des Schritts S4 negativ ist, läuft die
Verarbeitung weiter zum Schritt S6, in welchem die CPU 32 den
hinzugefügten
Wert in den Rahmenspei cher 31 als Wert des Pixels, welches
zu verarbeiten ist, schreibt (überschreibt).
Die Verarbeitung kehrt dann zurück
zum Schritt S1.
-
Wenn
im Schritt S4 herausgefunden wird, dass der hinzugefügte Wert
einen Überlauf
verursacht, d.h., dass der Wert 28 oder
größer ist,
läuft die Verarbeitung
weiter zum Schritt S5, in welchem der hinzugefügte Wert korrigiert wird. Das
heißt,
im Schritt S5 wird der Überlaufwert
korrigiert, beispielsweise durch einen Betrag gleich dem übergelaufenen Wert
(in bezug auf den Wert, der durch Subtrahieren von 28 vom übergelaufenen
hinzugefügten
Wert erhalten wird). Die Verarbeitung läuft dann weiter zum Schritt
S6, in welchem die CPU 32 den korrigierten Wert in den
Rahmenspeicher 31 als den Wert des Pixels, welches zu verarbeiten
ist, schreibt, und auf eine nachfolgende zusätzliche Ein-Bit-Information wartet,
welche von der Zusatzinformationsdatenbank 2 geliefert
wird.
-
Nachdem
das Bild für
einen Rahmen, der im Rahmenspeicher 31 gespeichert ist,
verarbeitet wurde, liest die Ausgangs-I/F 34 das Ein-Rahmen-Bild (in
welchem die Zusatzinformation eingebettet ist) als codierte Daten,
und die CPU 32 fährt
damit fort, die Verarbeitung in bezug auf ein nachfolgendes Ein-Rahmen-Bild
durchzuführen,
welches im Rahmenspeicher 31 gespeichert ist.
-
Wie
oben beschrieben wird ein Teil der Pixel, die das Bild bilden, welches
im Rahmenspeicher 31 gespeichert ist, ausgewählt, und
die Verarbeitung entsprechend der Zusatzinformation wird in bezug auf
die ausgewählte
Pixel durchgeführt,
so dass das Ursprungsbild unter Verwendung der Korrelation des Bilds
decodiert werden kann, um dadurch die Zusatzinformation in die ausgewählten Pixel
einzubetten. Mit dieser Anordnung kann die Zusatzinformation in das
Bild mit einem minimalen Verlust der Bildqualität eingebettet werden, ohne
die Datenmenge zu erhöhen.
-
Das
heißt,
die Pixel, in welche die Zusatzinformation eingebettet wurde, können zu
Ursprungspixeln und in die Zusatzinformation decodiert (wiederhergestellt)
werden, ohne Zusatzaufwand erforderlich zu machen, indem die Korrelation
des Bilds genutzt wird, d.h., die Korrelation zwischen den Pixeln mit
der Zusatzinformation und den Pixeln ohne die Zusatzinformation.
Folglich ist das resultierende decodierte Bild (Wiedergabebild)
grundsätzlich
frei von einer Verschlechterung der Bildqualität, welche durch Einbetten der
Zusatzinformation verursacht wird.
-
9 zeigt
ein Beispiel des Aufbaus des Einbettungsdecoders 6, der
in 1 gezeigt ist, der decodierten Daten, welche vom
Einbettungscodierer 3 ausgegeben werden, der in 6 gezeigt
ist, in das Ursprungsbild und in die Zusatzinformation unter Verwendung
der Korrelation des Bilds decodiert.
-
Die
codierten Daten, d.h., das Bild, in welches die Zusatzinformation
eingebettet wurde (anschließend
manchmal als "Einbettungsbild" bezeichnet), werden
zu einem Rahmenspeicher 41 geliefert. Im Rahmenspeicher 41 werden
vorübergehend
die eingebetteten Bilder in Rahmeneinheiten gespeichert. Der Rahmenspeicher 41 ist ähnlich wie
der Rahmenspeicher 31 aufgebaut, der in 6 gezeigt ist,
und durch Ändern
der Datenbänke
können
die eingebetteten Bilder in Realzeit verarbeitet werden, sogar wenn
die Bilder Bewegtbilder sind. Eine Ausgangsschnittstelle (I/F) 42 liest
ein Bild (decodiertes Bild), welches durch Durchführen einer
Einbettungsdecodierverarbeitung durch eine CPU 43 erhalten wird,
was später
erläutert
wird, und gibt das decodierte Bild aus.
-
Die
CPU 43 führt
die Einbettungsdecodierverarbeitung durch Ausführen eines Programms durch,
welches in einem Programmspeicher 44 gespeichert ist. Das
heißt,
die CPU 43 decodiert das eingebettete Bild, welches im
Rahmenspeicher 41 gespeichert ist, in das Ursprungsbild
und in die Zusatzinformation unter Verwendung der Korrelation des
Bilds. Insbesondere wählt
die CPU 43 einen Teil der Pixel aus, welche das eingebettete
Bild bilden, als Pixel, die zu verarbeiten sind, und führt die
Verarbeitung entgegengesetzt zu der Verarbeitung, welche durch die
CPU 32 ausgeführt
wird, die in 6 gezeigt ist, wie in 10 gezeigt
ist, in bezug auf das ausgewählte
Pixel durch, wodurch der Pixelwert geändert wird. Die CPU 32 berechnet
dann einen Korrelationswert R1 (erste Korrelation)
zwischen dem zu verarbeitenden Pixel, bevor der Pixelwert geändert wird,
und den peripheren Pixeln (die horizontal benachbart zum zu verarbeitenden
Pixel bei der in 10 gezeigten Ausführungsform
sind), und berechnet außerdem
einen Korrelationswert R2 (zweite Korrelation)
zwischen dem zu verarbeitenden Pixel, nachdem der Pixeiwert geändert wurde,
und den peripheren Pixeln. Danach vergleicht die CPU 32 den Korrelationswert
R1 mit dem Korrelationswert R2.
Auf der Basis des Vergleichsergebnisses wählt die CPU 43 einen
der Pixelwerte aus, bevor geändert
wird und nachdem geändert
wurde und bestimmt den ausgewählten
Wert als decodierten Wert und decodiert außerdem die Zusatzinformation,
welche im decodierten Bild eingebettet ist (1 oder 0).
-
Der
Programmspeicher 43 ist ähnlich wie der Programmspeicher 33,
der in 6 gezeigt ist, aufgebaut, wobei in diesem ein
Computerprogramm gespeichert ist, um es einer CPU 43 zu
ermöglichen,
die Einbettungsdecodierverarbeitung durchzuführen.
-
Die
Einbettungsdecodierverarbeitung, welche durch den Einbettungsdecoder 6 durchgeführt wird,
wird anschließend
mit Hilfe des Flussdiagramms von 11 erläutert.
-
Einbettungsbilder
werden nacheinander in Rahmeneinheiten im Rahmenspeicher 41 gespeichert.
Im Schritt S11 wählt
die CPU 43 die zu decodierenden Pixel (Pixel, welche zu verarbeiten
ist) von einem Einbettungsbild aus, welches im Rahmenspeicher 41 gespeichert
ist.
-
Wie
im Fall der CPU 32, welche in 6 gezeigt
ist, wählt
die CPU 43 abwechselnd Pixel vom Einbettungsbild, welches
im Rahmenspeicher 41 gespeichert ist, gemäß einem
Schachbrettmuster aus, wie in 8 gezeigt
ist. Das heißt,
jedes Mal, wenn die Verarbeitung des Schritts S11 ausgeführt wird, wählt die
CPU 43 nacheinander ein Pixel ohne einen schraffierten
Bereich in 8 und zwar nacheinander, wie
ein zu verarbeitendes Pixel gemäß beispielsweise
einem Zeilenabtasten aus.
-
Im
Schritt S12 führt
die CPU 43 eine Verarbeitung in bezug auf das Pixel entgegengesetzt
zur Verarbeitung durch, die durch die CPU 32, wie in 6 gezeigt
ist, durchgeführt
wird. Das heißt,
die CPU 43 subtrahiert eine vorher festgelegte Konstante
vom Pixelwert, d.h., zwei zur Potenz des Werts, der durch Subtrahieren
von einem von der Anzahl von Bits erhalten wird, die dem Pixel des
Bilds zugeteilt sind. Beispielsweise, wenn acht Bits dem Pixelwert
zugeteilt sind, wie oben ausgeführt,
wird 27 vom Wert des Pixels, welches im
Schritt S12 zu verarbeiten ist, subtrahiert.
-
Wenn
der Pixelwert durch eine Luminanzkomponente Y und die Farbkomponenten
U und V dargestellt wird, kann die oben beschriebene Subtraktion
für eine
beliebige der Komponenten Y, U und V ausgeführt werden. Wenn der Pixelwert
durch Komponenten R, G und B angedeutet ist, kann die oben beschriebene
Subtraktion in bezug auf eine der Komponenten R, G und B durchgeführt werden.
Es ist jedoch notwendig, dass die Subtraktion im Schritt S12 in
bezug auf die gleiche Komponentenart durchgeführt werden sollte, wie bei
der, bei der die Addition im Schritt S3 von 7 durchgeführt wurde.
Wenn insbesondere der Pixelwert beispielsweise durch Y, U und V
dargestellt wird, und die Hinzufügung
im Schritt S3 von 7 beispielsweise in bezug auf
die Y-Komponente durchgeführt
wurde, sollte die Subtraktion auch bezüglich der Y-Komponente im Schritt
S12 ausgeführt
werden.
-
Nachdem
27 vom Pixelwert im Schritt S12 subtrahiert
wurden, läuft
die Verarbeitung weiter zum Schritt S13, in welchem bestimmt wird,
ob der Subtrahierwert einen Unterlauf verursacht. Wenn das Ergebnis
des Schritt S13 negativ ist, überspringt
die Verarbeitung den Schritt S14 und läuft weiter zum Schritt S15.
-
Wenn
dagegen im Schritt S13 herausgefunden wird, dass der subtrahierte
Wert einen Unterlauf verursacht, d.h., dass der subtrahierte Wert
kleiner als 0 ist, läuft
die Verarbeitung weiter zum Schritt S14, in welchem der subtrahierte
Wert korrigiert wird. Das heißt,
im Schritt S14 wird der unterlaufende subtrahierte Wert auf beispielsweise
den Wert korrigiert, der durch Hinzufügen von 28 zum
subtrahierten Wert erhalten wurde. Die Verarbeitung läuft dann
weiter zum Schritt S15.
-
Im
Schritt S15 berechnet die CPU 43 einen Korrelationswert
R1 zwischen dem Pixelwert P1 (dem Wert,
von dem 27 im Schritt S12 nicht subtrahiert
wurde, hier manchmal als "erster
Pixelwert" bezeichnet) und
peripheren Pixeln, beispielsweise Pixeln, die dem Pixel P1 horizontal benachbart sind. Die CPU 43 berechnet
außerdem
einen Korrelationswert R2 zwischen dem subtrahierten
Pixelwert P2 (der im Schritt S14 korrigiert
wurde, hier manchmal als "zweiter
Pixelwert" bezeichnet)
und peripheren Pixeln, beispielsweise Pixeln, die horizontal dem
Pixel P2 benachbart sind.
-
Insbesondere
wird im Schritt S15 ein Absolutwert der Differenz zwischen dem ersten
Pixelwert P1 und allen benachbarten Pixelwerten
berechnet, und die beiden Absolutwerte werden addiert. Der resultierende
Wert wird dann so bestimmt, der Korrelationswert R1 zu
sein, in bezug auf den ersten Pixelwert P1.
Im Schritt S15 wird ebenfalls ein Absolutwert der Differenz zwischen
dem zweiten Pixelwert und P2 und allen benachbarten
Pixelwerten berechnet, und die beiden Absolutwerte werden addiert.
Der resultierende Wert wird dann dazu bestimmt, der Korrelationswert
R2 in bezug auf den zweiten Pixelwert P2 zu sein.
-
Im
Schritt S15 sind die Pixel, die dazu verwendet werden, die Korrelationswerte
R1 und R2 zu erhalten,
nicht auf die Pixel beschränkt,
welche dem Pixel P1 oder P2 benachbart
sind, oder können
Pixel sein, die dem Pixel P1 oder P2 vertikal benachbart sind, oder Pixel sein,
welche vorübergehend
dem Pixel P1 oder P2 benachbart
sind. Es ist notwendig, dass die Pixel, um die Korrelationswerte
R1 und R2 zu erhalten,
räumlich
oder zeitlich benachbart sind. Es ist jedoch wünschenswert, dass die Pixel,
die durch schraffierte Bereiche in 8 angedeutet
sind, d.h., Pixel ohne eingebettete Zusatzinformation, dazu verwendet
werden, die Korrelationswerte R1 und R2 in bezug auf die Pixel P1 bzw.
P2 zu bestimmen. Der Grund dafür ist wie
folgt. Sogar, wenn der Korrelationswert zwischen dem Pixel P1 oder P2 und den
Pixeln, in denen Information eingebettet ist, erhalten wird, kann
die Korrelation des Pixels P1 oder P2 zum Ursprungsbild nicht erworben werden,
was es unmöglich
macht, das Prinzip der Korrelation des Bilds zu nutzen. Es ist somit
schwierig, die ursprünglichen Pixelwerte
und die Zusatzinformation von den Pixeln, in denen die Zusatzinformation
eingebettet ist, korrekt zu decodieren. Da außerdem das Pixel P1 oder P2 unter Verwendung der Korrelation des Bilds
decodiert wird, ist es vorteilhaft, dass die Pixel, die dazu verwendet
werden, die Korrelationswerte R1 und R2 zu erhalten, räumlich oder zeitlich benachbart
zum Pixel P1 oder P2 positioniert
sind.
-
Danach
läuft nach
Berechnen der Korrelationswerte R1 und R2 die Verarbeitung weiter zum Schritt S16,
in welchem die CPU 43 die Korrelationswerte R1 und
R2 vergleicht.
-
Wenn
im Schritt S16 bestimmt wird, dass der Korrelationswert R1 größer ist
als der Korrelationswert R2, läuft die
Verarbeitung weiter zum Schritt S17. Im Schritt S17 gibt die CPU 43 die
0 als decodierte Zusatzinformation aus, und kehrt zum Schritt S11
zurück.
In diesem Fall wird der Wert, der im Speicher 41 gespeichert
ist, nicht überschrieben,
und somit bleibt der decodierte Pixelwert der gleiche wie der Pixelwert P1.
-
Insbesondere
wurde im Schritt S16 bestimmt, dass der Korrelationswert R1, welcher den ersten Pixelwert P1 betrifft, größer ist als der Korrelationswert
R2, der den zweiten Pixelwert P2 betrifft.
Es wird somit gezeigt, dass das zu decodierende Pixel genauer durch
den Pixelwert P1 als durch den Pixelwert
P2 dargestellt werden kann, und der Pixelwert
P1 wird dann dazu bestimmt, der decodierte
Pixelwert zu sein. Da 27 nicht vom Pixelwert
P1 im Schritt S12 subtrahiert wird, wird
in betracht gezogen, dass 27 nicht im Schritt
S3 von 7 hinzugefügt
wurde. Bei der in 7 gezeigten Einbettungscodierungsverarbeitung wird
bestimmt, dass 27 nicht hinzugefügt wird,
wenn die Zusatzinformation die 0 zeigt. Wenn somit der Korrelationswert
R1, der den ersten Pixelwert P1 betrifft,
größer ist
als der Korrelationswert R2, der den zweiten
Pixelwert P2 betrifft, und wenn es wahrscheinlich
ist, dass der Pixelwert P1 vorzugsweise
als der Pixelwert P2 dazu bestimmt wird,
der zu decodierende Pixelwert zu sein, ist die Zusatzinformation,
die in das entsprechende Pixel eingebettet ist, die 0.
-
Wenn
im Schritt S16 bestimmt wird, dass der Korrelationswert R2 gleich oder größer als der Korrelationswert
R1 ist, läuft die Verarbeitung weiter
zum Schritt S18. Im Schritt S18 überschreibt
die CPU 43 den Pixelwert, der im Rahmenspeicher 41 gespeichert
ist, mit dem Wert, der durch Subtrahieren von 27 vom
Pixelwert erhalten wird, d.h., mit dem zweiten Pixelwert P2. In diesem Fall wird daher der Pixelwert
P2 dazu bestimmt, der decodierte Pixelwert
zu sein. Die Verarbeitung läuft
dann weiter zum Schritt S19, in welchem die CPU 43 die
1 als decodierte Zusatzinformation ausgibt. Die Verarbeitung kehrt
dann zurück
zum Schritt S11.
-
Insbesondere
wurde im Schritt S16 bestimmt, dass der Korrelationswert R2, der den zweiten Pixelwert P2 betrifft,
gleich oder größer als
der Korrelationswert R1 ist, der den ersten
Pixelwert P1 betrifft. Es wird somit gezeigt,
dass das zu decodierende Pixel genauer durch den Pixelwert P2 als durch den Pixelwert P1 dargestellt
werden kann. Folglich wird der Pixelwert P2 dazu
bestimmt, der decodierte Pixelwert zu sein. Da 27 vom
Pixelwert P2 im Schritt S12 abgezogen wird,
kann in betracht gezogen werden, dass 27 im
Schritt S3 von 7 hinzugefügt wurde. Bei der Einbettungscodierungsverarbeitung, welche
in 7 gezeigt ist, wird bestimmt, dass 27 hinzugefügt wurde,
wenn die Zusatzinformation 1 anzeigt. Wenn somit der Korrelationswert
R2, der den zweiten Pixelwert P2 betrifft,
gleich oder größer als der
Korrelationswert R1 ist, der den ersten
Pixelwert P1 betrifft, und wenn es wahrscheinlich
ist, dass der Pixelwert P2 dazu bestimmt
wird, der zu decodierende Pixelwert zu sein, beträgt die Zusatzinformation, die
in das entsprechende Pixel eingebettet ist, 1.
-
Wenn
die Differenz zwischen den Korrelationswerten R1 und
R2, die wie oben beschrieben erhalten werden,
klein ist, ist es nicht möglich,
eindeutig zu bestimmen, welcher Korrelationswert R1 oder
R2 genauer als Pixelwert, der zu decodieren
ist, verwendet werden kann. Folglich können in diesem Fall nicht nur
horizontal benachbarte Pixel, sondern auch andere Pixel dazu verwendet
werden, die Korrelationswerte R1 und R2 in bezug auf die Pixelwerte P1 bzw. P2 zu erhalten. Die Korrelationswerte R1 und R2 können dann
verglichen werden, um dadurch zu bestimmen, welcher Korrelationswert
R1 oder R2 genauer als
decodiertes Pixel verwendet werden kann.
-
Gemäß der obigen
Beschreibung werden die codierten Daten, die ein Bild darstellen,
in welches Zusatzinformation eingebettet ist, zu dem Ursprungsbild
und zur Zusatzinformation decodiert werden, wobei die Korrelation
des Bilds verwendet wird, wodurch ein Decodierbetrieb erreicht wird,
ohne das Erfordernis des Zusatzaufwandes zum Decodieren. Folglich ist
das decodierte Bild (reproduzierte Bild) grundsätzlich frei von der Verschlechterung
der Bildqualität, was
durch Einbetten der Information in das Ursprungsbild verursacht
wird.
-
Obwohl
bei dieser Ausführungsform
ein Absolutwert der Differenz zwischen dem zu verarbeitenden Pixel
und einem anderen Pixel als Korrelationswert zwischen diesen Pixeln
verwendet wird, ist der Korrelationswert nicht auf den Absolutwert
beschränkt,
der wie oben beschrieben erhalten wird.
-
Bei
dieser Ausführungsform
werden Pixel abwechselnd von dem Bild gemäß einem Schachbrettmuster ausgewählt, wie
in 8 gezeigt ist, und die Zusatzinformation ist in
den ausgewählten
Pixeln eingebettet. Die Pixel können
jedoch in einem Muster ausgewählt
werden, welches gegenüber
dem obigen verschieden ist. Wie oben ausgeführt werden jedoch beim Decodieren
der Pixel, in denen die Zusatzinformation eingebettet ist, Pixel
ohne eingebettete Zusatzinformation vorteilhaft ausgewählt, um
die Korrelation zu erhalten. Die Korrelation zwischen den Pixeln
wird kleiner, wenn die Pixel räumlich
oder zeitlich weiter voneinander entfernt sind. Folglich sollten
im Hinblick auf das Erzielen einer genauen Decodierung die Pixel,
in welche die Zusatzinformation eingebettet ist, räumlich oder
zeitlich spärlich
ausgewählt
werden. Um eine größere Menge
Zusatzinformation einzubetten, d.h., für das vergrö ßerte Kompressionsverhältnis, sollte
die Anzahl von Pixeln, die auszuwählen ist, bis zu einem gewissen
Grad erhöht
werden, um darin die Zusatzinformation einzubetten. Es ist somit wünschenswert,
dass die Pixel zum Einbetten der Zusatzinformation ausgewählt werden,
wobei ein guter Ausgleich zwischen genauer Decodierung und einem
beträchtlich
hohen Kompressionsverhältnis
in betracht gezogen wird.
-
Bei
dieser Ausführungsform
ist eine zusätzliche
Ein-Bit-Information in ein Pixel eingebettet, welches als zu verarbeitendes
Pixel ausgewählt
wird. Die Zusatzinformation, die zwei Bits oder mehr hat, in einem
Pixel eingebettet sein. Wenn beispielsweise die Zwei-Bit-Zusatzinformation
in ein Pixel eingebettet ist, kann eines von 0, 26,
27 und 26 + 27 dem Pixelwert hinzugefügt werden, entsprechend der Zwei-Bit-Zusatzinformation.
-
Bei
der obigen Ausführungsform
wird die Zusatzinformation unter Hinzufügung von 0 oder 27 zum Pixelwert
eingebettet (anders ausgedrückt
durch Hinzufügen
von 27 oder durch Nichthinzufügen von
27). Der dem Pixelwert hinzufügende Wert
ist nicht auf 27 beschränkt. Wenn jedoch ein Wert,
der einen Einfluss auf lediglich die unteren Bits des Pixelwerts
hinzugefügt
wird, erzeugt werden kann, wird der resultierende hinzugefügte Pixelwert
nicht wesentlich verschieden vom ursprünglichen Pixelwert. Somit wird kein
wesentlicher Unterschied zwischen den Korrelationswerten R1 und R2, welche
im Schritt S15 von 11 erhalten werden, beobachtet.
Dies mindert die Genauigkeit des decodierten Pixelwerts und der decodierten
Zusatzinformation. Es ist somit wünschenswert, dass der dem Pixelwert
hinzuzufügende Wert
gemäß der Zusatzinformation
ein Wert ist, der einen Einfluss auf die oberen Bits des ursprünglichen Pixelwerts
erzeugen kann.
-
Gemäß der obigen
Ausführungsform
ist die Zusatzinformation durch Hinzufügen eines vorher festgelegten
Werts zum Pixelwert eingebettet. Die Zusatzinformation kann jedoch
durch Durchführen
einer Operation in bezug auf den Pixelwert an anders als die Hinzufügung (beispielsweise
durch Bitumkehrung) eingebettet werden. Wie oben erläutert sollte im
Hinblick auf das Aufrechterhalten der Qualität des decodierten Pixelwerts
und der decodierten Zusatzinformation der Betrieb so festgelegt
werden, dass ein signifikanter Unterschied erzeugt werden kann, zwischen
dem Korrelationswert, der den ursprünglichen Pixelwert betrifft,
und dem Korrelationswert, der den Pixelwert betrifft, der erhalten
wird, nachdem der entsprechende Betrieb durchgeführt wird.
-
Bei
der obigen Ausführungsform
ist eine Ein-Bit-Zusatzinformation in ein Pixel eingebettet. Die
Ein-Bit-Zusatzinformation kann jedoch in mehrere Pixel eingebettet
sein, beispielsweise in vier Bits, die durch die mit Kreisen versehenen
Pixel, die in 12 gezeigt sind, angezeigt werden.
-
Insbesondere
sein nun angenommen, dass die Ein-Bit-Zusatzinformation in die vier
Pixel p(1, 4), p(5, 4), p(1, 8) und p(5, 8) eingebettet ist, wie
in 12 gezeigt ist. Im Codierbetrieb wird der gleiche Betrieb
in bezug auf alle Pixel p(1, 4), p(5, 4), p(1, 8) und p(5, 8) gemäß der Zusatzinformation
durchgeführt,
wodurch die Ein-Bit-Zusatzinformation in die vier Pixel eingebettet
wird. Beim Codierbetrieb werden der oben erläuterte Korrelationswert R1, der den ersten Pixelwert P1 betrifft,
und der Korrelationswert R2, der den zweiten
Pixel P2 betrifft, in bezug auf alle Pixel
p(1, 4), p(5, 4), p(1, 8) und p(5, 8) berechnet. Dann werden der
Korrelationswert R1 und der Korrelationswert
R2 verglichen. Beim Vergleich werden die größeren Pixelwerte
dazu bestimmt, die decodierten Pixelwerte p(1, 4), p(5, 4), p(1,
8) und p(5, 8) und die decodierte Zusatzinformation zu sein. Alternativ
kann die Summe der Korrelationswerte R1,
welche die ersten Pixelwerte P1 betrifft,
und die Summe der Korrelationswerte R2,
welche die zweiten Pixelwerte P2 in bezug
auf alle Pixelwerte p(1, 4), p(5, 4), p(1, 8) und p(5, 8) betreffen,
erhalten werden, und bei einem Vergleich der beiden Summen kann
die größere Summe dazu
bestimmt werden, die decodierten Pixelwerte p(1, 4), p(5, 4), p(1,
8) und p(5, 8) und die decodierte Zusatzinformation zu sein.
-
Wenn
Pixel alternativ von dem Bild gemäß dem Schachbrettmuster ausgewählt werden,
wie in 8 gezeigt ist, und die Ein-Bit-Zusatzinformation in
alle ausgewählten
Pixel eingebettet ist, kann die Zusatzinformation, welche die Anzahl
von Pixeln ungefähr
die Hälfte
der Anzahl von Pixeln des Bilds hat, eingebettet werden. Wenn jedoch
die Ein-Bit-Zusatzinformation in vier Bits eingebettet ist, wird,
wie oben erläutert,
wird die Anzahl von Bits der Zusatzinformation, welche in die ausgewählten Pixel
eingebettet werden sollen, auf ein achtel der Anzahl der Pixel des Bilds
reduziert.
-
Die
Informationsart, die als Zusatzinformation verwendet wird, ist nicht
besonders beschränkt, sondern
sie kann ein Bild, ein Ton, Text, ein Computerprogramm oder andere
Datenarten sein. Die Bilddatenbank 1 kann Bilder enthalten,
welche zum Rahmenspeicher 31 geliefert werden, sowie Zusatzinformation.
Mit dieser Anordnung kann die Zusatzinformation in das Bild eingebettet
werden, wodurch die Kompression des Bilds erreicht wird.
-
Gemäß der obigen
Ausführungsform
werden die Einbettungscodierverarbeitung und die Einbettungsdecodierverarbeitung
durch Ausführen
der Computerprogramme durch die CPU 32 bzw. 43 durchgeführt. Die
Einbettungscodierverarbeitung oder die Einbettungsdecodierverarbeitung
kann jedoch auch unter Verwendung von Hardware durchgeführt werden,
die ausschließlich
für die
entsprechende Verarbeitung verwendet wird.
-
Bei
der obigen Ausführungsform
sind die Computerprogramme, welche durch die CPU 32 und 43 ausgeführt werden,
im Programmspeicher 33 bzw. im Programmspeicher 44 gespeichert.
Das Computerprogramm kann über
einen Aufzeichnungsträger
bereitgestellt werden, beispielsweise ein Magnetband, eine Magnetplatte,
eine optische Platte, eine magneto-optische Platte oder eine PD-Platte oder
ein Übertragungsträger, beispielsweise
das Internet, ein terrestrisches Rundfunksignal, ein Satelliten-Rundfunksignal,
ein öffentliches
Netz oder ein CATV-Netz.
-
Insoweit
die Ausführungsformen
der Erfindung, die oben beschrieben wurden, zumindest teilweise
ausgeführt
werden, wobei ein software-gesteuertes Datenverarbeitungsgerät verwendet
wird, soll verstanden sein, dass ein Computerprogramm, welches eine
derartige Software-Steuerung bereitstellt, und ein Speicherträger, durch
den ein derartiges Computerprogramm gespeichert wird, als Merkmal
der vorliegenden Erfindung in betracht gezogen werden.