DE69922453T2 - Bildverarbeitungsgerät, Bildverarbeitungsverfahren und Herstellungsmedia - Google Patents

Bildverarbeitungsgerät, Bildverarbeitungsverfahren und Herstellungsmedia Download PDF

Info

Publication number
DE69922453T2
DE69922453T2 DE69922453T DE69922453T DE69922453T2 DE 69922453 T2 DE69922453 T2 DE 69922453T2 DE 69922453 T DE69922453 T DE 69922453T DE 69922453 T DE69922453 T DE 69922453T DE 69922453 T2 DE69922453 T2 DE 69922453T2
Authority
DE
Germany
Prior art keywords
image
pixel
information
processing
correlation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69922453T
Other languages
English (en)
Other versions
DE69922453D1 (de
Inventor
Tetsujiro Shinagawa-ku Kondo
Kenji Shinagawa-ku Tanaka
Yoshinori Shinagawa-ku Watanabe
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of DE69922453D1 publication Critical patent/DE69922453D1/de
Application granted granted Critical
Publication of DE69922453T2 publication Critical patent/DE69922453T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0021Image watermarking
    • G06T1/0028Adaptive watermarking, e.g. Human Visual System [HVS]-based watermarking
    • G06T1/0035Output size adaptive watermarking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0021Image watermarking
    • G06T1/0028Adaptive watermarking, e.g. Human Visual System [HVS]-based watermarking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N1/32101Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N1/32144Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title embedded in the image data, i.e. enclosed or integrated in the image, e.g. watermark, super-imposed logo or stamp
    • H04N1/32149Methods relating to embedding, encoding, decoding, detection or retrieval operations
    • H04N1/32203Spatial or amplitude domain methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N1/32101Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N1/32144Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title embedded in the image data, i.e. enclosed or integrated in the image, e.g. watermark, super-imposed logo or stamp
    • H04N1/32149Methods relating to embedding, encoding, decoding, detection or retrieval operations
    • H04N1/32203Spatial or amplitude domain methods
    • H04N1/32208Spatial or amplitude domain methods involving changing the magnitude of selected pixels, e.g. overlay of information or super-imposition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N1/32101Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N1/32144Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title embedded in the image data, i.e. enclosed or integrated in the image, e.g. watermark, super-imposed logo or stamp
    • H04N1/32149Methods relating to embedding, encoding, decoding, detection or retrieval operations
    • H04N1/32203Spatial or amplitude domain methods
    • H04N1/32229Spatial or amplitude domain methods with selective or adaptive application of the additional information, e.g. in selected regions of the image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N1/32101Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N1/32144Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title embedded in the image data, i.e. enclosed or integrated in the image, e.g. watermark, super-imposed logo or stamp
    • H04N1/32149Methods relating to embedding, encoding, decoding, detection or retrieval operations
    • H04N1/32203Spatial or amplitude domain methods
    • H04N1/32251Spatial or amplitude domain methods in multilevel data, e.g. greyscale or continuous tone data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N1/32101Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N1/32144Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title embedded in the image data, i.e. enclosed or integrated in the image, e.g. watermark, super-imposed logo or stamp
    • H04N1/32149Methods relating to embedding, encoding, decoding, detection or retrieval operations
    • H04N1/32267Methods relating to embedding, encoding, decoding, detection or retrieval operations combined with processing of the image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N1/32101Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N1/32144Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title embedded in the image data, i.e. enclosed or integrated in the image, e.g. watermark, super-imposed logo or stamp
    • H04N1/32149Methods relating to embedding, encoding, decoding, detection or retrieval operations
    • H04N1/32347Reversible embedding, i.e. lossless, invertible, erasable, removable or distorsion-free embedding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2201/00General purpose image data processing
    • G06T2201/005Image watermarking
    • G06T2201/0051Embedding of the watermark in the spatial domain
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2201/00General purpose image data processing
    • G06T2201/005Image watermarking
    • G06T2201/0083Image watermarking whereby only watermarked image required at decoder, e.g. source-based, blind, oblivious
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2201/00General purpose image data processing
    • G06T2201/005Image watermarking
    • G06T2201/0203Image watermarking whereby the image with embedded watermark is reverted to the original condition before embedding, e.g. lossless, distortion-free or invertible watermarking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N2201/3201Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N2201/3225Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title of data relating to an image, a page or a document
    • H04N2201/3233Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title of data relating to an image, a page or a document of authentication information, e.g. digital signature, watermark
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N2201/3201Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N2201/3269Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title of machine readable codes or marks, e.g. bar codes or glyphs
    • H04N2201/327Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title of machine readable codes or marks, e.g. bar codes or glyphs which are undetectable to the naked eye, e.g. embedded codes

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Image Processing (AREA)
  • Television Signal Processing For Recording (AREA)
  • Color Television Systems (AREA)
  • Television Systems (AREA)

Description

  • Die vorliegende Erfindung bezieht sich auf Bildverarbeitungsgeräte, Bildverarbeitungsverfahren und Aufzeichnungsträger. Insbesondere bezieht sich die Erfindung auf ein Bildverarbeitungsgerät und ein Bildverarbeitungsverfahren, bei dem Information in ein Bild mit einem minimalen Verschlechterungsgrad der Qualität reproduzierter Bilder und ohne die Datenmenge zu vergrößern eingebettet werden kann.
  • Eines der Verfahren, Information einzubetten, ohne die Datenmenge zu vergrößern, besteht darin, das niedrigwertigste Bit (LSB) oder die unteren zwei Bits von beispielsweise digitalen Audiodaten in Information, die einzubetten ist, umzusetzen. Bei diesem Verfahren werden die unteren Bits von digitalen Audiodaten, die die Tonqualität nicht wesentlich beeinflussen, einfach durch die Information, die einzubetten ist, ersetzt. Wenn folglich die digitalen Audiodaten reproduziert werden, werden sie unverändert ausgegeben, ohne die unteren Bits in den Ursprungszustand zurückzubringen. Da es insbesondere schwierig ist, die unteren Bits, in welche Information eingebettet, im Ursprungszustand wiederherzustellen, und außerdem, da die unteren Bits die Tonqualität nicht wirksam beeinflussen, werden die digitalen Audiodaten ausgegeben, wobei sie die Information, die darin eingebettet ist, enthalten.
  • Gemäß dem oben beschriebenen Verfahren wird jedoch ein Signal, welches gegenüber dem Ursprungssignal verschieden ist, unvorteilhaft ausgegeben, was bis zu einem bestimmten Grad die Tonqualität beeinträchtigt, wenn das Signal Audiodaten sind, oder die Bildqualität beeinflusst, wenn das Signal Videodaten sind.
  • Im Hinblick auf den obigen technischen Hintergrund ist es folglich eine Aufgabe der vorliegenden Erfindung, Information in ein Bild mit einem reduzierten Verschlechterungsgrad der Bildqualität und ohne die Datenmenge zu vergrößern einzubetten.
  • Um die obige Aufgabe zu lösen, wird gemäß einem Merkmal der vorliegenden Erfindung ein Bildverarbeitungsgerät bereitgestellt, um eine Verarbeitung zum Einbetten von Information in ein Bild durchzuführen. Das Gerät besitzt eine Auswahleinrichtung, um ein Pixel des Bilds auszuwählen. Die Verarbeitungseinrichtung führt eine Verarbeitung bezüglich des Pixels, welches durch die Auswahleinrichtung ausgewählt wurde, gemäß der Information durch, so dass das Pixel unter Verwendung einer Korrelation des Bilds reproduzierbar ist, wodurch die Information in das Pixel eingebettet wird.
  • Gemäß einem anderen Merkmal der vorliegenden Erfindung wird ein Bildverarbeitungsverfahren bereitgestellt, um eine Verarbeitung zum Einbetten von Information in ein Bild durchzuführen. Das Verfahren weist einen Auswahlschritt auf, um ein Pixel des Bilds auszuwählen, und einen Verarbeitungsschritt, um eine Verarbeitung in bezug auf das Pixel, welches im Auswahlschritt ausgewählt wurde, gemäß der Information durchzuführen, so dass das Pixel unter Verwendung einer Korrelation des Bilds reproduzierbar ist, wodurch die Information in das Pixel eingebettet wird.
  • Gemäß einem noch weiteren Merkmal der vorliegenden Erfindung wird ein Träger (Medium) bereitgestellt, um ein Computerprogramm zu liefern, um einen Computer in die Lage zu versetzen, eine Verarbeitung zum Einbetten von Information in ein Bild durchzuführen. Das Computerprogramm weist einen Auswahlschritt auf, um ein Pixel des Bilds auszuwählen, und einen Verarbeitungsschritt, um eine Verarbeitung in bezug auf das Pixel, welches im Auswahlschritt ausgewählt wurde, gemäß der Information durchzuführen, so dass das Pixel unter Verwendung einer Korrelation des Bilds reproduzierbar ist, wodurch die Information in das Pixel eingebettet ist.
  • Gemäß einem weiteren Merkmal der vorliegenden Erfindung wird ein Bereitstellungsträger bereitgestellt, um ein Bild, in welches Information eingebettet ist, bereitzustellen. Das Bild, in welches Information eingebettet ist, wird durch Einbetten der Information in das Bild erhalten, wobei ein Pixel des Bilds ausgewählt wird, und wobei eine Verarbeitung in bezug auf das ausgewählte Pixel gemäß der Information durchgeführt wird, so dass das Bild unter Verwendung einer Korrelation des Bilds reproduzierbar ist.
  • Gemäß einem weiteren Merkmal der vorliegenden Erfindung wird ein Bildverarbeitungsgerät bereitgestellt, welches einen Übertrager aufweist, um ein Bild, in welches Information eingebettet ist, zu übertragen, welches durch Einbetten von Information erhalten wird, und einen Empfänger, um ein Bild, in welches Information eingebettet ist, vom Übertrager zu empfangen und um das Bild zu decodieren. Der Übertrager weist eine erste Auswahleinrichtung auf, um ein Pixel des Bilds auszuwählen. Die erste Verarbeitungseinrichtung führt eine Verarbeitung in bezug auf das Pixel, welches durch die erste Auswahleinrichtung ausgewählt wurde, gemäß der Information durch, so dass das Pixel unter Verwendung einer Korrelation des Bilds reproduzierbar ist, um dadurch die Information im Pixel einzubetten und das Bild, in welches Information eingebettet ist, auszugeben. Der Empfänger weist eine zweite Auswahleinrichtung auf, um ein Pixel des Bilds, in welches Information eingebettet ist, auszuwählen. Die zweite Verarbeitungseinrichtung führt eine vorher festgelegte Verarbeitung in bezug auf das Pixel durch, welches durch die zweite Auswahleinrichtung ausgewählt wurde. Eine Korrelationsberechnungseinrichtung berechnet eine erste Korrelation zwischen dem Pixel, welches durch zweite Auswahleinrichtung ausgewählt wurde, und einem peripheren Pixel rundum das ausgewählte Pixel und berechnet eine zweite Korrelation zwischen dem Pixel, welches durch die zweite Auswahleinrichtung ausgewählt wurde und welches durch die zweite Verarbeitungseinrichtung verarbeitet wurde, und dem peripheren Pixel rundum das Pixel. Die Vergleichseinrichtung vergleicht die erste Korrelation und die zweite Korrelation. Die Decodiereinrichtung decodiert das Pixel, welches durch die zweite Auswahleinrichtung ausgewählt wurde, und die Information, die in das Pixel eingebettet wurde, auf der Basis eines Ergebnisses, welches durch die Vergleichseinrichtung erhalten wird.
  • Gemäß einem weiteren Merkmal der vorliegenden Erfindung wird ein Bildverarbeitungsverfahren zur Verwendung in einem Bildverarbeitungsgerät bereitgestellt, welches einen Übertrager aufweist, um ein Bild, in welches Information eingebettet ist, zu übertragen, welches durch Einbetten von Information erhalten wird, und einen Empfänger, um das Bild, in welches Information eingebettet wurde, vom Übertrager zu empfangen und um das Bild zu decodieren. Das Verfahren weist die Schritte auf, ein Pixel des Bilds durch den Übertrager auszuwählen, eine Verarbeitung durch den Übertrager in bezug auf das ausgewählte Pixel gemäß der Information durchzuführen, so dass das Pixel unter Verwendung einer Korrelation des Bilds reproduzierbar ist, wodurch die Information in das Pixel eingebettet wird und das Bild, in welches Information eingebettet ist, ausgegeben wird, das Pixel des Bilds, in welches Information eingebettet ist, durch den Empfänger auszuwählen, die vorher festgelegte Verarbeitung durch einen Empfänger in bezug auf das ausgewählte Pixel durchzuführen, durch den Empfänger eine erste Korrelation zwischen dem Pixel, welches durch das Bild, in welches Information eingebettet wurde, und einem peripheren Pixel rundum das ausgewählte Pixel zu berechnen, und eine zweite Korrelation zwischen dem Pixel, welches von dem Bild, in welches Information eingebettet ist, ausgewählt und der vorher festgelegten Verarbeitung unterworfen wird, und dem peripheren Pixel rundum das Pixel zu berechnen, um die erste Korrelation und die zweite Korrelation durch den Empfänger zu vergleichen, und das Pixel, welches vom Bild, in welches Information eingebettet ist, und der Information, die in das Pixel eingebettet ist, ausgewählt wird, durch den Empfänger auf der Basis eines Vergleichsergebnisses zu decodieren.
  • Eine Ausführungsform der Erfindung wird nun lediglich beispielhaft mit Hilfe der beiliegenden Zeichnungen beschrieben, in denen:
  • 1 ein Blockdiagramm ist, welches ein Beispiel der Ausbildung eines Bildübertragungssystems zeigt, welches die vorliegende Erfindung verkörpert;
  • 2 ein Bild, welches zu codieren ist, zeigt;
  • 3A und 3B den Codier-/Decodierbetrieb zeigen, der unter Verwendung der Korrelation durchgeführt wird;
  • 4A und 4B den Codier-/Decodierbetrieb zeigen, der unter Verwendung der Kontinuität durchgeführt wird;
  • 5A und 5B den codier-/Decodierbetrieb zeigen, der unter Verwendung der Ähnlichkeit durchgeführt wird;
  • 6 ein Blockdiagramm ist, welches ein Beispiel des Aufbaus eines Einbettungscodierers 3, der in 1 gezeigt ist, zeigt;
  • 7 ein Flussdiagramm ist, welches die Einbettungscodierungsverarbeitung zeigt;
  • 8 die Verarbeitung im Schritt S1 von 7 zeigt;
  • 9 ein Blockdiagramm ist, welches ein Beispiel des Aufbaus eines Einbettungsdecodierers 6, der in 1 gezeigt ist, zeigt;
  • 10 die Verarbeitung zeigt, welche durch eine CPU 43 durchgeführt wird, die in 9 gezeigt ist;
  • 11 ein Flussdiagramm ist, welches die Einbettungsdecodierungsverarbeitung zeigt; und
  • 12 die Verarbeitung zeigt, um eine Ein-Bit-Information in vier Pixeln zu verarbeiten.
  • Eine Ausführungsform der vorliegenden Erfindung wird anschließend beschrieben. Um die Beziehung zwischen den individuellen Einrichtungen, die in den Patentansprüchen aufgeführt sind, und den entsprechenden Komponenten der folgenden Ausführungsform klarzustellen, werden die Merkmale der vorliegenden Erfindung durch Hinzufügen der entsprechenden Komponenten der Ausführungsform (lediglich als Beispiel) zu den entsprechenden Einrichtungen beschrieben.
  • Ein Bildverarbeitungsgerät, welches im Anspruch 1 beschrieben ist, führt eine Verarbeitung durch, um Information in ein Bild einzubetten. Das Bildverarbeitungsgerät besitzt eine Auswahleinrichtung, um ein Pixel des Bilds auszuwählen (beispielsweise einen Pro grammverarbeitungsschritt S1 von 7). Die Verarbeitungseinrichtung (beispielsweise ein Programmverarbeitungsschritt S3 von 7) führt eine Verarbeitung in bezug auf das Pixel, welches durch die Auswahleinrichtung ausgewählt wurde, gemäß der Information durch, so dass das Pixel unter Verwendung einer Korrelation des Bilds reproduzierbar ist, wodurch die Information in das Pixel eingebettet wird.
  • Ein Bildverarbeitungsgerät nach Anspruch 20 führt eine Verarbeitung durch, um ein Bild, in welches Information eingebettet ist, in ein Ursprungsbild und in eine Ursprungsinformation zu decodieren. Das Gerät besitzt eine Auswahleinrichtung, um ein Pixel der Information, in welche das Bild eingebettet ist, auszuwählen (beispielsweise einen Programmverarbeitungsschritt S11 von 11). Eine Verarbeitungseinrichtung (beispielsweise ein Programmverarbeitungsschritt S12 von 11) führt eine vorher festgelegte Verarbeitung in bezug auf das Pixel, welches durch die Auswahleinrichtung ausgewählt wurde, durch. Eine Korrelationsberechnungseinrichtung (beispielsweise ein Programmverarbeitungsschritt S15 von 11) berechnet eine erste Korrelation zwischen dem Pixel, welches durch die Auswahleinrichtung ausgewählt wurde, und einem peripheren Pixel rundum das ausgewählte Pixel, und berechnet eine zweite Korrelation zwischen dem Pixel, welches durch die Auswahleinrichtung ausgewählt wurde und durch die Verarbeitungseinrichtung verarbeitet wurde, und dem peripheren Pixel rundum das Pixel. Eine Vergleichseinrichtung (beispielsweise ein Programmverarbeitungsschritt S16 von 11) vergleicht die erste Korrelation und die zweite Korrelation. Eine Decodiereinrichtung (beispielsweise Programmsverarbeitungsschritte S17 bis S19 von 11) decodiert das Pixel, welches durch die Auswahleinrichtung ausgewählt wurde, und die Information, die in das Pixel eingebettet wurde, auf der Basis eines Ergebnisses, welches durch die Vergleichseinrichtung erhalten wird.
  • Ein Bildverarbeitungsgerät nach Anspruch 33 weist einen Übertrager auf, um ein Bild, in welches Information eingebettet ist, welches durch Einbetten von Information erhalten wird, zu übertragen, und einen Empfänger, um das Bild, in welches Information eingebettet ist, vom Übertrager zu empfangen und um das Bild zu decodieren. Der Übertrager besitzt eine erste Auswahleinrichtung, um ein Pixel des Bilds auszuwählen (beispielsweise einen Programmverarbeitungsschritt S1 von 7). Die erste Verarbeitungseinrichtung (beispielsweise ein Programmverarbeitungsschritt S3 von 7) führt eine Verarbeitung in bezug auf das Pixel, welches durch die erste Auswahleinrichtung ausgewählt wurde, gemäß der Verarbeitung durch, so dass das Pixel unter Verwendung einer Korrelation des Bilds reproduzierbar ist, um dadurch die Information in das Pixel einzubetten und das Bild, in welches Information eingebettet wurde, auszugeben. Der Empfänger weist eine zweite Auswahleinrichtung auf, um ein Pixel des Bilds, in welches Information eingebettet wurde, auszuwählen (beispielsweise einen Programmverarbeitungsschritt S11 von 11). Eine zweite Verarbeitungseinrichtung (beispielsweise ein Programmverarbeitungsschritt S12 von 11) führt eine vorher festgelegte Verarbeitung in bezug auf das Pixel durch, welches durch die zweite Auswahleinrichtung ausgewählt wurde. Eine Korrelationsberechnungseinrichtung (beispielsweise ein Programmverarbeitungsschritt S15 von 11) berechnet eine erste Korrelation zwischen dem Pixel, welches durch die zweite Auswahleinrichtung ausgewählt wurde, und einem peripheren Pixel rundum das ausgewählte Pixel, und berechnet eine zweite Korrelation zwischen dem Pixel, welches durch die zweite Auswahleinrichtung ausgewählt wurde und durch die zweite Verarbeitungseinrichtung verarbeitet wurde, und dem peripheren Pixel rundum das Pixel. Eine Vergleichseinrichtung (beispielsweise ein Programmverarbeitungsschritt S16 von 11) vergleicht die erste Korrelation und die zweite Korrelation. Eine Decodiereinrichtung (beispielsweise die Programmverarbeitungsschritte S17 bis S19 von 11) decodiert das Pixel, welches durch die zweite Auswahleinrichtung ausgewählt wurde, und die Information, die in das Pixel eingebettet wurde, auf der Basis eines Ergebnisses, welches durch die Vergleichseinrichtung erhalten wurde.
  • Die obige Beschreibung ist nicht dazu vorgesehen, die Einrichtung, die in den Ansprüchen beschrieben wurde, gemäß den oben beschriebenen Komponenten zu beschränken.
  • 1 ist ein schematisches Diagramm, welches ein Bildübertragungssystem nach der vorliegenden Erfindung zeigt. Bei dieser Darstellung kann ein "System" eine Einheit sein, welche logisch aus mehreren Geräten gebildet sein kann, und es ist nicht notwendig, dass die Geräte im gleichen Gehäuse untergebracht sind.
  • Gemäß 1 besteht das Bildübertragungssystem aus einer Codiereinheit 10 und einer Decodiereinheit 20. Die Codiereinheit 10 codiert beispielsweise ein Bild (erste Information) und gibt die codierten Daten aus. Die Decodiereinheit 20 reproduziert die codierten Daten in das Ursprungsbild.
  • Insbesondere speichert eine Bilddatenbank 1 Bilder, welche zu codieren sind (beispielsweise Digitalbilder), und ein Bild wird von der Bilddatenbank 1 gelesen und zu einem Einbettungscodierer 3 geliefert. Eine Zusatzinformations-Datenbank 2 speichert Zusatzinformation (Digitaldaten) als Information, die in das zu codierende Bild einzubetten ist. Die Zusatzinformation wird von der Zusatzinformations-Datenbank 2 gelesen und zum Einbettungscodierer 3 geliefert.
  • Beim Empfang des Bilds von der Bilddatenbank 1 und der Zusatzinformation von der Zusatzinformationsdatenbank 2 codiert der Einbettungscodierer 3 das Bild gemäß der Zu satzinformation, welche von der Zusatzinformationsdatenbank 2 geliefert wird, so dass das codierte Bild unter Verwendung der Energieverteilung des Bilds decodiert werden kann, welches von der Bilddatenbank 1 geliefert wird. Das heißt, der Einbettungscodierer 3 codiert das Bild durch Einbetten der Zusatzinformation in das Bild, so dass das codierte Bild unter Verwendung der Energieverteilung des Bilds decodiert werden kann, und gibt die codierten Daten aus. Die codierten Daten können dann auf einem Aufzeichnungsträger 4 aufgezeichnet werden, beispielsweise einer magneto-optischen Platte, einer Magnetplatte, einer optischen Platte, einem Magnetband oder einer PD-Platte. Alternativ können die codierten Daten zur Decodiereinheit 20 über ein Übertragungsmedium 5 übertragen werden, beispielsweise ein terrestrisches Rundfunksignal, ein Satelliten-Rundfunksignal, ein Kabelfernsehnetz (CATV), das Internet oder ein öffentliches Netz.
  • Die Decodiereinheit 20 besteht aus einem Einbettungsdecoder 6, in welchem die codierten Daten, welche über den Aufzeichnungsträger 4 oder den Übertragungsträger S bereitgestellt werden, empfangen werden. Der Einbettungsdecoder 6 decodiert außerdem die codierten Daten in das Ursprungsbild und in Zusatzinformation unter Verwendung der Energieverteilung des Bilds. Das decodierte Bild wird dann zu einem Monitor (nicht gezeigt) geliefert und angezeigt. Die decodierte Zusatzinformation wird dazu verwendet, eine vorher festgelegte Verarbeitung durchzuführen.
  • Das Prinzip des Codierbetriebs, der durch den Einbettungscodierer 3 durchgeführt wird, und des Decodierbetriebs, der durch den Einbettungsdecoder 6 durchgeführt wird, wird anschließend beschrieben.
  • Was im Allgemeinen als Information bezeichnet wird, besitzt eine Energieteilung (Entropie), die als Information (nützliche Information) identifiziert wird. Insbesondere kann beispielsweise ein Bild, welches durch Fotografieren einer Landschaft erhalten wird, als ein Bild der Landschaft identifiziert werden. Der Grund dafür liegt darin, dass das Bild (die Werte der Pixel, die das Bild bilden) eine Energieverteilung besitzt, die der Landschaft entspricht. Ein Bild ohne eine Energieverteilung ist lediglich Rauschen und als Information nicht nützlich.
  • Sogar, wenn folglich die Energieverteilung, die in Besitz eines Stücks nützlicher Information ist, durch Durchführen einer bestimmten Operation zerstört wird, kann die ursprüngliche Information durch Wiederherstellen der zerstörten Energieverteilung in den Ursprungszustand reproduziert werden. Das heißt, die codierten Daten, die durch Codieren der Information erhalten werden, können in die ursprüngliche Information decodiert werden, wobei die Energieverteilung genutzt wird, die zur Information gehört.
  • Die Energieverteilung der Information kann beispielsweise durch Korrelation, Kontinuität und Ähnlichkeit dargestellt werden.
  • Die Korrelation der Information ist die Korrelation zwischen den Elementen der Information (beispielsweise, wenn die Information ein Bild ist, den Pixeln oder den Zeilen, die das Bild bilden), d.h., die Selbstkorrelation oder der Abstand zwischen den Elementen, die die Information bilden.
  • Ein Bild, welches aus H Zeilen besteht, beispielsweise eines, welches in 2 gezeigt ist, wird als Beispiel hergenommen. Was die Korrelation zwischen der ersten Zeile und einer anderen Zeile betrifft, so ist, wie in 3A gezeigt, die Korrelation der ersten Zeile zu einer Zeile die näher an der ersten Zeile angeordnet ist (eine obere Zeile des Bilds, die in 2 gezeigt ist) größer. Umgekehrt ist die Korrelation der ersten Zeile zu einer Zeile, die weiter weg von der ersten Zeile liegt (eine untere Zeile des Bilds, welche in 2 gezeigt ist) kleiner. Anders ausgedrückt hat das in 2 gezeigte Bild eine Korrelationsverteilung, bei der eine Zeile, die enger an der ersten Zeile ist, einen größeren Korrelationspegel, und eine Zeile, die weiter weg von der ersten Zeile ist, hat einen kleineren Korrelationspegel.
  • In dem in 2 gezeigten Bild sind die M-te Zeile, die enger an der ersten Zeile ist, und die N-te Zeile, die weiter weg von der ersten Zeile ist, vertauscht (1 < M < N ≤ H), und nach Berechnen der Korrelation zwischen der ersten Zeile und der M-ten Zeile und der N-ten Zeile kann das resultierende Bild angezeigt werden, wie in 3B gezeigt ist. Das heißt, im Bild, bei dem die M-te Zeile und die N-te Zeile vertauscht wurden, wird die Korrelation der ersten Zeile zur M-ten Zeile, die enger an der ersten Zeile ist (entsprechend der N-ten Zeile, bevor diese vertauscht wurde), kleiner, während die Korrelation der ersten Zeile zur N-ten Zeile, die weiter weg von der ersten Zeile ist (entsprechend der M-ten Zeile, bevor diese getauscht wurde), größer wird.
  • Damit ist die ursprüngliche Korrelationsverteilung in der Korrelation, die in 3B gezeigt ist, zerstört. Allgemein jedoch, was Bilder anbetrifft, kann die zerstörte Korrelationsverteilung in den Ursprungszustand wiederhergestellt werden, indem die ursprüngliche Korrelationsverteilung genutzt wird. Das heißt, die in 3B gezeigte Korrelationsverteilung ist unnatürlich (nicht korrekt) hinsichtlich der Ursprungskorrelationsverteilung, die im Besitz des Bilds ist, wobei die M-te Zeile und die N-te Zeile vertauscht werden sollten. Somit kann die unnatürliche Verteilung zur korrekten Verteilung wiederhergestellt werden, die in 3A gezeigt ist, so dass das Ursprungsbild decodiert werden kann.
  • Gemäß dem in 2, 3A und 3B gezeigten Beispiel wird das Bild durch Austauschen der Zeilen codiert. In diesem Fall bestimmt der Einbettungscodierer 3, welche Zeilen verschoben und getauscht werden sollten, gemäß der Zusatzinformation. In der Zwischenzeit bringt der Einbettungsdecoder 6 die getauschten Zeilen in die Ursprungspositionen zurück, indem die Korrelation genutzt wird, d.h., er ersetzt das codierte Bild durch das Ursprungsbild, wodurch das codierte Bild decodiert wird. Während dieses Decodierbetriebs ermittelt der Einbettungsdecoder 6, welche Zeilen verschoben und getauscht wurden, um somit die Zusatzinformation, die im Bild eingebettet ist, zu decodieren.
  • Was die Kontinuität betrifft, so kann ein anderes Element der Energieteilung, beispielsweise eine Zeile eines Bilds dargestellt werden durch, wie in 4A gezeigt ist, eine Signalschwingungsform, welche die Kontinuität einer Frequenzänderung zeigt (eine gleitende Frequenzänderung). Anders ausgedrückt wird die Frequenz einer Zeile eines Bilds fortlaufend geändert.
  • Dann wird die Signalschwingungsform, deren Frequenz fortlaufend geändert wird, wie in 4A gezeigt ist, teilweise durch eine extrem niedrigere Frequenz ersetzt, wie in 4B gezeigt ist.
  • In diesem Fall wird die Kontinuität einer Frequenzänderung zerstört. Allgemein jedoch kann die zerstörte Kontinuität der Signalschwingungsform in den Ursprungszustand wiederhergestellt werden, indem die Merkmale genutzt werden, bei denen die Frequenzänderung fortlaufend ist. Das heißt, in 4B ist es unnatürlich, dass ein Teil der Frequenz der Signalschwingungsform viel niedriger ist als der des verbleibenden Teils der Schwingungsform, und somit sollte dieser auf einen Bereich korrigiert werden, der dem verbleibenden Bereich ähnlich ist. Dann kann die Signalschwingungsform, welche in 4B gezeigt ist, in die Signalschwingungsform decodiert werden, die in 4A gezeigt ist, d.h., in die ursprüngliche Signalschwingungsform.
  • In dem Beispiel, welches in 4A und 4B gezeigt ist, wird das Bild codiert, indem ein Teil der Signalschwingungsform signifikant geändert wird (durch Ersetzen durch eine niedrigere Frequenz). Wenn das Bild codiert wird, bestimmt der Einbettungscodierer 3 aus der Zusatzinformation, welcher Teil der Frequenz signifikant geändert werden soll und bis zu welchem Grad die Frequenz geändert werden soll. Der Einbettungsdecoder 6 reproduziert die ursprüngliche Signalschwingungsform aus dem codierten Signal, bei dem ein Teil stark unterschiedlich gegenüber den verbleibenden Teilen ist, wobei die Kontinuitätscharakteristik des Signals genutzt wird, um dadurch das codierte Signal in das Ursprungssignal zu decodieren. Wenn das Signal decodiert wird, ermittelt der Einbettungsdecoder 6, welcher Teil der Frequenz signifikant geändert wurde und bis zu welchem Grad die Frequenz geändert wurde, wodurch die eingebettete Zusatzinformation decodiert wird.
  • Die Ähnlichkeit, welche ein anderes Element ist, welches die Energieverteilung darstellt, ist wie folgt. Beispielsweise sei nun angenommen, dass ein Bild durch Fotografieren einer Landschaft erhalten wurde. Ein vergrößertes Bild des ursprünglichen Landschaftsbilds kann durch Verwenden eines Fraktals (Selbstähnlichkeit) erzeugt werden. Insbesondere wird beispielsweise ein Bild, welches durch Fotografieren eines Meeres erhalten wird, wie in 5A gezeigt ist, durch Verwenden eines Fraktals vergrößert, was ein Bild zur Folge hat (vergrößertes Bild), dessen Charakteristiken ähnlich denjenigen des Ursprungsbilds sind. Folglich besitzt das Ursprungsbild Ähnlichkeit.
  • Dann wird das Bild des Meeres, welches in 5A gezeigt ist, teilweise durch einen Teil des Bilds ersetzt, das durch Fotografieren eines Waldes erhalten wird (dargestellt durch den schraffierten Bereich von 5B).
  • In diesem Fall wird die Ähnlichkeit in dem Bereich des Bilds des Meers zerstört, der durch den Teil des Bilds des Walds ersetzt wurde. Allgemein jedoch kann die zerstörte Ähnlichkeit unter Verwenden der folgenden Ähnlichkeitscharakteristik wiederhergestellt werden. Das heißt, gleich welcher Teil des Bilds des Meers vergrößert wird, besitzt der vergrößerte Bereich eine Charakteristik ähnlich der des Ursprungsbilds. Insbesondere ist es hinsichtlich der Ähnlichkeit unnatürlich, die durch das Bild des Meeres eingenommen wird, dass ein Teil des Bilds durch einen Teil des Bilds des Walds ersetzt wird. Der Bereich des Waldes sollte durch ein Bild ersetzt werden, welches eine Charakteristik ähnlich derjenigen des Umgebungsbereichs des Meers hat. Dann kann das komplette Bild des Meers, welches in 5A gezeigt ist, d.h., das Ursprungsbild, von dem Bild, welches in 5B gezeigt ist, decodiert werden.
  • In dem Beispiel, welches in 5A und 5B gezeigt ist, kann das Bild codiert werden, wobei ein Teil des Bilds des Meers durch das Bild des Waldes ersetzt wird. Wenn das Bild codiert wird, bestimmt der Einbettungscodierer 3 aus der Zusatzinformation, welcher Teil des Bilds des Meers durch ein Bild des Waldes zu ersetzen ist. In der Zwischenzeit reproduziert der Einbettungsdecoder 6 das komplette Bild des Meers aus dem codierten Signal, d.h., von dem Bild, welches einen Bereich des Walds hat, wobei die Ähnlichkeitscharakteristik verwendet wird, um dadurch das codierte Bild in das Ursprungsbild zu decodieren. Während des Decodierbetriebs ermittelt der Einbettungsdecoder 6, welcher Bereich des Bildes des Meers durch das Bild des Waldes ersetzt wurde, um dadurch die eingebettete Zusatzinformation zu decodieren.
  • Wie oben erläutert codiert der Einbettungscodierer 3 das Bild entsprechend der Zusatzinformation, so dass das codierte Bild unter Verwendung der Energieverteilung, die durch das Bild eingenommen wird, decodiert werden kann. Beim Empfangen der codierten Daten decodiert der Einbettungsdecoder 6 die codierten Daten in das Ursprungsbild und in die Zusatzinformation, wobei die Energieverteilung verwendet wird, die durch das Bild eingenommen wird, ohne dass der Zusatzaufwand zum Decodieren erforderlich ist.
  • Der Zustand des codierten Bildes, in welchem die Information eingebettet ist, ist gegenüber dem des Ursprungsbildes verschieden, wodurch eine Verschlüsselung des Bilds erreicht wird, ohne, dass der Zusatzaufwand erforderlich ist.
  • Zusätzlich kann eine vollständig umkehrbare digitale Wasserzeichenmarkierung ausgeführt werden. Insbesondere werden gemäß der digitalen herkömmlichen Wassermarkierung die unteren Bits von Pixelwerten, welche die Bildqualität nicht signifikant beeinflussen, einfach in Werte geändert, die der digitalen Wassermarkierung entsprechen. Da es schwierig ist, die unteren Bits in den ursprünglichen Zustand wiederherzustellen, kann das Ursprungsbild nicht komplett reproduziert werden. Als Ergebnis wird die Qualität des decodierten Bilds bis zu einem bestimmten Grad verschlechtert, indem die unteren Bits für digitales Wassermarkieren verwendet werden. Wenn im Gegensatz die codierten Daten unter Verwendung der Energieverteilung decodiert werden, die im Besitz von dem Ursprungsbild ist, können das Ursprungsbild und die Zusatzinformation reproduziert werden. Damit kann die Zusatzinformation als digitale Wassermarkierung sicher verwendet werden, ohne einen Verlust an Qualität des decodierten Bilds, welche nicht durch herkömmliches digitales Wassermarkieren ausgeführt werden kann.
  • Die eingebettete Information kann durch Decodieren des Bilds von den codierten Daten extrahiert werden, wodurch das Bereitstellen einer Seiteninformation ermöglicht wird, um das codierte Bild ohne das Erfordernis des Zusatzaufwands zu erhalten. Da anders ausgedrückt die Zusatzinformation eingebettet werden kann, ohne dass der Zusatzaufwand benötigt wird, um die Zusatzinformation zu extrahieren, wurden die resultierenden codierten Daten mit der eingebetteten Information um einen Betrag komprimiert, der gleich der Zusatzinformation ist (Einbettungs-Kompression). Wenn folglich beispielsweise eine Hälfte des Bilds codiert ist und die verbleibende Hälfte als Zusatzinformation verwendet wird, kann die Hälfte des Gesamtbildes in der anderen Hälfte eingebettet sein, wodurch das Gesamtbild auf eine Hälfte komprimiert wird.
  • Da die codierten Daten unter Verwendung der Energieverteilung decodiert werden, die in Besitz des Ursprungsbilds sind, d.h., unter Verwendung der Statistik, sind die decodierten Daten gegenüber Fehlern widerstandsfähig. Das heißt, es kann ein robustes Codie ren (statistisches Codieren), welches eine hochrobuste Charakteristik hat, durchgeführt werden.
  • Da außerdem die codierten Daten unter Verwendung der Energieverteilung decodiert werden, die zum Ursprungsbild gehört, kann eine größere Menge zusätzlicher Information in das Bild eingebettet werden, dessen Energieverteilung ausgeprägtere Charakteristik hat, beispielsweise ein Bild, welches einen höheren Aktivitätspegel und einen niedrigeren Redundanzpegel hat. Wie oben erläutert wurden, wenn die Zusatzinformation in das Ursprungsbild eingebettet ist, die codierten Daten mit einer Menge gleich der Zusatzinformation komprimiert. Hinsichtlich der Kompression wird, wenn das Bild gemäß der Zusatzinformation codiert wird (unter Verwendung des Einbettungscodierungsverfahrens), so dass das codierte Bild unter Verwendung der Energieverteilung decodiert werden kann, die im Besitz des Bildes ist, das Kompressionsverhältnis höher, da das Bild einen höheren Aktivitätspegel und einen niedrigeren Redundanzpegel hat. In diesem Punkt unterscheidet sich das Einbettungscodierungsverfahren wesentlich gegenüber herkömmlichen Codierungsverfahren, bei denen das Kompressionsverhältnis niedriger wird, wenn das Bild einen höheren Aktivitätspegel und einen niedrigeren Redundanzpegel hat.
  • Unter Verwendung eines Bilds als Objekt, welches codiert werden soll, und unter Verwendung eines Trägers, der gegenüber dem Bild verschieden ist, beispielsweise eines Tons als Zusatzinformation kann zusätzlich das Bild unter Verwendung des Tons wie ein Schlüssel bereitgestellt werden. Insbesondere ist in der Codiereinheit 10 der Ton "open sesame", der durch einen Unternehmer ausgegeben wird, in das Bild als Zusatzinformation eingebettet. In der Decodiereinheit 20 wird der Benutzer gezwungen, den Ton "open sesame!" auszugeben, der mit dem Ton verglichen wird, der im Bild eingebettet ist, wodurch eine Sprecheridentifikation durchgeführt wird. Bei der Durchführung der Sprecheridentifikation wird das Bild automatisch nur dann bereitgestellt, wenn bestimmt wird, dass der Benutzer eine Vertragsperson ist. In diesem Fall kann, da der Ton als Zusatzinformation verwendet wurde, eine Tonschwingungsform selbst verwendet werden, anstelle von dem, was als Merkmalsparameter bezeichnet wird.
  • Umgekehrt kann durch Verwenden des Tons als Objekt, das zu codieren ist, und unter Verwendung eines Trägers, der vom Ton verschieden ist, beispielsweise eines Bilds, als Zusatzinformation der Ton bereitgestellt werden, wobei das Bild als Schlüssel verwendet wird, d.h., dass eine Gesichtserkennungs-Tonantwort kann ausgeführt werden. Insbesondere ist in der Codiereinheit 10 beispielsweise ein Bild des Gesichts eines Benutzers in den Ton als Ansprechen auf den Benutzer eingebettet. In der Codiereinheit 20 ist das Gesicht eines Benut zers fotografiert, um ein Bild zu erlangen, und das Bild des Gesichts, welches im Ton eingebettet ist, welches zum obigen Bild passt, wird gesucht, um dadurch den entsprechenden Ton auszugeben. Es ist somit möglich, ein Tonantwortsystem auszuführen, um auf die Benutzer zu antworten, indem unterschiedliche Tonarten gemäß den Benutzern ausgegeben werden.
  • Es ist außerdem möglich, Information unter Verwenden eines bestimmten Trägers in Information einzubetten, wobei die gleiche Trägerart verwendet wird, beispielsweise Ton in Ton oder ein Bild in Bild. Alternativ können die Stimme eines Unternehmers und das Bild eines Gesichts in ein Ursprungsbild eingebettet sein. Wenn lediglich die Stimme eines Benutzers und ein Bild eines Gesichts mit denen übereinstimmen, die in das Bild eingebettet sind, wird dann das Ursprungsbild bereitgestellt, wodurch die Durchführung erreicht wird, was man als duales Schlüsselsystem bezeichnet.
  • Was dagegen beispielsweise ein Bild und einen Ton betrifft, die miteinander synchronisiert sind, die ein Fernseh-Rundfunksignal bilden, wird einer der beiden Träger in den anderen eingebettet, wobei in diesem Fall eine verschiedene Trägerinformation integriert werden kann, d.h., integriertes Codieren durchgeführt werden kann.
  • Bei dem Einbettungscodierverfahren kann, wie oben ausgeführt, eine größere Menge an Zusatzinformation in Information eingebettet werden, deren Energieverteilung ausgeprägtere Merkmale zeigen. Folglich wird beispielsweise zwischen zwei Informationsposten die Information, deren Energieverteilung ausgeprägtere Merkmale hat, adaptiv ausgewählt, und die andere Information in die ausgewählte Information eingebettet, wodurch es ermöglicht wird, die gesamte Datenmenge zu steuern. Das heißt, dass zwischen zwei Informationsposten die Menge eines Postens an Information im anderen Informationsposten absorbiert werden kann. Da die gesamte Datenmenge als Folge davon gesteuert werden kann, ist es möglich, Information zu übertragen, die eine Datenmenge hat, die mit dem Datenband und dem Verkehr des Übertragungskanals und anderer Übertragungsumgebung kompatibel ist. Das heißt, dass eine umgebungs-kompatible Netzwerkübertragung durchgeführt werden kann.
  • Zusätzlich wird ein reduziertes Bild in das Ursprungsbild eingebettet (oder dezimierter Ton wird in den Ursprungston eingebettet.), um dadurch die Durchführung hierarchischer Codierung ohne Vergrößerung der Datenmenge zu erreichen.
  • In Ein Ursprungsbild wird ein Bild, welches als Schlüssel zum Wiederauffinden des Ursprungsbilds verwendet wird, eingebettet. Als Konsequenz ist es möglich, eine Datenbank bereitzustellen, um Ursprungsbilder auf der Basis von Bildern, die als Schlüssel verwendet werden, wiederzugewinnen.
  • 6 zeigt ein Beispiel des Aufbaus des Einbettungscodierers 3, der in 1 gezeigt ist, der Einbettungscodierung durch Einbetten von Zusatzinformation in ein Bild durchführt, so dass das codierte Bild in das Ursprungsbild decodiert werden kann, wobei die Korrelation des Bilds verwendet wird.
  • Bilder, welche von der Bilddatenbank 1 ausgegeben werden, werden zu einem Rahmenspeicher 31 geliefert, in welchem die Bilder vorübergehend in Rahmeneinheiten gespeichert werden. Eine Zentralverarbeitungseinheit (CPU) 32 führt eine Einbettungscodierungsverarbeitung durch, was anschließend beschrieben wird, indem ein Programm ausgeführt wird, welches in einem Programmspeicher 33 gespeichert ist. Das heißt, die CPU 32 empfängt jedes Bit zusätzlicher Information von der Zusatzinformationsdatenbank 2 und bettet die zusätzliche Ein-Bit-Information in dem Bild ein, welches im Rahmenspeicher 31 gespeichert ist. Insbesondere wählt die CPU 32 einen Teil der Pixel aus, die das Bild bilden, die im Rahmenspeicher 31 gespeichert sind, und führt eine vorher festgelegte Verarbeitung in bezug auf die ausgewählten Pixel gemäß der Zusatzinformation durch, so dass das Ursprungsbild unter Verwendung der Korrelation des Bildes reproduziert werden kann. Als Ergebnis kann die Zusatzinformation in die ausgewählten Pixel eingebettet werden.
  • Der Programmspeicher 33 besteht beispielsweise aus einem Nur-Lese-Speicher (ROM) oder aus einem Speicher mit wahlfreiem Zugriff (RAM) und speichert ein Computerprogramm, um es der CPU 37 zu ermöglichen, die Einbettungscodierungsverarbeitung auszuführen. Eine Ausgangsschnittstelle (I/F) 34 liest ein Bild, in welchem eingebettete Zusatzinformation vorhanden ist, vom Rahmenspeicher 31 und gibt dieses als codierte Daten aus.
  • Der Rahmenspeicher 31 besteht aus mehreren Datenbanken, so dass mehrere Rahmen gespeichert werden können. Durch Umschalten der Datenbanken speichert der Rahmenspeicher 31 simultan das Bild, welches von der Bilddatenbank 1 geliefert wird, und die Pixel des Bilds, welche durch die CPU 32 zu verarbeiten sind. Gleichzeitig damit gibt der Rahmenspeicher 31 außerdem das Bild aus, in welchem die eingebettete Information vorhanden ist (codierte Daten). Mit dieser Anordnung können die codierten Daten in Realzeit ausgegeben werden, sogar, wenn das Bild, welches von der Bilddatenbank 1 geliefert wird, ein Bewegtbild ist.
  • Die Einbettungscodierungsverarbeitung, welche durch den Einbettungscodierer 3 durchgeführt wird, wird anschließend mit Hilfe des Flussdiagramms von 7 beschrieben.
  • Bilder werden von der Bilddatenbank 1 gelesen und zum Rahmenspeicher 31 geliefert und hier in Rahmeneinheiten gespeichert. In der Zwischenzeit empfängt die CPU 32 jedes Bit von Zusatzinformation von der Zusatzinformationsdatenbank 2. Im Schritt S1 wählt beim Empfang von zusätzlicher Ein-Bit-Information die CPU 32 vom Rahmenspeicher 31 die Pixel aus, in der die hinzugefügte Information einzubetten ist (zu verarbeitende Pixel).
  • Bei dieser Ausführungsform werden die Pixel abwechselnd von dem Bild, welches im Rahmenspeicher 31 gespeichert ist, gemäß einem Schachbrettmuster ausgewählt, wie in 8 gezeigt ist. Das heißt, jedes Mal dann, wenn die Verarbeitung des Schritts S1 ausgeführt wird, wählt die CPU 32 nach und nach ein Pixel ohne einen schraffierten Bereich, eines nach dem anderen, als ein Pixel aus, welches gemäß beispielsweise dem Zeilenabtasten zu verarbeiten ist. In 8 zeigt p(x, y) das Pixel, welches an der x-ten Spalte von links und welches bei der y-ten Reihe vom Kopf (das gleiche gilt für die Pixel, die in 12 gezeigt sind) positioniert ist.
  • Nachfolgend bestimmt im Schritt S2 die CPU 32, ob die Zusatzinformation, welche von der Zusatzinformationsdatenbank 2 empfangen wird, 1 oder 0 ist. Wenn im Schritt S2 herausgefunden wird, dass die Zusatzinformation 0 ist, kehrt die Verarbeitung zurück zum Schritt S1. Das heißt, wenn die Zusatzinformation 0 ist, führt die CPU 32 keine Verarbeitung in bezug auf das ausgewählte Pixel durch (addiert 0 als vorher festgelegte Konstante), und kehrt zum Schritt S1 zurück. Im Schritt S1 wartet die CPU 32 auf die nachfolgende zusätzliche Ein-Bit-Information, welche von der Zusatzinformationsdatenbank 2 geliefert wird, und wählt ein zu verarbeitendes Pixel aus. Danach wird die Verarbeitung ähnlich der oben erläuterten wiederholt.
  • Wenn im Schritt S2 bestimmt wird, dass die Zusatzinformation die 1 ist, läuft die Verarbeitung weiter zum Schritt S3. Im Schritt S3 führt die CPU 32 eine vorher festgelegte Verarbeitung in bezug auf das ausgewählte Pixel durch, insbesondere fügt die CPU 32 eine vorher festgelegte Konstante dem Wert des ausgewählten Pixel hinzu, beispielsweise zwei zur Potenz des Werts, der durch Subtrahieren von eins von der Anzahl von Pixeln erhalten wird, die dem Pixel zugeteilt ist. Wenn beispielsweise acht Bits dem Pixel des Bilds zugeteilt sind, wird 27 dem Wert des Pixels, welches im Schritt S3 zu verarbeiten ist, hinzugefügt.
  • Wenn der Pixelwert durch eine Luminanzkomponente Y und Farbkomponenten U und V dargestellt wird, kann die oben beschriebene Hinzufügung in bezug auf irgendeine der Komponenten Y, U und V ausgeführt werden. Wenn der Pixelwert durch Komponenten R, G und B zeigt wird, kann die oben beschriebene Hinzufügung in bezug auf irgendeine der Komponenten R, G und B durchgeführt werden.
  • Im Schritt S4 wird bestimmt, ob der Wert, der im Schritt S3 erhalten wurde, ein Überlaufen verursacht. Wenn das Ergebnis des Schritts S4 negativ ist, läuft die Verarbeitung weiter zum Schritt S6, in welchem die CPU 32 den hinzugefügten Wert in den Rahmenspei cher 31 als Wert des Pixels, welches zu verarbeiten ist, schreibt (überschreibt). Die Verarbeitung kehrt dann zurück zum Schritt S1.
  • Wenn im Schritt S4 herausgefunden wird, dass der hinzugefügte Wert einen Überlauf verursacht, d.h., dass der Wert 28 oder größer ist, läuft die Verarbeitung weiter zum Schritt S5, in welchem der hinzugefügte Wert korrigiert wird. Das heißt, im Schritt S5 wird der Überlaufwert korrigiert, beispielsweise durch einen Betrag gleich dem übergelaufenen Wert (in bezug auf den Wert, der durch Subtrahieren von 28 vom übergelaufenen hinzugefügten Wert erhalten wird). Die Verarbeitung läuft dann weiter zum Schritt S6, in welchem die CPU 32 den korrigierten Wert in den Rahmenspeicher 31 als den Wert des Pixels, welches zu verarbeiten ist, schreibt, und auf eine nachfolgende zusätzliche Ein-Bit-Information wartet, welche von der Zusatzinformationsdatenbank 2 geliefert wird.
  • Nachdem das Bild für einen Rahmen, der im Rahmenspeicher 31 gespeichert ist, verarbeitet wurde, liest die Ausgangs-I/F 34 das Ein-Rahmen-Bild (in welchem die Zusatzinformation eingebettet ist) als codierte Daten, und die CPU 32 fährt damit fort, die Verarbeitung in bezug auf ein nachfolgendes Ein-Rahmen-Bild durchzuführen, welches im Rahmenspeicher 31 gespeichert ist.
  • Wie oben beschrieben wird ein Teil der Pixel, die das Bild bilden, welches im Rahmenspeicher 31 gespeichert ist, ausgewählt, und die Verarbeitung entsprechend der Zusatzinformation wird in bezug auf die ausgewählte Pixel durchgeführt, so dass das Ursprungsbild unter Verwendung der Korrelation des Bilds decodiert werden kann, um dadurch die Zusatzinformation in die ausgewählten Pixel einzubetten. Mit dieser Anordnung kann die Zusatzinformation in das Bild mit einem minimalen Verlust der Bildqualität eingebettet werden, ohne die Datenmenge zu erhöhen.
  • Das heißt, die Pixel, in welche die Zusatzinformation eingebettet wurde, können zu Ursprungspixeln und in die Zusatzinformation decodiert (wiederhergestellt) werden, ohne Zusatzaufwand erforderlich zu machen, indem die Korrelation des Bilds genutzt wird, d.h., die Korrelation zwischen den Pixeln mit der Zusatzinformation und den Pixeln ohne die Zusatzinformation. Folglich ist das resultierende decodierte Bild (Wiedergabebild) grundsätzlich frei von einer Verschlechterung der Bildqualität, welche durch Einbetten der Zusatzinformation verursacht wird.
  • 9 zeigt ein Beispiel des Aufbaus des Einbettungsdecoders 6, der in 1 gezeigt ist, der decodierten Daten, welche vom Einbettungscodierer 3 ausgegeben werden, der in 6 gezeigt ist, in das Ursprungsbild und in die Zusatzinformation unter Verwendung der Korrelation des Bilds decodiert.
  • Die codierten Daten, d.h., das Bild, in welches die Zusatzinformation eingebettet wurde (anschließend manchmal als "Einbettungsbild" bezeichnet), werden zu einem Rahmenspeicher 41 geliefert. Im Rahmenspeicher 41 werden vorübergehend die eingebetteten Bilder in Rahmeneinheiten gespeichert. Der Rahmenspeicher 41 ist ähnlich wie der Rahmenspeicher 31 aufgebaut, der in 6 gezeigt ist, und durch Ändern der Datenbänke können die eingebetteten Bilder in Realzeit verarbeitet werden, sogar wenn die Bilder Bewegtbilder sind. Eine Ausgangsschnittstelle (I/F) 42 liest ein Bild (decodiertes Bild), welches durch Durchführen einer Einbettungsdecodierverarbeitung durch eine CPU 43 erhalten wird, was später erläutert wird, und gibt das decodierte Bild aus.
  • Die CPU 43 führt die Einbettungsdecodierverarbeitung durch Ausführen eines Programms durch, welches in einem Programmspeicher 44 gespeichert ist. Das heißt, die CPU 43 decodiert das eingebettete Bild, welches im Rahmenspeicher 41 gespeichert ist, in das Ursprungsbild und in die Zusatzinformation unter Verwendung der Korrelation des Bilds. Insbesondere wählt die CPU 43 einen Teil der Pixel aus, welche das eingebettete Bild bilden, als Pixel, die zu verarbeiten sind, und führt die Verarbeitung entgegengesetzt zu der Verarbeitung, welche durch die CPU 32 ausgeführt wird, die in 6 gezeigt ist, wie in 10 gezeigt ist, in bezug auf das ausgewählte Pixel durch, wodurch der Pixelwert geändert wird. Die CPU 32 berechnet dann einen Korrelationswert R1 (erste Korrelation) zwischen dem zu verarbeitenden Pixel, bevor der Pixelwert geändert wird, und den peripheren Pixeln (die horizontal benachbart zum zu verarbeitenden Pixel bei der in 10 gezeigten Ausführungsform sind), und berechnet außerdem einen Korrelationswert R2 (zweite Korrelation) zwischen dem zu verarbeitenden Pixel, nachdem der Pixeiwert geändert wurde, und den peripheren Pixeln. Danach vergleicht die CPU 32 den Korrelationswert R1 mit dem Korrelationswert R2. Auf der Basis des Vergleichsergebnisses wählt die CPU 43 einen der Pixelwerte aus, bevor geändert wird und nachdem geändert wurde und bestimmt den ausgewählten Wert als decodierten Wert und decodiert außerdem die Zusatzinformation, welche im decodierten Bild eingebettet ist (1 oder 0).
  • Der Programmspeicher 43 ist ähnlich wie der Programmspeicher 33, der in 6 gezeigt ist, aufgebaut, wobei in diesem ein Computerprogramm gespeichert ist, um es einer CPU 43 zu ermöglichen, die Einbettungsdecodierverarbeitung durchzuführen.
  • Die Einbettungsdecodierverarbeitung, welche durch den Einbettungsdecoder 6 durchgeführt wird, wird anschließend mit Hilfe des Flussdiagramms von 11 erläutert.
  • Einbettungsbilder werden nacheinander in Rahmeneinheiten im Rahmenspeicher 41 gespeichert. Im Schritt S11 wählt die CPU 43 die zu decodierenden Pixel (Pixel, welche zu verarbeiten ist) von einem Einbettungsbild aus, welches im Rahmenspeicher 41 gespeichert ist.
  • Wie im Fall der CPU 32, welche in 6 gezeigt ist, wählt die CPU 43 abwechselnd Pixel vom Einbettungsbild, welches im Rahmenspeicher 41 gespeichert ist, gemäß einem Schachbrettmuster aus, wie in 8 gezeigt ist. Das heißt, jedes Mal, wenn die Verarbeitung des Schritts S11 ausgeführt wird, wählt die CPU 43 nacheinander ein Pixel ohne einen schraffierten Bereich in 8 und zwar nacheinander, wie ein zu verarbeitendes Pixel gemäß beispielsweise einem Zeilenabtasten aus.
  • Im Schritt S12 führt die CPU 43 eine Verarbeitung in bezug auf das Pixel entgegengesetzt zur Verarbeitung durch, die durch die CPU 32, wie in 6 gezeigt ist, durchgeführt wird. Das heißt, die CPU 43 subtrahiert eine vorher festgelegte Konstante vom Pixelwert, d.h., zwei zur Potenz des Werts, der durch Subtrahieren von einem von der Anzahl von Bits erhalten wird, die dem Pixel des Bilds zugeteilt sind. Beispielsweise, wenn acht Bits dem Pixelwert zugeteilt sind, wie oben ausgeführt, wird 27 vom Wert des Pixels, welches im Schritt S12 zu verarbeiten ist, subtrahiert.
  • Wenn der Pixelwert durch eine Luminanzkomponente Y und die Farbkomponenten U und V dargestellt wird, kann die oben beschriebene Subtraktion für eine beliebige der Komponenten Y, U und V ausgeführt werden. Wenn der Pixelwert durch Komponenten R, G und B angedeutet ist, kann die oben beschriebene Subtraktion in bezug auf eine der Komponenten R, G und B durchgeführt werden. Es ist jedoch notwendig, dass die Subtraktion im Schritt S12 in bezug auf die gleiche Komponentenart durchgeführt werden sollte, wie bei der, bei der die Addition im Schritt S3 von 7 durchgeführt wurde. Wenn insbesondere der Pixelwert beispielsweise durch Y, U und V dargestellt wird, und die Hinzufügung im Schritt S3 von 7 beispielsweise in bezug auf die Y-Komponente durchgeführt wurde, sollte die Subtraktion auch bezüglich der Y-Komponente im Schritt S12 ausgeführt werden.
  • Nachdem 27 vom Pixelwert im Schritt S12 subtrahiert wurden, läuft die Verarbeitung weiter zum Schritt S13, in welchem bestimmt wird, ob der Subtrahierwert einen Unterlauf verursacht. Wenn das Ergebnis des Schritt S13 negativ ist, überspringt die Verarbeitung den Schritt S14 und läuft weiter zum Schritt S15.
  • Wenn dagegen im Schritt S13 herausgefunden wird, dass der subtrahierte Wert einen Unterlauf verursacht, d.h., dass der subtrahierte Wert kleiner als 0 ist, läuft die Verarbeitung weiter zum Schritt S14, in welchem der subtrahierte Wert korrigiert wird. Das heißt, im Schritt S14 wird der unterlaufende subtrahierte Wert auf beispielsweise den Wert korrigiert, der durch Hinzufügen von 28 zum subtrahierten Wert erhalten wurde. Die Verarbeitung läuft dann weiter zum Schritt S15.
  • Im Schritt S15 berechnet die CPU 43 einen Korrelationswert R1 zwischen dem Pixelwert P1 (dem Wert, von dem 27 im Schritt S12 nicht subtrahiert wurde, hier manchmal als "erster Pixelwert" bezeichnet) und peripheren Pixeln, beispielsweise Pixeln, die dem Pixel P1 horizontal benachbart sind. Die CPU 43 berechnet außerdem einen Korrelationswert R2 zwischen dem subtrahierten Pixelwert P2 (der im Schritt S14 korrigiert wurde, hier manchmal als "zweiter Pixelwert" bezeichnet) und peripheren Pixeln, beispielsweise Pixeln, die horizontal dem Pixel P2 benachbart sind.
  • Insbesondere wird im Schritt S15 ein Absolutwert der Differenz zwischen dem ersten Pixelwert P1 und allen benachbarten Pixelwerten berechnet, und die beiden Absolutwerte werden addiert. Der resultierende Wert wird dann so bestimmt, der Korrelationswert R1 zu sein, in bezug auf den ersten Pixelwert P1. Im Schritt S15 wird ebenfalls ein Absolutwert der Differenz zwischen dem zweiten Pixelwert und P2 und allen benachbarten Pixelwerten berechnet, und die beiden Absolutwerte werden addiert. Der resultierende Wert wird dann dazu bestimmt, der Korrelationswert R2 in bezug auf den zweiten Pixelwert P2 zu sein.
  • Im Schritt S15 sind die Pixel, die dazu verwendet werden, die Korrelationswerte R1 und R2 zu erhalten, nicht auf die Pixel beschränkt, welche dem Pixel P1 oder P2 benachbart sind, oder können Pixel sein, die dem Pixel P1 oder P2 vertikal benachbart sind, oder Pixel sein, welche vorübergehend dem Pixel P1 oder P2 benachbart sind. Es ist notwendig, dass die Pixel, um die Korrelationswerte R1 und R2 zu erhalten, räumlich oder zeitlich benachbart sind. Es ist jedoch wünschenswert, dass die Pixel, die durch schraffierte Bereiche in 8 angedeutet sind, d.h., Pixel ohne eingebettete Zusatzinformation, dazu verwendet werden, die Korrelationswerte R1 und R2 in bezug auf die Pixel P1 bzw. P2 zu bestimmen. Der Grund dafür ist wie folgt. Sogar, wenn der Korrelationswert zwischen dem Pixel P1 oder P2 und den Pixeln, in denen Information eingebettet ist, erhalten wird, kann die Korrelation des Pixels P1 oder P2 zum Ursprungsbild nicht erworben werden, was es unmöglich macht, das Prinzip der Korrelation des Bilds zu nutzen. Es ist somit schwierig, die ursprünglichen Pixelwerte und die Zusatzinformation von den Pixeln, in denen die Zusatzinformation eingebettet ist, korrekt zu decodieren. Da außerdem das Pixel P1 oder P2 unter Verwendung der Korrelation des Bilds decodiert wird, ist es vorteilhaft, dass die Pixel, die dazu verwendet werden, die Korrelationswerte R1 und R2 zu erhalten, räumlich oder zeitlich benachbart zum Pixel P1 oder P2 positioniert sind.
  • Danach läuft nach Berechnen der Korrelationswerte R1 und R2 die Verarbeitung weiter zum Schritt S16, in welchem die CPU 43 die Korrelationswerte R1 und R2 vergleicht.
  • Wenn im Schritt S16 bestimmt wird, dass der Korrelationswert R1 größer ist als der Korrelationswert R2, läuft die Verarbeitung weiter zum Schritt S17. Im Schritt S17 gibt die CPU 43 die 0 als decodierte Zusatzinformation aus, und kehrt zum Schritt S11 zurück. In diesem Fall wird der Wert, der im Speicher 41 gespeichert ist, nicht überschrieben, und somit bleibt der decodierte Pixelwert der gleiche wie der Pixelwert P1.
  • Insbesondere wurde im Schritt S16 bestimmt, dass der Korrelationswert R1, welcher den ersten Pixelwert P1 betrifft, größer ist als der Korrelationswert R2, der den zweiten Pixelwert P2 betrifft. Es wird somit gezeigt, dass das zu decodierende Pixel genauer durch den Pixelwert P1 als durch den Pixelwert P2 dargestellt werden kann, und der Pixelwert P1 wird dann dazu bestimmt, der decodierte Pixelwert zu sein. Da 27 nicht vom Pixelwert P1 im Schritt S12 subtrahiert wird, wird in betracht gezogen, dass 27 nicht im Schritt S3 von 7 hinzugefügt wurde. Bei der in 7 gezeigten Einbettungscodierungsverarbeitung wird bestimmt, dass 27 nicht hinzugefügt wird, wenn die Zusatzinformation die 0 zeigt. Wenn somit der Korrelationswert R1, der den ersten Pixelwert P1 betrifft, größer ist als der Korrelationswert R2, der den zweiten Pixelwert P2 betrifft, und wenn es wahrscheinlich ist, dass der Pixelwert P1 vorzugsweise als der Pixelwert P2 dazu bestimmt wird, der zu decodierende Pixelwert zu sein, ist die Zusatzinformation, die in das entsprechende Pixel eingebettet ist, die 0.
  • Wenn im Schritt S16 bestimmt wird, dass der Korrelationswert R2 gleich oder größer als der Korrelationswert R1 ist, läuft die Verarbeitung weiter zum Schritt S18. Im Schritt S18 überschreibt die CPU 43 den Pixelwert, der im Rahmenspeicher 41 gespeichert ist, mit dem Wert, der durch Subtrahieren von 27 vom Pixelwert erhalten wird, d.h., mit dem zweiten Pixelwert P2. In diesem Fall wird daher der Pixelwert P2 dazu bestimmt, der decodierte Pixelwert zu sein. Die Verarbeitung läuft dann weiter zum Schritt S19, in welchem die CPU 43 die 1 als decodierte Zusatzinformation ausgibt. Die Verarbeitung kehrt dann zurück zum Schritt S11.
  • Insbesondere wurde im Schritt S16 bestimmt, dass der Korrelationswert R2, der den zweiten Pixelwert P2 betrifft, gleich oder größer als der Korrelationswert R1 ist, der den ersten Pixelwert P1 betrifft. Es wird somit gezeigt, dass das zu decodierende Pixel genauer durch den Pixelwert P2 als durch den Pixelwert P1 dargestellt werden kann. Folglich wird der Pixelwert P2 dazu bestimmt, der decodierte Pixelwert zu sein. Da 27 vom Pixelwert P2 im Schritt S12 abgezogen wird, kann in betracht gezogen werden, dass 27 im Schritt S3 von 7 hinzugefügt wurde. Bei der Einbettungscodierungsverarbeitung, welche in 7 gezeigt ist, wird bestimmt, dass 27 hinzugefügt wurde, wenn die Zusatzinformation 1 anzeigt. Wenn somit der Korrelationswert R2, der den zweiten Pixelwert P2 betrifft, gleich oder größer als der Korrelationswert R1 ist, der den ersten Pixelwert P1 betrifft, und wenn es wahrscheinlich ist, dass der Pixelwert P2 dazu bestimmt wird, der zu decodierende Pixelwert zu sein, beträgt die Zusatzinformation, die in das entsprechende Pixel eingebettet ist, 1.
  • Wenn die Differenz zwischen den Korrelationswerten R1 und R2, die wie oben beschrieben erhalten werden, klein ist, ist es nicht möglich, eindeutig zu bestimmen, welcher Korrelationswert R1 oder R2 genauer als Pixelwert, der zu decodieren ist, verwendet werden kann. Folglich können in diesem Fall nicht nur horizontal benachbarte Pixel, sondern auch andere Pixel dazu verwendet werden, die Korrelationswerte R1 und R2 in bezug auf die Pixelwerte P1 bzw. P2 zu erhalten. Die Korrelationswerte R1 und R2 können dann verglichen werden, um dadurch zu bestimmen, welcher Korrelationswert R1 oder R2 genauer als decodiertes Pixel verwendet werden kann.
  • Gemäß der obigen Beschreibung werden die codierten Daten, die ein Bild darstellen, in welches Zusatzinformation eingebettet ist, zu dem Ursprungsbild und zur Zusatzinformation decodiert werden, wobei die Korrelation des Bilds verwendet wird, wodurch ein Decodierbetrieb erreicht wird, ohne das Erfordernis des Zusatzaufwandes zum Decodieren. Folglich ist das decodierte Bild (reproduzierte Bild) grundsätzlich frei von der Verschlechterung der Bildqualität, was durch Einbetten der Information in das Ursprungsbild verursacht wird.
  • Obwohl bei dieser Ausführungsform ein Absolutwert der Differenz zwischen dem zu verarbeitenden Pixel und einem anderen Pixel als Korrelationswert zwischen diesen Pixeln verwendet wird, ist der Korrelationswert nicht auf den Absolutwert beschränkt, der wie oben beschrieben erhalten wird.
  • Bei dieser Ausführungsform werden Pixel abwechselnd von dem Bild gemäß einem Schachbrettmuster ausgewählt, wie in 8 gezeigt ist, und die Zusatzinformation ist in den ausgewählten Pixeln eingebettet. Die Pixel können jedoch in einem Muster ausgewählt werden, welches gegenüber dem obigen verschieden ist. Wie oben ausgeführt werden jedoch beim Decodieren der Pixel, in denen die Zusatzinformation eingebettet ist, Pixel ohne eingebettete Zusatzinformation vorteilhaft ausgewählt, um die Korrelation zu erhalten. Die Korrelation zwischen den Pixeln wird kleiner, wenn die Pixel räumlich oder zeitlich weiter voneinander entfernt sind. Folglich sollten im Hinblick auf das Erzielen einer genauen Decodierung die Pixel, in welche die Zusatzinformation eingebettet ist, räumlich oder zeitlich spärlich ausgewählt werden. Um eine größere Menge Zusatzinformation einzubetten, d.h., für das vergrö ßerte Kompressionsverhältnis, sollte die Anzahl von Pixeln, die auszuwählen ist, bis zu einem gewissen Grad erhöht werden, um darin die Zusatzinformation einzubetten. Es ist somit wünschenswert, dass die Pixel zum Einbetten der Zusatzinformation ausgewählt werden, wobei ein guter Ausgleich zwischen genauer Decodierung und einem beträchtlich hohen Kompressionsverhältnis in betracht gezogen wird.
  • Bei dieser Ausführungsform ist eine zusätzliche Ein-Bit-Information in ein Pixel eingebettet, welches als zu verarbeitendes Pixel ausgewählt wird. Die Zusatzinformation, die zwei Bits oder mehr hat, in einem Pixel eingebettet sein. Wenn beispielsweise die Zwei-Bit-Zusatzinformation in ein Pixel eingebettet ist, kann eines von 0, 26, 27 und 26 + 27 dem Pixelwert hinzugefügt werden, entsprechend der Zwei-Bit-Zusatzinformation.
  • Bei der obigen Ausführungsform wird die Zusatzinformation unter Hinzufügung von 0 oder 27 zum Pixelwert eingebettet (anders ausgedrückt durch Hinzufügen von 27 oder durch Nichthinzufügen von 27). Der dem Pixelwert hinzufügende Wert ist nicht auf 27 beschränkt. Wenn jedoch ein Wert, der einen Einfluss auf lediglich die unteren Bits des Pixelwerts hinzugefügt wird, erzeugt werden kann, wird der resultierende hinzugefügte Pixelwert nicht wesentlich verschieden vom ursprünglichen Pixelwert. Somit wird kein wesentlicher Unterschied zwischen den Korrelationswerten R1 und R2, welche im Schritt S15 von 11 erhalten werden, beobachtet. Dies mindert die Genauigkeit des decodierten Pixelwerts und der decodierten Zusatzinformation. Es ist somit wünschenswert, dass der dem Pixelwert hinzuzufügende Wert gemäß der Zusatzinformation ein Wert ist, der einen Einfluss auf die oberen Bits des ursprünglichen Pixelwerts erzeugen kann.
  • Gemäß der obigen Ausführungsform ist die Zusatzinformation durch Hinzufügen eines vorher festgelegten Werts zum Pixelwert eingebettet. Die Zusatzinformation kann jedoch durch Durchführen einer Operation in bezug auf den Pixelwert an anders als die Hinzufügung (beispielsweise durch Bitumkehrung) eingebettet werden. Wie oben erläutert sollte im Hinblick auf das Aufrechterhalten der Qualität des decodierten Pixelwerts und der decodierten Zusatzinformation der Betrieb so festgelegt werden, dass ein signifikanter Unterschied erzeugt werden kann, zwischen dem Korrelationswert, der den ursprünglichen Pixelwert betrifft, und dem Korrelationswert, der den Pixelwert betrifft, der erhalten wird, nachdem der entsprechende Betrieb durchgeführt wird.
  • Bei der obigen Ausführungsform ist eine Ein-Bit-Zusatzinformation in ein Pixel eingebettet. Die Ein-Bit-Zusatzinformation kann jedoch in mehrere Pixel eingebettet sein, beispielsweise in vier Bits, die durch die mit Kreisen versehenen Pixel, die in 12 gezeigt sind, angezeigt werden.
  • Insbesondere sein nun angenommen, dass die Ein-Bit-Zusatzinformation in die vier Pixel p(1, 4), p(5, 4), p(1, 8) und p(5, 8) eingebettet ist, wie in 12 gezeigt ist. Im Codierbetrieb wird der gleiche Betrieb in bezug auf alle Pixel p(1, 4), p(5, 4), p(1, 8) und p(5, 8) gemäß der Zusatzinformation durchgeführt, wodurch die Ein-Bit-Zusatzinformation in die vier Pixel eingebettet wird. Beim Codierbetrieb werden der oben erläuterte Korrelationswert R1, der den ersten Pixelwert P1 betrifft, und der Korrelationswert R2, der den zweiten Pixel P2 betrifft, in bezug auf alle Pixel p(1, 4), p(5, 4), p(1, 8) und p(5, 8) berechnet. Dann werden der Korrelationswert R1 und der Korrelationswert R2 verglichen. Beim Vergleich werden die größeren Pixelwerte dazu bestimmt, die decodierten Pixelwerte p(1, 4), p(5, 4), p(1, 8) und p(5, 8) und die decodierte Zusatzinformation zu sein. Alternativ kann die Summe der Korrelationswerte R1, welche die ersten Pixelwerte P1 betrifft, und die Summe der Korrelationswerte R2, welche die zweiten Pixelwerte P2 in bezug auf alle Pixelwerte p(1, 4), p(5, 4), p(1, 8) und p(5, 8) betreffen, erhalten werden, und bei einem Vergleich der beiden Summen kann die größere Summe dazu bestimmt werden, die decodierten Pixelwerte p(1, 4), p(5, 4), p(1, 8) und p(5, 8) und die decodierte Zusatzinformation zu sein.
  • Wenn Pixel alternativ von dem Bild gemäß dem Schachbrettmuster ausgewählt werden, wie in 8 gezeigt ist, und die Ein-Bit-Zusatzinformation in alle ausgewählten Pixel eingebettet ist, kann die Zusatzinformation, welche die Anzahl von Pixeln ungefähr die Hälfte der Anzahl von Pixeln des Bilds hat, eingebettet werden. Wenn jedoch die Ein-Bit-Zusatzinformation in vier Bits eingebettet ist, wird, wie oben erläutert, wird die Anzahl von Bits der Zusatzinformation, welche in die ausgewählten Pixel eingebettet werden sollen, auf ein achtel der Anzahl der Pixel des Bilds reduziert.
  • Die Informationsart, die als Zusatzinformation verwendet wird, ist nicht besonders beschränkt, sondern sie kann ein Bild, ein Ton, Text, ein Computerprogramm oder andere Datenarten sein. Die Bilddatenbank 1 kann Bilder enthalten, welche zum Rahmenspeicher 31 geliefert werden, sowie Zusatzinformation. Mit dieser Anordnung kann die Zusatzinformation in das Bild eingebettet werden, wodurch die Kompression des Bilds erreicht wird.
  • Gemäß der obigen Ausführungsform werden die Einbettungscodierverarbeitung und die Einbettungsdecodierverarbeitung durch Ausführen der Computerprogramme durch die CPU 32 bzw. 43 durchgeführt. Die Einbettungscodierverarbeitung oder die Einbettungsdecodierverarbeitung kann jedoch auch unter Verwendung von Hardware durchgeführt werden, die ausschließlich für die entsprechende Verarbeitung verwendet wird.
  • Bei der obigen Ausführungsform sind die Computerprogramme, welche durch die CPU 32 und 43 ausgeführt werden, im Programmspeicher 33 bzw. im Programmspeicher 44 gespeichert. Das Computerprogramm kann über einen Aufzeichnungsträger bereitgestellt werden, beispielsweise ein Magnetband, eine Magnetplatte, eine optische Platte, eine magneto-optische Platte oder eine PD-Platte oder ein Übertragungsträger, beispielsweise das Internet, ein terrestrisches Rundfunksignal, ein Satelliten-Rundfunksignal, ein öffentliches Netz oder ein CATV-Netz.
  • Insoweit die Ausführungsformen der Erfindung, die oben beschrieben wurden, zumindest teilweise ausgeführt werden, wobei ein software-gesteuertes Datenverarbeitungsgerät verwendet wird, soll verstanden sein, dass ein Computerprogramm, welches eine derartige Software-Steuerung bereitstellt, und ein Speicherträger, durch den ein derartiges Computerprogramm gespeichert wird, als Merkmal der vorliegenden Erfindung in betracht gezogen werden.

Claims (21)

  1. Bildverarbeitungsvorrichtung zum Durchführen einer Verarbeitung zum Einbetten von Information in ein Bild, wobei die Vorrichtung aufweist: eine Auswahleinrichtung zum Auswählen eines Pixels des Bilds; und eine Verarbeitungseinrichtung zum Durchführen von Verarbeitung in bezug auf das Pixel, welches durch die Auswahleinrichtung ausgewählt wurde, gemäß der Information, so dass das Pixel unter Verwendung einer Korrelation des Bilds reproduzierbar ist, wobei dadurch die Information in das Pixel eingebettet wird.
  2. Bildverarbeitungsvorrichtung nach Anspruch 1, wobei die Verarbeitungseinrichtung die Verarbeitung in bezug auf eines von einer Luminanzkomponente und einer Farbkomponente des Pixels durchführt.
  3. Bildverarbeitungsvorrichtung nach Anspruch 1, wobei die Verarbeitungseinrichtung einen vorher festgelegten Wert entsprechend der Information einem Wert des Pixels hinzufügt.
  4. Bildverarbeitungsvorrichtung nach Anspruch 1, wobei die Verarbeitungseinrichtung die Information, welche ein Bit hat, in das Pixel einbettet.
  5. Bildverarbeitungsvorrichtung nach Anspruch 1, wobei die Verarbeitungseinrichtung die Information, die ein Bit aufweist, in mehrere Pixel einbettet.
  6. Bildverarbeitungsvorrichtung nach Anspruch 1, wobei die Auswahleinrichtung abwechselnd die Pixel von dem Bild gemäß einem Schachbrettmuster auswählt.
  7. Bildverarbeitungsverfahren zum Durchführen von Verarbeitung zum Einbetten von Information in ein Bild, wobei das Verfahren aufweist: einen Auswahlschritt zum Auswählen eines Pixels des Bilds; und einen Verarbeitungsschritt zum Durchführen von Verarbeitung in bezug auf das Pixel, welches im Auswahlschritt ausgewählt wurde, gemäß der Information, so dass das Pi xel unter Verwendung einer Korrelation des Bilds reproduzierbar ist, wobei dadurch die Information in das Pixel eingebettet wird.
  8. Bereitstellungsmedium zum Bereitstellen eines Computerprogramms, um einen Computer in die Lage zu versetzen, Verarbeitung zum Einbetten von Information in ein Bild durchzuführen, wobei das Computerprogramm aufweist: einen Auswahlschritt zum Auswählen eines Pixels des Bilds; und einen Verarbeitungsschritt zum Durchführen von Verarbeitung in bezug auf das Pixel, welches im Auswahlschritt ausgewählt wurde, gemäß der Information, so dass das Pixel unter Verwendung einer Korrelation des Bilds reproduzierbar ist, wobei dadurch die Information in das Pixel eingebettet wird.
  9. Bereitstellungsmedium nach Anspruch 8, wobei der Verarbeitungsschritt die Verarbeitung bezüglich eines von einer Luminanzkomponente und einer Farbkomponente des Pixels durchführt.
  10. Bereitstellungsmedium nach Anspruch 8, wobei der Verarbeitungsschritt einen vorher festgelegten Wert entsprechend der Information einem Wert des Pixels hinzufügt.
  11. Bereitstellungsmedium nach Anspruch 8, wobei der Verarbeitungsschritt die Information, welche ein Bit aufweist, in das Pixel einbettet.
  12. Bereitstellungsmedium nach Anspruch 8, wobei der Verarbeitungsschritt die Information, die ein Bit aufweist, in mehrere Pixel einbettet.
  13. Bereitstellungsmedium nach Anspruch 8, wobei der Auswahlschritt anwechselnd die Pixel von dem Bild gemäß einem Schachbrettmuster auswählt.
  14. Bereitstellungsmedium zum Bereitstellen eines Informations-Einbettungs-Bilds, in welchem Information eingebettet ist, wobei das Informations-Einbettungs-Bild durch Einbetten der Information in das Bild durch Auswählen eines Pixels des Bilds und durch Durchführen von Verarbeitung in bezug auf das ausgewählte Pixel gemäß der Information erhalten wird, so dass das Pixel unter Verwendung einer Korrelation des Bilds reproduzierbar ist.
  15. Bereitstellungsmedium nach Anspruch 14, wobei die Verarbeitung in bezug auf eines von der Luminanzkomponente und von der Farbkomponente des Pixels durchgeführt wird.
  16. Bereitstellungsmedium nach Anspruch 14, wobei ein vorher festgelegter Wert entsprechend der Information einem Wert des Pixels hinzugefügt ist.
  17. Bereitstellungsmedium nach Anspruch 14, wobei die Information, die ein Bit aufweist, in das Pixel eingebettet ist.
  18. Bereitstellungsmedium nach Anspruch 14, wobei die Information, welche ein Bit aufweist, in mehrere Pixel eingebettet ist.
  19. Bereitstellungsmedium nach Anspruch 14, wobei die Pixel abwechselnd von dem Bild gemäß einem Schachbrettmuster ausgewählt werden.
  20. Bildverarbeitungsvorrichtung, welche einen Übertrager zum Übertragen eines Informations-Einbettungs-Bilds, welches durch Einbetten von Information erhalten wird, und einen Empfänger aufweist, um das Informations-Einbettungs-Bild vom Übertrager zu empfangen und um das Bild zu decodieren, wobei der Übertrager eine Vorrichtung nach Anspruch 1 aufweist; und der Empfänger aufweist: eine zweite Auswahleinrichtung, um ein Pixel des Informations-Einbettungs-Bilds auszuwählen; eine zweite Verarbeitungseinrichtung, um eine vorher festgelegte Verarbeitung in bezug auf das Pixel, welches durch die zweite Auswahleinrichtung ausgewählt wurde, durchzuführen; eine Korrelationsberechnungseinrichtung, um eine erste Korrelation zwischen dem Pixel, welches durch die zweite Auswahleinrichtung ausgewählt wurde, und einem peripheren Pixel rundum das ausgewählte Pixel zu berechnen, und um eine zweite Korrelation zwischen dem Pixel, welches durch die zweite Auswahleinrichtung ausgewählt wurde und durch die zweite Verarbeitungseinrichtung verarbeitet wurde, und dem peripheren Pixel rundum das Pixel zu berechnen; eine Vergleichseinrichtung, um die erste Korrelation und die zweite Korrelation zu vergleichen; und eine Decodiereinrichtung, um das Pixel, welches durch die zweite Auswahleinrichtung ausgewählt wurde, und die Information, die in das Pixel eingebettet wurde, auf der Basis eines Ergebnisses, welches durch die Vergleichseinrichtung erhalten wird, zu decodieren.
  21. Bildverarbeitungsverfahren zur Verwendung bei einer Bildverarbeitungsvorrichtung, die einen Übertrager, um ein Informations-Einbettungs-Bild zu übertragen, welches durch Einbetten von Information erhalten wird, und einen Empfänger aufweist, um das Informations-Einbettungs-Bild vom Übertrager zu empfangen und um das Bild zu decodieren, wobei das Verfahren folgende Schritte aufweist: Ausführen eines Verfahrens nach Anspruch 7, wobei der Auswahlschritt und der Verarbeitungsschritt durch den Übertrager ausgeführt werden; Auswählen des Pixels des Informations-Einbettungs-Bilds durch den Empfänger; Durchführen vorher festgelegter Verarbeitung durch den Empfänger in bezug auf das ausgewählte Pixel; Berechnen – durch den Empfänger – einer ersten Korrelation zwischen dem Pixel, welches vom Informations-Einbettungs-Bild ausgewählt wurde, und einem peripheren Pixel rundum das ausgewählte Pixel, und Berechnen einer zweiten Korrelation zwischen dem Pixel, welches vom Informations-Einbettungs-Bild ausgewählt wurde und der vorher festgelegten Verarbeitung unterzogen wurde, und dem peripheren Pixel rundum das Pixel; Vergleichen der ersten Korrelation und der zweiten Korrelation durch den Empfänger; und Decodieren des Pixels, welches vom Informations-Einbettungs-Bild ausgewählt wurde, und der Information, welche in das Pixel durch den Empfänger eingebettet wurde, auf der Basis eines Vergleichsergebnisses.
DE69922453T 1998-08-06 1999-07-30 Bildverarbeitungsgerät, Bildverarbeitungsverfahren und Herstellungsmedia Expired - Lifetime DE69922453T2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP22295198A JP4822304B2 (ja) 1998-08-06 1998-08-06 画像処理装置および画像処理方法、並びに記録媒体
JP22295198 1998-08-06

Publications (2)

Publication Number Publication Date
DE69922453D1 DE69922453D1 (de) 2005-01-13
DE69922453T2 true DE69922453T2 (de) 2005-12-15

Family

ID=16790442

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69922453T Expired - Lifetime DE69922453T2 (de) 1998-08-06 1999-07-30 Bildverarbeitungsgerät, Bildverarbeitungsverfahren und Herstellungsmedia

Country Status (6)

Country Link
US (1) US6567531B1 (de)
EP (2) EP1304649A3 (de)
JP (1) JP4822304B2 (de)
KR (1) KR100636606B1 (de)
CN (2) CN1155253C (de)
DE (1) DE69922453T2 (de)

Families Citing this family (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6965697B1 (en) 1998-07-15 2005-11-15 Sony Corporation Coding apparatus and method, decoding apparatus and method, data processing system, storage medium, and signal
KR100720298B1 (ko) * 1998-10-07 2007-05-22 소니 가부시끼 가이샤 코딩 장치 및 방법, 디코딩 장치 및 방법, 데이터 처리 시스템, 저장 매체, 및 신호
US6870944B1 (en) * 1999-06-08 2005-03-22 Sony Corporation Image processing apparatus, image processing method, and storage medium
JP3651319B2 (ja) * 1999-07-16 2005-05-25 日本ビクター株式会社 電子透かし情報記録方法、再生方法、及び電子透かし情報記録装置、再生装置
US6963363B1 (en) * 1999-09-10 2005-11-08 Nikon Corporation Digital camera capable of embedding an electronic watermark into image data
JP4626784B2 (ja) 2000-05-19 2011-02-09 ソニー株式会社 通信装置および通信方法、並びに記録媒体
US6801204B2 (en) * 2001-02-15 2004-10-05 Sony Corporation, A Japanese Corporation Checkerboard buffer using memory blocks
US6795079B2 (en) * 2001-02-15 2004-09-21 Sony Corporation Two-dimensional buffer pages
US6992674B2 (en) * 2001-02-15 2006-01-31 Sony Corporation Checkerboard buffer using two-dimensional buffer pages and using state addressing
US6828977B2 (en) * 2001-02-15 2004-12-07 Sony Corporation Dynamic buffer pages
US6831651B2 (en) * 2001-02-15 2004-12-14 Sony Corporation Checkerboard buffer
US7088369B2 (en) * 2001-02-15 2006-08-08 Sony Corporation Checkerboard buffer using two-dimensional buffer pages and using bit-field addressing
US6831650B2 (en) * 2001-02-15 2004-12-14 Sony Corporation Checkerboard buffer using sequential memory locations
US6850241B2 (en) * 2001-02-15 2005-02-01 Sony Corporation Swapped pixel pages
US6765580B2 (en) * 2001-02-15 2004-07-20 Sony Corporation Pixel pages optimized for GLV
US6803917B2 (en) 2001-02-15 2004-10-12 Sony Corporation Checkerboard buffer using memory bank alternation
US6791557B2 (en) * 2001-02-15 2004-09-14 Sony Corporation Two-dimensional buffer pages using bit-field addressing
US6765579B2 (en) * 2001-02-15 2004-07-20 Sony Corporation Pixel pages using combined addressing
US7379069B2 (en) * 2001-02-15 2008-05-27 Sony Corporation Checkerboard buffer using two-dimensional buffer pages
US7205993B2 (en) * 2001-02-15 2007-04-17 Sony Corporation Checkerboard buffer using two-dimensional buffer pages and using memory bank alternation
US7038691B2 (en) * 2001-02-15 2006-05-02 Sony Corporation Two-dimensional buffer pages using memory bank alternation
US6831649B2 (en) * 2001-02-15 2004-12-14 Sony Corporation Two-dimensional buffer pages using state addressing
US6768490B2 (en) * 2001-02-15 2004-07-27 Sony Corporation Checkerboard buffer using more than two memory devices
JP4556087B2 (ja) * 2001-03-22 2010-10-06 ソニー株式会社 データ処理装置およびデータ処理方法、並びにプログラムおよびプログラム記録媒体
JP2002304185A (ja) * 2001-04-04 2002-10-18 Video Research:Kk 著作権管理システム、著作権管理方法及びプログラム
US20030058368A1 (en) * 2001-09-24 2003-03-27 Mark Champion Image warping using pixel pages
JP4216561B2 (ja) * 2002-02-07 2009-01-28 富士フイルム株式会社 サーバ装置
US6965980B2 (en) * 2002-02-14 2005-11-15 Sony Corporation Multi-sequence burst accessing for SDRAM
JP2004221712A (ja) * 2003-01-10 2004-08-05 Sony Corp 情報処理装置および情報処理方法、プログラム、並びにデータ構造および記録媒体
JP3784781B2 (ja) 2003-05-20 2006-06-14 富士通株式会社 画像データ処理装置、画像データ処理方法、画像データ処理プログラムおよび画像データ処理システム
BRPI0417353A (pt) 2003-12-05 2007-07-31 New Jersey Tech Inst sistema e método para ocultar dados reversìveis robustos e recuperação de dados no domìnio espacial
JP4622762B2 (ja) * 2005-09-14 2011-02-02 パナソニック電工株式会社 画像データ圧縮・復元方法
WO2007073010A1 (en) * 2005-10-10 2007-06-28 Jae-Yeon Moon Media making method and storage medium
JP4548434B2 (ja) * 2007-03-15 2010-09-22 ソニー株式会社 データ処理装置およびデータ処理方法、並びに記録媒体
JP4626824B2 (ja) * 2007-03-15 2011-02-09 ソニー株式会社 通信装置および通信方法、並びに記録媒体
JP5007681B2 (ja) * 2008-02-14 2012-08-22 ソニー株式会社 放送システム
KR100967725B1 (ko) * 2008-04-29 2010-07-05 전북대학교산학협력단 정지영상의 저작권 보호를 위한 보호저작권정보 생성 및 복원방법
EP2234400A1 (de) * 2009-03-23 2010-09-29 Sony Corporation Verfahren und Vorrichtung zur Bereitstellung eines Multimedia-Inhaltstroms mit Einbettung von Verarbeitungsinformationen des Inhaltstroms
US9759554B2 (en) 2013-08-02 2017-09-12 Omnivision Technologies, Inc. Application specific, dual mode projection system and method
CN104202294B (zh) * 2014-07-23 2017-08-29 西安空间无线电技术研究所 一种在格式数据流中无损信息嵌入与恢复方法
CN104581120A (zh) * 2015-01-23 2015-04-29 深圳超多维光电子有限公司 图像信息保存方法、保存装置、立体图像生成方法和装置

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6268366A (ja) 1985-09-20 1987-03-28 Matsushita Electric Ind Co Ltd 画素内插方式
JP2824910B2 (ja) * 1989-04-07 1998-11-18 甲子雄 松井 画像へのデータ合成方法
JP2807293B2 (ja) * 1989-11-20 1998-10-08 興和紡績株式会社 画像データの符号化・復号化方法およびファクシミリ装置
JPH04310057A (ja) * 1991-04-08 1992-11-02 Nippon Telegr & Teleph Corp <Ntt> イメージ情報への第2情報埋め込み方法及びその復号方法
JPH05236424A (ja) * 1992-02-25 1993-09-10 Matsushita Electric Ind Co Ltd 情報埋め込み方法およびその装置
US5721788A (en) * 1992-07-31 1998-02-24 Corbis Corporation Method and system for digital image signatures
US5530759A (en) * 1995-02-01 1996-06-25 International Business Machines Corporation Color correct digital watermarking of images
US5815572A (en) * 1995-08-31 1998-09-29 Lucent Technologies Inc. Video scrambling
WO1997039410A1 (en) * 1996-04-02 1997-10-23 The Regents Of The University Of California Data embedding
EP0852441B1 (de) * 1996-06-20 2010-08-25 International Business Machines Corporation Verfahren zum verstecken von daten
US5734752A (en) * 1996-09-24 1998-03-31 Xerox Corporation Digital watermarking using stochastic screen patterns
JP3154325B2 (ja) * 1996-11-28 2001-04-09 日本アイ・ビー・エム株式会社 認証情報を画像に隠し込むシステム及び画像認証システム
JP3172475B2 (ja) * 1996-12-26 2001-06-04 日本アイ・ビー・エム株式会社 統計検定を用いたデータ・ハイディング方法及びデータ抽出方法
US5875249A (en) * 1997-01-08 1999-02-23 International Business Machines Corporation Invisible image watermark for image verification
US6148333A (en) * 1998-05-13 2000-11-14 Mgi Software Corporation Method and system for server access control and tracking

Also Published As

Publication number Publication date
EP0978801B1 (de) 2004-12-08
CN1155253C (zh) 2004-06-23
DE69922453D1 (de) 2005-01-13
JP4822304B2 (ja) 2011-11-24
KR20000017106A (ko) 2000-03-25
JP2000059743A (ja) 2000-02-25
EP1304649A3 (de) 2006-04-26
EP1304649A2 (de) 2003-04-23
EP0978801A1 (de) 2000-02-09
CN1248132A (zh) 2000-03-22
CN1532774A (zh) 2004-09-29
KR100636606B1 (ko) 2006-10-20
CN100346351C (zh) 2007-10-31
US6567531B1 (en) 2003-05-20

Similar Documents

Publication Publication Date Title
DE69922453T2 (de) Bildverarbeitungsgerät, Bildverarbeitungsverfahren und Herstellungsmedia
DE69332425T2 (de) Vorrichtung und Verfahren zur Übertragung von Videosignalen
DE69226674T2 (de) Kodierung von komprimierten Datenbildern mit hohem Wirkungsgrad
DE69220269T2 (de) Anordnung und Verfahren zur Vorverarbeitung binärer Bilddaten von Lauflängekodierung
DE19861377B4 (de) Ein verbessertes Kompressions- und Dekompressionssystem mit reversiblen Wavelets und verlustbehafteter Rekonstruktion
DE69823168T2 (de) Verfahren und gerät zur kodierung und formatierung von daten eines videoprogramms zur erzeugung sich mehrfach überlappender darstellungen des videoprogramms
DE69535007T2 (de) Verfahren und Vorrichtung zur objektbasierten prädiktiven Kodierung und Übertragung von digitalen Bildern und Dekodierungsvorrichtung
DE69228893T2 (de) Vorrichtung und Verfahren zur Datenmischung und -entmischung
DE69730109T2 (de) Verfahren und Vorrichtung zum Herstellen von Wasserzeichen
DE69327375T2 (de) Verfahren und Vorrichtung zur Wiederherstellung von Bilddaten
DE69736852T2 (de) Codierung- und Decodierungssystem für bewegte Bilder mit beliebig geformten Objekten
DE69822773T2 (de) Videosignalverarbeitung für elektronisches Wasserzeichensetzen
DE3751416T2 (de) Bildcodiersystem zum Ueberwachen einer Informationsmenge durch Bildung eines Histogramms.
DE3814627C2 (de)
DE3750853T2 (de) Verfahren zur Bildsignalkodierung mittels Orthogonal-Transformation.
DE69123991T2 (de) Bildverarbeitung mit neuronalem Netzwerk
DE69523439T2 (de) Verfahren und Vorrichtung zur Bildsignalkodierung mit einer Klassifizieranlage
DE3854360T2 (de) Bildinformationscodeverarbeitungssystem.
DE69226755T2 (de) Vorrichtung zur Fehlerverdeckung in einer Transformationskodierung von Bewegtbildern
DE69737443T2 (de) Verfahren für skalierbares zwischenkonturverschlüsseln und vorrichtung dafür
DE69630297T2 (de) Weiterentwickeltes fernsehsystem
WO1995024770A1 (de) Verfahren zum übertragen von bildern
DE69324990T2 (de) Datenkodierung
DE69310609T2 (de) Quantisierungskontrollschaltung
DE69517300T2 (de) Verfahren zur Zuteilung und Wiederherstellung eines Bitstromes in einem digitalen Videokassettenrekorder und Komprimierungs- und Dekomprimierungsgerät dafür

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8320 Willingness to grant licences declared (paragraph 23)