JP2000050088A - Picture processor and picture processing method - Google Patents
Picture processor and picture processing methodInfo
- Publication number
- JP2000050088A JP2000050088A JP10209947A JP20994798A JP2000050088A JP 2000050088 A JP2000050088 A JP 2000050088A JP 10209947 A JP10209947 A JP 10209947A JP 20994798 A JP20994798 A JP 20994798A JP 2000050088 A JP2000050088 A JP 2000050088A
- Authority
- JP
- Japan
- Prior art keywords
- color
- profile
- colorimetric data
- xyz
- condition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Image Processing (AREA)
- Facsimile Image Signal Circuits (AREA)
- Color Image Communication Systems (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は画像処理装置および
その方法に関し、例えば、環境光に応じたカラーマッチ
ングを行うための画像処理装置およびその方法に関す
る。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus and method, and more particularly, to an image processing apparatus and method for performing color matching according to ambient light.
【0002】[0002]
【従来の技術】図1は一般的なカラーマッチングの概念
図である。2. Description of the Related Art FIG. 1 is a conceptual diagram of general color matching.
【0003】RGBデータである入力データは、入力プロ
ファイルによりデバイスに依存しない色空間のXYZデー
タに変換される。出力デバイスの色再現範囲外の色は出
力デバイスにより表現することができないため、そのす
べて色が出力デバイスの色再現範囲内に収まるように、
デバイスに依存しない色空間のデータに変換された入力
データに色空間圧縮が施される。そして、色空間圧縮が
施された後、入力データはデバイスに依存しない色空間
から出力デバイスに依存する色空間のCMYKデータへ変換
される。[0003] Input data that is RGB data is converted into XYZ data in a device-independent color space by an input profile. Since colors outside the color gamut of the output device cannot be represented by the output device, all colors fall within the color gamut of the output device.
Color space compression is performed on input data converted into data in a device-independent color space. After the color space compression is performed, the input data is converted from a device-independent color space to CMYK data in an output device-dependent color space.
【0004】カラーマッチングにおいて基準白色点およ
び環境光は固定されている。例えば、International Co
lor Consortium(ICC)によって規定されるプロファイル
では、プロファイルを結び付けるProfile Connection S
pace(PCS)がD50基準のXYZ値およびLab値である。このた
め、入力原稿やプリント出力はD50特性の光源下で観察
する場合に正しい色再現が保証され、その他の特性の光
源下では正しい色再現が保証されない。In color matching, a reference white point and ambient light are fixed. For example, International Co
In the profile specified by the lor Consortium (ICC), the Profile Connection S
pace (PCS) is the XYZ value and Lab value based on D50. For this reason, when an input document or print output is observed under a light source with D50 characteristics, correct color reproduction is guaranteed, and under a light source with other characteristics, correct color reproduction is not guaranteed.
【0005】[0005]
【発明が解決しようとする課題】異なる光源下で同一サ
ンプル(例えば画像)を観察した場合、観察されるサン
プルに対するXYZ値は当然異なる。異なる光源下におけ
るXYZ値を予測するために、(1)比率変換、(2)Von Kries
変換、(3)色知覚モデルによる予測式などの変換方式が
ある。When observing the same sample (for example, an image) under different light sources, the XYZ values for the observed sample naturally differ. To predict XYZ values under different light sources, (1) ratio conversion, (2) Von Kries
There are conversion methods such as conversion and (3) a prediction expression using a color perception model.
【0006】比率変換は、基準白色点W1下でのXYZ値を
基準白色点W2下のXYZ値に変換するために、W2/W1の比率
変換を施す方法である。この方法を、Lab均等色空間に
対して適用すると、W1下でのLab値とW2下でのLab値は一
致する。例えば、W1(Xw1,Yw1,Zw1)下でのサンプルのXYZ
値を(X1,Y1,Z1)、W2(Xw2,Yw2,Zw2)下でのサンプルのXYZ
値を(X2,Y2,Z2)とするとき、比率変換によれば次の関係
が得られる。 X2 = (Xw2 / Xw1)・X1 Y2 = (Yw2 / Yw1)・Y1 …(1) Z2 = (Zw2 / Zw1)・Z1The ratio conversion is a method of performing a ratio conversion of W2 / W1 in order to convert an XYZ value below the reference white point W1 into an XYZ value below the reference white point W2. When this method is applied to the Lab uniform color space, the Lab value under W1 matches the Lab value under W2. For example, sample XYZ under W1 (Xw1, Yw1, Zw1)
XYZ of the sample under values (X1, Y1, Z1) and W2 (Xw2, Yw2, Zw2)
When the value is (X2, Y2, Z2), the following relationship is obtained according to the ratio conversion. X2 = (Xw2 / Xw1) · X1 Y2 = (Yw2 / Yw1) · Y1 ... (1) Z2 = (Zw2 / Zw1) · Z1
【0007】Von Kries変換は、W1下でのXYZ値をW2下の
XYZ値に変換するために、人間の色知覚空間PQR上でW2'/
W1'の比率変換を施す方法である。この方法をLabの均等
色空間に対して適用すると、W1下でのLab値とW2下でのL
ab値は一致しない。例えば、W1(Xw1,Yw1,Zw1)下でのサ
ンプルのXYZ値を(X1,Y1,Z1)、W2(Xw2,Yw2,Zw2)下でのサ
ンプルのXYZ値を(X2,Y2,Z2)とするとき、Von Kries変換
によれば次の関係が得られる。 [0007] The Von Kries transform converts the XYZ value under W1 under W2.
In order to convert to XYZ values, W2 '/
This is a method of performing ratio conversion of W1 '. When this method is applied to the uniform color space of Lab, the Lab value under W1 and L under W2
Ab values do not match. For example, the XYZ value of the sample under W1 (Xw1, Yw1, Zw1) is (X1, Y1, Z1), and the XYZ value of the sample under W2 (Xw2, Yw2, Zw2) is (X2, Y2, Z2). Then, according to the Von Kries transform, the following relationship is obtained.
【0008】色知覚モデルによる予測式は、観察条件VC
1(W1を含む)下でのXYZ値を観察条件VC2(W2を含む)
下のXYZ値に変換するために、例えばCIE CAM97sのよう
な人間の色知覚空間QMH(またはJCH)を利用して変換す
る方法である。ここで、QMHのQはbrightness、Mはcolou
rfulness、Hはhuequadratureまたはhueangleを表し、JC
HのJはlightness、Cはchroma、Hはhuequadratureまたは
hueangleを表す。この変換方法をLabの均等色空間へ適
用すると、Von Kreis変換と同様に、W1下でのLab値とW2
下でのLab値は一致しない。例えば、W1(Xw1,Yw1,Zw1)下
でのサンプルのXYZ値を(X1,Y1,Z1)、W2(Xw2,Yw2,Zw2)下
でのサンプルのXYZ値を(X2,Y2,Z2)とするとき、Von Kri
es変換によれば次の変換が行われる。 (X1,Y1,Z1)→[CIE CAM97s順変換]→(Q,M,H)または(J,C,
H)→[CIE CAM97s逆変換]→(X2,Y2,Z2)The prediction formula based on the color perception model is based on the viewing condition VC
XYZ values under 1 (including W1) are observed under the viewing condition VC2 (including W2)
In order to convert to the following XYZ values, a conversion method is used using a human color perception space QMH (or JCH) such as CIE CAM97s. Where Q in QMH is brightness and M is colou
rfulness, H stands for huequadrature or hueangle, JC
H is lightness, C is chroma, H is huequadrature or
Represents a hueangle. When this conversion method is applied to Lab's uniform color space, the Lab value under W1 and W2
The Lab values below do not match. For example, the XYZ value of the sample under W1 (Xw1, Yw1, Zw1) is (X1, Y1, Z1), and the XYZ value of the sample under W2 (Xw2, Yw2, Zw2) is (X2, Y2, Z2). Von Kri
According to the es conversion, the following conversion is performed. (X1, Y1, Z1) → [CIE CAM97s forward conversion] → (Q, M, H) or (J, C,
H) → [CIE CAM97s reverse conversion] → (X2, Y2, Z2)
【0009】つまり、比率変換によって異なる基準白色
点下のXYZ値が変換できると仮定するならば、異なる基
準白色点下のLab色空間における等色相線は常に一定で
あるが、Von Kreis変換や色知覚モデルによる予測式の
ように人間の色知覚を考慮した場合には、異なる基準白
色点下のLab色空間における等色相線は基準白色点によ
って変化することになる。That is, if it is assumed that the XYZ values under different reference white points can be converted by the ratio conversion, the isohue lines in the Lab color space under different reference white points are always constant, but the Von Kreis conversion and the color When human color perception is taken into consideration as in a prediction formula using a perceptual model, the isohue line in the Lab color space under different reference white points changes depending on the reference white point.
【0010】上記の理由から、異なる基準白色点下のカ
ラーマッチングにおいて、同一のLab色空間で定義され
た色空間圧縮(色相保存)を適用した場合、人の視覚で
は色相が一定ではないと感じられる場合がある。[0010] For the above reasons, when the color space compression (hue preservation) defined in the same Lab color space is applied to the color matching under different reference white points, the hue is not uniform to human eyes. May be
【0011】また、現在のICCプロファイルでは、PCSが
D50基準のXYZ値やLab値に限定されているため、環境光
に対応したカラーマッチングを行うことができない。In the current ICC profile, PCS is
Since it is limited to XYZ values and Lab values based on D50, color matching corresponding to ambient light cannot be performed.
【0012】本発明は、上述の問題を解決するためのも
のであり、異なる観察条件下において良好な色再現処理
を効率的に行うことができる画像処理装置およびその方
法を提供することを目的とする。An object of the present invention is to solve the above-mentioned problem, and an object of the present invention is to provide an image processing apparatus and method capable of efficiently performing good color reproduction processing under different observation conditions. I do.
【0013】[0013]
【課題を解決するための手段】本発明は、前記の目的を
達成する一手段として、以下の構成を備える。The present invention has the following configuration as one means for achieving the above object.
【0014】本発明にかかる画像処理装置は、複数の光
源に依存する複数の測色データを有するプロファイルが
格納された格納手段と、観察条件が入力される入力手段
と、入力された観察条件に応じた測色データを前記プロ
ファイルの前記複数の測色データから選択する選択手段
と、選択された測色データに基づき前記観察条件に対応
する測色データを推測する推測手段と、推測された測色
データを前記プロファイル内にキャッシュさせるキャッ
シング手段とを有することを特徴とする。[0014] The image processing apparatus according to the present invention comprises: storage means for storing a profile having a plurality of colorimetric data dependent on a plurality of light sources; input means for inputting observation conditions; Selecting means for selecting corresponding colorimetric data from the plurality of colorimetric data in the profile; estimating means for estimating colorimetric data corresponding to the observation condition based on the selected colorimetric data; Caching means for caching color data in the profile.
【0015】本発明にかかる画像処理方法は、複数の光
源に依存する複数の測色データを有するプロファイルを
読み出し、観察条件を入力し、入力された観察条件に応
じた測色データを前記複数の測色データから選択し、選
択された測色データに基づき前記観察条件に対応する測
色データを推測し、推測された測色データを前記プロフ
ァイル内にキャッシュすることを特徴とする。In the image processing method according to the present invention, a profile having a plurality of colorimetric data dependent on a plurality of light sources is read, an observation condition is input, and the colorimetric data corresponding to the input observation condition is converted into the plurality of colorimetric data. The method is characterized in that colorimetric data is selected from the colorimetric data, colorimetric data corresponding to the viewing condition is estimated based on the selected colorimetric data, and the estimated colorimetric data is cached in the profile.
【0016】[0016]
【発明の実施の形態】以下、本発明にかかる一実施形態
の画像処理装置を図面を参照して詳細に説明する。DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, an image processing apparatus according to an embodiment of the present invention will be described in detail with reference to the drawings.
【0017】まず、以下に説明する実施形態で使用する
色知覚モデルについて図19を用いて説明する。First, a color perception model used in the embodiment described below will be described with reference to FIG.
【0018】人間の視覚系によって、知覚される色は、
照明光の違い、刺激がおかれている背景などの条件によ
って、目に入ってくる光が同じであっても異なって見え
ることが知られている。The color perceived by the human visual system is
It is known that even if the same light enters the eyes, they look different depending on conditions such as the difference in illumination light and the background on which the stimulus is applied.
【0019】例えば、白熱電球で照明された白色は、目
に入ってくる光の特性ほどには赤く感じられなくて、白
として知覚される。また、黒い背景におかれた白と、明
るい背景に置かれた白とでは黒い背景に置かれた白の方
が明るく感じられる。前者の現象は色順応、後者は対比
として知られている。このためには、XYZではなく網膜
状に分布している視細胞の生理的な活性度に対応する量
で色を表示する必要があるが、このような目的に色知覚
モデルが開発されている。CIEでは、CIE CAM97sの使用
を推奨している。この色知覚モデルは色覚の生理的な三
原色を用いており、例えばCIE CAM97sで計算される色知
覚の相関量であるH(色相)、J(明度)およびC(クロ
マ)、あるいは、H(色相)、Q(ブライトネス)および
M(カラフルネス)の値が、観察条件に依存しない色の
表示方法と考えられる。H、J、CまたはH、Q、Mの値がデ
バイス間で一致するように色再現することによって、入
出力画像の観察条件の違いを解決することができる。For example, white illuminated by an incandescent light bulb is not perceived as red as the characteristics of light entering the eyes, but is perceived as white. Also, white on a black background feels brighter between white on a black background and white on a light background. The former phenomenon is known as chromatic adaptation, and the latter as contrast. For this purpose, it is necessary to display colors in an amount corresponding to the physiological activity of photoreceptors distributed in the retina instead of XYZ, but a color perception model has been developed for such purpose . CIE recommends using CIE CAM97s. This color perception model uses physiological three primary colors of color perception. For example, H (hue), J (brightness) and C (chroma), which are correlation amounts of color perception calculated by CIE CAM97s, or H (hue) ), Q (brightness) and
The value of M (colorfulness) is considered to be a color display method that does not depend on viewing conditions. By performing color reproduction so that the values of H, J, C or H, Q, M match between devices, it is possible to resolve differences in viewing conditions of input and output images.
【0020】入力画像を観察する際の観察条件に応じた
補正処理(XYZをHJCまたはHQMに変換する処理)を行う
色知覚モデルCIE CAM97sの順変換における処理内容を、
図19を用いて説明する。The processing contents in the forward conversion of the color perception model CIE CAM97s for performing the correction processing (processing for converting XYZ into HJC or HQM) according to the observation conditions when observing the input image are as follows:
This will be described with reference to FIG.
【0021】まず、入力画像の観察条件情報としてステ
ップS160で、順応視野の輝度(cd/平方メートル、通常、
順応視野における白の輝度の20%が選らばれる)であるL
A、光源条件における試料の相対三刺激値であるXYZ、光
源条件における白色光の相対三刺激値であるXωYωZ
ω、および、光源条件における背景の相対輝度であるYb
が設定される。また、ステップS180で指定される観察条
件のタイプに基づき、入力画像の観察条件情報として、
ステップS170で周囲の影響の定数c、色誘導係数Nc、明
度コントラスト係数FLLおよび順応度の係数Fが設定され
る。First, in step S160, as the observation condition information of the input image, the luminance of the adaptive visual field (cd / m 2,
20% of the white brightness in the adaptive field of view is selected) L
A, XYZ which is the relative tristimulus value of the sample under the light source condition, XωYωZ which is the relative tristimulus value of the white light under the light source condition
ω and Yb which is the relative luminance of the background under the light source condition
Is set. In addition, based on the type of viewing condition specified in step S180, as viewing condition information of the input image,
In step S170, a constant c of surrounding influence, a color induction coefficient Nc, a lightness contrast coefficient FLL, and a coefficient F of adaptation are set.
【0022】ステップS160およびS170で設定された入力
画像観察条件情報に基づき、入力画像を示すXYZに対し
て以下のような処理が行われる。Based on the input image observation condition information set in steps S160 and S170, the following processing is performed on XYZ indicating the input image.
【0023】まず、人間の生理的な三原色として考えら
れているBradfordの三原色に基づき、XYZを変換してBra
dford錐体応答RGBが求められる(S100)。人間の視覚は常
に観察光源に完全順応するわけではないので、輝度レベ
ルと周囲条件(LAおよびF)に基づき順応度を示す変数D
を求め、この変数DおよびXωYωZωに基づき、RGBに対
して不完全順応処理を行いRcGcBcに変換される(S110)。First, based on Bradford's three primary colors, which are considered as the physiological three primary colors of humans, XYZ is converted and Bra
A dford cone response RGB is obtained (S100). Since human vision does not always perfectly adapt to the viewing illuminant, a variable D that indicates the degree of adaptation based on the luminance level and the ambient conditions (LA and F)
Is calculated based on the variable D and XωYωZω, and the RGB is converted to RcGcBc (S110).
【0024】次に、人間の生理的な三原色として考えら
れているHunt-Pointer-Estevezの三原色に基づき、RcGc
Bcを変換してHunt-Pointer-Estevez錐体応答R'G'B'が求
められる(S120)。このR'G'B'に対して刺激強度レベルに
よる順応度合いの推定が行われ、試料と白の両方に応じ
た順応後錐体応答R'aG'aB'aが求められる(S130)。な
お、ステップS130では、順応視野の輝度LAに基づき求め
られる変数FLを用いて非線型応答圧縮が行われる。Next, based on the three primary colors of Hunt-Pointer-Estevez, which are considered as three primary colors of human physiology, RcGc
By converting Bc, a Hunt-Pointer-Estevez cone response R'G'B 'is obtained (S120). The adaptation degree based on the stimulus intensity level is estimated for this R'G'B ', and a post-adaptive cone response R'aG'aB'a corresponding to both the sample and white is obtained (S130). In step S130, nonlinear response compression is performed using the variable FL obtained based on the luminance LA of the adaptive visual field.
【0025】続いて、見えとの相関関係を求めるため
に、以下の処理が行われる。Subsequently, the following processing is performed to determine the correlation with the appearance.
【0026】赤-緑および黄色-青の反対色応答abがR'a
G'aB'aから求められ(S140)、反対色応答abおよび偏心係
数から色相Hが求められる(S150)。The red-green and yellow-blue opponent responses ab are R'a
The hue H is calculated from G'aB'a (S140), and the hue H is calculated from the opponent color response ab and the eccentricity coefficient (S150).
【0027】また、Yωおよび背景の相対輝度Ybから求
められる背景誘導係数nが求められ、この背景誘導係数n
を用いて試料および白の両方に関する無彩色応答Aおよ
びAωが求められ(S190)、背景誘導係数nおよび明度コン
トラスト係数FLLから求められる係数z、並びに、A、Aω
およびcに基づき明度Jが求められ(S151)、色誘導係数Nc
から飽和度Sが求められ(S153)、飽和度Sおよび明度Jか
らクロマCが求められ(S152)、明度Jおよび白の無彩色応
答Aωから輝度Qが求められる(S154)。Further, a background induction coefficient n obtained from Yω and the relative luminance Yb of the background is obtained.
The achromatic responses A and Aω for both the sample and white are determined using (S190), the coefficient z determined from the background induction coefficient n and the brightness contrast coefficient FLL, and A, Aω
And the lightness J is determined based on c and c (S151), and the color induction coefficient Nc
, A saturation C is determined from the saturation S and the brightness J (S152), and a luminance Q is determined from the brightness J and the white achromatic response Aω (S154).
【0028】また、変数FLおよび周囲の影響の定数cか
らカラフルネスMが求められる(S155)。The colorfulness M is obtained from the variable FL and the constant c of the influence of the surroundings (S155).
【0029】[0029]
【第1実施形態】観察条件に応じて動的にプロファイル
を変更する第1実施形態を説明する。[First Embodiment] A first embodiment in which a profile is dynamically changed according to observation conditions will be described.
【0030】本発明の概念を説明する図2において、11
は入力デバイスに依存するデータを、入力側の環境光の
白色点基準に基づくデバイスに依存しない色空間データ
へ変換するための変換マトリクスまたは変換ルックアッ
プテーブル(LUT)、12は変換LUT11から得られるデータを
人間の色知覚色空間JChまたはQMhへ変換するための色知
覚モデルの順変換部(CAM)、13は環境光の基準白色に相
対的な色知覚空間であるJCh(またはJCH)、14は照度レ
ベルによって大きさの変化する絶対的な色知覚空間であ
るQMh(またはQMH)、15は人間の色知覚空間JChまたはQ
Mhから出力側の環境光の白色点基準に基づくデバイスに
依存しない色空間データへ変換するための色知覚モデル
の逆変換部、16は逆変換部15から得られるデータを出力
デバイスに依存する色空間データヘ変換するための変換
LUTである。In FIG. 2 for explaining the concept of the present invention, 11
Is a conversion matrix or conversion look-up table (LUT) for converting input device-dependent data to device-independent color space data based on the input-side ambient light white point reference, and 12 is obtained from the conversion LUT 11. A forward conversion unit (CAM) of a color appearance model for converting data into a human color appearance color space JCh or QMh, 13 is a color appearance space JCh (or JCH) which is a color appearance space relative to a reference white of ambient light, 14 QMh (or QMH) is an absolute color perception space whose size changes according to the illuminance level, and 15 is the human color perception space JCh or Q
The inverse conversion unit of the color perception model for converting from Mh to device-independent color space data based on the white point reference of the ambient light on the output side, and the color conversion unit 16 converts the data obtained from the inverse conversion unit 15 into colors dependent on the output device. Conversion to convert to spatial data
LUT.
【0031】一般に、観察条件における環境光の白色点
は、カラーターゲットやカラーパッチなどの色票を測色
した際の標準光源の白色点とは異なる。例えば、測色の
際に使用される標準光源はD50やD65であるが、実際に画
像を観察する場合の環境光はライトブースのD50やD65と
は限らず、白熱電球や蛍光灯などの照明光であったり、
照明光と太陽光とが混合した光になる場合が多い。以下
の説明では、簡単化のために、観察条件における環境光
の光源特性をD50、D65およびD93とするが、実際にはメ
ディア上の白色点のXYZ値を白色点として設定する。In general, the white point of the ambient light under the viewing conditions is different from the white point of the standard light source when measuring a color chart such as a color target or a color patch. For example, the standard light source used for color measurement is D50 or D65, but the ambient light for actually observing the image is not limited to D50 or D65 in the light booth, and lighting such as incandescent lamps and fluorescent lamps Light,
In many cases, the light is a mixture of illumination light and sunlight. In the following description, for the sake of simplicity, the light source characteristics of environmental light under observation conditions are D50, D65, and D93, but the XYZ values of the white point on the medium are actually set as the white point.
【0032】図3は本実施形態の機能構成例を示すブロ
ック図である。図3において、41は入力プロファイル42
と入力側の観察条件1とから入力側の観察条件1に依存す
るデータを作成するデータ作成部、43はユーザによる指
定またはプロファイルによる指定に基づき色空間圧縮を
JCH色空間上で行うかQMH色空間上で行うかを選択する色
空間圧縮モード選択部、44および45はそれぞれ出力プロ
ファイル46に基づきJCHまたはQMH色知覚空間上でデータ
に色空間圧縮を施す色空間圧縮部、47は出力プロファイ
ル46と出力側の観察条件2とから出力側の観察条件2に依
存するデータを作成するデータ作成部、48は観察条件1
に依存するデータ、色空間圧縮データ、観察条件2に依
存するデータおよび色知覚モデルを利用してカラーマッ
チングを行うカラーマッチング部である。FIG. 3 is a block diagram showing a functional configuration example of the present embodiment. In FIG. 3, 41 is an input profile 42
A data creation unit for creating data dependent on the input-side viewing condition 1 from the input-side viewing condition 1;
A color space compression mode selection unit 44 and 45 for selecting whether to perform on the JCH color space or on the QMH color space, and a color to be subjected to color space compression on the data on the JCH or QMH color perception space based on the output profile 46, respectively. A spatial compression unit 47 is a data creation unit that creates data depending on the output-side observation condition 2 from the output profile 46 and the output-side observation condition 2, and 48 is an observation condition 1.
Is a color matching unit that performs color matching using data dependent on color space, color space compressed data, data dependent on viewing condition 2, and a color perception model.
【0033】図18は図3に示される機能構成を実現する
装置の構成例を示すブロック図であるが、図18に示すよ
うな装置は、例えばパーソナルコンピュータのような汎
用のコンピュータ装置に、図3に示す機能を実現するソ
フトウェアを供給することによって実現されることは言
うまでもない。その場合、本実施形態の機能を実現する
ソフトウェアは、コンピュータ装置のOS(基本システ
ム)に含まれていても構わないし、OSとは別に例えば入
出力デバイスのドライバソフトウェアに含まれていても
構わない。FIG. 18 is a block diagram showing a configuration example of an apparatus for realizing the functional configuration shown in FIG. 3. The apparatus shown in FIG. 18 is, for example, a general-purpose computer apparatus such as a personal computer. Needless to say, this can be achieved by supplying software that realizes the functions shown in FIG. In that case, the software for realizing the functions of the present embodiment may be included in the OS (basic system) of the computer device, or may be included in the driver software of the input / output device separately from the OS, for example. .
【0034】同図において、CPU 100は、ROM 101および
ハードディスク(HD)106などに格納されたプログラムに
従い、RAM 102をワークメモリに利用して、装置全体の
動作を司るとともに、上述したカラーマッチングに関連
する処理をはじめとする各種の処理を実行する。入力イ
ンタフェイス103は入力デバイス104を接続するための、
ハードディスクインタフェイス105はHD 106を接続する
ための、ビデオインタフェイス107はモニタ108を接続す
るための、出力インタフェイス109は出力デバイス110を
接続するためのそれぞれインタフェイスである。In FIG. 1, a CPU 100 controls the operation of the entire apparatus by using a RAM 102 as a work memory in accordance with a program stored in a ROM 101, a hard disk (HD) 106, and the like. Various processes including related processes are executed. The input interface 103 is for connecting an input device 104,
The hard disk interface 105 is an interface for connecting an HD 106, the video interface 107 is an interface for connecting a monitor 108, and the output interface 109 is an interface for connecting an output device 110.
【0035】なお、本実施形態が対象とする入力デバイ
スには、ディジタルスチルカメラおよびディジタルビデ
オカメラなどの撮影機器、並びに、イメージスキャナお
よびフィルムスキャナなどイメージリーダをはじめとす
る各種の画像入力機器が含まれる。また、出力デバイス
には、CRTやLCDなどのカラーモニタ、カラープリンタお
よびフィルムレコーダなどの画像出力機器が含まれる。The input devices to which the present embodiment is applied include photographing devices such as digital still cameras and digital video cameras, and various image input devices such as image readers such as image scanners and film scanners. It is. Output devices include color monitors such as CRTs and LCDs, and image output devices such as color printers and film recorders.
【0036】また、インタフェイスとして汎用のインタ
フェイスが利用できる。その用途に応じて、例えば、RS
232C、RS422およびIEEE1394などのシリアルインタフェ
イス、並びに、SCSI、GPIBおよびセントロニクスなどの
パラレルインタフェイスが利用可能である。A general-purpose interface can be used as the interface. Depending on the application, for example, RS
Serial interfaces such as 232C, RS422 and IEEE1394, and parallel interfaces such as SCSI, GPIB and Centronics are available.
【0037】また、カラーマッチングを行うための入出
力プロファイルはHD 106に格納されるが、ハードディス
クに限らず、MOなどの光ディスクを用いることもでき
る。Although an input / output profile for performing color matching is stored in the HD 106, the input / output profile is not limited to a hard disk, and an optical disk such as an MO can be used.
【0038】以下では、入出力プロファイルを利用して
カラーマッチングを行う例を説明する。An example in which color matching is performed using an input / output profile will be described below.
【0039】[観察条件1に依存するデータの作成]デ
ータ作成部41を用いて変換LUT 11を作成するが、変換LU
T 11を作成する方法には、図4に一例を示すカラーター
ゲットのXYZ値(またはLab値)および入力デバイスのRG
B値の関係から、環境光に対応する変換LUT 11を再構築
する方法、並びに、図5に一例を示す入力プロファイル4
2内のデバイスRGB空間からXYZ空間へ変換するための変
換LUTを環境光に対応する変換LUT 11へ更新する方法が
ある。[Creation of Data Dependent on Observation Condition 1] The conversion LUT 11 is created using the data creation unit 41,
To create T11, the XYZ values (or Lab values) of the color target and the RG of the input device are shown in FIG.
From the relationship of the B value, a method of reconstructing the conversion LUT 11 corresponding to the ambient light, and an input profile 4 shown as an example in FIG.
There is a method of updating the conversion LUT for converting the device RGB space into the XYZ space in 2 into the conversion LUT 11 corresponding to the ambient light.
【0040】図4は環境光に対応する変換LUT 11を再構
築する処理例を示すフローチャートである。FIG. 4 is a flowchart showing an example of processing for reconstructing the conversion LUT 11 corresponding to the ambient light.
【0041】環境光に対応する変換LUT 11を再構築する
ために、ステップS51で入力プロファイル42からユーザ
により指定されたプロファイルを読込む。入力プロファ
イル内には予めカラーターゲットのXYZ値(またはLab
値)と、そのカラーターゲットをある入力デバイスで読
んだときのデバイスRGB値を関連付けたXYZ→RGB関係デ
ータが格納されている。このXYZ→RGB関係データを、ス
テップS52でプロファイルから取り出す。プロファイル
内には観察条件1も格納されているので、ステップS53
で、観察条件1をプロファイルから取り出す。In step S51, a profile designated by the user is read from the input profile 42 in order to reconstruct the conversion LUT 11 corresponding to the ambient light. The XYZ values of the color target (or Lab
XYZ → RGB data which associates the color target with a device RGB value when the color target is read by a certain input device. The XYZ → RGB related data is extracted from the profile in step S52. Since the viewing condition 1 is also stored in the profile, step S53
Then, the observation condition 1 is taken out from the profile.
【0042】ステップS52で取り出されたXYZ→RGB関係
データのXYZ値は、カラーターゲットを測色したときの
基準光であるD50またはD65を基準とするデータであるか
ら、測色光源基準のXYZ値を環境光基準のXYZ値に修正す
る必要がある。ステップS54では、色知覚モデルによっ
て測色光源基準のXYZ値を、測色条件であるD50光源の白
色点「D50基準の場合」、照度レベルおよび周囲光の状
態等に基づき色知覚モデルにより人間の色知覚空間JCH
へ変換し、測色条件とは異なる観察条件1である例えばD
65光源の白色点、照度レベルおよび周囲光の状態などに
基づき色知覚モデルを用いて再びXYZ値へ逆変換するこ
とにより、環境光基準のXYZ値を得る。これにより、環
境光基準のXYZ値とデバイスRGB値との関係が得られたの
で、ステップS55でRGB→XYZ関係データに基づくRGB→XY
Z変換マトリクスを作成し、反復法などで最適化すれ
ば、環境条件1に対応する変換LUT 11を得ることができ
る。Since the XYZ values of the XYZ → RGB relation data extracted in step S52 are data based on D50 or D65 which is the reference light when the color target is measured, the XYZ values based on the colorimetric light source are used. Needs to be corrected to the ambient light standard XYZ value. In step S54, the XYZ value of the colorimetric light source reference is determined by the color perception model, and the white point of the D50 light source (in the case of the D50 reference), which is the colorimetric condition, the illuminance level, the state of the ambient light, etc. Color perception space JCH
Is converted to a viewing condition 1 different from the colorimetric condition, for example, D
An XYZ value based on the ambient light is obtained by performing an inverse conversion to an XYZ value again using a color perception model based on the white point of the 65 light sources, the illuminance level, the state of the ambient light, and the like. As a result, a relationship between the XYZ values of the ambient light reference and the device RGB values was obtained, and in step S55, RGB → XY based on the RGB → XYZ relationship data.
If a Z-transform matrix is created and optimized by an iterative method or the like, a transform LUT 11 corresponding to the environmental condition 1 can be obtained.
【0043】図5は環境光に対応する変換LUT 11へ更新
する処理例を示すフローチャートである。なお、図4と
同様の処理が実行されるステップには同一符号を付し
て、その詳細説明を省略する。FIG. 5 is a flowchart showing an example of processing for updating the conversion LUT 11 corresponding to the ambient light. Steps in which the same processing as in FIG. 4 is executed are denoted by the same reference numerals, and detailed description thereof will be omitted.
【0044】一般的に、入力デバイス用のICCプロファ
イルにはRGB→XYZ変換を行うための変換マトリクス(col
orant Tag)または変換LUT(AtoB0 Tag)が格納されている
ので、RGB→XYZ関係データを、ステップS62でプロファ
イルから取り出す。Generally, a conversion matrix (col) for performing RGB → XYZ conversion is included in an ICC profile for an input device.
orant Tag) or the conversion LUT (AtoB0 Tag) is stored, so that RGB → XYZ relation data is extracted from the profile in step S62.
【0045】そして、ステップS54で環境光基準のXYZ値
とデバイスRGB値との関係が得られた後、ステップS66で
プロファイル内の変換マトリクス(colorant Tag)または
変換LUT(AtoB0 Tag)を更新すれば、環境条件1に対応す
る変換LUT 11を得ることができる。After the relationship between the XYZ values of the ambient light reference and the device RGB values is obtained in step S54, the conversion matrix (colorant Tag) or conversion LUT (AtoB0 Tag) in the profile is updated in step S66. Thus, the conversion LUT 11 corresponding to the environmental condition 1 can be obtained.
【0046】なお、一般に、入力デバイス用のICCプロ
ファイルには、RGB→XYZ変換を行うための変換マトリク
ス(colorant Tag)または変換LUT(AtoB0 Tag)が格納され
ている。また、図4および図5においてはRGB→XYZ関係デ
ータを利用する例を説明したが、これに限らず、RGB→L
ab関係データなどの他のデバイス非依存色のデータを利
用しても構わない。In general, a conversion matrix (colorant tag) or a conversion LUT (AtoB0 Tag) for performing RGB → XYZ conversion is stored in an ICC profile for an input device. 4 and FIG. 5, an example in which RGB → XYZ relation data is used has been described.
Other device-independent color data such as ab-related data may be used.
【0047】[色空間圧縮モードの選択および色空間圧
縮]色空間圧縮モードは、ユーザによりユーザインタフ
ェイス経由で選択されるか、ソース側プロファイルのヘ
ッダ内のRendering Intentによって自動的に選択され
る。プロファイルに基づき自動選択される場合は以下の
ようになる。 Perceptual JCH色空間上の色空間圧縮モード Relative Colorimetric JCH色空間上の色空間圧縮モード Saturation JCH色空間上の色空間圧縮モード Absolute Colorimetric QMH色空間上の色空間圧縮モード[Selection of Color Space Compression Mode and Color Space Compression] The color space compression mode is selected by the user via the user interface or automatically selected by Rendering Intent in the header of the source profile. The case of automatic selection based on the profile is as follows. Perceptual Color space compression mode on JCH color space Relative Colorimetric Color space compression mode on JCH color space Saturation Color space compression mode on JCH color space Absolute Colorimetric Color space compression mode on QMH color space
【0048】つまり、相対的なカラーマッチングの場合
はJCH空間13が選択され、絶対的なカラーマッチングの
場合はQMH空間14が選択される。That is, in the case of relative color matching, the JCH space 13 is selected, and in the case of absolute color matching, the QMH space 14 is selected.
【0049】図6はJCH 13またはQMH 14上で色空間圧縮
を行う処理例を示すフローチャートである。FIG. 6 is a flowchart showing an example of processing for performing color space compression on JCH 13 or QMH 14.
【0050】色知覚空間上で色空間圧縮を行うために、
ステップS81で、出力プロファイル46からユーザに指定
されたプロファイルを読込む。In order to perform color space compression on the color perception space,
In step S81, a profile designated by the user is read from the output profile.
【0051】一般に、出力デバイス用ICCプロファイル
には、色再現領域の内か外かを判定(以下「色再現領域
の内外判定」と呼ぶ)するために、XYZ値またはLab値を
入力する判定LUT(gamut Tag)が格納されている。しか
し、そのXYZ値は測色光源の特性であるD50またはD65を
基準にしているため、環境光に応じた色再現領域の内外
判定に直接利用することはできない。従って、色再現領
域の内外判定を行うLUT(gamut Tag)を利用する代わり
に、プロファイルに格納されているCMYK→XYZ変換を行
うための変換LUT(AtoB0 Tagなど)からCMYK→XYZ関係
データを、ステップS82で取り出して利用する。出力プ
ロファイルには観察条件2も格納されているので、ステ
ップS83で観察条件2を出力プロファイルから取り出す。In general, an output device ICC profile includes a judgment LUT for inputting an XYZ value or a Lab value in order to judge whether the color reproduction area is inside or outside (hereinafter, referred to as “color reproduction area inside / outside judgment”). (gamut Tag) is stored. However, since the XYZ values are based on D50 or D65, which is a characteristic of the colorimetric light source, they cannot be directly used for determining whether the color reproduction area is inside or outside according to the ambient light. Therefore, instead of using the LUT (gamut Tag) for determining the inside / outside of the color reproduction area, CMYK → XYZ-related data is converted from a conversion LUT (AtoB0 Tag etc.) for performing CMYK → XYZ conversion stored in the profile. It is taken out and used in step S82. Since the viewing condition 2 is also stored in the output profile, the viewing condition 2 is extracted from the output profile in step S83.
【0052】ステップS82で取り出されたCMYK→XYZ関係
データのXYZ値は、測色光であるD50またはD65を基準と
するデータであるから、環境光基準のXYZ値に修正する
必要がある。ステップS84では、色知覚モデルによって
測色光基準のXYZ値を、測色条件であるD50光源の白色点
「D50基準の場合」、照度レベルおよび周囲光の状態な
どに基づき色知覚モデルを用いて、人間の色知覚空間JC
Hへ変換し、測色条件とは異なる観察条件2である例えば
D65光源の白色点、照度レベルおよび周囲光の状態など
に基づいて、再びXYZ値へ逆変換することにより、環境
光基準のXYZ値を得る。このようにステップS84では、デ
バイスのCMYK値から環境光基準のXYZ値への関係を求め
る。ステップS85では、ステップS84で得られたCMYK→環
境光XYZ関係データに基づきJCHまたはQMH色空間上にお
ける出力デバイスの色再現領域を求める。Since the XYZ values of the CMYK → XYZ relation data extracted in step S82 are data based on D50 or D65 which is the colorimetric light, it is necessary to correct the XYZ values based on the ambient light. In step S84, the XYZ value of the colorimetric light reference by the color perception model, using the color perception model based on the white point of the D50 light source that is the colorimetric condition `` in the case of the D50 reference '', the illuminance level and the state of the ambient light, Human color perception space JC
Converted to H, it is an observation condition 2 different from the colorimetric condition For example
XYZ values are again converted back to XYZ values based on the white point of the D65 light source, the illuminance level, the state of ambient light, and the like, to obtain the XYZ values based on the ambient light. As described above, in step S84, the relationship between the CMYK values of the device and the XYZ values based on the ambient light is determined. In step S85, a color reproduction area of the output device in the JCH or QMH color space is obtained based on the CMYK → ambient light XYZ relation data obtained in step S84.
【0053】JCHまたはQMH色空間上における出力デバイ
スの色再現領域は、例えば、 Red (C:0%, M:100%, Y:100%, K:0%) Yellow (C:0%, M:0%, Y:100%, K:0%) Green (C:100%, M:0%, Y:100%, K:0%) Cyan (C:100%, M:0%, Y:0%, K:0%) Blue (C:100%, M:100%, Y:0%, K:0%) Magenta(C:0%, M:100%, Y:0%, K:0%) White (C:0%, M:0%, Y:0%, K:0%) Black (C:0%, M:0%, Y:0%, K:100%)The color reproduction area of the output device in the JCH or QMH color space is, for example, Red (C: 0%, M: 100%, Y: 100%, K: 0%) Yellow (C: 0%, M : 0%, Y: 100%, K: 0%) Green (C: 100%, M: 0%, Y: 100%, K: 0%) Cyan (C: 100%, M: 0%, Y: 0%, K: 0%) Blue (C: 100%, M: 100%, Y: 0%, K: 0%) Magenta (C: 0%, M: 100%, Y: 0%, K: 0 %) White (C: 0%, M: 0%, Y: 0%, K: 0%) Black (C: 0%, M: 0%, Y: 0%, K: 100%)
【0054】の八点に対する環境光基準のXYZ値を、ス
テップS84で求められたCMYK→環境光XYZ関係データを用
いて求め、さらに色知覚モデルによって観察条件2に基
づいて人間の色知覚空間JCHまたはQMHの座標値へ変換す
ることで、図7に示されるような12面体によって近似す
ることができる。The XYZ values of the ambient light reference for the eight points are obtained by using the CMYK → ambient light XYZ relation data obtained in step S84, and furthermore, the color perception model JCH based on the observation condition 2 by the color perception model. Alternatively, it can be approximated by a dodecahedron as shown in FIG. 7 by converting it into QMH coordinate values.
【0055】12面体で近似される色再現領域において、
色再現領域の内部の点、例えば無彩色軸上におけるWhit
eとBlackの中間点と、内外判定対象の入力色信号の点
(JCH値またはQMH値)とが、同じ側にあれば色再現範囲
内にあると判断し、反対側にあれば色再現範囲外にある
と判断する。In a color reproduction area approximated by a dodecahedron,
Whit on a point inside the color reproduction area, for example, on the achromatic axis
If the midpoint between e and Black and the point (JCH value or QMH value) of the input color signal to be judged inside / outside are on the same side, it is judged to be within the color gamut. Judge that it is outside.
【0056】ステップS85により得られる色再現領域に
基づく内外判定の結果に基づき、ステップS86で色空間
圧縮が行われる。図8はJCH色知覚空間における色空間圧
縮の概念を、図9はQMH色知覚空間における色空間圧縮の
概念をそれぞれ示す図である。上記の内外判定により出
力デバイスの色再現範囲外であると判定された入力色信
号は、JCH色知覚空間やQMH色知覚空間において、色相角
h(またはH)が保存されるように、色再現範囲内へマッ
ピングされる。そして、このマッピング結果は、相対的
カラーマッチングの場合にはJCH色知覚空間を入出力色
空間とするLUTへ、絶対的カラーマッチングの場合にはQ
MH色知覚空間を入出力色空間とするLUTへ格納される。Color space compression is performed in step S86 based on the result of the inside / outside determination based on the color reproduction area obtained in step S85. FIG. 8 is a diagram illustrating the concept of color space compression in the JCH color perception space, and FIG. 9 is a diagram illustrating the concept of color space compression in the QMH color perception space. The input color signal determined to be out of the color reproduction range of the output device by the above inside / outside determination is a hue angle in the JCH color perception space or the QMH color perception space.
It is mapped into the color gamut so that h (or H) is preserved. Then, this mapping result is converted to an LUT using the JCH color perception space as an input / output color space in the case of relative color matching, and Q in the case of absolute color matching.
It is stored in the LUT that uses the MH color perception space as the input / output color space.
【0057】図10は異なるデバイス間における色空間圧
縮の概念を示す図で、破線は入力デバイスの色再現領域
を、実線は出力デバイスの色再現領域をそれぞれ示して
いる。JCH色知覚空間においては、J(lightness)の大き
さが観察条件1および2の光源白色点(以下では「白色点
1」「白色点2」と略す場合がある)によってそれぞれ正
規化されるため、Jは環境条件1および2の照度レベル
(以下では「照度レベル1」「照度レベル2」と略す場合
がある)に依存しない。一方、QMH色知覚空間において
は、Q(brightness)の大きさが照度レベル1および2によ
って変化する。従って、相対的カラーマッチングでは白
色点1がそのまま白色点2になる。一方、絶対的カラーマ
ッチングでは、照度レベル1>照度レベル2の場合には白
色点1が白色点2ヘマッピングされる。また、照度レベル
1<照度レベル2の場合には白色点1が白色点2より低いの
でグレーとして出力される。FIG. 10 is a diagram showing the concept of color space compression between different devices. The broken line indicates the color reproduction area of the input device, and the solid line indicates the color reproduction area of the output device. In the JCH color perception space, the magnitude of J (lightness) is determined by the light source white point under observation conditions 1 and 2 (hereinafter, “white point”).
1), which may be abbreviated as "white point 2"), so J is the illuminance level for environmental conditions 1 and 2 (hereinafter sometimes abbreviated as "illumination level 1" and "illumination level 2") Does not depend on On the other hand, in the QMH color perception space, the magnitude of Q (brightness) changes depending on the illuminance levels 1 and 2. Therefore, in relative color matching, white point 1 becomes white point 2 as it is. On the other hand, in the absolute color matching, when illuminance level 1> illuminance level 2, white point 1 is mapped to white point 2. Also, the illumination level
If 1 <illuminance level 2, the white point 1 is lower than the white point 2 and is output as gray.
【0058】[観察条件2に依存するデータの作成]次
に、データ作成部47を用いて変換LUT 16を作成する。[Creation of Data Dependent on Observation Condition 2] Next, the conversion LUT 16 is created using the data creation unit 47.
【0059】図11は環境光に対応する変換LUT 16を再構
築する処理例を示すフローチャートである。FIG. 11 is a flowchart showing an example of processing for reconstructing the conversion LUT 16 corresponding to the ambient light.
【0060】一般に、出力デバイス用のICCプロファイ
ルには、XYZまたはLab値からデバイスのCMYKまたはRGB
値への変換を行うためのLUT(BtoA0 Tagなど)が色空間
圧縮も含めた形式で格納されている。しかし、LUTへ入
力すべきXYZ値はD50またはD65を基準とするデータであ
るから、環境光に応じた変換LUTとして直接利用するこ
とはできない。In general, an ICC profile for an output device includes a CMYK or RGB value of a device based on XYZ or Lab values.
An LUT (BtoA0 Tag, etc.) for converting to a value is stored in a format that includes color space compression. However, since the XYZ values to be input to the LUT are data based on D50 or D65, they cannot be directly used as a conversion LUT according to ambient light.
【0061】そこで、色空間圧縮処理と同様に、ステッ
プS71で、出力プロファイル46に格納されているCMYK→X
YZ変換を行うための変換LUT(AtoB0 Tagなど)を読み込
み、ステップS72で、変換LUTからCMYK→XYZ関係データ
を取り出す。なお、CMYK→XYZ関係データのCMYK値はRGB
値など他のデバイス依存色であっても構わないし、XYZ
値はLab値など他のデバイスに依存しない色であっても
構わない。次に、ステップS73で、出力プロファイル46
内に予め格納された観察条件2を取り出す。Therefore, similarly to the color space compression processing, in step S71, the CMYK → X stored in the output profile 46 is output.
A conversion LUT (AtoB0 Tag or the like) for performing YZ conversion is read, and in step S72, CMYK → XYZ relation data is extracted from the conversion LUT. The CMYK value of the CMYK → XYZ relation data is RGB
Other device-dependent colors such as values may be used, and XYZ
The value may be a color independent of other devices, such as a Lab value. Next, in step S73, the output profile 46
The observation condition 2 stored in advance is taken out.
【0062】取り出されたCMYK→XYZ関係データのXYZ値
はD50またはD65を基準とするデータであるから、ステッ
プS74で測色光源基準のXYZ値を環境光基準のXYZ値に修
正する。つまり、色知覚モデルによって測色光源基準の
XYZ値を、その測色条件(D50光源の白色点「D50基準の
場合」、照度レベル、周囲光の状態など)に基づいて、
人間の色知覚空間JCHへ変換し、測色条件とは異なる観
察条件2(D65光源の白色点、照度レベル、周囲光の状態
など)に基づいて、再びXYZ値へ逆変換することによ
り、測色光源基準のXYZ値を環境光基準のXYZ値に変換す
ることができる。これにより、デバイスCMYK値から環境
光基準のXYZ値への関係が得られるので、ステップS75
で、CMYK→環境光XYZ関係データを用いて、環境光XYZ→
CMYK関係データを反復法などを用いて最適化すれば、所
望の環境光に対応する変換LUT 16を得ることができる。Since the XYZ values of the extracted CMYK → XYZ relation data are data based on D50 or D65, the XYZ values based on the colorimetric light source are corrected to the XYZ values based on the ambient light in step S74. In other words, the color perception model uses
Based on the colorimetric conditions (white point of D50 light source “D50 reference”, illuminance level, ambient light condition, etc.)
It is converted to human color perception space JCH, and converted back to XYZ values again based on observation conditions 2 (white point of D65 light source, illuminance level, ambient light condition, etc.) different from the colorimetric conditions, The XYZ values based on the color light source can be converted into the XYZ values based on the ambient light. As a result, the relationship from the device CMYK value to the XYZ value of the ambient light reference is obtained,
Then, using CMYK → ambient light XYZ related data, ambient light XYZ →
If the CMYK-related data is optimized using an iterative method or the like, a conversion LUT 16 corresponding to a desired ambient light can be obtained.
【0063】[カラーマッチングの実行]図12はカラー
マッチング処理の概念を示す図である。11はデータ作成
部41により観察条件1に基づき作成された変換LUT、132
は色空間圧縮部44によりJCH色空間上で作成されたLUT、
133は色空間圧縮部45によりQMH色空間上で作成されたLU
T、16はデータ作成部47により観察条件2に基づき作成さ
れた変換LUTである。[Execution of Color Matching] FIG. 12 is a diagram showing the concept of color matching processing. 11 is a conversion LUT created by the data creation unit 41 based on the observation condition 1, 132
Is the LUT created on the JCH color space by the color space compression unit 44,
133 is an LU created on the QMH color space by the color space compression unit 45
T and 16 are conversion LUTs created by the data creation unit 47 based on the viewing condition 2.
【0064】RGBまたはCMYKの入力色信号は、変換LUT 1
1により入力デバイスの色信号から観察条件1におけるデ
バイスに依存しない色信号であるXYZ信号へ変換され
る。次に、XYZ信号は、色知覚モデル順変換部134および
135により観察条件1(D50光源の白色点、照度レベル、
周囲光の状態など)に基づいて人間の知覚信号JCHまた
はQMHへ変換される。相対的カラーマッチングの場合はJ
CH空間が、絶対的カラーマッチングの場合はQMH空間が
それぞれ選択される。The input color signal of RGB or CMYK is converted into a conversion LUT 1
1 converts the color signal of the input device into an XYZ signal which is a device-independent color signal under the viewing condition 1. Next, the XYZ signals are output to the color perception model forward conversion unit 134 and
Observation condition 1 (white point of D50 light source, illuminance level,
Is converted to a human perceptual signal JCH or QMH based on ambient light conditions. J for relative color matching
When the CH space is an absolute color matching, a QMH space is selected.
【0065】色知覚信号JCHおよびQMHはLUT 132および1
33により出力デバイスの色再現範囲内へ圧縮される。色
空間圧縮された色知覚信号JCHおよびQMHは、色知覚モデ
ル逆変換部136および137により観察条件2(D65光源の白
色点、照度レベル、周囲光の状態など)に基づいて観察
条件2におけるデバイスに依存しない色信号であるXYZ信
号へ変換される。そして、XYZ信号は変換LUT 134により
観察条件2における出力デバイスに依存する色信号へ変
換される。The color perception signals JCH and QMH are
33 compresses the data into the color reproduction range of the output device. The color perception signals JCH and QMH compressed in the color space are converted by the color perception model inverse transform units 136 and 137 into devices under the observation condition 2 based on the observation condition 2 (white point of the D65 light source, illuminance level, ambient light state, etc.). Is converted to an XYZ signal which is a color signal which does not depend on. Then, the XYZ signals are converted by the conversion LUT 134 into color signals depending on the output device under the viewing condition 2.
【0066】以上の処理によって得られたRGBまたはCMY
K信号は出力デバイスへ送られて、その色信号によって
示される画像がプリント出力される。そのプリントアウ
トを観察条件2の下で観察すれば、観察条件1の下で観察
されるオリジナル原稿と、同じ色味に見える。The RGB or CMY obtained by the above processing
The K signal is sent to the output device, and the image indicated by the color signal is printed out. When the printout is observed under the viewing condition 2, it looks the same color as the original document viewed under the viewing condition 1.
【0067】[0067]
【第2実施形態】以下では、第2実施形態として、図13に
示す入力プロファイルとモニタプロファイルとを利用し
てカラーマッチングを行う例を説明する。なお、第1実
施形態と同様の構成および処理についてはその詳細説明
を省略する。Second Embodiment Hereinafter, as a second embodiment, an example in which color matching is performed using an input profile and a monitor profile shown in FIG. 13 will be described. The detailed description of the same configuration and processing as in the first embodiment is omitted.
【0068】[観察条件1に依存するデータの作成]ま
ず、第1実施形態と同様の方法、つまり図4または図5に
示す処理方法により、データ作成部41を用いて図13に示
す変換LUT 21を作成する。[Creation of Data Dependent on Observation Condition 1] First, the conversion LUT shown in FIG. 13 using the data creation unit 41 by the same method as in the first embodiment, that is, the processing method shown in FIG. 4 or FIG. Create 21.
【0069】[色空間圧縮モードの選択および色空間圧
縮]色空間圧縮モードの選択は、第1実施形態と同様で
あるからその詳細説明は省略する。[Selection of Color Space Compression Mode and Color Space Compression] The selection of the color space compression mode is the same as that of the first embodiment, so that the detailed description is omitted.
【0070】図14は図13に示すJCH 23またはQMH 24上で
色空間圧縮を行う処理例を示すフローチャートである。FIG. 14 is a flowchart showing an example of processing for performing color space compression on the JCH 23 or QMH 24 shown in FIG.
【0071】色知覚空間上で色空間圧縮を行うために、
ステップS141で、モニタプロファイル142からユーザに
指定されたプロファイルを読込む。To perform color space compression on the color perception space,
In step S141, a profile designated by the user is read from the monitor profile 142.
【0072】一般に、モニタデバイス用ICCプロファイ
ルには、色再現領域の内外判定を行うために、XYZ値ま
たはLab値を入力する判定LUT(gamut Tag)が格納されて
いる場合もあるが、そのXYZ値は測色光源の特性であるD
50またはD65を基準にしているため、環境光に応じた色
再現領域の内外判定に直接利用することはできない。従
って、色再現領域の内外判定を行うLUT(gamut Tag)を利
用する代わりに、プロファイルに格納されているRGB→X
YZ変換を行うための変換マトリクス(colorant Tag)また
は変換LUT(AtoB0 Tagなど)からRGB→XYZ関係データ
を、ステップS142で取り出して利用する。モニタプロフ
ァイルにはモニタの観察条件4も格納されているので、
ステップS143で観察条件4をモニタプロファイルから取
り出す。なお、RGB→XYZ関係データのXYZ値は、Lab値な
ど他のデバイスに依存しない色であっても構わない。In general, a monitor device ICC profile may store a judgment LUT (gamut tag) for inputting an XYZ value or a Lab value in order to determine whether the color reproduction area is inside or outside. The value is a characteristic of the colorimetric light source D
Since it is based on 50 or D65, it cannot be used directly to determine whether the color reproduction area is inside or outside according to the ambient light. Therefore, instead of using the LUT (gamut Tag) that determines the inside / outside of the color reproduction area, the RGB → X stored in the profile
In step S142, RGB-to-XYZ-related data is extracted from a conversion matrix (colorant tag) or a conversion LUT (AtoB0 Tag or the like) for performing YZ conversion and used. Since the monitor condition 4 is also stored in the monitor profile,
In step S143, the observation condition 4 is extracted from the monitor profile. Note that the XYZ values of the RGB → XYZ relation data may be colors that do not depend on other devices, such as Lab values.
【0073】ステップS142で取り出されたRGB→XYZ関係
データのXYZ値は、測色光であるD50またはモニタの白色
点を基準とするデータであるから、環境光基準のXYZ値
に修正する必要がある。ステップS144では、色知覚モデ
ルによって測色光源基準のXYZ値を、測色条件であるD50
光源の白色点「D50基準の場合」、輝度レベルおよび周
囲光の状態などに基づいて、人間の色知覚空間JCHへ変
換し、測色条件とは異なる観察条件4である例えばD93光
源の白色点、輝度レベルおよび周囲光の状態などに基づ
いて、再びXYZ値へ逆変換することにより、環境光基準
のXYZ値を得る。これにより、デバイスのRGB値から環境
光基準のXYZ値への関係が得られたので、ステップS145
でJCHまたはQMH色空間上におけるモニタデバイスの色再
現領域を求めることができる。Since the XYZ values of the RGB → XYZ relation data extracted in step S142 are data based on the colorimetric light D50 or the white point of the monitor, it is necessary to correct the XYZ values based on the ambient light. . In step S144, the XYZ values based on the colorimetric light source are converted into the colorimetric
Based on the white point of the light source `` in the case of D50 reference '', the luminance level and the state of the ambient light, etc., it is converted into the human color perception space JCH, and the white point of the D93 light source, which is an observation condition 4 different from the colorimetric condition , Based on the luminance level, the state of the ambient light, and the like, the XYZ values are again converted back to the XYZ values to obtain the XYZ values based on the ambient light. As a result, the relationship from the RGB values of the device to the XYZ values of the ambient light standard was obtained, and therefore, step S145
The color reproduction area of the monitor device in the JCH or QMH color space can be obtained by the following.
【0074】モニタデバイスの色再現領域は、例えば、 Red (R:255, G:0, B:0) Yellow (R:255, G:255, B:0) Green (R:0, G:255, B:0) Cyan (R:0, G:255, B:255) Blue (R:0, G:0, B:255) Magenta(R:255, G:0, B:255) White (R:255, G:255, B:255) Black (R:0, G:0, B:0)The color reproduction area of the monitor device is, for example, Red (R: 255, G: 0, B: 0) Yellow (R: 255, G: 255, B: 0) Green (R: 0, G: 255) , B: 0) Cyan (R: 0, G: 255, B: 255) Blue (R: 0, G: 0, B: 255) Magenta (R: 255, G: 0, B: 255) White (R : 255, G: 255, B: 255) Black (R: 0, G: 0, B: 0)
【0075】の八点に対する環境光基準のXYZ値を、ス
テップS144のXYZ基準条件の変換処理によって求め、さ
らに色知覚モデルによって観察条件4に基づいて人間の
色知覚空間JCHまたはQMHの座標値へ変換することで、図
7に示されるような12面体によって近似することができ
る。12面体で近似される色再現領域において、色再現領
域の内部の点、例えば無彩色軸上におけるWhiteとBlack
の中間点と、内外判定対象の入力色信号の点(JCH値ま
たはQMH値)とが、同じ側にあれば色再現範囲内にある
と判断し、反対側にあれば色再現範囲外にあると判断す
る。The XYZ values of the ambient light reference for the eight points are obtained by the conversion processing of the XYZ reference conditions in step S144, and further converted to the coordinate values of the human color perception space JCH or QMH based on the observation condition 4 by the color perception model. By converting, the figure
It can be approximated by a dodecahedron as shown in FIG. In the color reproduction area approximated by a dodecahedron, points inside the color reproduction area, for example, White and Black on the achromatic axis
Is determined to be within the color gamut if the midpoint of the input color signal and the point (JCH value or QMH value) of the input color signal to be determined for inside / outside are on the same side, and is outside the color gamut if it is on the opposite side Judge.
【0076】ステップS145により得られる色再現領域に
基づく内外判定の結果に基づき、ステップS146で色空間
圧縮が行われる。図8はJCH色知覚空間における色空間圧
縮の概念を、図9はQMH色知覚空間における色空間圧縮の
概念をそれぞれ示す図である。上記の内外判定により出
力デバイスの色再現範囲外であると判定された入力色信
号は、JCH色知覚空間やQMH色知覚空間において、色相角
h(またはH)が保存されるように、色再現範囲内へマッ
ピングされる。そして、ステップS146で得られた色再現
領域は、相対的カラーマッチングの場合にはJCH色知覚
空間を入出力色空間とするLUTへ、絶対的カラーマッチ
ングの場合にはQMH色知覚空間を入出力色空間とするLUT
へ格納される。Based on the result of the inside / outside determination based on the color reproduction area obtained in step S145, color space compression is performed in step S146. FIG. 8 is a diagram illustrating the concept of color space compression in the JCH color perception space, and FIG. 9 is a diagram illustrating the concept of color space compression in the QMH color perception space. The input color signal determined to be out of the color reproduction range of the output device by the above inside / outside determination is a hue angle in the JCH color perception space or the QMH color perception space.
It is mapped into the color gamut so that h (or H) is preserved. Then, the color reproduction area obtained in step S146 is input / output to / from the LUT using the JCH color perception space as the input / output color space in the case of relative color matching, and to the QMH color perception space in the case of absolute color matching. LUT for color space
Is stored in
【0077】図10は異なるデバイス間における色空間圧
縮の概念を示す図で、破線は入力デバイスの色再現領域
を、実線は出力デバイスの色再現領域をそれぞれ示して
いる。JCH色知覚空間においては、J(lightness)の大き
さが観察条件1および4の光源白色点(以下では「白色点
1」「白色点4」と略す場合がある)によってそれぞれ正
規化されるため、Jは環境条件1の照度レベルおよび環境
条件4の輝度レベル(以下では「照度レベル1」「輝度レ
ベル4」と略す場合がある)に依存しない。一方、QMH色
知覚空間においては、Q(brightness)の大きさが照度レ
ベル1および輝度レベル4によって変化する。従って、相
対的カラーマッチングでは白色点1がそのまま白色点4に
なる。一方、絶対的カラーマッチングでは、照度レベル
1>輝度レベル4の場合には白色点1が白色点4ヘマッピン
グされる。また、照度レベル1<輝度レベル4の場合には
白色点1が白色点4より低いのでグレーとして出力され
る。FIG. 10 is a diagram showing the concept of color space compression between different devices. A broken line indicates the color reproduction area of the input device, and a solid line indicates the color reproduction area of the output device. In the JCH color perception space, the magnitude of J (lightness) is determined by the light source white point under the viewing conditions 1 and 4 (hereinafter, “white point”).
1), which may be abbreviated as "white point 4", respectively, so J is the illuminance level of environmental condition 1 and the luminance level of environmental condition 4 (hereinafter "illuminance level 1" and "luminance level 4" (May be abbreviated). On the other hand, in the QMH color perception space, the magnitude of Q (brightness) changes depending on the illuminance level 1 and the luminance level 4. Therefore, in relative color matching, white point 1 becomes white point 4 as it is. On the other hand, in absolute color matching, the illuminance level
In the case of 1> luminance level 4, white point 1 is mapped to white point 4. When illuminance level 1 <luminance level 4, white point 1 is lower than white point 4, so that gray level is output.
【0078】[観察条件4に依存するデータの作成]次
に、データ作成部47を用いて図13に示す変換LUT 26を作
成する。[Creation of Data Dependent on Observation Condition 4] Next, the conversion LUT 26 shown in FIG.
【0079】図15は環境光に対応する変換LUT 26を再構
築する処理例を示すフローチャートである。FIG. 15 is a flowchart showing an example of processing for reconstructing the conversion LUT 26 corresponding to the ambient light.
【0080】モニタデバイス用のICCプロファイルに
は、XYZ値からデバイスのRGB値への変換を行うためのLU
T(BtoA0 Tagなど)が色空間圧縮も含めた形式で格納さ
れている場合もある。しかし、LUTへ入力すべきXYZ値は
D50またはD65を基準とするデータであるから、環境光に
応じた変換LUTとして直接利用することはできない。The ICC profile for the monitor device includes an LU for converting the XYZ values to the RGB values of the device.
T (such as BtoA0 Tag) may be stored in a format that includes color space compression. However, the XYZ values to be input to the LUT are
Since the data is based on D50 or D65, it cannot be directly used as a conversion LUT according to ambient light.
【0081】そこで、色空間圧縮処理と同様に、ステッ
プS151で、モニタプロファイル142に格納されているRGB
→XYZ変換を行うための変換マトリクス(colorant Tag)
または変換LUT(AtoB0 Tagなど)を読み込み、ステップ
S152で、変換LUTからRGB→XYZ関係データを取り出す。
なお、RGB→XYZ関係データのXYZ値はLab値など他のデバ
イスに依存しない色であっても構わない。次に、ステッ
プS153で、モニタプロファイル142内に予め格納された
観察条件4を取り出す。Therefore, similarly to the color space compression processing, in step S151, the RGB stored in the monitor profile 142
→ Conversion matrix (colorant tag) for XYZ conversion
Or read the conversion LUT (AtoB0 Tag etc.) and step
In S152, RGB → XYZ related data is extracted from the conversion LUT.
Note that the XYZ values of the RGB → XYZ relation data may be colors that do not depend on other devices, such as Lab values. Next, in step S153, the observation condition 4 stored in the monitor profile 142 in advance is extracted.
【0082】取り出されたRGB→XYZ関係データのXYZ値
は、D50またはモニタの白色点を基準とするデータであ
るから、ステップS154で測色光源基準のXYZ値を環境光
基準のXYZ値に修正する。つまり、色知覚モデルによっ
て測色光源基準のXYZ値を、その測色条件(D50光源の白
色点「D50基準の場合」、輝度レベル、周囲光の状態な
ど)に基づいて、人間の色知覚空間JCHへ変換し、測色
条件とは異なる観察条件4(D93光源の白色点、輝度レベ
ル、周囲光の状態など)に基づいて、再びXYZ値へ逆変
換することにより、測色光源基準のXYZ値を環境光基準
のXYZ値に変換することができる。これにより、デバイ
スRGB値から環境光基準のXYZ値への関係が得られたの
で、ステップS155で、RGB→XYZ変換を変換マトリクスな
どでモデル化し、反復法などを用いて最適化すれば、所
望の環境光に対応する変換LUT 26を得ることができる。Since the XYZ values of the extracted RGB → XYZ relation data are data based on D50 or the white point of the monitor, the XYZ values based on the colorimetric light source are corrected to the XYZ values based on the ambient light in step S154. I do. That is, based on the color perception model, the XYZ value of the colorimetric light source reference is used to calculate the human color perception space based on the colorimetric conditions (white point of D50 light source “D50 reference”, luminance level, ambient light condition, etc.). It is converted to JCH and converted back to XYZ values based on the viewing condition 4 (D93 light source white point, luminance level, ambient light condition, etc.) different from the colorimetric conditions, to obtain the XYZ The values can be converted to ambient light based XYZ values. As a result, the relationship from the device RGB values to the XYZ values of the ambient light standard was obtained.Therefore, in step S155, the RGB → XYZ conversion was modeled using a conversion matrix or the like and optimized using an iterative method or the like. The conversion LUT 26 corresponding to the ambient light can be obtained.
【0083】[カラーマッチングの実行]図12はカラー
マッチングの概念を示す図である。21はデータ作成部41
により観察条件1に基づき作成された変換LUT、132は色
空間圧縮部44によりJCH色空間上で作成されたLUT、133
は色空間圧縮部45によりQMH色空間上で作成されたLUT、
26はデータ作成部47により観察条件4に基づき作成され
た変換LUTである。[Execution of Color Matching] FIG. 12 is a diagram showing the concept of color matching. 21 is the data creation unit 41
The conversion LUT 132 created on the basis of the viewing condition 1 by the LUT 133 created on the JCH color space by the color space compression unit 44
Is the LUT created on the QMH color space by the color space compression unit 45,
Reference numeral 26 denotes a conversion LUT created by the data creation unit 47 based on the viewing condition 4.
【0084】RGBの入力色信号は、変換LUT 21により入
力デバイスの色信号から観察条件1におけるデバイスに
依存しない色信号であるXYZ信号へ変換される。次に、X
YZ信号は、色知覚モデル順変換部134および135により観
察条件1(D50光源の白色点、照度レベル、周囲光の状態
など)に基づいて人間の知覚信号JCHまたはQMHへ変換さ
れる。相対的カラーマッチングの場合はJCH空間が、絶
対的カラーマッチングの場合はQMH空間がそれぞれ選択
される。The input color signal of RGB is converted by the conversion LUT 21 from the color signal of the input device into an XYZ signal which is a device-independent color signal under the viewing condition 1. Then X
The YZ signal is converted into a human perception signal JCH or QMH by the color perception model forward conversion units 134 and 135 based on the viewing condition 1 (white point of D50 light source, illuminance level, ambient light state, etc.). In the case of relative color matching, the JCH space is selected, and in the case of absolute color matching, the QMH space is selected.
【0085】色知覚信号JCHおよびQMHはLUT 132および1
33によりモニタデバイスの色再現範囲内へ圧縮される。
色空間圧縮された色知覚信号JCHおよびQMHは、色知覚モ
デル逆変換部136および137により観察条件4(D93光源の
白色点、輝度レベル、周囲光の状態など)に基づいて観
察条件4におけるデバイスに依存しない色信号であるXYZ
信号へ変換される。そして、XYZ信号は変換LUT 26によ
り観察条件4におけるモニタデバイスに依存する色信号
へ変換される。The color perception signals JCH and QMH are
33 compresses the data into the color reproduction range of the monitor device.
The color space compressed color perception signals JCH and QMH are converted by the color perception model inverse transform units 136 and 137 into the device under the observation condition 4 based on the observation condition 4 (white point of the D93 light source, luminance level, ambient light condition, etc.). XYZ, which is a color signal independent of color
Converted to a signal. Then, the XYZ signals are converted by the conversion LUT 26 into color signals depending on the monitor device under the viewing condition 4.
【0086】以上の処理によって得られたRGB信号はモ
ニタデバイスへ送られて、その色信号によって示される
画像が表示される。その表示を観察条件4の下で観察す
れば、観察条件1の下で観察されるオリジナル原稿と、
同じ色味に見える。The RGB signal obtained by the above processing is sent to a monitor device, and an image indicated by the color signal is displayed. If the display is observed under observation condition 4, the original manuscript observed under observation condition 1 and
Looks the same color.
【0087】[0087]
【第3実施形態】以下では、第3実施形態として、図16に
示すモニタプロファイルと出力プロファイルとを利用し
てカラーマッチングを行う例を説明する。なお、第1お
よび第2実施形態と同様の構成および処理についてはそ
の詳細説明を省略する。Third Embodiment Hereinafter, as a third embodiment, an example in which color matching is performed using a monitor profile and an output profile shown in FIG. 16 will be described. The detailed description of the same configuration and processing as those of the first and second embodiments will be omitted.
【0088】[観察条件4に依存するデータの作成]ま
ず、データ作成部41を用いて図16に示す変換LUT 31を作
成する。[Creation of Data Dependent on Observation Condition 4] First, the conversion LUT 31 shown in FIG.
【0089】図17は環境光に対応させるために変換LUT
31を更新する処理例を示すフローチャートである。FIG. 17 shows a conversion LUT for adapting to ambient light.
31 is a flowchart illustrating an example of a process for updating 31.
【0090】環境光に対応する変換LUT 31に更新するた
めに、ステップS161でモニタプロファイル142からユー
ザにより指定されたプロファイルを読込む。In order to update the conversion LUT 31 corresponding to the ambient light, the profile designated by the user is read from the monitor profile 142 in step S161.
【0091】モニタ用のICCプロファイルにはRGB→XYZ
変換を行うための変換マトリクス(colorant Tag)または
変換LUT(AtoB0 Tag)が格納されているので、ステップS1
62でRGB→XYZ関係データを取り出す。プロファイル内に
は観察条件4も格納されているので、ステップS163で観
察条件4をプロファイルから取り出す。ここで、RGB→XY
Z関係データのXYZ値はLab値など他のデバイスに依存し
ない色であっても構わない。The ICC profile for the monitor has RGB → XYZ
Since a conversion matrix (colorant Tag) or conversion LUT (AtoB0 Tag) for conversion is stored, step S1
At step 62, RGB → XYZ related data is extracted. Since the observation condition 4 is also stored in the profile, the observation condition 4 is extracted from the profile in step S163. Where RGB → XY
The XYZ values of the Z-related data may be colors that do not depend on other devices, such as Lab values.
【0092】取り出されたRGB→XYZ関係データのXYZ値
は、D50またはモニタの白色点を基準とするデータであ
るから、ステップS164で測色光源基準のXYZ値を環境光
基準のXYZ値に修正する。つまり、色知覚モデルによっ
て測色光源基準のXYZ値を、その測色条件(D50光源の白
色点「D50基準の場合」、輝度レベル、周囲光の状態な
ど)に基づいて、人間の色知覚空間JCHへ変換し、測色
条件とは異なる観察条件4(D93光源の白色点、輝度レベ
ル、周囲光の状態など)に基づいて、再びXYZ値へ逆変
換することにより、測色光源基準のXYZ値を環境光基準
のXYZ値に変換することができる。これにより、デバイ
スRGB値から環境光基準のXYZ値への関係が得られたの
で、ステップS165で、モニタプロファイル142内の変換
マトリクス(colorantTag)または変換LUT(AtoB0 Tag)を
更新すれば、所望の環境光に対応する変換LUT31を得る
ことができる。Since the extracted XYZ values of the RGB → XYZ relation data are data based on D50 or the white point of the monitor, the XYZ values based on the colorimetric light source are corrected to the XYZ values based on the ambient light in step S164. I do. That is, based on the color perception model, the XYZ value of the colorimetric light source reference is used to calculate the human color perception space based on the colorimetric conditions (white point of D50 light source “D50 reference”, luminance level, ambient light condition, etc.). It is converted to JCH and converted back to XYZ values based on the viewing condition 4 (D93 light source white point, luminance level, ambient light condition, etc.) different from the colorimetric conditions, to obtain the XYZ The values can be converted to ambient light based XYZ values. As a result, the relationship from the device RGB values to the XYZ values of the ambient light reference was obtained.In step S165, if the conversion matrix (colorantTag) or the conversion LUT (AtoB0 Tag) in the monitor profile 142 was updated, the desired A conversion LUT 31 corresponding to ambient light can be obtained.
【0093】[色空間圧縮モードの選択および色空間圧
縮]色空間圧縮モードの選択は、第1実施形態と同様で
あるからその詳細説明は省略する。また、色空間圧縮も
第1実施形態の図6に示す処理と同様であるからその詳細
説明を省略する。[Selection of Color Space Compression Mode and Color Space Compression] The selection of the color space compression mode is the same as that of the first embodiment, and a detailed description thereof will be omitted. Also, the color space compression is the same as the processing shown in FIG. 6 of the first embodiment, and therefore the detailed description is omitted.
【0094】[観察条件2に依存するデータの作成]次
に、データ作成部47を用いて変換LUT 36を作成するが、
この処理も第1実施形態の図11に示す処理と同様である
からその詳細説明を省略する。[Creation of Data Dependent on Observation Condition 2] Next, the conversion LUT 36 is created using the data creation unit 47.
This processing is also the same as the processing shown in FIG. 11 of the first embodiment, and thus the detailed description thereof will be omitted.
【0095】[カラーマッチングの実行]図12はカラー
マッチングの概念を示す図である。31はデータ作成部41
により観察条件4に基づき作成された変換LUT、132は色
空間圧縮部44によりJCH色空間上で作成されたLUT、133
は色空間圧縮部45によりQMH色空間上で作成されたLUT、
36はデータ作成部47により観察条件2に基づき作成され
た変換LUTである。[Execution of Color Matching] FIG. 12 is a diagram showing the concept of color matching. 31 is the data creation unit 41
The conversion LUT 132 created based on the viewing condition 4 by the LUT 133 created on the JCH color space by the color space compression unit 44
Is the LUT created on the QMH color space by the color space compression unit 45,
Reference numeral 36 denotes a conversion LUT created by the data creation unit 47 based on the observation condition 2.
【0096】RGBの入力色信号は、変換LUT 31によりモ
ニタデバイスの色信号から観察条件4におけるデバイス
に依存しない色信号であるXYZ信号へ変換される。次
に、XYZ信号は、色知覚モデル順変換部134および135に
より観察条件4(D93光源の白色点、輝度レベル、周囲光
の状態など)に基づいて人間の知覚信号JCHまたはQMHへ
変換される。相対的カラーマッチングの場合はJCH空間
が、絶対的カラーマッチングの場合はQMH空間がそれぞ
れ選択される。The RGB input color signal is converted by the conversion LUT 31 from the color signal of the monitor device into an XYZ signal which is a device-independent color signal under the viewing condition 4. Next, the XYZ signals are converted into human perception signals JCH or QMH by the color perception model forward converters 134 and 135 based on the viewing condition 4 (white point of the D93 light source, luminance level, state of ambient light, etc.). . In the case of relative color matching, the JCH space is selected, and in the case of absolute color matching, the QMH space is selected.
【0097】色知覚信号JCHおよびQMHはLUT 132および1
33により出力デバイスの色再現範囲内へ圧縮される。色
空間圧縮された色知覚信号JCHおよびQMHは、色知覚モデ
ル逆変換部136および137により観察条件2(D65光源の白
色点、照度レベル、周囲光の状態など)に基づいて観察
条件2におけるデバイスに依存しない色信号であるXYZ信
号へ変換される。そして、XYZ信号は変換LUT 36により
観察条件2における出力デバイスに依存する色信号へ変
換される。The color perception signals JCH and QMH are
33 compresses the data into the color reproduction range of the output device. The color perception signals JCH and QMH compressed in the color space are converted by the color perception model inverse transform units 136 and 137 into devices under the observation condition 2 based on the observation condition 2 (white point of the D65 light source, illuminance level, ambient light state, etc.). Is converted to an XYZ signal which is a color signal which does not depend on. Then, the XYZ signals are converted by the conversion LUT 36 into color signals depending on the output device under the viewing condition 2.
【0098】以上の処理によって得られたCMYK信号は出
力デバイスへ送られて、その色信号によって示される画
像がプリント出力される。そのプリントアウトを観察条
件2の下で観察すれば、観察条件4の下で観察される画像
と、同じ色味に見える。The CMYK signal obtained by the above processing is sent to the output device, and the image indicated by the color signal is printed out. When the printout is observed under observation condition 2, the image looks the same color as the image observed under observation condition 4.
【0099】[0099]
【第4実施形態】上述した各実施形態においては、カラ
ーマッチングモジュールCMMがD50またはD65を基準とす
る測色値から作成されたプロファイルを、観察条件に依
存するプロファイルヘ動的に変換する処理例を説明した
が、予め静的な観察条件に依存するプロファイルを作成
しておくことによって、環境光に対応するカラーマッチ
ングを行うこともできる。Fourth Embodiment In each of the above-described embodiments, a processing example in which the color matching module CMM dynamically converts a profile created from colorimetric values based on D50 or D65 into a profile depending on viewing conditions. However, by previously creating a profile that depends on static observation conditions, color matching corresponding to ambient light can also be performed.
【0100】以下では、観察条件に応じた複数の静的プ
ロファイルから対応するプロファイルを選択するための
観察条件に依存するプロファイルの作成方法を第4実施
形態として説明する。In the following, a method of creating a profile depending on the observation condition for selecting a corresponding profile from a plurality of static profiles according to the observation condition will be described as a fourth embodiment.
【0101】[ソース側の観察条件に依存するプロファ
イルの作成]図3に示したソース側の観察条件に依存す
るデータを作成するデータ作成部41の処理と同様の処理
により、D50またはD65を基準とする測色値から作成され
たプロファイルを基に、ソース側の観察条件に依存する
変換LUT用のデータ11を作成する。データ11は、既にデ
バイスRGB(またはCMYK)値を、ソース側の観察条件に
基づいたXYZ(またはLab)値へ変換するための変換マト
リクスまたは変換LUTであるので、データ11をそのまま
プロファイルヘ格納すればソース側の観察条件に依存す
るプロファイルを作成することができる。[Creation of Profile Dependent on Source-Side Observation Conditions] D50 or D65 is set as a reference by the same processing as that of the data creation unit 41 for creating data dependent on the source-side observation conditions shown in FIG. Based on the profile created from the colorimetric values, the conversion LUT data 11 depending on the viewing conditions on the source side is created. Since the data 11 is already a conversion matrix or a conversion LUT for converting device RGB (or CMYK) values to XYZ (or Lab) values based on viewing conditions on the source side, the data 11 is stored in a profile as it is. For example, a profile that depends on the observation conditions on the source side can be created.
【0102】[デスティネーション側の観察条件に依存
するプロファイルの作成]図3に示した色空間圧縮部4
4、色空間圧縮部45およびデータ作成部47の処理と同様
の処理により、D50またはD65を基準とする測色値から作
成されたプロファイルを基に、デスティネーション側の
観察条件に依存するJCHおよびQMH色空間で圧縮処理を行
うためのデータ132および133、並びに、デスティネーシ
ョン側の観察条件に依存する変換LUT用のデータ16を作
成する。[Creation of Profile Dependent on Destination-side Observation Conditions] Color space compression unit 4 shown in FIG.
4, by the same processing as the processing of the color space compression unit 45 and the data creation unit 47, based on the profile created from the colorimetric values based on D50 or D65, JCH and Data 132 and 133 for performing a compression process in the QMH color space and data 16 for a conversion LUT depending on viewing conditions on the destination side are created.
【0103】データ132は、入出力色空間がJCH色空間で
あるから、入力色空間をデスティネーション側の観察条
件に基づくXYZ(またはLab)値にする必要がある。デス
ティネーション側の観察条件に基づいたXYZ値を、デバ
イスのCMYK(またはRGB)値へ変換するための変換LUTを
作成するためには、入力になるデスティネーション側の
観察条件に基づいたXYZ値に対するデバイスのCMYK値を
求めればよい。つまり、デスティネーション側の観察条
件に基づいたXYZ値を、人間の色知覚モデル順変換を用
いて、デスティネーション側の観察条件に基づく色知覚
JCH値へ変換し、データ132によりJCH色空間で圧縮した
後、人間の色知覚モデル逆変換を用いて、色知覚JCH値
を再びデスティネーション側の観察条件に基づくXYZ値
へ戻し、最後にデータ134に基づく変換を行えば、所望
するデバイスのCMYK値が求められる。LUTの格子点を、
逐次、求めれば変換LUTを作成することができる。Since the input / output color space of the data 132 is the JCH color space, it is necessary to set the input color space to XYZ (or Lab) values based on viewing conditions on the destination side. In order to create a conversion LUT for converting the XYZ values based on the viewing conditions on the destination side to the CMYK (or RGB) values of the device, the XYZ values for the input What is necessary is just to obtain the CMYK value of the device. In other words, the XYZ values based on the viewing conditions on the destination side are converted to the color perception based on the viewing conditions on the destination side using the human color perception model forward transform.
After converting to a JCH value and compressing in the JCH color space with data 132, using a human color perception model inverse transformation, the color perception JCH value is returned again to the XYZ value based on the viewing conditions on the destination side, and finally the data By performing the conversion based on 134, the CMYK value of the desired device is obtained. LUT grid points
If required, a conversion LUT can be created.
【0104】同様に、データ133は、入出力色空間がQMH
色空間であるから、入力色空間をデスティネーション側
の観察条件に基づくXYZ値にする必要がある。デスティ
ネーション側の観察条件に基づいたXYZ値を、デバイス
のCMYK値へ変換するための変換LUTを作成するために
は、入力になるデスティネーション側の観察条件に基づ
いたXYZ値に対するデバイスのCMYK値を求めればよい。
つまり、デスティネーション側の観察条件に基づいたXY
Z値を、人間の色知覚モデル順変換を用いて、デスティ
ネーション側の観察条件に基づいた色知覚QMH値へ変換
し、データ133によりQMH色空間で圧縮した後、人間の色
知覚モデル逆変換を用いて、色知覚QMH植を再びデステ
ィネーション側の観察条件に基づくXYZ値へ戻し、最後
にデータ134に基づく変換を行えば、所望するデバイスC
MYK値が求められる。LUTの格子点を、逐次、求めれば変
換LUTを作成することができる。Similarly, data 133 has an input / output color space of QMH
Since the color space is used, it is necessary to set the input color space to XYZ values based on viewing conditions on the destination side. To create a conversion LUT for converting the XYZ values based on the viewing conditions on the destination side into the CMYK values of the device, the CMYK values of the device with respect to the XYZ values based on the viewing conditions on the destination side to be input Should be obtained.
In other words, XY based on the observation conditions on the destination side
The Z value is converted to a color perception QMH value based on the viewing conditions on the destination side using the human color perception model forward conversion, compressed in the QMH color space by the data 133, and then converted back to the human color perception model Is used, the color perception QMH plant is returned to the XYZ values based on the observation conditions on the destination side again, and finally the conversion based on the data 134 is performed.
MYK value is determined. If the grid points of the LUT are sequentially obtained, a conversion LUT can be created.
【0105】データ132を含むLUTは相対的なカラーマッ
チングに用いられるLUTで、データ133を含むLUTは絶対
的なカラーマッチングに用いられるLUTである。これら
を一つのプロファイルヘ格納すれば、デスティネーショ
ン側の観察条件に依存するプロファイルを作成すること
ができる。ここで、相対的カラーマッチングに用いられ
るLUTは、JCH色空間上における色空間圧縮方式(lightn
esss保存、chroma保存など)によって複数作成し格納す
ることが可能である。同様に、絶対的カラーマッチング
に用いられるLUTもQMH色空間上における色空間圧縮方式
(brlightnesss保存、colourfulness保存など)によっ
て複数作成し格納することが可能である。An LUT including data 132 is an LUT used for relative color matching, and an LUT including data 133 is an LUT used for absolute color matching. If these are stored in one profile, a profile depending on viewing conditions on the destination side can be created. Here, the LUT used for relative color matching is based on a color space compression method (lightn compression) on the JCH color space.
esss storage, chroma storage, etc.). Similarly, a plurality of LUTs used for absolute color matching can be created and stored by using a color space compression method (brlightnesss storage, colorfulness storage, etc.) on the QMH color space.
【0106】[カラーマッチングの実行]観察条件に依
存するプロプロファイルを用いるカラーマッチングにお
いては、色空間圧縮がデスティネーション側のプロファ
イルに含まれているため、上述した各実施形態のよう
に、JCH色空間やQMH色空間において色空間圧縮を行う必
要がない。[Execution of Color Matching] In color matching using a pro-profile depending on viewing conditions, color space compression is included in the profile on the destination side. There is no need to perform color space compression in space or QMH color space.
【0107】観察条件に依存するプロファイルを用いた
場合のカラーマッチングを図2、図13および図16を用い
て説明する。The color matching when a profile depending on the viewing condition is used will be described with reference to FIGS. 2, 13 and 16.
【0108】入力色信号を、ソース側の観察条件に依存
するプロファイルにより、デバイスRGB(またはCMYK)
値からソース側の観察条件に基づいたXYZ(またはLab)
値へ変換する。The input color signal is converted to a device RGB (or CMYK) by a profile depending on the viewing conditions on the source side.
XYZ (or Lab) based on source-side viewing conditions from values
Convert to a value.
【0109】次に、人間の色知覚モデル順変換により、
ソース側の観察条件に基づいたXYZ値をJCH色空間または
QMH色空間へ変換し、色知覚モデル逆変換でデスティネ
ーション側の観察条件に基づいたXYZ値へ変換する。こ
こで、JCHまたはQMH色空間の選択は、色空間圧縮モード
の選択によって決定され、相対的カラーマッチングの際
はJCH色空間が、絶対的カラーマッチングの際はQMH色空
間が選択される。また、XYZ値からJCHまたはQMH色空間
への変換は、ソース側のプロファイル内に格納されたソ
ース側の観察条件(光源の白色点、照度または輝度レベ
ル、周囲光の状態など)を利用し、逆変換にはデスティ
ネーション側のプロファイル内に格納されたデスティネ
ーション側の観察条件(光源の白色点、照度または輝度
レベル、周囲光の状態など)を利用する。変換されたデ
スティネーション側の観察条件に基づくXYZ(またはLa
b)値は、デスティネーション側の観察条件に依存する
プロファイルによってデバイスのCMYK(またはRGB)値
へ変換される。Next, by the human color perception model forward conversion,
XYZ values based on viewing conditions on the source side can be converted to JCH color space or
Convert to QMH color space and convert to XYZ values based on viewing conditions on the destination side by inverse color perception model conversion. Here, the selection of the JCH or QMH color space is determined by the selection of the color space compression mode. The JCH color space is selected for relative color matching, and the QMH color space is selected for absolute color matching. Conversion from XYZ values to JCH or QMH color space uses source-side viewing conditions (white point of light source, illuminance or luminance level, state of ambient light, etc.) stored in the source-side profile, For the inverse conversion, the viewing conditions on the destination side (white point of light source, illuminance or luminance level, state of ambient light, etc.) stored in the profile on the destination side are used. XYZ (or La) based on the converted viewing conditions on the destination side
b) The values are converted to device CMYK (or RGB) values by a profile that depends on the viewing conditions on the destination side.
【0110】このように、第4実施形態における観察条
件に依存するプロファイルを用いるカラーマッチング処
理は、第1から第3実施形態と等価である。As described above, the color matching processing using the profile depending on the viewing condition in the fourth embodiment is equivalent to the first to third embodiments.
【0111】[0111]
【第5実施形態】以上の各実施形態では、予めプロファ
イル内に格納された一種類の測色値から観察条件に依存
したプロファイルを作成していたが、よりマッチング精
度を高めるためには、プロファイル内に複数の光源下の
測色データを格納しておき、その中から実際の観察条件
に最も近い測色データを選択して、観察条件に基づく測
色データへ変換し、観察条件に依存したプロファイルを
作成した方がよい。Fifth Embodiment In each of the above embodiments, a profile depending on the viewing condition is created from one type of colorimetric value stored in advance in the profile. The colorimetric data under a plurality of light sources is stored in the memory, and the colorimetric data closest to the actual observation condition is selected from the data, converted into the colorimetric data based on the observation condition, and depends on the observation condition. It is better to create a profile.
【0112】図20は異なる光源の白色点のXYZ値、色票
のデバイスに依存したRGB値および各光源下の色票に対
するXYZ値をプロファイル191内へ格納した場合の概念図
である。FIG. 20 is a conceptual diagram when the XYZ values of the white point of different light sources, the RGB values depending on the device of the color chart, and the XYZ values for the color chart under each light source are stored in the profile 191.
【0113】色票は、入力デバイスの場合には例えばIT
8のカラーターゲットとなり、出力デバイスの場合には
例えば9×9×9のRGBカラーパッチになる。例えば、192
は色票のRGB値とA光源(109.85, 100.0, 35.58)下のXYZ
値、193は色票のRGB値とD65光源(95.05, 100.0, 108.8
8)下のXYZ値、194は色票のRGB値とD50(96.42, 100.0, 8
2.49)光源下のXYZ値、195は色票のRGB値とF2(99.20, 10
0.0, 67.40)光源下のXYZ値というようになる。これら異
なる光源下の色票のXYZ値は、各光源の分光分布および
各色票の分光反射率から求めることができる。従って、
各XYZ値の代わりに、各光源の分光分布および各色票の
分光反射率をプロファイル191内へ格納することもでき
る。ここで、各プロファイルで使用する色票が固定され
ていれば色票のRGB値や分光反射率のデータは各光源に
対して共通であるので、各光源間で色票に関するデータ
を共有することができる。In the case of an input device, for example, an IT device
8 color targets, and in the case of an output device, for example, a 9 × 9 × 9 RGB color patch. For example, 192
Is the RGB value of the color chart and XYZ under A light source (109.85, 100.0, 35.58)
Value, 193 is the RGB value of the color chart and D65 light source (95.05, 100.0, 108.8
8) The lower XYZ value, 194 is the RGB value of the color chart and D50 (96.42, 100.0, 8
2.49) XYZ value under light source, 195 is RGB value of color chart and F2 (99.20, 10
0.0, 67.40) XYZ values under the light source. The XYZ values of the color patches under these different light sources can be obtained from the spectral distribution of each light source and the spectral reflectance of each color patch. Therefore,
Instead of the XYZ values, the spectral distribution of each light source and the spectral reflectance of each color chip can be stored in the profile 191. Here, if the color chart used in each profile is fixed, the RGB value and the spectral reflectance data of the color chart are common to each light source. Can be.
【0114】図21は標準光源の分光分布を示す図で、20
1はA光源に対する分光分布、202はD65光源に対する分光
分布である。実際の観察条件における光源の分光分布を
測定することができれば、より精度の高い観察条件に依
存したプロファイルを作成することができる。FIG. 21 shows the spectral distribution of the standard light source.
1 is the spectral distribution for the A light source, and 202 is the spectral distribution for the D65 light source. If the spectral distribution of the light source under the actual observation conditions can be measured, a profile that depends on the observation conditions with higher accuracy can be created.
【0115】図20に示すように、A、D65、D50およびF2
などの複数の標準光源下のXYZ値がプロファイル内に格
納されている場合、実際の観察条件に最も近い標準光源
に対するXYZ値から観察条件に対するXYZ値へ変換され
る。観察条件により近い光源下のXYZ値を選択するため
に、プロファイル内に格納された光源の白色点のXYZ値
を検索に用いる。例えば、各光源の白色点をXwYwZwとす
ると、その色度(xw, yw)は式(7)によって求めることが
できる。 xw = Xw/(Xw + Yw + Zw) yw = Yw/(Xw + Yw + Zw) …(7)As shown in FIG. 20, A, D65, D50 and F2
When the XYZ values under a plurality of standard light sources such as are stored in the profile, the XYZ values for the standard light source closest to the actual viewing condition are converted into the XYZ values for the viewing condition. In order to select an XYZ value under the light source closer to the viewing condition, the XYZ value of the white point of the light source stored in the profile is used for the search. For example, assuming that the white point of each light source is XwYwZw, its chromaticity (xw, yw) can be obtained by Expression (7). xw = Xw / (Xw + Yw + Zw) yw = Yw / (Xw + Yw + Zw)… (7)
【0116】同様に、観察条件における白色点の色度
(x, y)を式(8)から求めると、各光源の白色点と観察条
件における白色点の距離dwは、例えば、式(9)により評
価することができる。 x = X/(X + Y + Z) y = Y/(X + Y + Z) …(8) dw = √{(x - xw)(x - xw) + (y - yw)(y - yw)} …(9)Similarly, the chromaticity of the white point under observation conditions
When (x, y) is obtained from Expression (8), the distance dw between the white point of each light source and the white point under the viewing condition can be evaluated by, for example, Expression (9). x = X / (X + Y + Z) y = Y / (X + Y + Z)… (8) dw = √ {(x-xw) (x-xw) + (y-yw) (y-yw )}… (9)
【0117】この結果から、実際の観察条件に最も近い
測色データを選択すれば、より精度の良い観察条件に対
するXYZ値を得ることができる。ここで、プロファイル
内に格納されたXYZ値を観察条件に基づくXYZ値へ変換す
る方法は、先述した実施形態と同様に、色知覚モデルに
よって測色光源基準のXYZ値を、その測色条件に基づい
て、人間の色知覚空間JCHへ変換し、測色条件とは異な
る観察条件に基づいて再びXYZ値へ逆変換する方法を用
いる。また、各光源の白色点と観察条件における白色点
の距離dwがゼロの場合には、その測色データを観察条件
に対するXYZ値として利用することができる。その他、
各光源の白色点の色温度Twと観察条件における白色点の
色温度Tの差分によって距離を評価しても良い。From these results, if the colorimetric data closest to the actual viewing condition is selected, it is possible to obtain more accurate XYZ values for the viewing condition. Here, the method of converting the XYZ values stored in the profile into the XYZ values based on the viewing conditions is the same as in the above-described embodiment. A method is used in which the image data is converted into a human color perception space JCH on the basis of the image data and then converted back into XYZ values again based on an observation condition different from the colorimetric condition. When the distance dw between the white point of each light source and the white point under the viewing condition is zero, the colorimetric data can be used as XYZ values for the viewing condition. Others
The distance may be evaluated based on the difference between the color temperature Tw of the white point of each light source and the color temperature T of the white point under the viewing conditions.
【0118】図22は複数光源下の測色データからの測色
値の推測する場合の処理を示すフローチャートである。
ここで、ステップS211は、図4に示したステップS44、図
5に示したステップS54、図6に示したステップS64、図7
に示したステップS74、図14に示したステップS144、図1
5に示したステップS154および図17に示したステップS17
4に相当する。FIG. 22 is a flowchart showing a process for estimating a colorimetric value from colorimetric data under a plurality of light sources.
Here, step S211 corresponds to step S44 shown in FIG.
Step S54 shown in FIG. 5, step S64 shown in FIG. 6, FIG.
Step S74 shown in FIG. 14, step S144 shown in FIG. 14, FIG.
Step S154 shown in FIG. 5 and step S17 shown in FIG.
Equivalent to 4.
【0119】[観察条件に応じたプロファイルデータの
キャッシュ]先述したように、観察条件に依存したプロ
ファイルを作成する処理は比較的複雑であるため、マッ
チング等を試みるたびに再計算していたのでは時間がか
かってしまう。通常の使用において、ソース側の観察条
件やデスティネーション側の観察条件は一度設定してし
まえば、その設定のまま使用する場合が多いため、観察
条件に基づくデバイスに依存しない色空間とデバイスに
依存する色空間を相互に変換するLUT等をキャッシング
しておけば処理の効率を高めることができる。[Caching of Profile Data According to Observation Conditions] As described above, since the process of creating a profile depending on observation conditions is relatively complicated, it must be recalculated every time matching is attempted. It takes time. In normal use, once the viewing conditions on the source side and the viewing conditions on the destination side are set once, they are often used as they are, so it depends on the device-dependent color space and device based on the viewing conditions. The processing efficiency can be increased by caching LUTs and the like that convert color spaces to be converted to each other.
【0120】観察条件はソース側、デスティネーション
側で独立に設定できるため、観察条件に基づくデバイス
に依存しない色空間とデバイスに依存する色空間を相互
に変換するLUT等は、各プロファイル毎にキャッシュさ
れる。キャッシュ先は、各プロファイル又は他のキャッ
シュ・ファイルとなる。キャッシュされるLUTは現在使
用している観察条件に基づいたLUTだけでも良いし、複
数の観察条件に基づいたLUTを各観察条件毎にキャッシ
ュしても良い。Since the viewing conditions can be set independently on the source side and the destination side, an LUT or the like that converts between a device-independent color space and a device-dependent color space based on viewing conditions can be cached for each profile. Is done. The cache destination is each profile or another cache file. The LUT to be cached may be only the LUT based on the currently used viewing condition, or the LUT based on a plurality of viewing conditions may be cached for each viewing condition.
【0121】例えば、ICCプロファイルを利用した場合
には、各プロファイルのAtoBx Tag、BtoAx Tag、又はga
mut Tag等に相当する観察条件に基づいたLUTをプライベ
ートタグとして格納する。For example, when ICC profiles are used, AtoBx Tag, BtoAx Tag, or ga
An LUT based on observation conditions corresponding to a mut Tag or the like is stored as a private tag.
【0122】図23に、観察条件に基づくデバイスに依存
しない色空間と、デバイスに依存する色空間とを相互に
変換するLUTを、ICCプロファイルへ格納した場合の一例
を示す。キャッシュされたLUTを含むプロファイル221
は、AtoB0 Tag 222、AtoB1 Tag223、AtoB2 Tag 224、Bt
oA0 Tag 225、BtoA1 Tag 226、BtoA2 Tag 227およびgam
ut Tag 228をパブリックタグとして格納している。ここ
で、パブリックタグとして格納されるLUTは、D50基準の
デバイスに依存しない色空間と、デバイスに依存する色
空間とを変換するためのものである。さらに、プロファ
イル228は、プライベートタグとして、パブリックタグ2
22から227に相当する、観察条件に基づくデバイスに依
存しない色空間と、デバイスに依存する色空間とを相互
に変換するLUT 229から2215を含んでいる。プライベー
トタグへは、キャッシュされたLUTとは別に、キャッシ
ュ時の観察条件2216が格納される。FIG. 23 shows an example in which an LUT for mutually converting between a device-dependent color space based on viewing conditions and a device-dependent color space is stored in an ICC profile. Profile 221 with cached LUT
Are AtoB0 Tag 222, AtoB1 Tag223, AtoB2 Tag 224, Bt
oA0 Tag 225, BtoA1 Tag 226, BtoA2 Tag 227 and gam
ut Tag 228 is stored as a public tag. Here, the LUT stored as a public tag is for converting between a device-independent color space based on D50 and a device-dependent color space. Further, the profile 228 includes a public tag 2 as a private tag.
It includes LUTs 229 to 2215 for converting between a device-independent color space based on viewing conditions and a device-dependent color space corresponding to 22 to 227, respectively. The observation condition 2216 at the time of caching is stored in the private tag separately from the cached LUT.
【0123】図24はキャッシングの処理フローの一例を
示す図である。以下に説明する処理は、ソース側および
デスティネーション側において独立な処理である。FIG. 24 is a diagram showing an example of a processing flow of caching. The processing described below is independent processing on the source side and the destination side.
【0124】先ず、ユーザ設定等から観察条件VCを取得
する。次に、プロファイル232からキャッシュされてい
るLUTの観察条件VC0を取得する。観察条件VCおよび観察
条件VC0において、例えば光源の白色点の比較等によ
り、観察条件を比較する。観察条件が一致すれば、前回
LUTをキャッシュしたときと同一観察条件とみなせるの
で、キャッシュされたLUTをカラーマッチング等に使用
する。一方、観察条件が一致しないならば、カラーマッ
チング等において必要なLUTを観察条件に基づいて作成
する。First, the observation condition VC is obtained from the user settings and the like. Next, the observation condition VC0 of the cached LUT is acquired from the profile 232. In the viewing condition VC and the viewing condition VC0, the viewing conditions are compared, for example, by comparing the white point of the light source. If the observation conditions match,
Since the same observation condition as when the LUT is cached can be considered, the cached LUT is used for color matching or the like. On the other hand, if the viewing conditions do not match, an LUT necessary for color matching or the like is created based on the viewing conditions.
【0125】観察条件に基づくLUTの作成方法は、図4、
図6、図7、図12および図13を用いて説明した方法と同じ
である。キャッシュされるLUTは、ソース側ならば図12
に示されるような変換LUT 11、デスティネーション側な
らば図12に示されるLUT 132と変換LUT 16とを合成したL
UTになる(つまり、図13における変換LUT 21や26と等価
である)。LUT作成時の観察条件、および、その観察条
件に基づいたLUTはカラーマッチング等に利用された
後、プライベートタグとしてプロファイルに格納され
る。The method of creating an LUT based on observation conditions is shown in FIG.
This is the same as the method described with reference to FIGS. 6, 7, 12, and 13. If the LUT to be cached is the source side,
LUT 11 as shown in FIG. 12, and on the destination side, L obtained by combining LUT 132 and conversion LUT 16 shown in FIG.
UT (that is, equivalent to the conversion LUTs 21 and 26 in FIG. 13). The viewing conditions at the time of creating the LUT and the LUT based on the viewing conditions are stored in a profile as a private tag after being used for color matching or the like.
【0126】以上説明した各実施形態によれば、次の効
果を得ることができる。According to each embodiment described above, the following effects can be obtained.
【0127】(1)画像データのソース側およびデステ
ィネーション側にそれぞれ異なる観察条件(環境光白色
点や照明レベルなど)を設定することができ、例えばネ
ットワーク接続された遠隔地の環境下における色再現を
シミュレートすることができる。(1) Different observation conditions (white point of ambient light, illumination level, etc.) can be set on the source side and the destination side of image data. For example, color reproduction in a remote environment connected to a network Can be simulated.
【0128】(2)人間の色知覚モデルを用いて、ソー
ス側の環境光を基準とするXYZ値を、ソース側の観察条
件(環境光白色点や照度レベルなど)に基づき、JCH色
空間やQMH色空間に変換し、さらに、デスティネーショ
ン側の観察条件(環境光白色点や照度レベルなど)に基
づき、デスティネーション側の環境光を基準とするXYZ
値へ逆変換することにより、ソース側およびデスティネ
ーション側の観察条件を独立に設定してカラーマッチン
グを行うことができる。(2) Using a human color perception model, the XYZ values based on the ambient light on the source side are converted into the JCH color space and the JCH color space based on the observation conditions on the source side (ambient light white point, illuminance level, etc.). Converted to QMH color space, and based on the viewing conditions on the destination side (ambient light white point, illuminance level, etc.), XYZ based on the ambient light on the destination side
By performing the inverse conversion to the value, the color matching can be performed by independently setting the viewing conditions on the source side and the destination side.
【0129】(3)人間の色知覚空間であるQMH(または
JCH)色空間上で色空間圧縮を行うことにより、等色相
線などの人間の色知覚特性を色空間圧縮に反映すること
ができるとともに、環境光に応じた最適なカラーマッチ
ングを行うことができる。(3) QMH (or a human color perception space)
JCH) By performing color space compression on the color space, human color perception characteristics such as iso-hue lines can be reflected in the color space compression, and optimal color matching according to ambient light can be performed. .
【0130】(4)色空間圧縮を、QMH色空間で行う絶対
的カラーマッチングと、JCH色空間で行う相対的カラー
マッチングとの二つのモードにおけるカラーマッチング
を選択可能にすることで、出力側の色再現領域において
可能な限り絶対的なカラーマッチングを試みることや、
出力側の色再現領域のダイナミックレンジを最大限に利
用する相対的なカラーマッチングを試みて、出力側の色
再現領域に最適なカラーマッチングを行うことができ
る。(4) Color space compression can be selected from two modes, an absolute color matching performed in a QMH color space and a relative color matching performed in a JCH color space. Try the absoluteest possible color matching in the color reproduction area,
By performing relative color matching that maximizes the dynamic range of the color reproduction area on the output side, optimal color matching for the color reproduction area on the output side can be performed.
【0131】(5)人間の色知覚モデルを用いて、カラ
ーターゲットやカラーパッチの測色値(XYZまたはLab
値)を、測色条件(測色光源の白色点や照度レベルな
ど)に基づいて、JCH色空間の値へ変換し、さらに、観
察条件(環境光白色点や照度レベルなど)に基づいて、
再びXYZ(またはLab)値へ逆変換することにより、測色
光源を基準とするXYZ値を環境光を基準とするXYZ値へ変
換することができる。(5) Using a human color perception model, the colorimetric values (XYZ or Lab
Value) is converted to a value in the JCH color space based on colorimetric conditions (such as the white point of the colorimetric light source and the illuminance level), and further, based on the viewing conditions (such as the ambient light white point and the illuminance level).
By performing the inverse conversion to the XYZ (or Lab) value again, the XYZ value based on the colorimetric light source can be converted into the XYZ value based on the ambient light.
【0132】(6)標準光源の下で測色したカラーター
ゲットのデバイスに依存しないデータと、そのカラータ
ーゲットのデータを入力したデバイスに依存するデータ
との関係データを入力プロファイルに格納し、入力側の
観察条件(環境光白色点や照度レベルなど)に応じて、
デバイスに依存するデータからデバイスに依存しないデ
ータへの変換マトリクスまたは変換LUTを動的に作成す
ることにより、入力側の環境光に応じたカラーマッチン
グを行うことができる。また、入力プロファイルに格納
されたデバイスに依存するデータを、デバイスに依存し
ないデータ(標準光源基準)へ変換するための変換マト
リクスまたは変換LUTを、入力側の観察条件(環境光白
色点や照度レベルなど)に応じて動的に更新することに
より、入力側の環境光に応じたカラーマッチングを行う
ことができる。(6) The relational data between the data independent of the device of the color target measured under the standard light source and the data dependent on the device to which the data of the color target is input is stored in the input profile, and Depending on the observation conditions (such as ambient light white point and illuminance level)
By dynamically creating a conversion matrix or a conversion LUT from device-dependent data to device-independent data, color matching can be performed according to the ambient light on the input side. In addition, a conversion matrix or conversion LUT for converting device-dependent data stored in the input profile into device-independent data (standard light source standard) is used for input-side viewing conditions (ambient light white point, illuminance level, etc.). , Etc.), color matching can be performed according to the ambient light on the input side.
【0133】(7)モニタプロファイルに格納されたデ
バイスに依存するデータを、デバイスに依存しないデー
タ(モニタ白色点基準または標準光源基準)へ変換する
ための変換マトリクスまたは変換LUTを、モニタの観察
条件(環境光白色点や輝度レベルなど)に応じて動的に
更新することにより、モニタの環境光に応じたカラーマ
ッチングを行うことができる。(7) A conversion matrix or a conversion LUT for converting device-dependent data stored in the monitor profile into device-independent data (monitor white point reference or standard light source reference) is used as a monitor viewing condition. By dynamically updating according to the (environmental light white point, luminance level, etc.), color matching can be performed according to the monitor's ambient light.
【0134】(8)カラーパッチのデバイスに依存する
データと、そのカラーパッチを出力した際のプリント出
力を標準光源下で測色したデバイスに依存しないデータ
との関係を出力プロファイルに格納し、出力側の観察条
件(環境光白色点や照度レベルなど)に応じて、デバイ
スに依存しないデータからデバイスに依存するデータへ
変換するための変換LUTを動的に作成することにより、
出力側の環境光に応じたカラーマッチングを行うことが
できる。(8) The relationship between the device-dependent data of the color patch and the device-independent data obtained by measuring the print output when the color patch is output under a standard light source is stored in an output profile and output. By dynamically creating a conversion LUT for converting device-independent data to device-dependent data according to the viewing conditions on the side (environmental light white point, illuminance level, etc.)
Color matching according to the ambient light on the output side can be performed.
【0135】[0135]
【第6実施形態】第6実施形態では、上記各実施形態にお
ける観察条件(例えば、図2におけるViewing Condition
1および2)をマニュアルで設定するためのグラフィカ
ルユーザインタフェイス(GUI)の一例を説明する。Sixth Embodiment In the sixth embodiment, the observation conditions (for example, Viewing Condition in FIG.
An example of a graphical user interface (GUI) for manually setting 1 and 2) will be described.
【0136】図25に本実施形態における観察条件のパラ
メータを設定するためのGUI 191を示す。FIG. 25 shows a GUI 191 for setting the parameters of the viewing condition in this embodiment.
【0137】192は入力側の視対象における輝度を入力
するためのテキストボックス、193は入力側の視対象に
おける白色点の種類を選択するためのドロップダウンコ
ンボボックス、194は入力側の周囲条件を選択するため
のドロップダウンコンボボックス、195は入力側の色順
応度合いを入力するためのテキストボックス、196は出
力側の視対象における輝度を入力するためのテキストボ
ックス、197は出力側の視対象における白色点を選択す
るためのドロップダウンコンボボックス、198は出力側
の周囲条件を選択するためのドロップダウンコンボボッ
クス、および、199は出力側の色順応度合いを入力する
ためのテキストボックスである。192 is a text box for inputting the luminance of the input-side visual target, 193 is a drop-down combo box for selecting the type of white point in the input-side visual target, and 194 is the input-side ambient condition. A drop-down combo box for selection, 195 is a text box for inputting the degree of color adaptation on the input side, 196 is a text box for inputting the luminance of the output-side visual target, and 197 is a text box for the output-side visual target. A drop-down combo box for selecting a white point, 198 is a drop-down combo box for selecting an ambient condition on the output side, and 199 is a text box for inputting a color adaptation degree on the output side.
【0138】なお、輝度は図19に示したCIE CAM97Sにお
けるLAに関係し、光源はXwYwZwに関係し、周囲光はc、N
c、FLLおよびFに関係し、順応度合いはDに関係する。図
19に示したCIE CAM97Sでは、LAとFとに基づきDを求めて
いるが、本実施形態ではDをマニュアルで制御できるよ
うにする。The luminance is related to LA in the CIE CAM97S shown in FIG. 19, the light source is related to XwYwZw, and the ambient light is c, N
It is related to c, FLL and F, and the degree of adaptation is related to D. Figure
In the CIE CAM97S shown in FIG. 19, D is obtained based on LA and F. In this embodiment, D can be controlled manually.
【0139】視対象における輝度は、通常、白色点の20
%程度を入力する。視対象における白色点の種類は、本
来、視対象における白色点のXYZ値を必要とするが、こ
こでは簡易化するために、使用するメディアにおいて反
射率100%の白色点が存在すると仮定して光源の白色点を
利用する。さらに、実際の観察条件における光源の白色
点を利用した方がよいが、ここでは標準光源の種類を選
択するものとする。標準光源の種類としてはA光源、C光
源、D65光源、D50光源、D93光源、F2光源、F8光源およ
びF11光源などがある。背景の相対輝度に関しては画像
を対象とするので、仮に20%程度と仮定する。周囲条件
としては、周囲の相対輝度が背景の相対輝度として仮定
した20%以上である場合には「平均的な明るさ」とし、
それ以下の場合は「薄暗い」、ほとんど0%の場合には
「暗い」とする。色順応度合いは1.0のときに完全順応
に、0.0のときに順応なしになるように値を調整する。[0139] The luminance of the visual target is usually 20% of the white point.
Enter about%. The type of white point in the viewing target originally requires the XYZ values of the white point in the viewing target, but here, for simplicity, it is assumed that there is a 100% reflectance white point in the media used. Use the white point of the light source. Further, it is better to use the white point of the light source under actual viewing conditions, but here, the type of the standard light source is selected. The types of standard light sources include A light source, C light source, D65 light source, D50 light source, D93 light source, F2 light source, F8 light source, and F11 light source. Since the image is targeted for the relative luminance of the background, it is assumed that the relative luminance is about 20%. As the surrounding condition, when the relative brightness of the surroundings is equal to or more than 20% as assumed as the relative brightness of the background, the average brightness is set as “
If it is less than that, it is “dim”, and if it is almost 0%, it is “dark”. The value is adjusted so that the chromatic adaptation degree is 1.0 for perfect adaptation and 0.0 for no adaptation.
【0140】[0140]
【第7実施形態】第6実施形態の観察条件のパラメータ設
定は、値を直接入力する必要があるため、カラーの専門
家ではない一般のユーザにとって非常に扱い難い面があ
る。そこで、第7実施形態では、第6実施形態のGUI 191
を改良して使い勝手を向上させる。Seventh Embodiment Setting parameters for viewing conditions in the sixth embodiment is very difficult for ordinary users who are not color specialists, because it is necessary to input values directly. Therefore, in the seventh embodiment, the GUI 191 of the sixth embodiment is used.
To improve usability.
【0141】本実施形態に特徴的な構成は以下のとおり
である。 (1) ユーザのレベルに応じてパラメータ設定の表示を切
替える。 (2) ユーザがソース側視対象とデスティネーション側視
対象の間隔を指定することで、色順応度合いを調整す
る。 (3) ユーザがソース側視対象とデスティネーション側視
対象における色順応度合いのバランスを調整する。 (4) ユーザがソース側視対象とデスティネーション側視
対象における色順応度合いのバランスを保ちながら、絶
対的な色順応度合いを調整する。The characteristic structure of this embodiment is as follows. (1) Switch the display of parameter settings according to the level of the user. (2) The user adjusts the degree of color adaptation by designating the interval between the source side viewing target and the destination side viewing target. (3) The user adjusts the balance of the degree of color adaptation between the source side viewing target and the destination side viewing target. (4) The user adjusts the absolute degree of chromatic adaptation while maintaining the balance of the degree of chromatic adaptation between the source side target and the destination side target.
【0142】図26はユーザレベルが設定可能なGUI 201
の一例を示し、同図ではユーザレベルとして「一般ユー
ザ」が選択されている。GUI 201では、ユーザがパラメ
ータを直接入力する必要がなく、選択およびスライドバ
ーによってすべての環境条件の設定ができる。さらに、
各選択内容も一般ユーザが理解し易い表現になってい
る。FIG. 26 shows a GUI 201 in which a user level can be set.
In the figure, “general user” is selected as the user level. In the GUI 201, the user does not need to input parameters directly, and all environmental conditions can be set by selection and a slide bar. further,
Each selection is also expressed in a manner that is easy for general users to understand.
【0143】図26において、202はユーザレベルを選択
するためのドロップダウンコンボボックス、203は入力
側の視対象を選択するためのドロップダウンコンボボッ
クス、204は入力側の視対象における輝度レベルを選択
するためのドロップダウンコンボボックス、205は入力
側の視対象における白色点の種類を選択するためのドロ
ップダウンコンボボックス、206は入力側の周囲条件を
選択するためのドロップダウンコンボボックス、207は
出力側の視対象を選択するためのドロップダウンコンボ
ボックス、208は出力側の視対象における輝度レベルを
選択するためのドロップダウンコンボボックス、209は
出力側の視対象における白色点の種類を選択するための
ドロップダウンコンボボックス、2010は出力側の周囲条
件を選択するためのドロップダウンコンボボックス、20
11は観察間隔設定における入力側視対象を示すアイコ
ン、および、2012は観察間隔設定における出力側視対象
を示すアイコンである。In FIG. 26, reference numeral 202 denotes a drop-down combo box for selecting a user level, reference numeral 203 denotes a drop-down combo box for selecting an input-side visual target, and reference numeral 204 denotes a luminance level of the input-side visual target. Drop-down combo box for selecting the type of white point in the visual object on the input side, 205 is a drop-down combo box for selecting the ambient conditions on the input side, and 207 is the output Drop-down combo box for selecting the visual object on the side, 208 is a drop-down combo box for selecting the luminance level in the visual object on the output side, and 209 is for selecting the type of white point in the visual object on the output side Drop-down combo box, 2010 is a drop-down combo box for selecting ambient conditions on the output side Bobokkusu, 20
Reference numeral 11 denotes an icon indicating the input side viewing target in the observation interval setting, and reference numeral 2012 denotes an icon indicating the output side viewing target in the observation interval setting.
【0144】ユーザレベルを選択するためのドロップダ
ウンコンボボックス202を指定することにより、例えば
図27に示すように、表示されるユーザレベルが切替わ
る。視対象の選択は項目として「モニタ」「原稿」「プ
リント」などが選択可能になっており、選択された項目
によって選択メニューの項目やその項目に応じて設定さ
れる実際の値が異なってくる。視対象における輝度レベ
ルの選択は一般ユーザ向けのため「明るい」「やや明る
い」「平均」「やや暗い」などの感覚的な選択項目にな
っている。視対象における白色点の選択も、一般ユーザ
向けにD93やF2といった表現を使わずに、モニタ向けに
は「青白い」「白色」「橙白色」、原稿やプリント向け
には「白色蛍光灯」「昼白色蛍光灯」「白熱灯」「屋外
晴天」「屋外曇天」などの表現になっている。By specifying a drop-down combo box 202 for selecting a user level, the displayed user level is switched, for example, as shown in FIG. The items to be viewed can be selected from items such as "monitor", "document", "print", and the like, and the items of the selection menu and the actual values set according to the items differ depending on the selected item. . The selection of the brightness level in the viewing target is for general users, and is a perceptual selection item such as “bright”, “slightly bright”, “average”, and “slightly dark”. For the selection of white point in the viewing target, the expression “Dark or white” or “white” or “white fluorescent” or “white fluorescent light” or The expressions are daylight white fluorescent light, incandescent light, outdoor fine weather, and outdoor cloudy weather.
【0145】観察間隔設定は、例えばモニタとプリント
を直接並べて比較する場合と、離れた位置で比較する場
合といった視対象の間隔をスライドバーで調整するもの
であり、色順応度合い値の決定に関係する。ユーザが感
覚的に捉えやすいように、視対象をアイコン化し、その
アイコン間の距離をスライドバーで調整する。The observation interval setting is to adjust the interval of the viewing target by, for example, a case where the monitor and the print are directly arranged side by side and a case where the comparison is made at a distant position using a slide bar. I do. In order to make it easy for the user to perceive sensibly, the visual target is iconized, and the distance between the icons is adjusted with a slide bar.
【0146】CIE CAM97sにおいて色順応度合いは以下の
式によって定義される。 完全順応:D = 1.0 順応なし:D = 0.0 不完全順応:D = F - F/{1 + 2・La^(1/4) + (La^2)/30
0}In CIE CAM97s, the degree of chromatic adaptation is defined by the following equation. Perfect adaptation: D = 1.0 No adaptation: D = 0.0 Incomplete adaptation: D = F-F / {1 + 2 · La ^ (1/4) + (La ^ 2) / 30
0}
【0147】ここで、Dは色順応の度合い。Fは周囲条件
によって変化する定数で、平均的な明るさでは1.0、薄
暗いや暗いは0.9。Laは視対象における輝度である。ま
た、色順応の度合いDは、入力側と出力側で独立に設定
することができる。なお、a^bはaのb乗を表す。Here, D is the degree of chromatic adaptation. F is a constant that varies depending on the ambient conditions, and is 1.0 for average brightness and 0.9 for dim or dark. La is the luminance of the viewing target. The degree of color adaptation D can be set independently on the input side and the output side. Note that a ^ b represents a raised to the power of b.
【0148】本実施形態では、色順応の度合いが入力側
視対象と出力側視対象の間隔(観察距離)によって変化
するように入力側および出力側の色順応の度合いを定義
する。観察距離が無限大のときに完全順応に近くなると
仮定すれば、例えば以下のように定義することができ
る。 Ds0 = Fs - Fs/{1 + 2・Las^(1/4) + (Las^2)/300} Dd0 = Fd - Fd/{1 + 2・Lad^(1/4) + (Lad^2)/300} Ds = Ds0・VD + Ds0・VD0・(1.0 - VD) Dd = Dd0・VD + Dd0・VD0・(1.0 - VD)In the present embodiment, the degree of chromatic adaptation on the input side and the output side is defined such that the degree of chromatic adaptation changes depending on the distance (observation distance) between the input side visual target and the output side visual target. Assuming that the observation distance is close to perfect adaptation when the observation distance is infinite, it can be defined as follows, for example. Ds0 = Fs-Fs / {1 + 2 ・ Las ^ (1/4) + (Las ^ 2) / 300} Dd0 = Fd-Fd / {1 + 2 ・ Lad ^ (1/4) + (Lad ^ 2 ) / 300} Ds = Ds0 ・ VD + Ds0 ・ VD0 ・ (1.0-VD) Dd = Dd0 ・ VD + Dd0 ・ VD0 ・ (1.0-VD)
【0149】ここで、Ds0は輝度レベルと周囲条件とで
決まる入力側の色順応度合い。Fsは入力側の周囲条件に
よって変化する定数。Lasは入力側の視対象における輝
度。Dd0は輝度レベルと周囲条件とで決まる出力側の色
順応度合い。Fdは出力側の周囲条件によって変化する定
数。Ladは出力側の視対象における輝度。Dsは観察距
離、輝度レベル、周囲条件で決まる入力側の色順応度合
い。Ddは観察距離、輝度レベル、周囲条件で決まる出力
側の色順応度合い。VDは観察距離を示すスライドバーの
位置で、観察距離がゼロの場合には最小値0.0、観察距
離が無限大の場合には最大値1.0。VD0は観察距離がゼロ
のときの色順応度合いを決定する定数である。Here, Ds0 is the degree of chromatic adaptation on the input side determined by the luminance level and the surrounding conditions. Fs is a constant that changes depending on the ambient conditions on the input side. Las is the luminance of the viewing object on the input side. Dd0 is the degree of chromatic adaptation on the output side determined by the luminance level and the surrounding conditions. Fd is a constant that changes depending on the ambient conditions on the output side. Lad is the luminance of the viewing object on the output side. Ds is the degree of color adaptation on the input side determined by the viewing distance, luminance level, and ambient conditions. Dd is the degree of color adaptation on the output side determined by the viewing distance, luminance level, and ambient conditions. VD is the position of the slide bar indicating the observation distance. The minimum value is 0.0 when the observation distance is zero, and the maximum value is 1.0 when the observation distance is infinite. VD0 is a constant that determines the degree of chromatic adaptation when the viewing distance is zero.
【0150】図27はユーザレベルが「プロフェッショナ
ル」に指定された場合のGUI 211の一例を示している。
対象が専門家であるため、パラメータの直接入力ができ
るとともに、表現も専門的になっている。FIG. 27 shows an example of the GUI 211 when the user level is designated as “professional”.
Since the subject is an expert, the parameter can be directly input and the expression is also specialized.
【0151】ここで、2111は入力側観察条件の色順応度
合い値を表示するためのスタティックテキスト、2112は
出力側観察条件の色順応度合い値を表示するためのスタ
ティックテキスト、2113は入力側視対象と出力側視対象
における色順応度合いのバランスを調整するためのスラ
イドバー、2114は入力側視対象と出力側視対象における
色順応度合いのバランスを保ちながら、絶対的な色順応
度合いを調整するためのスライドバーである。Here, 2111 is a static text for displaying the chromatic adaptation value of the input-side viewing condition, 2112 is a static text for displaying the chromatic adaptation value of the output-side viewing condition, and 2113 is the input side viewing target. A slide bar for adjusting the balance of the degree of chromatic adaptation between the target and the output side, 2114 is for adjusting the absolute degree of chromatic adaptation while maintaining the balance of the degree of chromatic adaptation between the input side and the output side Slide bar.
【0152】色順応度合いをバランスおよび絶対強度に
よって調整できるように以下のように入力側および出力
側の色順応度合いを定義する。 Ds0 = 1.0 - BL Dd0 = BL Ds = Ds0/MAX(Ds0,Dd0)×VL Dd = Dd0/MAX(Ds0,Dd0)×VLIn order to adjust the degree of chromatic adaptation by the balance and the absolute intensity, the degree of chromatic adaptation on the input side and the output side is defined as follows. Ds0 = 1.0-BL Dd0 = BL Ds = Ds0 / MAX (Ds0, Dd0) × VL Dd = Dd0 / MAX (Ds0, Dd0) × VL
【0153】ここで、Ds0は色順応度合いのバランス調
整により決まる入力側の色順応度合い。Dd0は色順応度
合いのバランス調整により決まる出力側の色順応度合
い。BLはバランスを示すスライドバーの位置で、入力側
が100%の場合には最小値0.0、出力側が100%の場合には
最大値1.0、センタは0.5である。Dsは色順応度合いのバ
ランスと絶対強度調整とで決まる入力側の色順応度合
い。Ddは色順応度合いのバランスと絶対強度調整とで決
まる出力側の色順応度合い。VLは絶対強度を示すスライ
ドバーの位置で、強度ゼロの場合は最小値0.0、強度最
大の場合には最大値1.0である。なお、関数MAX()は、()
内の最大値をとる関数である。Here, Ds0 is the degree of color adaptation on the input side determined by the balance adjustment of the degree of color adaptation. Dd0 is the degree of color adaptation on the output side determined by the balance adjustment of the degree of color adaptation. BL is the position of the slide bar indicating balance. The minimum value is 0.0 when the input side is 100%, the maximum value is 1.0 when the output side is 100%, and the center is 0.5. Ds is the degree of color adaptation on the input side determined by the balance of the degree of color adaptation and the absolute intensity adjustment. Dd is the degree of color adaptation on the output side determined by the balance of the degree of color adaptation and the absolute intensity adjustment. VL is the position of the slide bar indicating the absolute intensity. When the intensity is zero, the minimum value is 0.0, and when the intensity is the maximum, the maximum value is 1.0. Note that the function MAX () is
Is the function that takes the maximum value of
【0154】バランス調整はバランス強度が大きい方が
完全順応になるように調整され、絶対強度はそのバラン
スを保ったまま全体を調整するようになっている。つま
り、バランスがセンタで絶対強度が最大ならば入力側と
出力側の色順応度合いは両方とも完全順応になる。The balance adjustment is adjusted so that the greater the balance strength, the more perfect the adjustment, and the absolute strength is adjusted as a whole while maintaining the balance. In other words, if the balance is at the center and the absolute intensity is the maximum, the chromatic adaptation degrees on the input side and the output side are both perfect adaptation.
【0155】[0155]
【他の実施形態】なお、本発明は、複数の機器(例えば
ホストコンピュータ、インタフェイス機器、リーダ、プ
リンタなど)から構成されるシステムに適用しても、一
つの機器からなる装置(例えば、複写機、ファクシミリ
装置など)に適用してもよい。[Other Embodiments] Even if the present invention is applied to a system including a plurality of devices (for example, a host computer, an interface device, a reader, a printer, etc.), an apparatus (for example, a copying machine) Machine, facsimile machine, etc.).
【0156】また、本発明の目的は、前述した実施形態
の機能を実現するソフトウェアのプログラムコードを記
録した記憶媒体を、システムあるいは装置に供給し、そ
のシステムあるいは装置のコンピュータ(またはCPUやM
PU)が記憶媒体に格納されたプログラムコードを読出し
実行することによっても、達成されることは言うまでも
ない。この場合、記憶媒体から読出されたプログラムコ
ード自体が前述した実施形態の機能を実現することにな
り、そのプログラムコードを記憶した記憶媒体は本発明
を構成することになる。また、コンピュータが読出した
プログラムコードを実行することにより、前述した実施
形態の機能が実現されるだけでなく、そのプログラムコ
ードの指示に基づき、コンピュータ上で稼働しているOS
(オペレーティングシステム)などが実際の処理の一部
または全部を行い、その処理によって前述した実施形態
の機能が実現される場合も含まれることは言うまでもな
い。Further, an object of the present invention is to supply a storage medium storing a program code of software for realizing the functions of the above-described embodiments to a system or an apparatus, and to provide a computer (or CPU or MPU) of the system or apparatus.
Needless to say, this can also be achieved by the PU) reading and executing the program code stored in the storage medium. In this case, the program code itself read from the storage medium implements the functions of the above-described embodiment, and the storage medium storing the program code constitutes the present invention. When the computer executes the readout program code, not only the functions of the above-described embodiments are realized, but also the OS running on the computer based on the instructions of the program code.
It goes without saying that an (operating system) performs a part or all of the actual processing, and the processing realizes the functions of the above-described embodiments.
【0157】さらに、記憶媒体から読出されたプログラ
ムコードが、コンピュータに挿入された機能拡張カード
やコンピュータに接続された機能拡張ユニットに備わる
メモリに書込まれた後、そのプログラムコードの指示に
基づき、その機能拡張カードや機能拡張ユニットに備わ
るCPUなどが実際の処理の一部または全部を行い、その
処理によって前述した実施形態の機能が実現される場合
も含まれることは言うまでもない。Further, after the program code read from the storage medium is written into a memory provided in a function expansion card inserted into the computer or a function expansion unit connected to the computer, based on the instruction of the program code, It goes without saying that the CPU included in the function expansion card or the function expansion unit performs part or all of the actual processing, and the processing realizes the functions of the above-described embodiments.
【0158】[0158]
【発明の効果】以上説明したように、本発明によれば、
異なる観察条件下において良好な色再現処理を効率的に
行うことができる画像処理装置およびその方法を提供す
ることができる。As described above, according to the present invention,
It is possible to provide an image processing apparatus and method capable of efficiently performing good color reproduction processing under different observation conditions.
【図1】一般的なカラーマッチングの概念図、FIG. 1 is a conceptual diagram of general color matching,
【図2】本発明の概念を説明する図、FIG. 2 is a diagram for explaining the concept of the present invention;
【図3】第1実施形態の機能構成例を示すブロック図FIG. 3 is a block diagram showing a functional configuration example of the first embodiment;
【図4】環境光に対応する変換LUTを再構築する処理例
を示すフローチャート、FIG. 4 is a flowchart illustrating a processing example of reconstructing a conversion LUT corresponding to ambient light;
【図5】環境光に対応する変換LUTへ更新する処理例を
示すフローチャート、FIG. 5 is a flowchart showing an example of processing for updating to a conversion LUT corresponding to ambient light;
【図6】JCHまたはQMH色空間上で色空間圧縮を行う処理
例を示すフローチャート、FIG. 6 is a flowchart showing a processing example of performing color space compression on a JCH or QMH color space;
【図7】色再現領域を近似する12面体を示す図、FIG. 7 is a diagram showing a dodecahedron approximating a color reproduction area;
【図8】JCH色知覚空間における色空間圧縮の概念を示
す図、FIG. 8 is a diagram showing the concept of color space compression in the JCH color perception space;
【図9】QMH色知覚空間における色空間圧縮の概念を示
す図、FIG. 9 is a diagram showing the concept of color space compression in the QMH color perception space;
【図10】異なるデバイス間における色空間圧縮の概念
を示す図、FIG. 10 is a diagram showing the concept of color space compression between different devices;
【図11】環境光に対応する変換LUTを再構築する処理
例を示すフローチャート、FIG. 11 is a flowchart illustrating a processing example of reconstructing a conversion LUT corresponding to ambient light;
【図12】カラーマッチング処理の概念を示す図、FIG. 12 is a diagram showing the concept of color matching processing;
【図13】第2実施形態におけるカラーマッチングを示
す図、FIG. 13 is a diagram showing color matching in the second embodiment;
【図14】第2実施形態におけるJCHまたはQMH色空間上
で色空間圧縮を行う処理例を示すフローチャート、FIG. 14 is a flowchart illustrating a processing example of performing color space compression on a JCH or QMH color space according to the second embodiment;
【図15】第2実施形態における環境光に対応する変換L
UTを再構築する処理例を示すフローチャート、FIG. 15 shows conversion L corresponding to ambient light in the second embodiment.
Flowchart showing a processing example of reconstructing the UT,
【図16】第3実施形態におけるカラーマッチングを示
す図、FIG. 16 is a diagram showing color matching in the third embodiment;
【図17】第2実施形態において環境光に対応させるた
めに変換LUTを更新する処理例を示すフローチャート、FIG. 17 is a flowchart illustrating a processing example of updating a conversion LUT to correspond to ambient light in the second embodiment;
【図18】図3に示される機能構成を実現する装置の構
成例を示すブロック図、FIG. 18 is a block diagram showing a configuration example of an apparatus for realizing the functional configuration shown in FIG. 3;
【図19】本発明にかかる実施形態で使用する色知覚モ
デルについて説明する図、FIG. 19 is a diagram illustrating a color perception model used in the embodiment according to the present invention;
【図20】異なる光源の白色点のXYZ値、色票のデバイ
スに依存したRGB値および各光源下の色票に対するXYZ値
をプロファイル内へ格納した場合の概念図、FIG. 20 is a conceptual diagram in which the XYZ values of the white point of different light sources, the RGB values depending on the device of the color chart, and the XYZ values for the color chart under each light source are stored in a profile.
【図21】標準光源の分光分布を示す図、FIG. 21 is a diagram showing a spectral distribution of a standard light source;
【図22】複数光源下の測色データからの測色値の推測
する場合の処理を示すフローチャート、FIG. 22 is a flowchart showing processing for estimating a colorimetric value from colorimetric data under a plurality of light sources;
【図23】観察条件に基づくデバイスに依存しない色空
間と、デバイスに依存する色空間とを相互に変換するLU
Tを、ICCプロファイルへ格納した場合の一例を示す図、FIG. 23 is an LU for mutually converting between a device-independent color space based on viewing conditions and a device-dependent color space.
The figure showing an example when T is stored in the ICC profile,
【図24】キャッシングの処理フローの一例を示す図、FIG. 24 is a diagram showing an example of a processing flow of caching;
【図25】第6実施形態における観察条件のパラメータ
を設定するためのGUIを示す図、FIG. 25 is a view showing a GUI for setting parameters of observation conditions in the sixth embodiment;
【図26】ユーザレベルが設定可能なGUIの一例を示す
図、FIG. 26 is a diagram showing an example of a GUI in which a user level can be set;
【図27】図26に示すGUIにおいて、ユーザレベルが
「プロフェッショナル」に指定された場合の一例を示す
図である。FIG. 27 is a diagram illustrating an example of a case where a user level is designated as “professional” in the GUI illustrated in FIG. 26;
Claims (9)
を有するプロファイルを読み出し、 観察条件を入力し、 入力された観察条件に応じた測色データを前記複数の測
色データから選択し、 選択された測色データに基づき前記観察条件に対応する
測色データを推測し、 推測された測色データを前記プロファイル内にキャッシ
ュすることを特徴とする画像処理方法。1. A profile having a plurality of colorimetric data dependent on a plurality of light sources is read, an observation condition is input, and colorimetric data corresponding to the input observation condition is selected from the plurality of colorimetric data. An image processing method comprising: estimating colorimetric data corresponding to the viewing condition based on selected colorimetric data; and caching the estimated colorimetric data in the profile.
ッチング変換データを作成することを特徴とする請求項
1に記載された画像処理方法。2. A color matching conversion data is created based on the estimated colorimetric data.
The image processing method described in 1.
記測色データの光源の色度との比較に基づき、前記観察
条件に応じた測色データが選択されることを特徴とする
請求項1または請求項2に記載された画像処理方法。3. The colorimetric data according to the viewing condition is selected based on a comparison between the chromaticity of the light source under the viewing condition and the chromaticity of the light source in the colorimetric data. 3. The image processing method according to claim 1 or claim 2.
前記測色データの光源の色温度との比較に基づき、前記
観察条件に応じた測色データが選択されることを特徴と
する請求項1または請求項2に記載された画像処理方法。4. A color temperature of a light source under the viewing condition,
3. The image processing method according to claim 1, wherein colorimetric data according to the viewing condition is selected based on a comparison between the colorimetric data and a color temperature of a light source.
応する測色データを推測することを特徴とする請求項1
から請求項4の何れかに記載された画像処理方法。5. The method according to claim 1, wherein colorimetric data corresponding to the viewing condition is estimated using a color perception model.
The image processing method according to any one of claims 1 to 4.
に対応させて前記プロファイル内にキャッシュされるこ
とを特徴とする請求項1から請求項5の何れかに記載され
た画像処理方法。6. The image processing method according to claim 1, wherein the estimated colorimetric data is cached in the profile in correspondence with the viewing condition.
を有するプロファイルを読み出し、 観察条件を入力し、 入力された観察条件に応じた測色データを前記複数の測
色データから選択し、 選択された測色データに基づき前記観察条件に対応する
カラーマッチング処理データを生成し、 生成されたカラーマッチング処理データを前記プロファ
イル内にキャッシュすることを特徴とする画像処理方
法。7. A profile having a plurality of colorimetric data depending on a plurality of light sources is read, an observation condition is input, and colorimetric data according to the input observation condition is selected from the plurality of colorimetric data. An image processing method, comprising: generating color matching processing data corresponding to the viewing condition based on the selected colorimetric data; and caching the generated color matching processing data in the profile.
を有するプロファイルが格納された格納手段と、 観察条件が入力される入力手段と、 入力された観察条件に応じた測色データを前記プロファ
イルの前記複数の測色データから選択する選択手段と、 選択された測色データに基づき前記観察条件に対応する
測色データを推測する推測手段と、 推測された測色データを前記プロファイル内にキャッシ
ュさせるキャッシング手段とを有することを特徴とする
画像処理装置。8. A storage unit in which a profile having a plurality of colorimetric data depending on a plurality of light sources is stored, an input unit for inputting observation conditions, and a colorimetric data corresponding to the input observation conditions. Selecting means for selecting from the plurality of colorimetric data of the profile; estimating means for estimating colorimetric data corresponding to the viewing condition based on the selected colorimetric data; and estimating the estimated colorimetric data in the profile. An image processing apparatus comprising: caching means for caching.
た記録媒体であって、前記プログラムコードは少なくと
も、 複数の光源に依存する複数の測色データを有するプロフ
ァイルを読み出すステップのコードと、 観察条件を入力するステップのコードと、 入力された観察条件に応じた測色データを前記複数の測
色データから選択するステップのコードと、 選択された測色データに基づき前記観察条件に対応する
測色データを推測するステップのコードと、 推測された測色データを前記プロファイル内にキャッシ
ュさせるステップのコードとを有することを特徴とする
記録媒体。9. A recording medium on which a program code for image processing is recorded, wherein the program code includes at least a code of a step of reading a profile having a plurality of colorimetric data depending on a plurality of light sources, and an observation condition. A code of an inputting step, a code of a step of selecting colorimetric data according to the input viewing condition from the plurality of colorimetric data, and a colorimetric data corresponding to the viewing condition based on the selected colorimetric data. And a code for caching the estimated colorimetric data in the profile.
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP20994798A JP3305266B2 (en) | 1998-07-24 | 1998-07-24 | Image processing method |
US09/358,408 US6999617B1 (en) | 1998-07-24 | 1999-07-22 | Image processing method and apparatus |
EP99305812A EP0974934B1 (en) | 1998-07-24 | 1999-07-22 | Image processing apparatus and method |
DE69942078T DE69942078D1 (en) | 1998-07-24 | 1999-07-22 | Image processing apparatus and method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP20994798A JP3305266B2 (en) | 1998-07-24 | 1998-07-24 | Image processing method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2000050088A true JP2000050088A (en) | 2000-02-18 |
JP3305266B2 JP3305266B2 (en) | 2002-07-22 |
Family
ID=16581311
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP20994798A Expired - Fee Related JP3305266B2 (en) | 1998-07-24 | 1998-07-24 | Image processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3305266B2 (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002042132A (en) * | 2000-07-25 | 2002-02-08 | Canon Inc | Image processing device and its method |
US7127102B2 (en) | 2000-08-02 | 2006-10-24 | Minolta Co., Ltd. | Color matching method and device, color matching program, and computer readable record medium that stores color matching program allowing appropriate color matching at high speed |
WO2006137312A1 (en) * | 2005-06-22 | 2006-12-28 | Canon Kabushiki Kaisha | Color processing method and apparatus |
JP2007104319A (en) * | 2005-10-04 | 2007-04-19 | Dainippon Printing Co Ltd | Profile creation system, processing device, management device, processing program, and management program |
JP2008219653A (en) * | 2007-03-06 | 2008-09-18 | Canon Inc | Color processing apparatus and method therefor |
JP2009025954A (en) * | 2007-07-18 | 2009-02-05 | Fuji Xerox Co Ltd | Data processor and data processing program |
-
1998
- 1998-07-24 JP JP20994798A patent/JP3305266B2/en not_active Expired - Fee Related
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002042132A (en) * | 2000-07-25 | 2002-02-08 | Canon Inc | Image processing device and its method |
JP4652535B2 (en) * | 2000-07-25 | 2011-03-16 | キヤノン株式会社 | Image processing apparatus and method |
US7127102B2 (en) | 2000-08-02 | 2006-10-24 | Minolta Co., Ltd. | Color matching method and device, color matching program, and computer readable record medium that stores color matching program allowing appropriate color matching at high speed |
WO2006137312A1 (en) * | 2005-06-22 | 2006-12-28 | Canon Kabushiki Kaisha | Color processing method and apparatus |
JP2007006039A (en) * | 2005-06-22 | 2007-01-11 | Canon Inc | Color processing method and its device |
JP4592090B2 (en) * | 2005-06-22 | 2010-12-01 | キヤノン株式会社 | Color processing method and apparatus |
US8081819B2 (en) | 2005-06-22 | 2011-12-20 | Canon Kabushiki Kaisha | Color processing method and apparatus |
JP2007104319A (en) * | 2005-10-04 | 2007-04-19 | Dainippon Printing Co Ltd | Profile creation system, processing device, management device, processing program, and management program |
JP2008219653A (en) * | 2007-03-06 | 2008-09-18 | Canon Inc | Color processing apparatus and method therefor |
JP2009025954A (en) * | 2007-07-18 | 2009-02-05 | Fuji Xerox Co Ltd | Data processor and data processing program |
Also Published As
Publication number | Publication date |
---|---|
JP3305266B2 (en) | 2002-07-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3305265B2 (en) | Image processing apparatus and method | |
JP3634633B2 (en) | Image processing apparatus and method | |
JP3291259B2 (en) | Image processing method and recording medium | |
US6999617B1 (en) | Image processing method and apparatus | |
JP4522346B2 (en) | Color processing method and apparatus | |
JP4592090B2 (en) | Color processing method and apparatus | |
US7061505B2 (en) | Image processing device, image processing system, output device, computer readable recording medium and image processing method | |
EP1085749B1 (en) | Image processing method and apparatus | |
JP3805247B2 (en) | Image processing apparatus and method | |
US8115978B2 (en) | Information processing method and information processing apparatus for simulating a result output from a first output device based on input data represented in a color space that is dependent on the input device by a second output device | |
JP3305266B2 (en) | Image processing method | |
JP2001309198A (en) | Image processing method | |
JP3311295B2 (en) | Image processing apparatus and method | |
JP2007174126A (en) | Image processing apparatus and method | |
JP2009071618A (en) | Image processor, image processing method and program, and recording medium | |
JP2006238335A (en) | Information processing method | |
JP3535778B2 (en) | Image processing method, apparatus and recording medium | |
JP2002077652A (en) | Image processing method and recording medium | |
JP3667171B2 (en) | Image processing method, apparatus, and recording medium | |
JP2002271645A (en) | Image processing method and image processor |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20011126 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20020412 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090510 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100510 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100510 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110510 Year of fee payment: 9 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120510 Year of fee payment: 10 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120510 Year of fee payment: 10 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130510 Year of fee payment: 11 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140510 Year of fee payment: 12 |
|
LAPS | Cancellation because of no payment of annual fees |