JP7510258B2 - Image processing device, image processing method, imaging device, program, and storage medium - Google Patents

Image processing device, image processing method, imaging device, program, and storage medium Download PDF

Info

Publication number
JP7510258B2
JP7510258B2 JP2020028363A JP2020028363A JP7510258B2 JP 7510258 B2 JP7510258 B2 JP 7510258B2 JP 2020028363 A JP2020028363 A JP 2020028363A JP 2020028363 A JP2020028363 A JP 2020028363A JP 7510258 B2 JP7510258 B2 JP 7510258B2
Authority
JP
Japan
Prior art keywords
gradation correction
image processing
gradation
image data
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020028363A
Other languages
Japanese (ja)
Other versions
JP2020195127A (en
Inventor
広崇 大森
博行 浦上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to US16/881,425 priority Critical patent/US11301974B2/en
Priority to EP20176632.6A priority patent/EP3745348B1/en
Priority to CN202010460486.2A priority patent/CN112001853A/en
Publication of JP2020195127A publication Critical patent/JP2020195127A/en
Application granted granted Critical
Publication of JP7510258B2 publication Critical patent/JP7510258B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/40Image enhancement or restoration using histogram techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/92Dynamic range modification of images or parts thereof based on global image properties
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20192Edge enhancement; Edge preservation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Description

本発明は、霧霞が発生している状況で撮影した画像の霧霞を除去して視認性を向上させる技術に関するものである。 The present invention relates to a technology for removing fog from images captured in foggy conditions to improve visibility.

従来の監視等の用途で使用されるカメラにおいては、屋外を撮影する際に霧霞が発生して視認性が低下する場合がある。このような画像を救済するため、霧霞が発生した場合にそれらを除去する補正処理を行う技術が知られている。補正処理には、全画面に対してトーンカーブを用いてコントラストを補正する方法、大気モデルにおいてミー散乱とレイリー散乱を分離し、霧霞など波長に依存しないミー散乱成分を除去する散乱分離方式を採用する方法とがある。 Conventional cameras used for surveillance and other purposes can sometimes produce haze when capturing images outdoors, reducing visibility. To save such images, there are known techniques for performing correction processing to remove the haze when it occurs. Correction processing includes a method that uses a tone curve to correct contrast for the entire screen, and a scattering separation method that separates Mie scattering and Rayleigh scattering in an atmospheric model and removes Mie scattering components that are not wavelength-dependent, such as haze.

散乱分離方式は、画像の領域毎のダークチャネル値を用いて透過率を推定し、階調を制御して霧霞を除去する方式である。具体的には、大気モデルにおける霧霞の濃度に起因する透過率を推定し、階調制御を行う技術が提案されている。 The scattering separation method estimates the transmittance using the dark channel value for each region of the image and controls the gradation to remove mist and haze. Specifically, a technology has been proposed that estimates the transmittance caused by the concentration of mist and haze in an atmospheric model and performs gradation control.

特許文献1では、空領域または逆光領域を算出し、その領域におけるダークチャネル値を補正し、ダークチャネル値から透過率を算出し、その透過率を用いて入力画像から霧霞成分の除去を行う。 In Patent Document 1, the sky region or backlit region is calculated, the dark channel value in that region is corrected, the transmittance is calculated from the dark channel value, and the mist component is removed from the input image using the transmittance.

特許文献2では、カラー画像で散乱光の基準強度の導出に用いる画素を選択し、散乱光の第1の色成分に対応する第1の基準強度と、第2の色成分に対応する第2の基準強度を導出する。第1の基準強度と重み値を用いてカラー画像の第1の色成分の画素値を補正するとともに、第2の基準強度と重み値を用いて第2の色成分の画素値を補正し、補正画像を生成する。 In Patent Document 2, pixels used to derive the reference intensity of scattered light in a color image are selected, and a first reference intensity corresponding to a first color component of the scattered light and a second reference intensity corresponding to a second color component are derived. The first reference intensity and weighting value are used to correct the pixel values of the first color component of the color image, and the second reference intensity and weighting value are used to correct the pixel values of the second color component to generate a corrected image.

特開2017-138647号公報JP 2017-138647 A 特開2015-103167号公報JP 2015-103167 A

しかしながら、特許文献1に開示された従来技術では、ダークチャネル値を用いて散乱光に対する補正は可能であるが、画像内の輪郭部にハローノイズが発生してしまい、そのノイズを抑制することができない。 However, in the conventional technology disclosed in Patent Document 1, although it is possible to correct for scattered light using dark channel values, halo noise occurs at the edges of the image, and this noise cannot be suppressed.

また、特許文献2に開示された従来技術でも同様に、大気モデルにおける散乱光を用いて霧霞の濃度に起因する成分を除去して補正することはできるが、やはり画像内の輪郭部にハローノイズが発生してしまい、そのノイズを抑制することができない。 Similarly, the conventional technology disclosed in Patent Document 2 can also use scattered light in an atmospheric model to remove and correct components caused by the concentration of fog and haze, but it still generates halo noise at the edges of the image and cannot suppress the noise.

本発明は上述した課題に鑑みてなされたものであり、その目的は、画像内の霧霞を良好に除去することができる画像処理装置を提供することである。 The present invention has been made in consideration of the above-mentioned problems, and its purpose is to provide an image processing device that can effectively remove fog from an image.

本発明に係わる画像処理装置は、 画像データを取得する取得手段と、前記画像データの領域毎のダークチャネル値を取得して透過率を推定し、階調を補正する第1の階調補正手段と、トーンカーブを用いて前記画像データの階調を補正する第2の階調補正手段と、どの階調補正手段を用いて階調補正を行うかを制御する制御手段と、を備え、前記制御手段は、前記第1の階調補正手段に、徐々に補正効果を得るように階調補正を行わせ、前記画像データにおける被写体の輪郭部に白領域が抽出された場合に、前記第1の階調補正手段による前記階調補正を停止させることを特徴とする。 The image processing device of the present invention comprises an acquisition means for acquiring image data, a first gradation correction means for acquiring a dark channel value for each region of the image data to estimate transmittance and correct the gradation, a second gradation correction means for correcting the gradation of the image data using a tone curve, and a control means for controlling which gradation correction means is to be used for the gradation correction , wherein the control means causes the first gradation correction means to perform gradation correction so as to gradually obtain a correction effect, and stops the gradation correction by the first gradation correction means when a white region is extracted at the contour of a subject in the image data .

本発明によれば、画像内の霧霞を良好に除去することができる画像処理装置を提供することが可能となる。 The present invention makes it possible to provide an image processing device that can effectively remove fog and haze from an image.

本発明の画像処理装置の第1の実施形態であるデジタルカメラの構成を示す図。1 is a diagram showing the configuration of a digital camera that is a first embodiment of an image processing apparatus of the present invention. 第1の実施形態における画像処理回路120の構成を示すブロック図。FIG. 2 is a block diagram showing the configuration of an image processing circuit 120 according to the first embodiment. 霧霞発生有無における輝度ヒストグラムを示す図。13 is a diagram showing luminance histograms with and without the occurrence of mist and haze. 霧霞発生度合いに応じたトーカーブ補正の例を示す図。11A to 11C are diagrams showing examples of toe curve correction according to the degree of mist generation. 第1の実施形態における霧霞の除去動作を示したフローチャート。4 is a flowchart showing a mist and haze removal operation in the first embodiment. 第2の実施形態における霧霞の除去動作を示したフローチャート。10 is a flowchart showing an operation of removing mist and haze in a second embodiment. 第3の実施形態における画像処理回路121の構成を示すブロック図。FIG. 13 is a block diagram showing the configuration of an image processing circuit 121 according to a third embodiment. 第3の実施形態における霧霞の除去動作を示したフローチャート。13 is a flowchart showing an operation of removing mist and haze in the third embodiment. 第4の実施形態における霧霞の除去動作を示したフローチャート。13 is a flowchart showing an operation of removing mist and haze in the fourth embodiment. 第5の実施形態における撮像システムの構成を示す図。FIG. 13 is a diagram showing the configuration of an imaging system according to a fifth embodiment. 第5の実施形態における霧霞の除去動作を示したフローチャート。13 is a flowchart showing an operation of removing mist and haze in the fifth embodiment.

以下、添付図面を参照して実施形態を詳しく説明する。なお、以下の実施形態は特許請求の範囲に係る発明を限定するものではない。実施形態には複数の特徴が記載されているが、これらの複数の特徴の全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。 The following embodiments are described in detail with reference to the attached drawings. Note that the following embodiments do not limit the invention according to the claims. Although the embodiments describe multiple features, not all of these multiple features are necessarily essential to the invention, and multiple features may be combined in any manner. Furthermore, in the attached drawings, the same reference numbers are used for the same or similar configurations, and duplicate explanations are omitted.

(第1の実施形態)
図1は、本発明の画像処理装置の第1の実施形態であるデジタルカメラ100の構成を示す図である。
First Embodiment
FIG. 1 is a diagram showing the configuration of a digital camera 100 which is a first embodiment of an image processing device of the present invention.

図1において、レンズ部102は、被写体の光学像を、CCDやCMOSセンサなどからなる撮像素子を有する撮像部101に結像させる。また、レンズ駆動装置103によってズーム制御、フォーカス制御、絞り制御などが行われる。撮像信号処理回路104は、撮像部101から出力される画像信号に各種の補正処理やデータ圧縮処理等を行う。また、撮像信号処理回路104は、内部に画像の霧霞を除去するための画像処理回路120を有する。撮像素子駆動回路105は撮像部101内の撮像素子に各種電源や撮影モードの指示信号、各種タイミング信号を出力する。 In FIG. 1, a lens unit 102 focuses an optical image of a subject on an imaging unit 101 having an imaging element such as a CCD or CMOS sensor. A lens driving device 103 performs zoom control, focus control, aperture control, and the like. An imaging signal processing circuit 104 performs various correction processes and data compression processes on the image signal output from the imaging unit 101. The imaging signal processing circuit 104 also has an internal image processing circuit 120 for removing mist from the image. An imaging element driving circuit 105 outputs various power sources, shooting mode instruction signals, and various timing signals to the imaging element in the imaging unit 101.

メモリ部106は、画像データを一時的に記憶するためのメモリとして機能し、全体制御演算部107は各種演算とデジタルカメラ100全体の制御を行う。記録媒体制御I/F部108は記録媒体へのデータの記録または記録媒体からのデータの読み出しを行うためのインターフェースである。記録媒体109は、画像データの記録または読み出しを行うための着脱可能な半導体メモリである。さらに、表示部110は、各種情報や撮影画像を表示する液晶表示装置などの表示デバイスである。 The memory unit 106 functions as a memory for temporarily storing image data, and the overall control calculation unit 107 performs various calculations and controls the entire digital camera 100. The recording medium control I/F unit 108 is an interface for recording data to the recording medium or reading data from the recording medium. The recording medium 109 is a removable semiconductor memory for recording or reading image data. Furthermore, the display unit 110 is a display device such as a liquid crystal display device that displays various information and captured images.

図2は、図1における画像処理回路120の構成を示すブロック図である。画像処理回路120は、画像の輪郭部に発生するハローノイズを抑制しつつ霧霞を除去する機能を備える。 Figure 2 is a block diagram showing the configuration of the image processing circuit 120 in Figure 1. The image processing circuit 120 has a function to remove mist while suppressing halo noise that occurs at the edges of an image.

図2において、画像処理回路120は、第1の画像処理部11、第1のかすみ補正部12、第2のかすみ補正部14、第2の画像処理部15、画像出力部16、ヒストグラム取得・解析部13を備える。 In FIG. 2, the image processing circuit 120 includes a first image processing unit 11, a first haze correction unit 12, a second haze correction unit 14, a second image processing unit 15, an image output unit 16, and a histogram acquisition and analysis unit 13.

撮像部101により撮像された画像データは、画像処理回路120に入力される。第1の画像処理部11は、画像データの1段目の画像処理部である。具体的には撮像部101から取得した画像データに対して、センサ補正処理、キズ補正処理、ベイヤー型のRGB信号からYC信号に変換する変換処理、輪郭強調処理、ノイズリダクション処理、ホワイトバランス処理などを行う。第1のかすみ補正部12は、画像の領域毎のダークチャネル値を用いて透過率(濃度マップ)を推定し、階調を制御する第1の階調補正処理(階調補正動作)を行う第1段の階調補正部である。ヒストグラム取得・解析部13は第1の階調補正処理を行った後の補正画像において、輝度成分のヒストグラムを取得し、その分散値を算出することにより画像のコントラストを検出する。第2のかすみ補正部14はトーンカーブを用いてコントラストや中間階調の制御を行う第2の階調補正処理(階調補正動作)を行う第2段の階調補正部である。 Image data captured by the imaging unit 101 is input to the image processing circuit 120. The first image processing unit 11 is a first-stage image processing unit for image data. Specifically, the image data acquired from the imaging unit 101 is subjected to sensor correction processing, scratch correction processing, conversion processing for converting a Bayer-type RGB signal to a YC signal, contour emphasis processing, noise reduction processing, white balance processing, and the like. The first haze correction unit 12 is a first-stage gradation correction unit that estimates the transmittance (density map) using the dark channel value for each region of the image and performs a first gradation correction processing (gradation correction operation) that controls the gradation. The histogram acquisition and analysis unit 13 acquires a histogram of the luminance component in the corrected image after the first gradation correction processing, and detects the contrast of the image by calculating the variance value. The second haze correction unit 14 is a second-stage gradation correction unit that performs a second gradation correction processing (gradation correction operation) that controls the contrast and intermediate gradations using a tone curve.

以下、第1の階調補正処理の詳細について説明する。まず、霧霞が発生している画像Iと、霧霞除去後の画像Jは式(1)のような大気モデルで関係づけられる。 The details of the first tone correction process are described below. First, image I in which mist and haze have occurred and image J after mist and haze have been removed are related by an atmospheric model such as equation (1).

I(x,y)=J(x,y)・t(x,y)+A(1-t(x,y) 式(1)
x,yは画像内における水平方向と垂直方向の2次元座標位置、tは霧霞の濃度マップ、Aは環境光を示す。ここで、濃度マップt(x,y)は大気による減衰を意味しており、カメラからの被写体距離が長いほど減衰量(画素値)が大きく、近いほど減衰量(画素値)は小さくなる。式(1)において、環境光Aおよび、濃度マップt(x,y)を推定することで、霧霞除去後のJ(x,y)を求めることが可能になる。
I(x,y)=J(x,y)·t(x,y)+A(1−t(x,y) Equation (1)
x, y are two-dimensional coordinate positions in the horizontal and vertical directions in the image, t is the mist density map, and A is the ambient light. Here, the density map t(x, y) represents attenuation due to the atmosphere, and the longer the subject distance from the camera, the greater the amount of attenuation (pixel value), and the closer the subject is, the smaller the amount of attenuation (pixel value). In formula (1), by estimating the ambient light A and the density map t(x, y), it is possible to find J(x, y) after mist removal.

まず、環境光Aの推定方法について数式を用いて説明する。環境光Aは、空領域のRGB成分の平均画素値であり、式(2)のようにして算出される。 First, we will explain how to estimate the ambient light A using a formula. Ambient light A is the average pixel value of the RGB components of the sky region, and is calculated using formula (2).

Figure 0007510258000001
Figure 0007510258000001

ave関数は引数内の平均値を算出する関数を表し、cは色成分を表し、Ωskyは空領域内の局所領域を示す。ここで、空領域は、例えば、ヒストグラムの分布に基づき算出する方法や、予め指定した座標位置を用いる方法、ユーザーからの指示位置を用いる方法等により特定することができる。 The ave function is a function that calculates the average value in the arguments, c represents a color component, and Ωsky represents a local area within the sky region. Here, the sky region can be identified by, for example, a method of calculation based on the distribution of a histogram, a method of using a coordinate position specified in advance, or a method of using a position indicated by the user.

続いて、濃度マップt(x,y)の推定方法について説明する。本実施形態における第1の階調処理は、ダークチャネル値に基づき濃度マップt(x,y)を推定する処理であり、霧霞が発生していない屋外画像において、RGB成分の少なくとも1つの成分の画素値が局所的に非常に小さいことを前提にしている。ダークチャネル値Idrkは、式(3)のようにして算出される。 Next, a method for estimating the density map t(x, y) will be described. The first gradation process in this embodiment is a process for estimating the density map t(x, y) based on the dark channel value, and is based on the premise that in an outdoor image without haze, the pixel value of at least one of the RGB components is locally very small. The dark channel value I drk is calculated as shown in Equation (3).

Figure 0007510258000002
Figure 0007510258000002

cは色成分を表し、Ωは注目座標(x,y)を含む局所領域を示す。式(3)に示されるように、ダークチャネル値は、注目画素を含む局所領域内におけるRGB成分の最小値となる。式(1)の大気モデルに、式(3)のダークチャネルの算出式を代入すると、大気モデルからダークチャネル値を算出する式(4)が得られる。 c represents a color component, and Ω represents a local region including the target coordinates (x, y). As shown in equation (3), the dark channel value is the minimum value of the RGB components in the local region including the target pixel. By substituting the dark channel calculation formula (3) into the atmospheric model (1), equation (4) is obtained to calculate the dark channel value from the atmospheric model.

drk=Jdrk(x,y)・t(x,y)+A(1-t(x,y)) 式(4)
ここで、霧霞が発生していない画像において、RGB成分の少なくとも1つの成分の画素値は局所的に小さいという前提を考慮すると、式(4)における霧霞除去画像のダークチャネル値Jdrk(x,y)は0に限りなく近い値となる。従って、式(4)は式(5)のように近似することができる。
I drk = J drk (x, y) · t (x, y) + A (1 - t (x, y)) Equation (4)
Here, assuming that in an image without fog or haze, the pixel value of at least one of the RGB components is locally small, the dark channel value J drk (x, y) of the defrosted image in equation (4) is extremely close to 0. Therefore, equation (4) can be approximated as equation (5).

drk(x,y)≒A(1-t(x,y)) 式(5)
式(5)の近似式を変形することで、式(6)のようにして濃度マップt(x,y)を推定することができる。
I drk (x, y) ≈ A (1-t (x, y)) Equation (5)
By modifying the approximation of equation (5), the concentration map t(x, y) can be estimated as in equation (6).

t(x,y)≒1-{ω×Idrk(x,y)/A} 式(6)
ここで、ωは霧霞の補正度合いを制御するパラメータであり、0.0から1.0の範囲で定義され、値が大きいほど霧霞の補正効果を強く設定することができる。以上説明した式(2)~(6)によって算出される大気光A、濃度マップt(x,y)を式(7)に代入することで、霧霞除去後のJ(x,y)を求めることができる。
t(x,y)≈1-{ω×I drk (x,y)/A} Equation (6)
Here, ω is a parameter that controls the degree of mist/haze correction and is defined in the range from 0.0 to 1.0, and the larger the value, the stronger the mist/haze correction effect can be set. By substituting the airglow A and concentration map t(x, y) calculated by equations (2) to (6) described above into equation (7), it is possible to find J(x, y) after mist/haze removal.

J(x,y)={(I(x,y)-A)/t(x,y)}+A 式(7)
式(1)に示されるように、ダークチャネルに基づく第1の階調補正処理は、環境光Aに加えて、カメラからの被写体距離に応じて変化する濃度マップも考慮して、画素毎に補正量を算出する。従って、近景の被写体だけでなく、遠景の被写体に対しても、霧霞を効果的に除去できる。しかしながら、式(3)で示されるように、ダークチャネル値の算出がエッジ情報を考慮していない点や、式(4)で示されるように、濃度マップを近似で求めている点があるため、エッジ部周辺で誤補正、具体的には、白く浮きあがってしまう現象(以降、この現象をハローノイズ(白領域)と呼ぶ)が発生してしまう。
J(x,y)={(I(x,y)-A)/t(x,y)}+A Equation (7)
As shown in formula (1), the first tone correction process based on the dark channel calculates the correction amount for each pixel, taking into account not only the ambient light A but also the density map that changes depending on the subject distance from the camera. Therefore, it is possible to effectively remove fog and haze not only from close-up subjects but also from distant subjects. However, as shown in formula (3), the calculation of the dark channel value does not take into account edge information, and as shown in formula (4), the density map is calculated by approximation, so that erroneous correction occurs around the edge portion, specifically, a phenomenon in which the edge portion appears white (hereinafter, this phenomenon is called halo noise (white area)).

続いて、第2のかすみ補正部14の詳細について説明する。まず、ヒストグラム取得・解析部13では、入力画像のヒストグラムを生成し、生成したヒストグラムの分布密度を表す統計値を算出する。例えば、式(8)のようにして、ヒストグラムの分散σ2を求める。 Next, the second haze correction unit 14 will be described in detail. First, the histogram acquisition and analysis unit 13 generates a histogram of the input image and calculates a statistical value representing the distribution density of the generated histogram. For example, the variance σ2 of the histogram is calculated according to the formula (8).

σ2={(x1-μ)2・f1+(x2-μ)2・f2+…+(xN-μ)2}/n 式(8)
ここで、xiは入力輝度レベル、xNは入力輝度レベルの最大値、fは頻度、nはデータの合計(総画素数)、μは平均を示す。なお、本実施形態では、分布密度を表す統計値として、ヒストグラムの分散を用いたが、これに限るものではない。
σ 2 = {(x1 - μ) 2 · f1 + (x2 - μ) 2 · f2 + ... + (xN - μ) 2 } / n Equation (8)
Here, x is the input luminance level, x is the maximum value of the input luminance level, f is the frequency, n is the sum of the data (total number of pixels), and μ is the average. Note that in this embodiment, the variance of the histogram is used as a statistical value representing the distribution density, but this is not limiting.

更に、ヒストグラム取得・解析部13では、前述のヒストグラムおよび、統計値に基づき、霧霞の発生度合いを算出する。一般的に霧霞が発生している画像は、図3(a)に示すように、ヒストグラムの分布が一部領域に集中し、コントラストの低い映像になっている。従って、霧霞が発生している場合は、分散値は比較的小さな値になる。そこで、霧霞補正部2は、任意の閾値Thと分散値σ2を比較することで、霧霞の発生度合いHを算出する。例えば、式(9)のようにして算出する。 Furthermore, the histogram acquisition and analysis unit 13 calculates the degree of occurrence of mist and haze based on the above-mentioned histogram and statistical values. Generally, an image in which mist and haze occur has a low contrast image with the histogram distribution concentrated in a certain area as shown in FIG. 3(a). Therefore, when mist and haze occur, the variance value becomes relatively small. Therefore, the mist and haze correction unit 2 calculates the degree of occurrence of mist and haze H by comparing an arbitrary threshold value Th with the variance value σ2 . For example, the calculation is performed as shown in Equation (9).

0.0 (if σ2<0)
H= (Th-σ2)/Th (if 0≦σ2≦Th)
1.0 (if Th<σ2) 式(9)
ここで、式(9)で表される霧霞の発生度合いHは、0.0から1.0の範囲で正規化され、値が大きいほど霧霞の発生度合いが強い指標となる。
0.0 (if σ2 < 0)
H = (Th - σ2 ) /Th (if 0≦ σ2 ≦Th)
1.0 (if Th < σ 2 ) Equation (9)
Here, the degree of occurrence of mist/haze expressed by the formula (9) is normalized in the range of 0.0 to 1.0, and the larger the value, the stronger the degree of occurrence of mist/haze becomes.

続いて、第2のかすみ補正部14は、ヒストグラム取得・解析部13で算出される霧霞の発生度合いに応じて、トーカーブを調整する。具体的には、図4に示されるように、霧霞の発生度合いが強いほど、暗部を下げ、明部を持ち上げるトーンカーブを適用する。前述のトーンカーブを適用することで、図3(b)に示すように、ヒストグラムが滑らかに分布することになり、霧霞を除去することができる。 Then, the second haze correction unit 14 adjusts the tone curve according to the degree of mist generation calculated by the histogram acquisition and analysis unit 13. Specifically, as shown in FIG. 4, the stronger the degree of mist generation, the more a tone curve is applied that lowers the dark areas and raises the bright areas. By applying the tone curve described above, the histogram becomes smoothly distributed as shown in FIG. 3(b), and mist generation can be removed.

従って、第2のかすみ補正部14は、ヒストグラムの分布(霧霞の発生度合い)に応じて、画面全体のコントラストを向上させることで、弊害を抑えつつ、霧霞を除去することが可能になる。しかしながら、被写体距離を考慮した補正量を算出してないため、遠景の被写体に対して効果が弱い手法となる。 The second haze correction unit 14 therefore improves the contrast of the entire screen according to the histogram distribution (degree of haze occurrence), making it possible to remove haze while minimizing adverse effects. However, because it does not calculate the amount of correction taking into account the subject distance, this method is less effective for distant subjects.

なお、上記では第1のかすみ補正部12(一方のかすみ補正部)で第1の階調補正処理を行った後に第2のかすみ補正部14(他方のかすみ補正部)で第2の階調補正処理を行っているが、その順番は逆にしてもよい。つまり、第1のかすみ補正部12で第2の階調補正処理を行った後に第2のかすみ補正部14で第1の階調補正処理を行っても同様な霧霞除去効果が得られる。 In the above, the first haze correction unit 12 (one of the haze correction units) performs the first gradation correction process and then the second haze correction unit 14 (the other haze correction unit) performs the second gradation correction process, but the order may be reversed. In other words, a similar mist removal effect can be obtained by performing the second gradation correction process in the first haze correction unit 12 and then the first gradation correction process in the second haze correction unit 14.

第2の画像処理部15では第1のかすみ補正部12、第2のかすみ補正部14で霧霞を除去した画像に対して2段目の画像処理を行う。具体的には輪郭強調処理、ノイズリダクション処理、色補正処理、解像度変換処理などを行う。ここで、輪郭強調処理、ノイズリダクション処理、色補正処理等は、第1の画像処理部11で行ってもよいし、第2の画像処理部15で行ってもよい。画像出力部16は、画像処理や霧霞除去処理を行った画像を画像圧縮処理等を行う別の画像処理部や表示部110等に出力する。 The second image processing unit 15 performs a second stage of image processing on the image from which the mist and haze have been removed by the first dehaze correction unit 12 and the second dehaze correction unit 14. Specifically, edge enhancement processing, noise reduction processing, color correction processing, resolution conversion processing, etc. are performed. Here, edge enhancement processing, noise reduction processing, color correction processing, etc. may be performed by the first image processing unit 11 or the second image processing unit 15. The image output unit 16 outputs the image that has been subjected to image processing and dehaze processing to another image processing unit that performs image compression processing, etc., the display unit 110, etc.

なお、第1の階調補正処理においては、時間をかけて徐々に補正効果を得るように補正処理を実行する。具体的には、式(6)のωの値を小さな値から徐々に大きく設定する。そして、輪郭部にハローノイズを抽出した場合、第1の階調補正処理を中止(停止)する。そうすることにより、第1の階調補正処理で発生しうる輪郭部のハローノイズを抑制することが可能となる。 In the first gradation correction process, the correction process is performed so as to gradually obtain a correction effect over time. Specifically, the value of ω in equation (6) is set gradually from a small value to a large value. Then, if halo noise is extracted from the edge, the first gradation correction process is stopped (stopped). By doing so, it is possible to suppress halo noise from the edge that may occur in the first gradation correction process.

また、上記で説明したように、第1のかすみ補正部12で第1の階調補正処理を行い、第2のかすみ補正部14で第2の階調補正処理を行う場合と、階調補正処理の順番をその逆とする場合とが考えられる。それぞれの場合について、以下のような方法で階調補正処理が行われる。 As described above, it is also possible to consider a case where the first haze correction unit 12 performs the first tone correction process and the second haze correction unit 14 performs the second tone correction process, or a case where the order of tone correction processes is reversed. In each case, tone correction processes are performed in the following manner.

まず、第1のかすみ補正部12で第1の階調補正処理を行い、第2のかすみ補正部14で第2の階調補正処理を行う場合は、次のような方法をとる。すなわち、第1のかすみ補正部12で上記のようにハローノイズの出方を見ながら、徐々に第1の階調補正処理を行い、その階調補正処理が止まってから画像の統計量、具体的には輝度ヒストグラムをみて階調制御の効果(補正結果)を判断する。もし階調制御の効果が不十分な場合には、第2のかすみ補正部14で、時間をかけて十分な効果が得られる階調補正量(目標とする階調)に達するまで第2の階調補正処理を行う。ただし、第2の階調補正処理は、ハローノイズを考慮する必要がないので、必ずしもゆっくり行う必要はない。 First, when the first haze correction unit 12 performs the first gradation correction process and the second haze correction unit 14 performs the second gradation correction process, the following method is used. That is, the first haze correction unit 12 gradually performs the first gradation correction process while watching the appearance of halo noise as described above, and after the gradation correction process stops, the effect of the gradation control (correction result) is judged by watching the image statistics, specifically the luminance histogram. If the effect of the gradation control is insufficient, the second haze correction unit 14 performs the second gradation correction process over time until it reaches a gradation correction amount (target gradation) that provides a sufficient effect. However, since the second gradation correction process does not need to be performed slowly, it does not necessarily need to be performed slowly because it does not need to take halo noise into consideration.

また、第1のかすみ補正部12で第2の階調補正処理を行い、第2のかすみ補正部14で第1の階調補正処理を行う場合は、次のような方法をとる。すなわち、第1のかすみ補正部12で、第2の階調補正処理の効果を見ながら、時間をかけて徐々に第2の階調補正処理を行う。第2の階調補正処理では、遠景部分には霧霞除去の大きな効果が得られないので、その効果の程度を見ながら処理を行う。ただし、第2の階調補正処理は、時間をかけて行った方が効果の変化を見やすいというメリットがあるが、上記で述べたようにハローノイズを考慮する必要がないので、必ずしもゆっくり行う必要はない。そして、第2の階調補正処理が止まってから、もし階調制御の効果が不十分な場合には、第2のかすみ補正部14で、時間をかけて十分な効果が得られる階調補正に達するまで第1の階調補正処理を行う。この場合も、第1の階調補正処理では、輪郭部にハローノイズを抽出したら、処理を中止する。 In addition, when the first haze correction unit 12 performs the second gradation correction process and the second haze correction unit 14 performs the first gradation correction process, the following method is adopted. That is, the first haze correction unit 12 performs the second gradation correction process gradually over time while observing the effect of the second gradation correction process. In the second gradation correction process, the effect of removing mist and haze is not significant in the distant view, so the process is performed while observing the degree of the effect. However, the second gradation correction process has the advantage that it is easier to see the change in effect when performed over a long period of time, but as described above, there is no need to consider halo noise, so it is not necessarily required to perform it slowly. Then, after the second gradation correction process stops, if the effect of the gradation control is insufficient, the second haze correction unit 14 performs the first gradation correction process over a long period of time until it reaches a gradation correction that provides a sufficient effect. In this case, the first gradation correction process stops when halo noise is extracted from the contour.

以上のような方法により、ハローノイズの発生を抑制した良好な霧霞除去処理を行うことができる。 By using the above method, it is possible to perform good de-haze processing that suppresses the occurrence of halo noise.

図3は、画像の輪郭部にハローノイズが発生しないように霧霞の除去を行う動作を示したフローチャートである。なお、図3は、第1のかすみ補正部12で第1の階調補正処理を行い、第2のかすみ補正部14で第2の階調補正処理を行う場合の例を示している。 Figure 3 is a flow chart showing the operation of removing mist and haze so that halo noise does not occur at the edges of an image. Note that Figure 3 shows an example in which the first haze correction unit 12 performs a first tone correction process, and the second haze correction unit 14 performs a second tone correction process.

霧霞除去処理のフローが開始されると、ステップS31では、撮像部101により取得された画像が画像処理部120に入力される。ステップS32では、第1のかすみ補正部12が、第1の階調補正処理を行う。ここでは、前述したように画像の輪郭部にハローノイズが発生しない範囲で補正処理を行う。 When the flow of the mist removal process starts, in step S31, the image captured by the imaging unit 101 is input to the image processing unit 120. In step S32, the first haze correction unit 12 performs a first tone correction process. As described above, the correction process is performed within a range that does not cause halo noise in the contours of the image.

ステップS33では、全体制御演算部107は、ステップS32において第1の階調補正処理を行った結果の画像に対して、コントラストの大きさを判断する。コントラストが所定の値より小さい場合には、ステップS34に進み、コントラストが所定の値以上の場合には階調補正処理を終了する。 In step S33, the overall control calculation unit 107 determines the magnitude of contrast for the image resulting from the first tone correction process in step S32. If the contrast is less than a predetermined value, the process proceeds to step S34, and if the contrast is equal to or greater than the predetermined value, the tone correction process ends.

ステップS34では、ステップS32において実行した第1の階調補正処理で取りきれなかった霧霞を除去するために、第2の階調補正処理を実行し、階調補正処理を終了する。 In step S34, a second gradation correction process is performed to remove any mist or haze that could not be completely removed by the first gradation correction process performed in step S32, and the gradation correction process is terminated.

なお、図3では、ステップS32において第1の階調補正処理を行い、ステップS34において第2の階調補正処理を行う例を示した。しかし、既に説明したように、ステップS32において第2の階調補正処理を行い、ステップS34において第1の階調補正処理を行うようにしてもよい。どちらの場合でも、第1の階調補正処理では、ハローノイズが発生しない範囲で補正処理を行う。 Note that FIG. 3 shows an example in which the first gradation correction process is performed in step S32, and the second gradation correction process is performed in step S34. However, as already explained, it is also possible to perform the second gradation correction process in step S32, and the first gradation correction process in step S34. In either case, the first gradation correction process performs correction within a range in which halo noise does not occur.

以上説明したように、第1の実施形態によれば、ハローノイズが発生しない範囲で、効果的な霧霞除去処理を行うことが可能となる。 As described above, according to the first embodiment, it is possible to perform effective mist removal processing to the extent that halo noise does not occur.

(第2の実施形態)
以下、本発明の画像処理装置の第2の実施形態であるデジタルカメラについて説明する。第2の実施形態におけるデジタルカメラの全体構成は、図1に示した第1の実施形態の構成と同様であるので、その説明を省略する。この第2の実施形態では、第1の実施形態で説明した第1の階調補正処理と第2の階調補正処理に重みをつけて実施する。
Second Embodiment
A digital camera that is a second embodiment of the image processing device of the present invention will be described below. The overall configuration of the digital camera in the second embodiment is similar to that of the first embodiment shown in Fig. 1, so a description thereof will be omitted. In this second embodiment, the first tone correction process and the second tone correction process described in the first embodiment are weighted and executed.

図4は、第2の実施形態における画像の輪郭部にハローノイズが発生しないように霧霞除去を行う動作を示したフローチャートである。 Figure 4 is a flowchart showing the operation of de-misting an image in the second embodiment to prevent halo noise from occurring at the edges of the image.

霧霞除去処理のフローが開始されると、ステップS41では、撮像部101により取得された画像が画像処理部120に入力される。ステップS42では、第1の画像処理部11は、入力された画像の輝度値の統計量、具体的には輝度ヒストグラムを取得する。 When the flow of the mist removal process starts, in step S41, the image captured by the imaging unit 101 is input to the image processing unit 120. In step S42, the first image processing unit 11 acquires statistics of the brightness values of the input image, specifically, a brightness histogram.

ステップS43では、全体制御演算部107は、ステップS42において取得した輝度ヒストグラムからコントラストの大きさを判断する。コントラストが所定値よりも小さければ、霧霞が強くかかっていると判断してステップS44へ進み、コントラストが所定値以上であれば、霧霞がそれほど強くはないと判断してステップS46へ進む。 In step S43, the overall control calculation unit 107 determines the magnitude of contrast from the brightness histogram acquired in step S42. If the contrast is smaller than a predetermined value, it is determined that there is a strong mist and the process proceeds to step S44. If the contrast is equal to or greater than the predetermined value, it is determined that there is not much mist and the process proceeds to step S46.

ステップS44では、第1の実施形態で説明した第1の階調補正処理の重みを大きくする。ここでは、画像の輪郭部に発生するハローノイズを多少許容してでも、霧霞の除去度合いを強くする。また、ステップS45では、ステップS44で取り切れなかった霧霞を除去するために、第1の実施形態で説明した第2の階調補正処理を行う。そして、霧霞除去処理を終了する。なお、ステップS44とステップS45の順序は逆でも同様な効果が得られる。 In step S44, the weight of the first tone correction process described in the first embodiment is increased. Here, the degree of mist and haze removal is increased, even if it means allowing some halo noise to occur at the edges of the image. In addition, in step S45, the second tone correction process described in the first embodiment is performed to remove any mist and haze that could not be removed in step S44. Then, the mist and haze removal process ends. Note that the same effect can be obtained even if the order of steps S44 and S45 is reversed.

ステップS46では、コントラストがそれほど小さくはなく霧霞が強くはかかっていないため、画像の輪郭部のハローノイズが発生しないように、第1の階調補正処理の重みを小さくする。ステップS47では、ステップS46で取りきれなかった霧霞を除去するために、第2の階調補正処理の重みを大きくする。そして、霧霞除去処理を終了する。なお、ステップS46とステップS47の順序は逆でも同様な効果が得られる。 In step S46, since the contrast is not particularly low and the mist is not strong, the weight of the first gradation correction process is reduced so as to prevent halo noise from occurring at the edges of the image. In step S47, the weight of the second gradation correction process is increased in order to remove any mist that was not completely removed in step S46. The mist removal process then ends. Note that the same effect can be obtained even if the order of steps S46 and S47 is reversed.

以上説明したように、第2の実施形態によれば、霧霞の強さに応じて、効果的な霧霞除去処理を行うことが可能となる。 As described above, according to the second embodiment, it is possible to perform effective mist removal processing depending on the strength of the mist.

(第3の実施形態)
以下、本発明の画像処理装置の第3の実施形態であるデジタルカメラについて説明する。第3の実施形態におけるデジタルカメラの全体構成も、図1に示した第1の実施形態の構成と同様である。ただし、本実施形態では、画像処理回路121の構成が、第1の実施形態の画像処理回路120の構成とは異なる。この第3の実施形態では、注目領域に応じて、霧霞除去の方式を切り換えて実行する。
Third Embodiment
A digital camera according to a third embodiment of the image processing device of the present invention will now be described. The overall configuration of the digital camera in the third embodiment is also similar to that of the first embodiment shown in Fig. 1. However, in this embodiment, the configuration of the image processing circuit 121 is different from that of the image processing circuit 120 in the first embodiment. In this third embodiment, the defogging method is switched depending on the region of interest.

図5は、第3の実施形態における画像処理回路121の構成を示す図である。画像処理回路121は、注目領域を指定(設定)し、その領域の被写体距離を測定し、被写体距離に応じて階調制御の方式を切り換え、霧霞の除去を行う。 Figure 5 is a diagram showing the configuration of the image processing circuit 121 in the third embodiment. The image processing circuit 121 specifies (sets) an area of interest, measures the subject distance of that area, switches the gradation control method according to the subject distance, and removes mist and haze.

図5において、画像処理回路121は、第1の画像処理部21、注目領域指定部22、距離情報取得部23、第1のかすみ補正部24、第2のかすみ補正部25、第2の画像処理部26、画像出力部27を備える。 In FIG. 5, the image processing circuit 121 includes a first image processing unit 21, a region of interest designation unit 22, a distance information acquisition unit 23, a first haze correction unit 24, a second haze correction unit 25, a second image processing unit 26, and an image output unit 27.

撮像部101により撮像された画像データは、画像処理回路121に入力される。第1の画像処理部21は、画像データの1段目の画像処理部であり、第1の実施形態で説明した第1の画像処理部11と同様である。注目領域指定部22は、画像データ内で注目したい領域を指定する機能を有し、注目したい領域をユーザーが指定するGUI等を備える。距離情報取得部23は、注目領域指定部22によって指定された注目領域までの距離を測定する。ここで注目領域までの距離は、レンズ部102に配置されたフォーカスレンズやズームレンズの制御情報等を用いて測定する。 Image data captured by the imaging unit 101 is input to the image processing circuit 121. The first image processing unit 21 is a first-stage image processing unit for image data, and is similar to the first image processing unit 11 described in the first embodiment. The attention area designation unit 22 has a function of designating an area to be focused on within the image data, and is equipped with a GUI or the like that allows the user to designate the area to be focused on. The distance information acquisition unit 23 measures the distance to the attention area designated by the attention area designation unit 22. Here, the distance to the attention area is measured using control information of the focus lens and zoom lens arranged in the lens unit 102, etc.

第1のかすみ補正部24は、第1の実施形態で説明した第1の階調補正処理を実行する。第2のかすみ補正部25は、第1の実施形態で説明した第2の階調補正処理を実行する。第2の画像処理部26は、第1のかすみ補正部24で補正された画像と第2のかすみ補正部25で補正された画像の選択処理もしくは混合処理、及び2段目の画像処理を行う。第1のかすみ補正部24は、遠い距離にある注目領域の霧霞を除去するのに効果があるため、距離情報取得部23で取得した距離情報が第1の所定距離より遠い場合に、第1のかすみ補正部24が選択される。第2のかすみ補正部25は、近い距離にある注目領域の霧霞を除去するのに効果があるために、距離情報取得部23で取得した距離情報が第2の所定距離より近い場合に、第2のかすみ補正部25が選択される。距離情報取得部23により取得された距離情報が第1の所定距離以下で、第2の所定距離以上の場合には、第1のかすみ補正部24で補正された画像と第2のかすみ補正部25で補正された画像の混合処理(合成処理)を行う。 The first haze correction unit 24 executes the first gradation correction process described in the first embodiment. The second haze correction unit 25 executes the second gradation correction process described in the first embodiment. The second image processing unit 26 performs a selection process or a mixing process of the image corrected by the first haze correction unit 24 and the image corrected by the second haze correction unit 25, and a second stage image processing. The first haze correction unit 24 is effective in removing haze from a region of interest that is far away, so when the distance information acquired by the distance information acquisition unit 23 is farther than the first predetermined distance, the first haze correction unit 24 is selected. The second haze correction unit 25 is effective in removing haze from a region of interest that is close, so when the distance information acquired by the distance information acquisition unit 23 is closer than the second predetermined distance, the second haze correction unit 25 is selected. If the distance information acquired by the distance information acquisition unit 23 is equal to or less than the first predetermined distance and equal to or greater than the second predetermined distance, a mixing process (combining process) is performed on the image corrected by the first haze correction unit 24 and the image corrected by the second haze correction unit 25.

ここで、画像の合成比率は、領域ごとに被写体のエッジ情報を用いて決定する。具体的には、エッジであると考えられる領域に関しては、第1の実施形態で説明した第2の階調補正処理の比率を大きく設定する。一方、平坦であると考えられる領域に関しては、第1の実施形態で説明した第1の階調補正処理の比率を大きく設定する。このような比率で合成することで、エッジ部のハローノイズを抑制しつつ、霧霞除去を効果的に実行することができる。具体的な手順を以下で述べる。 Here, the image blending ratio is determined for each region using edge information of the subject. Specifically, for regions considered to be edges, the ratio of the second gradation correction process described in the first embodiment is set to a large value. On the other hand, for regions considered to be flat, the ratio of the first gradation correction process described in the first embodiment is set to a large value. Blending at such ratios makes it possible to effectively remove mist and haze while suppressing halo noise in edge areas. The specific steps are described below.

まず始めに、画像からエッジを検出する。エッジ検出の方法として、霧霞が発生している入力画像Iに対して、ソーベルフィルタを実行することで、エッジ情報を濃淡画像として抽出することができる。 First, edges are detected from the image. To detect edges, a Sobel filter is applied to the input image I, which is foggy, to extract edge information as a grayscale image.

続いて、生成されたエッジ情報(濃度値 F(x,y))に基づき、例えば、式(10)のようにして、混合比率Blend(x,y)を求める。 Next, the blending ratio Blend(x, y) is calculated based on the generated edge information (density value F(x, y)) using, for example, equation (10).

Blend(x,y)=F(x,y)/Fmax 式(10)
ここで、Fmaxは濃度値の最大値を示し、混合比率は0.0から1.0の値で正規化される。
Blend(x,y)=F(x,y)/Fmax Equation (10)
Here, Fmax indicates the maximum density value, and the mixture ratio is normalized to a value between 0.0 and 1.0.

最後に、式(10)の混合比率に基づき、第1のかすみ補正部24で補正された画像Dehaze1(x,y)と、第2のかすみ補正部25で補正された画像Dehaze2(x,y)を式(11)のようにして合成する。 Finally, based on the mixing ratio of equation (10), the image Dehaze1(x, y) corrected by the first haze correction unit 24 and the image Dehaze2(x, y) corrected by the second haze correction unit 25 are combined as shown in equation (11).

DehazeBlend(x,y)
=(1.0-Blend(x,y))×Dehaze1(x,y)+Blend(x,y)×Dehaze2(x,y)
式(11)
以上のような手順を踏むことで、エッジ部のハローノイズを抑制しつつ、霧霞除去を効果的に実行された混合画像DehazeBlend(x,y)が得られる。
Dehaze Blend (x,y)
= (1.0 - Blend(x,y)) x Dehaze1(x,y) + Blend(x,y) x Dehaze2(x,y)
Equation (11)
By following the above procedure, a blended image Dehaze Blend (x, y) in which haze removal has been effectively performed while suppressing halo noise at edges is obtained.

なお、第2の画像処理部26は、第1の実施形態で説明した第2の画像処理部15と同様である。各画像処理機能は第1の画像処理部21で行ってもよいし、第2の画像処理部26で行ってもよい。画像出力部27は、画像処理や霧霞除去処理を行った画像を、画像圧縮処理等を行う別の画像処理部や表示部110等に出力する。 The second image processing unit 26 is similar to the second image processing unit 15 described in the first embodiment. Each image processing function may be performed by the first image processing unit 21 or the second image processing unit 26. The image output unit 27 outputs the image that has been subjected to image processing and fog removal processing to another image processing unit that performs image compression processing, etc., the display unit 110, etc.

図6は、指定した注目領域の距離に応じて階調制御の方式を切り換えて霧霞の除去を行う動作を示すフローチャートである。 Figure 6 is a flowchart showing the operation of removing mist and haze by switching the gradation control method depending on the distance of the specified area of interest.

霧霞除去処理のフローが開始されると、ステップS61では、撮像部101により取得された画像が画像処理部121に入力される。ステップS62では、ユーザーが注目したい領域をGUI等で指定する。ステップS63では、距離情報取得部23が、ユーザーが指定した注目領域までの距離を測定する。注目領域までの距離は、レンズ部102に配置されたフォーカスレンズやズームレンズの制御情報等を用いて測定される。 When the flow of the mist removal process starts, in step S61, the image captured by the imaging unit 101 is input to the image processing unit 121. In step S62, the user specifies the area of interest using a GUI or the like. In step S63, the distance information acquisition unit 23 measures the distance to the area of interest specified by the user. The distance to the area of interest is measured using control information for the focus lens and zoom lens arranged in the lens unit 102.

ステップS64では、全体制御演算部107は、注目領域に含まれる被写体までの距離が第1の所定距離より遠いか否かを判別する。被写体までの距離が第1の所定距離より遠い場合には、ステップS65に進む。被写体までの距離が第1の所定距離より遠くない場合には、ステップS66に進む。 In step S64, the overall control calculation unit 107 determines whether the distance to the subject included in the region of interest is farther than a first predetermined distance. If the distance to the subject is farther than the first predetermined distance, the process proceeds to step S65. If the distance to the subject is not farther than the first predetermined distance, the process proceeds to step S66.

ステップS65では、遠い被写体にかかっている霧霞を除去するのに効果的な第1の実施形態で説明した第1の階調補正処理を実行する。 In step S65, the first tone correction process described in the first embodiment is executed, which is effective in removing the haze that hangs over distant subjects.

ステップS66では、注目領域に含まれる被写体までの距離が第2の所定距離より近いか否かを判別する。被写体までの距離が第2の所定距離より近い場合には、ステップS67に進む。被写体までの距離が第2の所定距離より近くない場合には、ステップS68に進む。 In step S66, it is determined whether the distance to the subject included in the region of interest is closer than a second predetermined distance. If the distance to the subject is closer than the second predetermined distance, the process proceeds to step S67. If the distance to the subject is not closer than the second predetermined distance, the process proceeds to step S68.

ステップS67では、近い被写体にかかっている霧霞を除去するのに効果的な第1の実施形態で説明した第2の階調補正処理を実行する。ステップS68では、式(10)で求められる合成比率に基づき。第1の実施形態で説明した第1の階調補正処理で得られた画像と第2の階調補正処理で得られた画像を式(11)に示されるように混合処理を行う。このステップS68は、注目領域に含まれる被写体までの距離が第1の所定距離以下で、第2の所定距離以上の場合に実行される。ステップS65、またはS67、またはS68を実行後、霧霞の除去動作を終了する。 In step S67, the second tone correction process described in the first embodiment, which is effective in removing mist from nearby objects, is executed. In step S68, based on the blending ratio calculated using equation (10), the image obtained by the first tone correction process described in the first embodiment and the image obtained by the second tone correction process are blended as shown in equation (11). This step S68 is executed when the distance to the object included in the region of interest is equal to or less than a first predetermined distance and equal to or greater than a second predetermined distance. After executing step S65, S67, or S68, the mist removal operation is terminated.

以上説明したように、第3の実施形態によれば、被写体の距離に応じて、効果的な霧霞除去処理を行うことが可能となる。 As described above, according to the third embodiment, it is possible to perform effective de-haze processing depending on the distance of the subject.

(第4の実施形態)
以下、本発明の画像処理装置の第4の実施形態であるデジタルカメラについて説明する。第4の実施形態における画像処理回路の構成は、図5に示した第3の実施形態の構成と同様である。ただし、本実施形態では、注目領域指定部22は、注目したい被写体を検出して、その被写体が存在する領域を自動で指定する。
Fourth Embodiment
A digital camera that is a fourth embodiment of an image processing device of the present invention will now be described. The configuration of the image processing circuit in the fourth embodiment is similar to that of the third embodiment shown in Fig. 5. However, in this embodiment, the attention area designation unit 22 detects a subject to be focused on and automatically designates the area in which the subject exists.

図7は、注目被写体を検出して、注目被写体までの距離に基づいて階調制御の方式を切り換えて霧霞の除去を行う動作を示すフローチャートである。 Figure 7 is a flowchart showing the operation of detecting a subject of interest and removing mist by switching the gradation control method based on the distance to the subject of interest.

霧霞除去処理のフローが開始されると、ステップS71では、撮像部101により取得された画像が画像処理部121に入力される。ステップS72では、注目したい被写体を検出し、その被写体が存在する領域を自動的に指定する。注目したい被写体を検出するためには、例えばユーザーが注目したい物体や人を指定する。そしてオブジェクト検出やAI技術等を用いて注目したい物体や人を検知し、それらを含む領域を指定する。あるいは動体検知などを用いて動いている物体や人を検知して、それらを含む領域を指定してもよい。 When the flow of the mist removal process is started, in step S71, the image captured by the imaging unit 101 is input to the image processing unit 121. In step S72, a subject to be focused on is detected, and the area in which the subject exists is automatically specified. To detect a subject to be focused on, for example, the user specifies an object or person to be focused on. Then, the object or person to be focused on is detected using object detection or AI technology, and the area including them is specified. Alternatively, a moving object or person may be detected using motion detection, and the area including them may be specified.

ステップS73では、距離情報取得部23は、指定された注目被写体を含む領域までの距離を測定する。注目領域までの距離は、レンズ部102に配置されたフォーカスレンズやズームレンズの制御情報等を用いて測定される。 In step S73, the distance information acquisition unit 23 measures the distance to the area including the specified subject of interest. The distance to the area of interest is measured using control information of the focus lens and zoom lens arranged in the lens unit 102.

ステップS74では、全体制御演算部107は、注目被写体までの距離が第1の所定距離より遠いか否かを判別する。被写体までの距離が第1の所定距離より遠い場合には、ステップS75に進む。被写体までの距離が第1の所定距離より遠くない場合には、ステップS76に進む。 In step S74, the overall control calculation unit 107 determines whether the distance to the subject of interest is farther than a first predetermined distance. If the distance to the subject is farther than the first predetermined distance, the process proceeds to step S75. If the distance to the subject is not farther than the first predetermined distance, the process proceeds to step S76.

ステップS75では、遠い被写体にかかっている霧霞を除去するのに効果的な第1の実施形態で説明した第1の階調補正処理を実行する。 In step S75, the first tone correction process described in the first embodiment is executed, which is effective in removing the haze that hangs over distant subjects.

ステップS76では、注目被写体までの距離が第2の所定距離より近いか否かを判別する。被写体までの距離が第2の所定距離より近い場合には、ステップS77に進む。被写体までの距離が第2の所定距離より近くない場合には、ステップS78に進む。 In step S76, it is determined whether the distance to the subject of interest is closer than a second predetermined distance. If the distance to the subject is closer than the second predetermined distance, the process proceeds to step S77. If the distance to the subject is not closer than the second predetermined distance, the process proceeds to step S78.

ステップS77では、近い被写体にかかっている霧霞を除去するのに効果的な第1の実施形態で説明した第2の階調補正処理を実行する。ステップS78では、第1の実施形態で説明した第1の階調補正処理で得られた画像と第2の階調補正処理で得られた画像の混合処理を行う。このステップS78は、注目被写体までの距離が第1の所定距離以下で、第2の所定距離以上の場合に実行される。ステップS75、またはS77、またはS78を実行後、霧霞の除去動作を終了する。 In step S77, the second tone correction process described in the first embodiment, which is effective in removing mist from nearby objects, is executed. In step S78, a blending process is performed on the image obtained by the first tone correction process described in the first embodiment and the image obtained by the second tone correction process. This step S78 is executed when the distance to the target object is equal to or less than a first predetermined distance and equal to or greater than a second predetermined distance. After executing step S75, S77, or S78, the mist removal operation is terminated.

以上説明したように、第4の実施形態によれば、検出された注目被写体の距離に応じて、効果的な霧霞除去処理を行うことが可能となる。 As described above, according to the fourth embodiment, it is possible to perform effective de-haze processing depending on the distance of the detected subject of interest.

(第5の実施形態)
以下、本発明の画像処理装置の第5の実施形態であるネットワークカメラについて説明する。第5の実施形態における画像処理回路の構成は、図10に示されるように、ネットワークカメラと、ネットワーク、クライアント装置から構成されている。
Fifth Embodiment
A network camera as a fifth embodiment of the image processing device of the present invention will be described below. The configuration of an image processing circuit in the fifth embodiment is made up of a network camera, a network, and a client device, as shown in FIG.

この第5の実施形態では、クライアント装置で実行される認識・解析アプリに応じて、霧霞除去の方式を切り替えて実行する。本実施形態では、人の顔の識別を行う顔識別アプリ、および、画面内に存在する被写体をカウントする人数カウントアプリを用いて例示的に説明する。 In this fifth embodiment, the defrosting method is switched depending on the recognition/analysis application executed on the client device. In this embodiment, an example will be described using a face recognition application that identifies human faces, and a people counting application that counts the number of subjects present on the screen.

それぞれのアプリの特徴として、顔識別アプリは、顔の細かな特徴をベースに識別を行うため、前述のハローノイズに代表されるアーチファクトの発生をなるべく抑える必要がある。一方、人数カウントアプリは、細かな構造をベースに検出を行う和ではなく、顔識別アプリと比較すると、より大雑把な構造、形状の検出を行い、人数をカウントする。そのため、人数カウントアプリを実行時に、霧霞を除去する場合、ハローノイズを抑えるよりは、霧霞の除去効果を優先した方が被写体の検出精度が向上する。なお、認識・解析アプリはこれに限るものではなく、例えば、人の動線をヒートマップ化する解析アプリ、特定人物を追尾するアプリ、被写体の属性を解析するアプリ等でもよい。 As for the characteristics of each app, face recognition apps perform recognition based on minute facial features, so it is necessary to suppress the occurrence of artifacts such as the aforementioned halo noise as much as possible. On the other hand, people counting apps do not perform detection based on minute structures, but rather detect rougher structures and shapes compared to face recognition apps and count people. Therefore, when removing fog when running a people counting app, the detection accuracy of the subject is improved by prioritizing the removal of fog rather than suppressing halo noise. Note that the recognition and analysis apps are not limited to these, and may be, for example, an analysis app that creates a heat map of people's movements, an app that tracks specific people, an app that analyzes the attributes of the subject, etc.

図11は、本実施形態において霧霞除去を行う動作を示すフローチャートである。 Figure 11 is a flowchart showing the operation of de-misting in this embodiment.

霧霞除去処理のフローが開始されると、ステップS111では、撮像部101により取得された画像が画像処理部121に入力される。ステップS112では、クライアント装置で実行される認識・解析アプリの情報を取得する。 When the flow of the mist removal process starts, in step S111, the image captured by the imaging unit 101 is input to the image processing unit 121. In step S112, information on the recognition/analysis app running on the client device is acquired.

ステップS113では、全体制御演算部107は、取得された認識・解析アプリの種類が顔識別アプリであるか否かを判別する。顔識別アプリである場合には、ステップS114に進む。顔識別アプリでない場合には、ステップS115に進む。 In step S113, the overall control calculation unit 107 determines whether the type of the acquired recognition/analysis app is a face identification app. If it is a face identification app, the process proceeds to step S114. If it is not a face identification app, the process proceeds to step S115.

ステップS114では、弊害を抑えつつ、霧霞を除去するのに効果的な第1の実施形態で説明した第2の階調補正処理を実行する。 In step S114, the second tone correction process described in the first embodiment is performed, which is effective in removing mist while minimizing adverse effects.

ステップS115では、取得された認識・解析アプリの種類が人数カウントアプリであるか否かを判別する。人数カウントアプリである場合には、ステップS116に進む。顔識別アプリでも人数カウントアプリでもない場合は、ステップS117に進む。 In step S115, it is determined whether the type of the acquired recognition/analysis app is a people counting app. If it is a people counting app, the process proceeds to step S116. If it is neither a face recognition app nor a people counting app, the process proceeds to step S117.

ステップS116では、遠い被写体にかかっている霧霞を除去するのに効果的な第1の実施形態で説明した第1の階調補正処理を実行する。 In step S116, the first tone correction process described in the first embodiment is executed, which is effective in removing the haze that hangs over distant subjects.

ステップS117では、第3の実施形態で説明したステップS68と同様に、エッジ情報に基づき、第1の階調補正処理で得られた画像と第2の階調補正処理で得られた画像の混合処理を行う。ステップS114、またはステップS116、またはステップS117を実行後、霧霞の除去動作を終了する。 In step S117, similar to step S68 described in the third embodiment, a blending process is performed on the image obtained in the first gradation correction process and the image obtained in the second gradation correction process based on the edge information. After step S114, step S116, or step S117 is performed, the mist removal operation is terminated.

以上説明したように、第5の実施形態によれば、クライアント装置で実行される認識・解析アプリに応じて、効果的な霧霞除去処理を行うことが可能となる。 As described above, according to the fifth embodiment, it is possible to perform effective fog and haze removal processing depending on the recognition and analysis application executed on the client device.

(他の実施形態)
また本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現できる。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現できる。
Other Embodiments
The present invention can also be realized by a process in which a program for realizing one or more of the functions of the above-described embodiments is supplied to a system or device via a network or a storage medium, and one or more processors in a computer of the system or device read and execute the program. The present invention can also be realized by a circuit (e.g., ASIC) for realizing one or more of the functions.

発明は上記実施形態に制限されるものではなく、発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、発明の範囲を公にするために請求項を添付する。 The invention is not limited to the above-described embodiment, and various modifications and variations are possible without departing from the spirit and scope of the invention. Therefore, the following claims are appended to disclose the scope of the invention.

100:デジタルカメラ、101:撮像部、102:レンズ部、104:撮像信号処理回路、107:全体制御演算部、120,121:画像処理回路 100: Digital camera, 101: Imaging unit, 102: Lens unit, 104: Imaging signal processing circuit, 107: Overall control and calculation unit, 120, 121: Image processing circuit

Claims (12)

画像データを取得する取得手段と、
前記画像データの領域毎のダークチャネル値を取得して透過率を推定し、階調を補正する第1の階調補正手段と、
トーンカーブを用いて前記画像データの階調を補正する第2の階調補正手段と、
どの階調補正手段を用いて階調補正を行うかを制御する制御手段と、
を備え
前記制御手段は、前記第1の階調補正手段に、徐々に補正効果を得るように階調補正を行わせ、前記画像データにおける被写体の輪郭部に白領域が抽出された場合に、前記第1の階調補正手段による前記階調補正を停止させることを特徴とする画像処理装置。
An acquisition means for acquiring image data;
a first gradation correction means for acquiring a dark channel value for each region of the image data, estimating transmittance, and correcting gradation;
a second gradation correction means for correcting the gradation of the image data using a tone curve;
A control means for controlling which gradation correction means is to be used for gradation correction;
Equipped with
The image processing device is characterized in that the control means causes the first gradation correction means to perform gradation correction so as to gradually obtain a correction effect, and when a white area is extracted at the contour of a subject in the image data, the control means stops the gradation correction by the first gradation correction means .
前記制御手段は、前記第1の階調補正手段と前記第2の階調補正手段の一方に前記画像データの第1段の階調補正を行わせ、該第1段の階調補正を行った後の画像データの補正結果に基づいて、前記第1の階調補正手段と前記第2の階調補正手段の他方に、前記第1段の階調補正を行った後の画像データに対する第2段の階調補正を行わせることを特徴とする請求項1に記載の画像処理装置。 The image processing device according to claim 1, characterized in that the control means causes one of the first gradation correction means and the second gradation correction means to perform a first stage of gradation correction on the image data, and causes the other of the first gradation correction means and the second gradation correction means to perform a second stage of gradation correction on the image data after the first stage of gradation correction, based on a correction result of the image data after the first stage of gradation correction. 前記制御手段は、前記第1段の階調補正を行った後の画像データのコントラストが所定値より低い場合に、前記第1の階調補正手段と前記第2の階調補正手段の他方に、前記第1段の階調補正を行った後の画像データに対する前記第2段の階調補正を行わせることを特徴とする請求項2に記載の画像処理装置。 The image processing device according to claim 2, characterized in that the control means causes the other of the first gradation correction means and the second gradation correction means to perform the second gradation correction on the image data after the first gradation correction when the contrast of the image data after the first gradation correction is lower than a predetermined value. 前記コントラストは、前記第1段の階調補正を行った後の画像データの輝度ヒストグラムに基づいて算出されることを特徴とする請求項3に記載の画像処理装置。 The image processing device according to claim 3, characterized in that the contrast is calculated based on a luminance histogram of the image data after the first stage of gradation correction is performed. 前記制御手段は、前記第1の階調補正手段と前記第2の階調補正手段の他方に、前記コントラストが目標とする値に達するまで、前記第2段の階調補正を行わせることを特徴とする請求項3または4に記載の画像処理装置。 The image processing device according to claim 3 or 4, characterized in that the control means causes the other of the first gradation correction means and the second gradation correction means to perform the second stage of gradation correction until the contrast reaches a target value. 前記制御手段は、前記第1の階調補正手段に、前記第1段の階調補正を行わせることを特徴とする請求項2乃至5のいずれか1項に記載の画像処理装置。 The image processing device according to any one of claims 2 to 5, characterized in that the control means causes the first gradation correction means to perform the first stage of gradation correction. 前記制御手段は、前記第2の階調補正手段に、前記第1段の階調補正を行わせることを特徴とする請求項2乃至5のいずれか1項に記載の画像処理装置。
6. The image processing apparatus according to claim 2, wherein the control means causes the second tone correction means to perform the first-stage tone correction.
前記画像データを用いて解析を行う解析手段をさらに備え、前記解析手段の解析の結果に基づいて、前記第1の階調補正手段の階調補正動作と、前記第2の階調補正手段の階調補正動作とを制御することを特徴とする請求項1に記載の画像処理装置。 The image processing device according to claim 1, further comprising an analysis means for performing an analysis using the image data, and controlling the gradation correction operation of the first gradation correction means and the gradation correction operation of the second gradation correction means based on the result of the analysis by the analysis means. 被写体を撮像する撮像手段と、
請求項1乃至のいずれか1項に記載の画像処理装置と、
を備えることを特徴とする撮像装置。
An imaging means for imaging a subject;
An image processing device according to any one of claims 1 to 8 ,
An imaging device comprising:
画像データを取得する取得工程と、
前記画像データの領域毎のダークチャネル値を取得して透過率を推定し、階調を補正する第1の階調補正工程と、
トーンカーブを用いて前記画像データの階調を補正する第2の階調補正工程と、
どの階調補正工程を用いて階調補正を行うかを制御する制御工程と、
を有し、
前記制御工程では、前記第1の階調補正工程において徐々に補正効果を得るように階調補正を行わせ、前記画像データにおける被写体の輪郭部に白領域が抽出された場合に、前記第1の階調補正工程における前記階調補正を停止させることを特徴とする画像処理方法。
An acquisition step of acquiring image data;
a first gradation correction step of acquiring a dark channel value for each region of the image data, estimating transmittance, and correcting gradation;
a second gradation correction step of correcting the gradation of the image data using a tone curve;
a control step of controlling which gradation correction step is to be used for gradation correction;
having
The image processing method is characterized in that, in the control step, gradation correction is performed in the first gradation correction step so as to gradually obtain a correction effect, and when a white area is extracted at the contour of the subject in the image data, the gradation correction in the first gradation correction step is stopped .
コンピュータを、請求項1乃至のいずれか1項に記載の画像処理装置の各手段として機能させるためのプログラム。 A program for causing a computer to function as each of the means of the image processing apparatus according to any one of claims 1 to 8 . コンピュータを、請求項1乃至のいずれか1項に記載の画像処理装置の各手段として機能させるためのプログラムを記憶したコンピュータが読み取り可能な記憶媒体。 9. A computer-readable storage medium storing a program for causing a computer to function as each of the means of the image processing apparatus according to claim 1.
JP2020028363A 2019-05-27 2020-02-21 Image processing device, image processing method, imaging device, program, and storage medium Active JP7510258B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US16/881,425 US11301974B2 (en) 2019-05-27 2020-05-22 Image processing apparatus, image processing method, image capturing apparatus, and storage medium
EP20176632.6A EP3745348B1 (en) 2019-05-27 2020-05-26 Image processing for removing fog or haze in images
CN202010460486.2A CN112001853A (en) 2019-05-27 2020-05-27 Image processing apparatus, image processing method, image capturing apparatus, and storage medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019098808 2019-05-27
JP2019098808 2019-05-27

Publications (2)

Publication Number Publication Date
JP2020195127A JP2020195127A (en) 2020-12-03
JP7510258B2 true JP7510258B2 (en) 2024-07-03

Family

ID=73548076

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020028363A Active JP7510258B2 (en) 2019-05-27 2020-02-21 Image processing device, image processing method, imaging device, program, and storage medium

Country Status (1)

Country Link
JP (1) JP7510258B2 (en)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010062920A (en) 2008-09-04 2010-03-18 Ricoh Co Ltd Image processor, image processing method, program, and recording medium
CN103700079A (en) 2013-12-17 2014-04-02 中国科学院深圳先进技术研究院 Image defogging method and device
CN104463816A (en) 2014-12-02 2015-03-25 苏州大学 Image processing method and device
CN105574830A (en) 2016-02-04 2016-05-11 沈阳工业大学 Low-quality image enhancement method under extreme weather conditions
CN106548463A (en) 2016-10-28 2017-03-29 大连理工大学 Based on dark and the sea fog image automatic defogging method and system of Retinex
CN107277299A (en) 2017-07-27 2017-10-20 广东欧珀移动通信有限公司 Image processing method, device, mobile terminal and computer-readable recording medium
CN107481202A (en) 2017-08-14 2017-12-15 深圳市华星光电半导体显示技术有限公司 A kind of method of dynamic range of images enhancing
CN107767353A (en) 2017-12-04 2018-03-06 河南工业大学 A kind of adapting to image defogging method based on definition evaluation
WO2019064825A1 (en) 2017-09-27 2019-04-04 ソニー株式会社 Information processing device, information processing method, control device, and image processing device

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010062920A (en) 2008-09-04 2010-03-18 Ricoh Co Ltd Image processor, image processing method, program, and recording medium
CN103700079A (en) 2013-12-17 2014-04-02 中国科学院深圳先进技术研究院 Image defogging method and device
CN104463816A (en) 2014-12-02 2015-03-25 苏州大学 Image processing method and device
CN105574830A (en) 2016-02-04 2016-05-11 沈阳工业大学 Low-quality image enhancement method under extreme weather conditions
CN106548463A (en) 2016-10-28 2017-03-29 大连理工大学 Based on dark and the sea fog image automatic defogging method and system of Retinex
CN107277299A (en) 2017-07-27 2017-10-20 广东欧珀移动通信有限公司 Image processing method, device, mobile terminal and computer-readable recording medium
CN107481202A (en) 2017-08-14 2017-12-15 深圳市华星光电半导体显示技术有限公司 A kind of method of dynamic range of images enhancing
WO2019064825A1 (en) 2017-09-27 2019-04-04 ソニー株式会社 Information processing device, information processing method, control device, and image processing device
CN107767353A (en) 2017-12-04 2018-03-06 河南工业大学 A kind of adapting to image defogging method based on definition evaluation

Also Published As

Publication number Publication date
JP2020195127A (en) 2020-12-03

Similar Documents

Publication Publication Date Title
CN111402135B (en) Image processing method, device, electronic equipment and computer readable storage medium
CN111028189B (en) Image processing method, device, storage medium and electronic equipment
JP4748244B2 (en) Image selection apparatus, image selection method, and program
KR101662846B1 (en) Apparatus and method for generating bokeh in out-of-focus shooting
KR101590868B1 (en) A image processing method an image processing apparatus a digital photographing apparatus and a computer-readable storage medium for correcting skin color
US11301974B2 (en) Image processing apparatus, image processing method, image capturing apparatus, and storage medium
JP6559229B2 (en) Image processing apparatus, imaging apparatus, image processing method, and storage medium storing image processing program of image processing apparatus
KR20200023651A (en) Preview photo blurring method and apparatus and storage medium
TWI462054B (en) Estimation Method of Image Vagueness and Evaluation Method of Image Quality
JP2017138647A (en) Image processing device, image processing method, video photographing apparatus, video recording reproduction apparatus, program and recording medium
JP6352547B2 (en) Image processing apparatus and image processing method
CN108259770B (en) Image processing method, image processing device, storage medium and electronic equipment
US20200389573A1 (en) Image processing system, image processing method and storage medium
CN112767392A (en) Image definition determining method, device, equipment and storage medium
US20180115745A1 (en) Information processing device, information processing method, program, and recording medium
JP2004310475A (en) Image processor, cellular phone for performing image processing, and image processing program
US9338354B2 (en) Motion blur estimation and restoration using light trails
JP2009123081A (en) Face detection method and photographing apparatus
WO2013114803A1 (en) Image processing device, image processing method therefor, computer program, and image processing system
CN116263942A (en) Method for adjusting image contrast, storage medium and computer program product
JP7510258B2 (en) Image processing device, image processing method, imaging device, program, and storage medium
CN113379631B (en) Image defogging method and device
EP4090006A2 (en) Image signal processing based on virtual superimposition
CN104112266B (en) Image edge blurring detecting method and device
JP5093540B2 (en) Eye position detection method and detection system

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230213

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240213

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240409

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240524

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240621

R150 Certificate of patent or registration of utility model

Ref document number: 7510258

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150