JP6184277B2 - Image processing device - Google Patents

Image processing device Download PDF

Info

Publication number
JP6184277B2
JP6184277B2 JP2013201589A JP2013201589A JP6184277B2 JP 6184277 B2 JP6184277 B2 JP 6184277B2 JP 2013201589 A JP2013201589 A JP 2013201589A JP 2013201589 A JP2013201589 A JP 2013201589A JP 6184277 B2 JP6184277 B2 JP 6184277B2
Authority
JP
Japan
Prior art keywords
region
boundary line
area
index value
target pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013201589A
Other languages
Japanese (ja)
Other versions
JP2015070382A (en
Inventor
輝彬 山▲崎▼
輝彬 山▲崎▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2013201589A priority Critical patent/JP6184277B2/en
Publication of JP2015070382A publication Critical patent/JP2015070382A/en
Application granted granted Critical
Publication of JP6184277B2 publication Critical patent/JP6184277B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)

Description

本発明は、注目画素における平坦度を出力する画像処理装置に関するものである。   The present invention relates to an image processing apparatus that outputs flatness at a pixel of interest.

画像における各画素のエッジの方向を判別することで、画像の構造的属性に基づいて画像処理を適応的に実施することができるため、ノイズ除去に先立ってエッジの有無及びその方向を判別する技術が知られている(例えば、特許文献1参照。)。
特許文献1には、注目画素と注目画素を中心とする複数の周辺画素との差分絶対値和を複数の方向毎に算出した複数評価値に基づいて、エッジの有無及びエッジの方向を判別する技術が開示されている。
By determining the edge direction of each pixel in the image, it is possible to adaptively perform image processing based on the structural attributes of the image. Therefore, a technique for determining the presence and direction of an edge prior to noise removal Is known (for example, see Patent Document 1).
In Patent Document 1, the presence / absence of an edge and the direction of an edge are discriminated based on a plurality of evaluation values obtained by calculating a sum of absolute differences between a target pixel and a plurality of peripheral pixels centered on the target pixel in a plurality of directions. Technology is disclosed.

特開2008−293425号公報JP 2008-293425 A

しかしながら、高感度撮影画像において、低コントラストのエッジやテクスチャはノイズの振幅と酷似しており、エッジが存在する領域における注目画素と複数の周辺画素との差分絶対値和と、ノイズを含む平坦部(明瞭なエッジやテクスチャが存在しない領域)における注目画素と複数の周辺画素との差分絶対値和には明確な差が出ない。このため、特許文献1では高感度撮影画像において、所定の領域が平坦であるか否か、またその平坦の度合いである平坦度を判定する平坦度判定の精度が低下する。   However, in high-sensitivity shot images, low-contrast edges and textures are very similar to the amplitude of noise, and the sum of absolute differences between the pixel of interest and a plurality of surrounding pixels in the area where the edges exist, and the flat part containing noise There is no clear difference in the sum of absolute differences between the pixel of interest and a plurality of peripheral pixels in a region where there is no clear edge or texture. For this reason, in Patent Document 1, the accuracy of flatness determination for determining whether or not a predetermined area is flat in a high-sensitivity photographed image and the flatness that is the degree of flatness is lowered.

本発明は、上述した事情に鑑みてなされたものであって、ノイズによる振幅に影響されることなく平坦度判定の精度を向上させることを目的とする。   The present invention has been made in view of the above-described circumstances, and an object thereof is to improve the accuracy of flatness determination without being affected by the amplitude due to noise.

上記目的を達成するため、本発明は以下の手段を提供する。
本発明の一態様は、入力画像の注目画素と該注目画素を含む複数の周辺画素からなる所定領域に対して、前記注目画素を通る複数本の境界線を設定し、各境界線の夫々に対して該境界線によって分割される第1の領域と第2の領域とを設定する分割領域設定手段と、前記境界線毎に、第1の領域と第2の領域との輝度レベルの差を示す指標値を算出する指標値算出手段と、前記指標値のうちの最大値を算出し、前記注目画素の平坦度として出力する平坦度算出手段と、を備え、前記指標値算出手段が、境界線毎に、第1の領域の信号値の平均値と第2の領域の信号値の平均値との差分値を算出し、該差分値を前記指標値とする画像処理装置を提供する。
In order to achieve the above object, the present invention provides the following means.
According to one aspect of the present invention, a plurality of boundary lines passing through the target pixel are set for a predetermined region including the target pixel of the input image and a plurality of peripheral pixels including the target pixel, and each boundary line is set. On the other hand, a divided region setting means for setting the first region and the second region divided by the boundary line, and a difference in luminance level between the first region and the second region for each boundary line. and the index value calculating means for calculating an index value that indicates, calculates the maximum value of the index value, and a flatness calculating means for outputting as the flatness of the pixel of interest, is the index value calculating means, the boundary line by line, and the average value of the signal value of the first area to calculate a difference value between the average value of the signal value of the second region, to provide an image processing apparatus you and the index value said difference value.

本態様によれば、入力画像が入力されると分割領域設定手段が、入力画像の注目画素と該注目画素を含む複数の周辺画素からなる所定領域に対して、注目画素を通る複数本の境界線を設定し、境界線によって分割される第1の領域と第2の領域との2つの領域を境界線毎に設定する。そして、指標値算出手段が、境界線毎に、第1の領域と第2の領域との輝度レベルの差を示す指標値を算出する。そして、算出された複数の指標値の中から平坦度算出部が最大値を算出し注目画素の平坦度として出力する。これにより、注目画素がエッジ上に存在している場合、複数方向の境界線によって、ノイズによる振幅に影響されることなくエッジを検出し注目画素の平坦度判定の精度を向上させることができる。   According to this aspect, when the input image is input, the divided region setting unit has a plurality of boundaries passing through the target pixel with respect to a predetermined region including the target pixel of the input image and a plurality of peripheral pixels including the target pixel. A line is set, and two areas of a first area and a second area divided by the boundary line are set for each boundary line. Then, the index value calculation means calculates an index value indicating a difference in luminance level between the first area and the second area for each boundary line. Then, the flatness calculation unit calculates the maximum value from the plurality of calculated index values and outputs it as the flatness of the target pixel. Thus, when the target pixel exists on the edge, the edge can be detected by the boundary lines in a plurality of directions without being affected by the amplitude due to noise, and the flatness determination accuracy of the target pixel can be improved.

上記した態様において、ベイヤー配列の画像信号に対して、該画像信号の所定領域毎に各色成分間の画素値の混合処理を行い、全画素を補間した補間画像を生成する補間画像生成手段を備え、該補間画像を前記入力画像とすることが好ましい。
このようにすることで、算出の際に色成分の情報を考慮することなく指標値を算出することができ、後段の処理を単純化することができる。
In the above aspect, the image processing device includes interpolation image generation means for performing a pixel value mixing process between the color components for each predetermined region of the image signal of the Bayer array and generating an interpolation image obtained by interpolating all the pixels. The interpolated image is preferably used as the input image.
In this way, the index value can be calculated without considering the color component information in the calculation, and the subsequent processing can be simplified.

上記した態様において、前記第1の領域に含まれる画素と前記第2の領域に含まれる画素とが同数であることが好ましい。
このようにすることで、注目画素の平坦度判定の精度をより向上させることができる。
In the above aspect, it is preferable that the number of pixels included in the first region and the number of pixels included in the second region are the same.
By doing in this way, the precision of the flatness determination of a focused pixel can be improved more.

上記した態様において、前記第1の領域と前記第2の領域とが同形状であることが好ましい。
このようにすることで、注目画素の平坦度判定の精度をより向上させることができる。
In the aspect described above, it is preferable that the first region and the second region have the same shape.
By doing in this way, the precision of the flatness determination of a focused pixel can be improved more.

上記した態様において、前記指標値算出手段が、境界線毎に、第1の領域の信号値の平均値と第2の領域の信号値の平均値との差分値を算出し、該差分値を前記指標値とする。
このようにすることで、分割された各領域の信号値の平均値の算出により、ノイズの影響も平均化され、低コントラストの構造物を含む領域に存在するノイズに比して微少なエッジも検出できるようになるため、低コントラスト構造のある領域を平坦部と誤判定することが少なくなる。
In the above aspect, the index value calculation means calculates a difference value between the average value of the signal values of the first region and the average value of the signal values of the second region for each boundary line, and calculates the difference value. you and the index value.
In this way, by calculating the average value of the signal values of each divided area, the influence of noise is also averaged, and there are also minute edges compared to noise existing in areas containing low-contrast structures. Since it becomes possible to detect, a region with a low contrast structure is less likely to be erroneously determined as a flat portion.

本発明の他の態様は、入力画像の注目画素と該注目画素を含む複数の周辺画素からなる所定領域に対して、前記注目画素を通る複数本の境界線を設定し、各境界線の夫々に対して該境界線によって分割される第1の領域と第2の領域とを設定する分割領域設定手段と、前記境界線毎に、第1の領域と第2の領域との輝度レベルの差を示す指標値を算出する指標値算出手段と、前記指標値のうちの最大値を算出し、前記注目画素の平坦度として出力する平坦度算出手段と、を備え、前記指標値算出手段が、境界線毎に、第1の領域の各画素と第2の領域の各画素とを対応させ、対応する画素間の差分値の加重平均に基づいて前記指標値を算出する画像処理装置を提供する
このようにすることで、分割された各領域の構造物の情報が平均化されることなく注目画素の平坦度判定の精度をより向上させることができる。
In another aspect of the present invention, a plurality of boundary lines passing through the target pixel are set for a predetermined region including the target pixel of the input image and a plurality of peripheral pixels including the target pixel, and each boundary line is set. A divided region setting means for setting a first region and a second region divided by the boundary line, and a difference in luminance level between the first region and the second region for each boundary line An index value calculating means for calculating an index value indicating a flatness calculating means for calculating a maximum value of the index values and outputting it as a flatness of the target pixel, wherein the index value calculating means comprises: each boundary, and the pixels of the first area and each pixel of the second area is associated, based on the weighted average of the difference values between corresponding pixels to provide an image processing apparatus for calculating the index value .
By doing so, it is possible to further improve the accuracy of determining the flatness of the pixel of interest without averaging the information on the structures of the divided areas.

本発明によれば、ノイズによる振幅に影響されることなく平坦度判定の精度を向上させることができるという効果を奏する。   According to the present invention, it is possible to improve the accuracy of flatness determination without being affected by the amplitude due to noise.

本発明の第1の実施形態に係る画像処理装置の概略構成を示すブロック図である。1 is a block diagram illustrating a schematic configuration of an image processing apparatus according to a first embodiment of the present invention. 本発明の第1の実施形態に係る画像処理装置において、入力画像に対する処理領域を模式的に示した説明図である。FIG. 4 is an explanatory diagram schematically showing a processing area for an input image in the image processing apparatus according to the first embodiment of the present invention. 本発明の第1の実施形態に係る画像処理装置において、分割領域設定部によって設定される境界線及び境界線によって分割される領域の例を示す図である。3 is a diagram illustrating an example of a boundary line set by a divided region setting unit and a region divided by the boundary line in the image processing apparatus according to the first embodiment of the present invention. FIG. 本発明の第1の実施形態に係る画像処理装置において、分割領域設定部によって設定される境界線及び境界線によって分割される領域の例を示す図である。3 is a diagram illustrating an example of a boundary line set by a divided region setting unit and a region divided by the boundary line in the image processing apparatus according to the first embodiment of the present invention. FIG. 本発明の第1の実施形態に係る画像処理装置において、分割領域設定部によって設定される境界線及び境界線によって分割される領域の例を示す図である。3 is a diagram illustrating an example of a boundary line set by a divided region setting unit and a region divided by the boundary line in the image processing apparatus according to the first embodiment of the present invention. FIG. 本発明の第1の実施形態に係る画像処理装置において、分割領域設定部によって設定される境界線及び境界線によって分割される領域の例を示す図である。3 is a diagram illustrating an example of a boundary line set by a divided region setting unit and a region divided by the boundary line in the image processing apparatus according to the first embodiment of the present invention. FIG. 本発明の第1の実施形態に係る画像処理装置において、分割領域設定部によって設定された境界線に従って分割された領域中の画素を対応付けした例を示す図である。FIG. 4 is a diagram illustrating an example in which pixels in a region divided according to a boundary line set by a divided region setting unit are associated in the image processing apparatus according to the first embodiment of the present invention. 本発明の第1の実施形態に係る画像処理装置において、入力画像における注目画素の平坦度を出力する際の作用を示すフローチャートである。5 is a flowchart illustrating an operation when outputting the flatness of a target pixel in an input image in the image processing apparatus according to the first embodiment of the present invention. 本発明の第1の実施形態の変形例に係る画像処理装置の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the image processing apparatus which concerns on the modification of the 1st Embodiment of this invention. 本発明の第1の実施形態の変形例に係る画像処理装置の補間画像生成部におけるフィルタの例を示す図である。It is a figure which shows the example of the filter in the interpolation image generation part of the image processing apparatus which concerns on the modification of the 1st Embodiment of this invention. 本発明の第1の実施形態の変形例に係る画像処理装置の補間画像生成部におけるフィルタの例を示す図である。It is a figure which shows the example of the filter in the interpolation image generation part of the image processing apparatus which concerns on the modification of the 1st Embodiment of this invention. 本発明の第2の実施形態に係る画像処理装置の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the image processing apparatus which concerns on the 2nd Embodiment of this invention.

(第1の実施形態)
以下に、本発明の第1の実施形態に係る画像処理装置について図面を参照して説明する。
図1に示すように、画像処理装置は、所定領域に対して二つの分割領域を設定する分割領域設定部11と、各分割領域の輝度レベルの差を示す指標値を算出する指標値算出部12と、注目画素の平坦度を出力する平坦度算出部13を備えている。
(First embodiment)
The image processing apparatus according to the first embodiment of the present invention will be described below with reference to the drawings.
As shown in FIG. 1, the image processing apparatus includes a divided region setting unit 11 that sets two divided regions for a predetermined region, and an index value calculating unit that calculates an index value indicating a difference in luminance level between the divided regions. 12 and a flatness calculator 13 for outputting the flatness of the target pixel.

分割領域設定部11は、入力画像の注目画素と該注目画素を含む複数の周辺画素からなる所定領域に対して、注目画素を通る複数本の境界線を設定し、各境界線の夫々に対して境界線によって分割される第1の領域と第2の領域とを設定する。
より具体的には、分割領域設定部11は、図2に示すように、まず入力画像Iに対して注目画素を含む所定の領域である処理領域Aを設定する。なお、図2では、入力画像に対する処理領域Aとして注目画素を中心とする9画素×9画素の矩形領域を設定しているが、これに限られず円形や楕円形などを処理領域とすることもできる。
The divided region setting unit 11 sets a plurality of boundary lines passing through the target pixel for a predetermined region including the target pixel of the input image and a plurality of peripheral pixels including the target pixel, and for each boundary line The first area and the second area divided by the boundary line are set.
More specifically, as shown in FIG. 2, the divided region setting unit 11 first sets a processing region A, which is a predetermined region including the target pixel, for the input image I. In FIG. 2, a rectangular area of 9 pixels × 9 pixels centered on the target pixel is set as the processing area A for the input image. However, the present invention is not limited to this, and a circular or elliptical shape may be used as the processing area. it can.

続いて、分割領域設定部11は、図3に示すように、設定された処理領域Aに対して境界線を設定し、境界線によって分割される第1の領域と第2の領域とを設定する。すなわち、分割領域設定部11は、注目画素を通る複数の境界線を設定する。図3の例では、注目画素を通り、処理領域Aを縦方向境界線L(図3(A)、横方向境界線W(図3(B)、斜め方向境界線D1,D2(図3(C),(D))に分割する4つの境界線に係る制御情報を生成し、各境界線に対して夫々第1の領域と第2の領域とに係る制御情報を出力する。   Subsequently, as illustrated in FIG. 3, the divided region setting unit 11 sets a boundary line for the set processing region A, and sets a first region and a second region divided by the boundary line. To do. That is, the divided region setting unit 11 sets a plurality of boundary lines that pass through the target pixel. In the example of FIG. 3, the processing region A passes through the target pixel and passes through the processing area A in the vertical boundary line L (FIG. 3A), the horizontal boundary line W (FIG. 3B), and the diagonal boundary lines D1 and D2 (FIG. C) and (D)) are generated to generate control information related to the four boundary lines, and control information related to the first area and the second area is output for each boundary line.

なお、図3の例では分割する間隔を1画素としているが、分割する間隔はこれに限られず、図4のように距離を離して分割してもよい。また、図5に示すように、設定する境界線が必ずしも直線である必要はなく、分割する方向も4方向に限らず変則的な分割も考えられる。   In the example of FIG. 3, the division interval is one pixel, but the division interval is not limited to this, and the division may be performed with a distance apart as shown in FIG. Further, as shown in FIG. 5, the boundary line to be set is not necessarily a straight line, and the dividing direction is not limited to four directions, and irregular division is also conceivable.

指標値算出部12は、分割領域設定部11により境界線毎に設定された第1の領域と第2の領域との輝度レベルの差を示す指標値を算出する。より具体的には、指標値算出部12は、入力画像Iに係る信号情報と分割領域設定部11で生成された各制御情報に基づいて、図6に示すように、第1の領域及び第2の領域との平均値の差分を指標値として算出する。   The index value calculation unit 12 calculates an index value indicating a difference in luminance level between the first region and the second region set for each boundary line by the divided region setting unit 11. More specifically, as shown in FIG. 6, the index value calculation unit 12 is based on the signal information related to the input image I and each control information generated by the divided region setting unit 11. The difference between the average values of the two areas is calculated as an index value.

すなわち、図6(A)に示すように、処理領域Aを縦方向境界線Lによって分割された一方の領域を第1の領域P1Lとし、他方の領域を第2の領域P2Lとする。これら各領域の画素数をそれぞれN個とした場合、平均値averageP1LとaverageP2Lとは、以下の式(1)及び式(2)から求めることができる。
そして、式(3)に従って、averageP1とaverageP2との差分difLを求め、これを処理領域Aの縦方向境界線Lに対する指標値とする。
That is, as shown in FIG. 6A, one area obtained by dividing the processing area A by the vertical boundary line L is a first area P1L, and the other area is a second area P2L. When the number of pixels in each region is N, the average values averageP1L and averageP2L can be obtained from the following equations (1) and (2).
Then, a difference difL between averageP1 and averageP2 is obtained according to equation (3), and this is used as an index value for the vertical boundary line L of the processing area A.

Figure 0006184277
Figure 0006184277

同様に、図6(B)〜(D)に示すように、他の境界線、すなわち、横方向境界線W及び斜め方向境界線D1,D2についても、各境界線に対して設定された第1の領域と第2の領域との平均値間の差分difW,difD1,difD2を指標値として夫々算出する(式(4)〜(12))。   Similarly, as shown in FIGS. 6B to 6D, the other boundary lines, that is, the horizontal boundary line W and the diagonal boundary lines D1 and D2 are also set for each boundary line. Differences difW, difD1, and difD2 between the average values of the first region and the second region are calculated as index values (Equations (4) to (12)), respectively.

Figure 0006184277
Figure 0006184277

なお、上述した実施形態においては、各領域の平均値の差分を処理領域に対する指標値としたが、これに限られず、分割された各領域間の絶対値差分の加算平均や、各領域間の差分二乗の加算平均を指標値とすることもできる。
分割された各領域間の絶対値差分の加算平均を指標値とする場合、図7(A)に示すように、縦方向境界線Lによって分割された第1の領域P1Lに含まれる画素と第2の領域P2Lに含まれる画素とをそれぞれ対応付けて、対応付けられた画素同士の絶対値差分の加重平均を指標値とする。対応付けられた画素同士の絶対値差分の加重平均は、以下の式(13)に従って算出される。
In the above-described embodiment, the difference between the average values of the respective regions is used as the index value for the processing region. However, the present invention is not limited to this, and the addition average of the absolute value differences between the divided regions or between the regions. An addition average of the squares of the differences can be used as an index value.
When the addition average of the absolute value differences between the divided areas is used as the index value, as shown in FIG. 7A, the pixels included in the first area P1L divided by the vertical boundary line L and the first The pixels included in the second region P2L are associated with each other, and a weighted average of absolute value differences between the associated pixels is used as an index value. The weighted average of absolute value differences between the associated pixels is calculated according to the following equation (13).

Figure 0006184277
Figure 0006184277

図7(B)〜(D)に示すように、他の境界線、すなわち、横方向境界線W及び斜め方向境界線D1,D2についても、各境界線に対して設定された第1の領域に含まれる画素と第2の領域に含まれる画素とを対応付け、対応付けられた画素同士の絶対値差分の加重平均sW,sD1,sD2を各境界線に対する指標値として夫々算出する(式(14)〜(16))。

Figure 0006184277
As shown in FIGS. 7B to 7D, the first region set for each boundary line also for other boundary lines, that is, the horizontal boundary line W and the diagonal boundary lines D1 and D2. And the pixels included in the second region are associated with each other, and the weighted averages sW, sD1, and sD2 of the absolute value differences between the associated pixels are calculated as index values for each boundary line (formula ( 14) to (16)).
Figure 0006184277

各領域間の差分二乗の加算平均を指標値とする場合、図7(A)に示すように、縦方向境界線Lによって分割された第1の領域P1Lに含まれる画素と第2の領域P2Lに含まれる画素とをそれぞれ対応付けて(図7中、両領域間で矢印の方向に沿って各画素が対応付けられていることとする)、対応付けられた画素同士の差分二乗の加算平均を指標値とする。対応付けられた画素同士の差分二乗の加算平均は以下の式(17)に従って算出される。   When the addition average of the squares of differences between the regions is used as the index value, as shown in FIG. 7A, the pixels included in the first region P1L divided by the vertical boundary line L and the second region P2L Are associated with each other (in FIG. 7, each pixel is associated with each other along the direction of the arrow between both regions), and the average of the squares of the difference between the associated pixels Is an index value. The addition average of the square of differences between the associated pixels is calculated according to the following equation (17).

Figure 0006184277
Figure 0006184277

図7(B)〜(D)に示すように、他の境界線、すなわち、横方向境界線W及び斜め方向境界線D1,D2についても、各境界線に対して設定された第1の領域に含まれる画素と第2の領域に含まれる画素とを対応付け、対応付けられた画素同士の差分二乗の加算平均sW,sD1,sD2を各境界線に対する指標値として夫々算出する(式(18)〜(20))。

Figure 0006184277
なお、各領域に含まれる画素の対応付けについて、図7において例示したが、差分を算出する際の画素の対応付けはこれに限られない。例えば、線対称となる位置の画素同士を対応付けることができるほか、点対称となる位置の画素同士を対応付けても良い。 As shown in FIGS. 7B to 7D, the first region set for each boundary line also for other boundary lines, that is, the horizontal boundary line W and the diagonal boundary lines D1 and D2. And the pixels included in the second region are associated with each other, and the addition average sW, sD1, sD2 of the difference squares of the associated pixels is calculated as an index value for each boundary line (formula (18 ) To (20)).
Figure 0006184277
Note that the association of pixels included in each region is illustrated in FIG. 7, but the association of pixels when calculating the difference is not limited to this. For example, pixels at positions that are line symmetric can be associated with each other, and pixels at positions that are point symmetric may be associated with each other.

平坦度算出部13は、指標値算出部12により算出された複数の指標値のうちの最大値を算出し、この最大値を注目画素の平坦の度合いを示す平坦度として出力する。なお本明細書では、平坦度とは、入力画像の画素毎に算出されるものであり、注目画素を含む領域が平坦である度合いを示すものである。注目画素を含む領域の平坦度が低い場合には、注目画素の周辺にエッジがない(または少ない)と判断することができる。一方、平坦度が高い場合には、当該注目画素が平坦である度合いが低く、細かいテクスチャ等の模様やエッジがあると判断することができる。 The flatness calculation unit 13 calculates the maximum value among the plurality of index values calculated by the index value calculation unit 12, and outputs the maximum value as flatness indicating the degree of flatness of the target pixel. In this specification, the flatness is calculated for each pixel of the input image and indicates the degree to which the region including the target pixel is flat. When the flatness of the region including the target pixel is low, it can be determined that there is no edge (or few) around the target pixel. On the other hand, when the flatness is high , the degree of flatness of the target pixel is low, and it can be determined that there is a pattern such as a fine texture or an edge.

続いて、このように構成された画像処理装置の作用について図8のフローチャートに従って、説明する。なお、以下の説明においては、入力画像に対する処理領域Aとして注目画素を中心とする9画素×9画素の矩形状の領域を設定し、処理領域Aに対して、4つの境界線(図3等における縦方向L、横方向W、対角線(斜め)方向2方向)を設定する例について説明する。図3に示すように、各境界線で分割される第1の領域と第2の領域とが同形状であり、且つ、第1の領域に含まれる画素と第2の領域に含まれる画素とが同数となっている。   Next, the operation of the image processing apparatus configured as described above will be described with reference to the flowchart of FIG. In the following description, a 9 × 9 pixel rectangular area centered on the target pixel is set as the processing area A for the input image, and four boundary lines (FIG. 3 and the like) are set for the processing area A. An example in which the vertical direction L, the horizontal direction W, and the diagonal (diagonal direction 2 directions) are set will be described. As shown in FIG. 3, the first region and the second region divided by each boundary line have the same shape, and the pixels included in the first region and the pixels included in the second region Are the same number.

本実施形態に係る画像処理装置によって入力画像における各画素の平坦度を出力するために、ステップS11において、入力画像のうち、処理対象となる領域を設定する。具体的には、分割領域設定部11が、注目画素を中心とする9画素×9画素の矩形領域を処理領域として設定する。次のステップS12において、注目画素を通る複数本の境界線を設定し、各境界線に対して境界線によって分割される第1の領域と第2の領域とを夫々設定する。本実施形態においては、図3に示すように、縦方向L、横方向W、対角線(斜め)方向2方向の系4本の境界線を設定する。   In order to output the flatness of each pixel in the input image by the image processing apparatus according to the present embodiment, a region to be processed in the input image is set in step S11. Specifically, the divided region setting unit 11 sets a rectangular region of 9 pixels × 9 pixels centered on the target pixel as a processing region. In the next step S12, a plurality of boundary lines passing through the target pixel are set, and a first area and a second area divided by the boundary lines are set for each boundary line. In the present embodiment, as shown in FIG. 3, four system boundaries are set in the vertical direction L, the horizontal direction W, and the diagonal (diagonal) two directions.

次のステップS13では、設定した境界線によって分割される第1の領域と第2の領域との輝度レベルの差を示す指標値を算出する。ここでは、境界線毎に第1の領域に含まれる画素の信号値の平均値と第2の領域に含まれる画素の信号値の平均値との差分を、その境界線に対する指標値として算出する。指標値の算出を全ての境界線に対して行い、ステップS14で、全ての境界線に対する指標値の算出が終了したと判断された場合に、次のステップS15に進む。   In the next step S13, an index value indicating a difference in luminance level between the first area and the second area divided by the set boundary line is calculated. Here, for each boundary line, the difference between the average value of the signal values of the pixels included in the first area and the average value of the signal values of the pixels included in the second area is calculated as an index value for the boundary line. . The index values are calculated for all the boundary lines. If it is determined in step S14 that the index values for all the boundary lines have been calculated, the process proceeds to the next step S15.

続いて、ステップS15において、先のステップS13において算出した指標値の中から最大値を算出し、ステップS16において、この最大値を注目画素の平坦の度合いを示す平坦度として出力する。   Subsequently, in step S15, the maximum value is calculated from the index values calculated in the previous step S13, and in step S16, this maximum value is output as the flatness indicating the flatness of the target pixel.

このように、本実施形態によれば、入力画像の注目画素と該注目画素を含む複数の周辺画素からなる所定領域に対して、注目画素を通る複数本の境界線を設定し、境界線によって分割される第1の領域と第2の領域との2つの領域を境界線毎に設定する。そして、境界線毎に、第1の領域と第2の領域との輝度レベルの差を示す指標値を算出し、算出された複数の指標値の中から平坦度算出部が最大値を算出し注目画素の平坦度として出力する。これにより、注目画素がエッジ上に存在している場合、複数方向の境界線によって、ノイズによる振幅に影響されることなくエッジを検出し注目画素の平坦度判定の精度を向上させることができる。   As described above, according to the present embodiment, a plurality of boundary lines passing through the target pixel are set for a predetermined region including the target pixel of the input image and a plurality of peripheral pixels including the target pixel. Two areas of the first area and the second area to be divided are set for each boundary line. Then, for each boundary line, an index value indicating a difference in luminance level between the first area and the second area is calculated, and the flatness calculation unit calculates a maximum value from the calculated index values. Output as the flatness of the pixel of interest. Thus, when the target pixel exists on the edge, the edge can be detected by the boundary lines in a plurality of directions without being affected by the amplitude due to noise, and the flatness determination accuracy of the target pixel can be improved.

なお、入力画像がベイヤー配列の画像信号などの、各画素において特定の色成分が欠落する撮像素子により撮像された画像信号である場合には、このような画像信号に対して、所定のフィルタを用いて補間処理を行うことが好ましい。すなわち、図9に示すように、画像信号を補間するための補間画像生成部14を別途設け、特定の色成分が欠落した画像信号に対して、所定領域毎に各色成分間の画素値の混合処理を行い、全画素を補間した補間画像を生成する。   When the input image is an image signal captured by an image sensor that lacks a specific color component in each pixel, such as an image signal of a Bayer array, a predetermined filter is applied to such an image signal. It is preferable that the interpolation processing is performed using them. That is, as shown in FIG. 9, an interpolation image generation unit 14 for interpolating an image signal is separately provided, and pixel values between color components are mixed for each predetermined region for an image signal lacking a specific color component. Processing is performed to generate an interpolated image obtained by interpolating all pixels.

具体的には、特定の色信号に対して、例えば図10や図11に示すフィルタによるフィルタ処理を行い後段の処理に使用される入力画像としての補間画像を生成する。なお、フィルタ係数やフィルタサイズは適宜設定することができる。
そして、この補間画像を入力画像として、分割領域設定部11において処理領域、境界線、分割領域の設定を行うと共に、指標値算出部12において指標値の算出を行う。このようにすることで、算出の際に色成分の情報を考慮することなく指標値を算出することができるので、後段の処理を単純化することができる。
Specifically, for example, an interpolation image as an input image used for subsequent processing is generated by performing filter processing using, for example, a filter illustrated in FIGS. 10 and 11 on a specific color signal. The filter coefficient and the filter size can be set as appropriate.
Then, using the interpolated image as an input image, the divided region setting unit 11 sets a processing region, a boundary line, and a divided region, and the index value calculating unit 12 calculates an index value. By doing so, the index value can be calculated without considering the color component information at the time of calculation, so that the subsequent processing can be simplified.

このように特定の色成分が欠落した画像信号に対して補間画像を生成し、これを入力画像とすることで、算出の際に色成分の情報を考慮することなく指標値を算出することができるので、後段の処理を単純化することができる。   In this way, by generating an interpolated image for an image signal lacking a specific color component and using this as an input image, the index value can be calculated without considering color component information at the time of calculation. As a result, subsequent processing can be simplified.

(第2の実施形態)
上記した実施形態においては、輝度画像又は各色成分間の画素値の混合処理を行い、全画素を補間した補間画像を入力画像として処理する例について説明した。本実施形態においては、ベイヤー配列の画像信号などの、各画素において特定の色成分が欠落する撮像素子により撮像された画像信号である場合において、補間画像を生成することなく、特定の色成分が欠落した画像信号を処理する例について説明する。
(Second Embodiment)
In the above-described embodiment, the example in which the luminance image or the pixel value mixing process between the color components is performed and the interpolation image obtained by interpolating all the pixels is processed as the input image has been described. In the present embodiment, in the case of an image signal captured by an imaging device that lacks a specific color component in each pixel, such as an image signal in a Bayer array, the specific color component is generated without generating an interpolation image. An example of processing a missing image signal will be described.

本実施形態における画像処理装置は、図12に示すように、画像信号における各画素の色成分を判定する色成分判定部15を備えている。また、以下の説明において、上記した第1の実施形態と同一の構成については同符号を付し、その説明を省略する。   As shown in FIG. 12, the image processing apparatus according to the present embodiment includes a color component determination unit 15 that determines the color component of each pixel in the image signal. In the following description, the same components as those in the first embodiment described above are denoted by the same reference numerals, and the description thereof is omitted.

分割領域設定部11は、入力画像としての特定の色成分が欠落した画像信号における注目画素と該注目画素を含む複数の周辺画素からなる所定領域に対して、注目画素を通る複数本の境界線を設定し、各境界線の夫々に対して境界線によって分割される第1の領域と第2の領域とを設定し、これらについての制御情報を出力する。   The divided region setting unit 11 has a plurality of boundary lines passing through the target pixel with respect to a predetermined region including the target pixel and a plurality of peripheral pixels including the target pixel in the image signal lacking a specific color component as the input image. Are set, a first region and a second region divided by the boundary line are set for each boundary line, and control information about these is output.

色成分判定部15は、入力された画像信号の色成分を判定して制御情報として出力する。本実施形態において、画像信号の色成分はRGBとする。
指標値算出部12は、画像信号と分割領域設定部11及び色成分判定部15において生成された制御情報に基づいて、境界線毎に設定された第1の領域と第2の領域との輝度レベルの差を示す指標値を算出する。以下、処理領域Aが図3のように、縦方向境界線L(図3(A)、横方向境界線W(図3(B)、斜め方向境界線D1,D2(図3(C),(D))に分割する4つの境界線によって分割される場合であって、色成分毎に算出された平均値の差分を、全色分加算した差分和平均を指標値として算出する例について説明する。
The color component determination unit 15 determines the color component of the input image signal and outputs it as control information. In the present embodiment, the color component of the image signal is RGB.
The index value calculation unit 12 determines the luminance between the first region and the second region set for each boundary line based on the image signal and the control information generated by the divided region setting unit 11 and the color component determination unit 15. An index value indicating a level difference is calculated. Hereinafter, as shown in FIG. 3, the processing area A has a vertical boundary line L (FIG. 3A), a horizontal boundary line W (FIG. 3B), and diagonal boundary lines D1, D2 (FIG. 3C, (D)) is an example in which the image is divided by four boundary lines to be divided and the difference sum average obtained by adding the differences of the average values calculated for each color component is added as an index value. To do.

指標値算出部12は、縦方向境界線Lに分割する境界線によって分割された一方の領域を第1の領域P1L、他方の領域を第2の領域P2Lとし、各領域内の色成分R,G,B毎の平均値を求める。次に各領域間のR,G,B毎の平均値の差分を求める。その平均値を加算したものを指標としている。なお、R成分の個数をN個、Gr成分の個数をNGr個、Gb成分の個数をNGb個、B成分の個数をN個とする。
P1L領域のR成分,Gr成分,Gb成分,B成分の平均値averageP1L,averageP1LGr,averageP1LGb,averageP1L,は、以下の式(21)〜(24)に従って算出される。
The index value calculation unit 12 sets one area divided by the boundary line divided into the vertical boundary line L as the first area P1L and the other area as the second area P2L, and sets the color components R, The average value for each G and B is obtained. Next, the difference of the average value for every R, G, B between each area | region is calculated | required. An index is obtained by adding the average values. Incidentally, N R number the number of the R component, N Gr number the number of Gr component, N Gb number the number of Gb component, the number of the B component and N B number.
The average values averageP1L R , averageP1L Gr , averageP1L Gb , and averageP1L B of the R component, Gr component, Gb component, and B component of the P1L region are calculated according to the following formulas (21) to (24).

Figure 0006184277
Figure 0006184277

同様にして、P2L領域のR成分,Gr成分,Gb成分,B成分の平均値averageP2L,averageP2LGr,averageP2LGb,averageP2L,を求め、両領域の平均値から色成分毎に平均値の差分difL,difLGr,difLGb,difLを算出する(式(25)〜(28)参照)。 Similarly, R component of P2L region, Gr component, Gb component, the average value AverageP2L R and B components, averageP2L Gr, averageP2L Gb, averageP2L B, the calculated difference of the average value for each color component from the average value of the two regions difL R , difL Gr , difL Gb , and difL B are calculated (see formulas (25) to (28)).

Figure 0006184277
Figure 0006184277

色成分毎の平均値の差分difL,difLGr,difLGb,difLを加算して差分和平均を算出し(式(29))、これをこの縦方向境界線Lに対する指標値とする。 A difference sum average is calculated by adding the differences difL R , difL Gr , difL Gb , and difL B of the average values for each color component (equation (29)), and this is used as an index value for the vertical boundary L.

Figure 0006184277
Figure 0006184277

同様に、図3に示すように、他の境界線、すなわち、横方向境界線W及び斜め方向境界線D1,D2についても、各境界線に対して設定された第1の領域と第2の領域との色成分毎の差分和平均を指標値として夫々算出する。
平坦度算出部13は、指標値算出部12により算出された複数の指標値のうちの最大値を算出し、この最大値を注目画素の平坦の度合いを示す平坦度として出力する。
Similarly, as shown in FIG. 3, the other boundary lines, that is, the horizontal boundary line W and the diagonal boundary lines D1 and D2, are also set to the first region and the second region set for each boundary line. The difference sum average for each color component from the area is calculated as an index value.
The flatness calculation unit 13 calculates the maximum value among the plurality of index values calculated by the index value calculation unit 12, and outputs the maximum value as flatness indicating the degree of flatness of the target pixel.

なお、色成分毎の差分和平均のほか、領域間の色成分毎の絶対値差分の加算平均や差分二乗の加算平均を指標値とすることもできる。
絶対値差分の加算平均の場合は、以下のように算出される。縦方向境界線Lに分割する境界線によって分割された一方の領域を第1の領域P1L、他方の領域を第2の領域P2Lとすると、第1の領域P1Lと第2の領域P2Lとの間で同色同士の絶対値差分の加算平均を求める。例えば、R成分は、下記の式(30)に従って算出される。
In addition to the difference sum average for each color component, an addition average of absolute value differences for each color component between regions or an addition average of difference squares can also be used as an index value.
In the case of the addition average of absolute value differences, it is calculated as follows. When one region divided by the boundary line divided into the vertical boundary line L is a first region P1L and the other region is a second region P2L, it is between the first region P1L and the second region P2L. Then, the average of the absolute value differences between the same colors is obtained. For example, the R component is calculated according to the following equation (30).

Figure 0006184277
Figure 0006184277

この計算を全ての色成分に対して行い、R,Gr,Gb,Bの絶対値差分の加算平均dif_averagePL,dif_averagePLGr,dif_averagePLGb,dif_averagePLを算出する。
そして、これら絶対値差分の加算平均の和を算出し、絶対値差分の加算平均和であるdif_sumをその境界線に対する指標値として算出する。
This calculation is performed for all color components, and the addition averages dif_averagePL R , dif_averagePL Gr , dif_averagePL Gb , and dif_averagePL B of the absolute value differences of R , Gr , Gb , and B are calculated.
Then, the sum of the average of the absolute value differences is calculated, and dif_sum that is the average of the absolute value differences is calculated as an index value for the boundary line.

dif_sum=dif_averagePL+dif_averagePLGr+dif_averagePLGb+dif_averagePL dif_sum = dif_averagePL R + dif_averagePL Gr + dif_averagePL Gb + dif_averagePL B

差分二乗の加算平均の場合は、以下のように算出される。縦方向境界線Lに分割する境界線によって分割された一方の領域を第1の領域P1L、他方の領域を第2の領域P2Lとすると、第1の領域P1Lと第2の領域P2Lとの間で同色同士の差分二乗の加算平均を求める。例えば、R成分は、下記の式(31)に従って算出される。   In the case of the addition average of the squares of the differences, it is calculated as follows. When one region divided by the boundary line divided into the vertical boundary line L is a first region P1L and the other region is a second region P2L, it is between the first region P1L and the second region P2L. The average of the difference squares of the same color is obtained. For example, the R component is calculated according to the following equation (31).

Figure 0006184277
Figure 0006184277

この計算を全ての色成分に対して行い、R,Gr,Gb,Bの絶対値差分の加算平均dif_sqrt_averagePL,dif_sqrt_averagePLGr,dif_sqrt_averagePLGb,dif_sqrt_averagePLを算出する。 This calculation is performed for all color components, and the addition averages dif_sqrt_averagePL R , dif_sqrt_averagePL Gr , dif_sqrt_averagePL Gb , and dif_sqrt_averagePL B of the absolute value differences of R , Gr , Gb , and B are calculated.

そして、これら差分二乗の加算平均の和を算出し、差分二乗の加算平均の和であるdif_sqrt_sumをその境界線に対する指標値として算出する。
dif_sqrt_sum_=dif_sqrt_averagePL+dif_sqrt_averagePLGr+dif_sqrt_averagePLGb+dif_sqrt_averagePL
Then, the sum of the averages of these difference squares is calculated, and dif_sqrt_sum, which is the sum of the difference squares, is calculated as an index value for the boundary line.
dif_sqrt_sum_ = dif_sqrt_averagePL R + dif_sqrt_averagePL Gr + dif_sqrt_averagePL Gb + dif_sqrt_averagePL B

このように、特定の色成分が欠落した画像信号に対して、各色成分間の画素値の混合処理等の補間処理を行わずに、当該画像信号から直接的に平坦度を算出するので、特定の色成分の画素値の分布に関する情報を劣化させることなく、高精度の平坦度を算出することができる。   As described above, the flatness is calculated directly from the image signal without performing an interpolation process such as a process of mixing pixel values between the color components for the image signal lacking a specific color component. The flatness with high accuracy can be calculated without degrading information regarding the distribution of pixel values of the color components.

11 分割領域設定部
12 指標値算出部
13 平坦度算出部
14 補間画像生成部
15 色成分判定部
DESCRIPTION OF SYMBOLS 11 Division area setting part 12 Index value calculation part 13 Flatness calculation part 14 Interpolation image generation part 15 Color component determination part

Claims (5)

入力画像の注目画素と該注目画素を含む複数の周辺画素からなる所定領域に対して、前記注目画素を通る複数本の境界線を設定し、各境界線の夫々に対して該境界線によって分割される第1の領域と第2の領域とを設定する分割領域設定手段と、
前記境界線毎に、第1の領域と第2の領域との輝度レベルの差を示す指標値を算出する指標値算出手段と、
前記指標値のうちの最大値を算出し、前記注目画素の平坦度として出力する平坦度算出手段と、を備え
前記指標値算出手段が、境界線毎に、第1の領域の信号値の平均値と第2の領域の信号値の平均値との差分値を算出し、該差分値を前記指標値とする画像処理装置。
A plurality of boundary lines passing through the target pixel are set for a predetermined region including the target pixel of the input image and a plurality of peripheral pixels including the target pixel, and each boundary line is divided by the boundary line. Divided region setting means for setting the first region and the second region,
Index value calculation means for calculating an index value indicating a difference in luminance level between the first area and the second area for each boundary line;
Flatness calculation means for calculating a maximum value of the index values and outputting as a flatness of the pixel of interest ,
The index value calculation means calculates a difference value between the average value of the signal values of the first region and the average value of the signal values of the second region for each boundary line, and uses the difference value as the index value. Image processing apparatus.
ベイヤー配列の画像信号に対して、該画像信号の所定領域毎に各色成分間の画素値の混合処理を行い、全画素を補間した補間画像を生成する補間画像生成手段を備え、該補間画像を前記入力画像とする請求項1記載の画像処理装置。   Interpolation image generating means for generating an interpolated image obtained by interpolating all the pixels by performing a pixel value mixing process for each color component for each predetermined region of the image signal for the Bayer array image signal. The image processing apparatus according to claim 1, wherein the input image is the input image. 前記第1の領域に含まれる画素と前記第2の領域に含まれる画素とが同数である請求項1又は請求項2記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the number of pixels included in the first area and the number of pixels included in the second area are the same. 前記第1の領域と前記第2の領域とが同形状である請求項3記載の画像処理装置。   The image processing apparatus according to claim 3, wherein the first area and the second area have the same shape. 入力画像の注目画素と該注目画素を含む複数の周辺画素からなる所定領域に対して、前記注目画素を通る複数本の境界線を設定し、各境界線の夫々に対して該境界線によって分割される第1の領域と第2の領域とを設定する分割領域設定手段と、
前記境界線毎に、第1の領域と第2の領域との輝度レベルの差を示す指標値を算出する指標値算出手段と、
前記指標値のうちの最大値を算出し、前記注目画素の平坦度として出力する平坦度算出手段と、を備え、
前記指標値算出手段が、境界線毎に、第1の領域の各画素と第2の領域の各画素とを対応させ、対応する画素間の差分値の加重平均に基づいて前記指標値を算出する画像処理装置。
A plurality of boundary lines passing through the target pixel are set for a predetermined region including the target pixel of the input image and a plurality of peripheral pixels including the target pixel, and each boundary line is divided by the boundary line. Divided region setting means for setting the first region and the second region,
Index value calculation means for calculating an index value indicating a difference in luminance level between the first area and the second area for each boundary line;
Flatness calculation means for calculating a maximum value of the index values and outputting as a flatness of the pixel of interest,
Calculating the index value calculating means, for each boundary line, each pixel of the first area and the pixels of the second area is associated, the index value based on the weighted average of the difference values between corresponding pixels It is that images processing apparatus.
JP2013201589A 2013-09-27 2013-09-27 Image processing device Active JP6184277B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013201589A JP6184277B2 (en) 2013-09-27 2013-09-27 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013201589A JP6184277B2 (en) 2013-09-27 2013-09-27 Image processing device

Publications (2)

Publication Number Publication Date
JP2015070382A JP2015070382A (en) 2015-04-13
JP6184277B2 true JP6184277B2 (en) 2017-08-23

Family

ID=52836690

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013201589A Active JP6184277B2 (en) 2013-09-27 2013-09-27 Image processing device

Country Status (1)

Country Link
JP (1) JP6184277B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7405565B2 (en) * 2019-11-06 2023-12-26 Juki株式会社 Image processing device, sewing machine, and image processing method

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006343863A (en) * 2005-06-07 2006-12-21 Canon Inc Image processor and image processing method
JP4094652B2 (en) * 2006-04-28 2008-06-04 松下電器産業株式会社 Visual processing device, visual processing method, program, recording medium, display device, and integrated circuit
JP4890973B2 (en) * 2006-06-29 2012-03-07 キヤノン株式会社 Image processing apparatus, image processing method, image processing program, and storage medium

Also Published As

Publication number Publication date
JP2015070382A (en) 2015-04-13

Similar Documents

Publication Publication Date Title
CN111164959B (en) Image processing apparatus, image processing method, and recording medium
EP2887313B1 (en) Image processing apparatus, system, image processing method, and computer-readable recording medium
EP3668077B1 (en) Image processing system, server device, image processing method, and image processing program
WO2015198875A1 (en) Image sensor, calculation method, and electronic device
JP2009246963A (en) Image processing apparatus, image processing method, and program
JP6046927B2 (en) Image processing apparatus and control method thereof
KR101783229B1 (en) Image processing apparatus and method for controlling image processing apparatus
TWI544785B (en) Image downsampling apparatus and method
JP2010016812A (en) Image processing apparatus and method, and computer-readable medium
JP2009044594A5 (en)
JP6184277B2 (en) Image processing device
JP2015211343A5 (en)
JP2015070432A5 (en)
JP4990240B2 (en) Image processing apparatus and image processing program
JP6604783B2 (en) Image processing apparatus, imaging apparatus, and image processing program
JP2005346393A (en) Stereo image recognition device and its method
JP5561133B2 (en) Luminance gradient direction detector and luminance gradient direction detection method
JP6164977B2 (en) Image processing apparatus, image processing method, and image processing program
JP5891751B2 (en) Inter-image difference device and inter-image difference method
JP6552248B2 (en) IMAGE PROCESSING APPARATUS AND METHOD, IMAGING APPARATUS, AND PROGRAM
JP2009147938A (en) Method of converting video image format and corresponding device
JP2016195367A5 (en)
WO2024023935A1 (en) Estimation device, estimation system, estimation method, and program
JP5846100B2 (en) Display device defect inspection method
JP2011244129A5 (en) Image processing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160502

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170417

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170425

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170622

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170711

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170725

R151 Written notification of patent or utility model registration

Ref document number: 6184277

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250