KR101739432B1 - Zone-based tone mapping - Google Patents

Zone-based tone mapping Download PDF

Info

Publication number
KR101739432B1
KR101739432B1 KR1020117031365A KR20117031365A KR101739432B1 KR 101739432 B1 KR101739432 B1 KR 101739432B1 KR 1020117031365 A KR1020117031365 A KR 1020117031365A KR 20117031365 A KR20117031365 A KR 20117031365A KR 101739432 B1 KR101739432 B1 KR 101739432B1
Authority
KR
South Korea
Prior art keywords
input image
image
regions
region
tone mapping
Prior art date
Application number
KR1020117031365A
Other languages
Korean (ko)
Other versions
KR20120107429A (en
Inventor
지에푸 자이
호안 야크
Original Assignee
톰슨 라이센싱
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 톰슨 라이센싱 filed Critical 톰슨 라이센싱
Publication of KR20120107429A publication Critical patent/KR20120107429A/en
Application granted granted Critical
Publication of KR101739432B1 publication Critical patent/KR101739432B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/94Dynamic range modification of images or parts thereof based on local image properties, e.g. for local contrast enhancement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/40Image enhancement or restoration using histogram techniques
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/02Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the way in which colour is displayed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20004Adaptive image processing
    • G06T2207/20012Locally adaptive
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20208High dynamic range [HDR] image processing

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Image Processing (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Video Image Reproduction Devices For Color Tv Systems (AREA)
  • Picture Signal Circuits (AREA)

Abstract

본 발명은 낮은 동적 범위의 디스플레이 상에 디스플레이를 위한 높은 동적 범위 이미지를 톤 매핑(tone mapping)하는 방법에 관한 것이고, 높은 동적 범위의 이미지가 먼저 액세스된다. 높은 동적 범위의 이미지는 상이한 영역으로 분할되어, 각 영역은 매트릭스로 나타나게 되고, 매트릭스의 각 영역은 픽셀의 가중치 또는 확률이 된다. 각 영역의 노출은 결정되거나 계산되고, 노출 값은 가중치 또는 확률에 응답하여 영역에 적용된다. 그런 후에, 상이한 영역은 최종 톤 매핑된 이미지를 획득하기 위해 함께 퓨징된다(fused).The present invention relates to a method of tone mapping high dynamic range images for display on a low dynamic range display, wherein a high dynamic range image is first accessed. High dynamic range images are divided into different areas, with each area appearing as a matrix, where each area of the matrix is a pixel's weight or probability. The exposure of each region is determined or calculated, and the exposure value is applied to the region in response to a weight or probability. Then, the different regions are fused together to obtain the final tone mapped image.

Description

구역 기반의 톤 매핑{ZONE-BASED TONE MAPPING}ZONE-BASED TONE MAPPING < RTI ID = 0.0 >

본 출원은 2009년 6월 29일에 출원된, 미국 가특허출원 제61/269,760호에 대한 우선권을 주장하고, 상기 출원은 그 전체가 본 명세서에 참조로 통합된다.This application claims priority to U.S. Provisional Patent Application No. 61 / 269,760, filed June 29, 2009, the entirety of which is incorporated herein by reference.

본 발명은 낮은 동적 범위(LDR) 디스플레이 상에서 높은 동적 범위(HDR) 콘텐츠의 톤(tone) 재생에 관한 것이고, 이는 또한, 톤(tone) 매핑 문제로 알려진다. 특히, 적어도 하나의 실시예는 (1) HDR 데이터로부터, HDR 장면에 대한 사람의 지각에 부합하는 디스플레이 가능한 LDR 이미지를 자동으로 생성하고, (2) 수동 조정을 위한 사용자-친화적인 제어를 제공하는 방법을 포함한다.The present invention relates to tone reproduction of high dynamic range (HDR) content on a low dynamic range (LDR) display, which is also known as a tone mapping problem. In particular, at least one embodiment includes (1) automatically generating a displayable LDR image from HDR data that is consistent with a human perception of the HDR scene, and (2) providing user-friendly control for manual adjustment ≪ / RTI >

톤 매핑 문제는 낮은 동적 범위(LDR) 디스플레이 상에 높은 동적 범위(HDR) 콘텐츠의 톤 재생에 관계가 있다. 대다수의 응용에서, 톤 매핑 처리는 주로 2개의 요건: 이미지 세목, 예를 들어 국부적인 콘트라스트(contrast)를 유지하는 것과, 상대적인 밝기의 외관을 유지하는 것을 충족시켜야 한다. 톤 매핑에 대해 현재 알려진 작업은 제 1 요건에 초점을 맞추고, 아티스트의 견지(perspective)로부터 가장 중요한 제 2 요건은 그저 방치한다. 게다가, 현재 이용가능한 톤 매핑 알고리즘은 화상의 상이한 부분의 톤을 조작하는 것을 허용하지 않고, 따라서, 종종 원래의 HDR 콘텐츠의 감각에 부합하는데 실패한다.The tone mapping problem relates to tone reproduction of high dynamic range (HDR) content on a low dynamic range (LDR) display. In most applications, the tone mapping process has to satisfy mainly two requirements: maintaining image detail, e.g., local contrast, and maintaining a relative brightness appearance. The currently known work on tone mapping focuses on the first requirement, and the second most important requirement from the artist's perspective is just neglect. In addition, currently available tone mapping algorithms do not allow to manipulate the tones of different parts of the picture and thus often fail to meet the sense of the original HDR content.

높은 동적 범위(HDR)는 최근에 디지털 이미지화를 위한 대안적인 포맷으로 관심을 받았다. 전통적인 낮은 동적 범위(LDR) 이미지 포맷은 ITU-R 권고 BT 709(a.k.a.Rec. 709)을 준수하는 디스플레이를 위해 설계되었고, 여기서 동적 범위의 크기의 오직 수백배만이 달성될 수 있다. 하지만, 실제의 장면은 주간에 약 수백억배만큼 더 큰 동적 범위를 갖고, 사람의 시각 시스템(HVS: human visual system)은 동시에 수십만배를 지각할 수 있다.High dynamic range (HDR) has recently received attention as an alternative format for digital imaging. The traditional low dynamic range (LDR) image format is designed for displays conforming to ITU-R Recommendation BT 709 (a.k.a.Rec. 709), where only a few hundred times the magnitude of the dynamic range can be achieved. However, actual scenes have a dynamic range that is about a few tens of billion times larger during the day, and a human visual system (HVS) can perceive hundreds of thousands of times at the same time.

HDR 포맷에서 이용가능한 시각적 콘텐츠의 양이 증가하고 있다: 디지털 센서 및 영화 필름에서 최근의 진보는 콘텐츠 생성자가 매우 높은 동적 범위로 이미지를 캡처하는 것을 허용하고, 컴퓨터로 생성된 그래픽(예를 들어, 애니메이션 영화, 시각적 효과 및 게임)은 가상적으로 무제한의 동적 범위로 시각적 콘텐츠를 생성하는 것을 허용한다. 하지만, HDR 디스플레이는 아직 주류 디바이스가 아니다; 수개의 HDR 디바이스가 프로토타입(prototype) 및 최상품의 HDTV에서 이미 이용가능하지만, 이러한 디스플레이의 개수는 널리 사용되는 LDR 디스플레이에 비해 여전히 매우 적다.The amount of visual content available in the HDR format is increasing: recent advances in digital sensors and motion picture films allow content creators to capture images with a very high dynamic range and use computer generated graphics (e.g., Animated movies, visual effects, and games) allow you to create visual content with virtually unlimited dynamic range. However, HDR displays are not yet mainstream devices; Although several HDR devices are already available in prototype and top-of-the-line HDTV, the number of such displays is still very small compared to widely used LDR displays.

LDR 디스플레이 디바이스 상에 HDR 이미지를 디스플레이하기 위해, 톤 매핑 방법은, 광휘(radiance)로 이용가능한 HDR 이미지를 8비트의 RGB 인덱스 번호에 매핑하기 위해 사용된다. 톤 매핑 처리는 명백하지 않은데, 이는 톤 매핑된 LDR 이미지가 HVS로 하여금 원래의 HDR 이미지에 충분히 근접하다고 믿게 하도록, HVS에서 발생하는 처리를 시뮬레이팅해야 하기 때문이다. 이 처리는 톤 매핑 알고리즘이 국부적인 콘트라스트와 지각적 밝기 모두를 유지하는 것을 필요로 한다.To display an HDR image on an LDR display device, a tone mapping method is used to map an HDR image available with radiance to an 8-bit RGB index number. The tone mapping process is not obvious because the tone mapped LDR image must simulate the processing that occurs at the HVS, so that the HVS believes it is close enough to the original HDR image. This process requires the tone mapping algorithm to maintain both local contrast and perceptual brightness.

최근에, HDR 이미지의 톤 매핑은 컴퓨터 그래픽뿐만 아니라 이미지/비디오 처리 커뮤니티에서 연구되었다. 대략적으로, 톤 매핑 방법은 2개의 주요 카테고리: 전역적인 톤 매핑과 국부적인 톤 매핑으로 분류될 수 있다.Recently, tone mapping of HDR images has been studied not only in computer graphics but also in the image / video processing community. Approximately, the tone mapping method can be divided into two main categories: global tone mapping and local tone mapping.

전역적인 톤 매핑은 이미지 강도에 광휘를 매핑하기 위해 전역 곡선을 사용한다. 전역적인 톤 매핑이 낮은 복잡성과 쉬운 수동 제어와 같은 장점을 갖지만, 매우 높은 동적 범위일 때, 세목의 모두를 유지할 수 없다. 그러므로, 전역적인 톤 매핑은 매우 높은 품질의 출력(후-제작과 같은)을 요구하는 응용에 적합하지 않다.Global tone mapping uses global curves to map the intensity to image intensity. Global tone mapping has advantages such as low complexity and easy manual control, but it can not keep all of the details when it is very high dynamic range. Therefore, global tone mapping is not suitable for applications requiring very high quality output (such as post-production).

다른 한편으로, 국부적인 톤 매핑 방법은 국부적인 이미지 특징에 따라 각 개별적인 픽셀을 압축함으로써 더 높은 품질의 결과를 제공한다. 특히, 이들 방법은 HVS에서 발생하는 시각적 적응의 시뮬레이팅을 시도하지만, 실제로 대다수의 방법은 명백히 HVS의 거동을 명백하게 흉내 내지 못한다. 대신, 이들 방법은 HVS에 대해 단순한 가정을 하고, 그런 후에 이들 가정을 사용하여 이미지의 동적 범위의 압축을 시도하여, 시각적으로 양호한 외관의 결과를 얻게 된다. 국부적인 톤 매핑 방법의 면밀한 미세-동조(fine-tuning)를 통해, HDR 이미지의 상대적으로 넓은 영역에 대해 납득이 가는 결과를 생성하는 것이 가능하지만, 여전히 시각적 적응의 이해는 여전히 완벽함과는 거리가 멀다. 그러므로, 사람의 눈처럼 거동하는 어떠한 알고리즘도 존재하지 않는다. 게다가, 이들 방법은 톤 매핑 처리의 양호한 수동 제어를 제공하지 못하고, 전형적으로 톤 보정 처리에 수반되는 창조력을 엄격히 제한한다.On the other hand, the local tone mapping method provides a higher quality result by compressing each individual pixel according to the local image feature. In particular, these methods attempt to simulate the visual adaptation that occurs in HVS, but in practice most methods do not explicitly mimic the behavior of HVS. Instead, these methods make simple assumptions about HVS and then use these assumptions to try to compress the dynamic range of the image, resulting in a visually good appearance. Through careful fine-tuning of the local tone mapping method, it is possible to produce convincing results for a relatively large area of the HDR image, but still the understanding of visual adaptation is still far from perfect It is far. Therefore, there is no algorithm that behaves like a human eye. In addition, these methods do not provide good manual control of the tone mapping process and typically severely limit the creativity involved in the tone correction process.

톤 매핑은 이미지 처리 연구가뿐만 아니라 화가, 그리고 필름 포토그래퍼에 의해 연구되었다. 이들은 높은 동적 범위의 장면을 나타내기 위한 제한된 동적 범위 매체(즉, 화가에 대해 캔버스, 포토그래퍼에 대해 프린트지)를 사용하는데 동일한 문제에 직면한다. 도 1을 참조하면, 여기에서, Ansel Adams 및 Fred Archer에 의해 공식화된 사진 기법인 "구역(zone) 시스템(100)"을 리뷰한다. 구역 시스템은 0 내지 10의 숫자를 상이한 지각적 밝기에 할당하는데, 여기서 0은 검은색, 5는 중간 회색, 그리고 10은 순수한 백색을 나타낸다. 이들 값은 구역으로 알려진다. 구역 시스템의 이론에서, 포토그래퍼는 먼저 장면에서 주요 요소를 식별하고, 이들 요소를 원하는 구역상에 위치시킨다. Tone mapping was studied by image processing researchers as well as painters and film photographers. They face the same problem of using a limited dynamic range medium (i.e., a canvas for a painter, a print for a photographer) to represent high dynamic range scenes. Referring to Figure 1, here we review the "zone system (100)", a photographic technique formulated by Ansel Adams and Fred Archer. The zoning system assigns numbers from 0 to 10 to different perceptual brightness, where 0 represents black, 5 represents mid-gray, and 10 represents pure white. These values are known as zones. In the theory of the zoning system, the photographer first identifies the main elements in the scene and places them on the desired area.

이러한 처리는 광휘의 측정보다 장면의 지각에 의존한다. 그런 후에, 조명 측정기(light meter)는 장면에서 각 주요 요소에 대한 광휘를 측정하는데 사용된다. 촬영 당 단일 노출 값만이 존재할 수 있기에, 가장 중요한 요소가 원하는 구역에 매핑되도록 노출 값이 선택된다. 그 결과로서, 다른(또한 중요한) 요소는 "잘못된" 구역에 매핑되어, 너무 어둡거나 너무 밝게 될 수 있다. 그 후, 프린팅 처리에서, 이러한 문제는 프린팅 기법인 "닷지(dodge) 및 번(burn)" 동작을 적용함으로써 교정되는데, 여기서 현상 동안 프린트의 일 부분으로부터 일부 광이 억제되거나(닷지), 이 영역에 더 많은 광이 부가된다(번). 그러므로, 원하는 구역에 비해 더 낮은 구역에 매핑되는 주요 요소는 화상의 나머지(rest) 부분 보다 더 길게 광에 노출된다. 유사하게, 원하는 구역보다 더 높은 구역에 매핑되는 주요 요소는 덜 노출된다. 이러한 국부적인 처리는 화상의 주요 요소가 최종 출력에서 원하는 구역에 매핑되는 것을 보장한다. 즉, 이들 주요 요소의 지각적 밝기는 이 주요 요소가 실제 어떻게 보이는지에 부합된다.This treatment depends on the perception of the scene rather than the measurement of the brightness. Then, a light meter is used to measure the brightness of each major element in the scene. Since only a single exposure value per shot may be present, the exposure value is selected such that the most important factor is mapped to the desired zone. As a result, other (and important) elements may be mapped to "false" zones, becoming too dark or too bright. Then, in the printing process, this problem is corrected by applying a "dodge and burn" operation, a printing technique in which some light from a portion of the print is suppressed or damped during development, More light is added to the light. Therefore, the main element that is mapped to the lower zone relative to the desired zone is exposed to light longer than the rest of the image. Similarly, key elements that are mapped to higher zones than the desired zone are less exposed. This local processing ensures that the main elements of the picture are mapped to the desired area at the final output. In other words, the perceived brightness of these key elements corresponds to how these key elements actually look.

이러한 접근법은 디지털 이미지에 사용될 수 있지만, 자동 모드에서 양호한 성능을 갖고, 동시에 사용자-보조 모드에서 직관적인 제어를 제공하는 어떠한 방법도 존재하지 않는다.While this approach can be used for digital images, there is no way to have good performance in the automatic mode and at the same time provide intuitive control in the user-assisted mode.

낮은 동적 범위의 디스플레이 상에서 디스플레이를 위한 높은 동적 범위 이미지를 톤 매핑하는 방법이 제공되는데, 먼저 높은 동적 범위 이미지가 액세스된다. 그런 후에, 높은 동적 범위 이미지는 상이한 영역으로 분할되어, 각 영역은 매트릭스로 나타나게 되는데, 여기서 매트릭스의 각 요소는 픽셀의 가중치 또는 확률이다. 각 영역의 노출이 결정되거나 계산되고, 노출 값은 가중치 또는 확률에 응답하여 영역에 적용된다. 그런 후에, 상이한 영역이 최종 톤 매핑된 이미지를 얻기 위해 함께 퓨징(fusing)된다. 방법은 높은 동적 범위 이미지에 대해, 또는 최종 톤 매핑된 이미지에 대해 상이한 지각적 밝기를 식별하거나 구축하는 단계를 더 포함할 수 있다. 게다가, 방법은 휘도(luminance) 데이터에 응답하는 영역을 결정하는 단계, 각각이 영역 중 하나를 구축하는 앵커(anchor) 값을 구축하는 단계 중 임의의 단계를 포함할 수 있고, 톤 매핑은 개별적인 컬러 채널을 기초로 수행된다. 톤 매핑은 휘도 채널을 기초로 수행되고, 후에, 후-처리를 통해 컬러 채널에 적용될 수 있으며, 톤 매핑은 각 컬러 채널을 기초로 수행될 수 있다. A method for tone mapping high dynamic range images for display on a low dynamic range display is provided, wherein a high dynamic range image is first accessed. Then, the high dynamic range image is divided into different regions, each region appearing as a matrix, where each element of the matrix is a weight or probability of a pixel. The exposure of each region is determined or calculated, and the exposure value is applied to the region in response to a weight or probability. The different regions are then fused together to obtain the final tone mapped image. The method may further comprise identifying or constructing a different perceptual brightness for a high dynamic range image, or for a final tone mapped image. In addition, the method may comprise any of the following steps: determining an area responsive to luminance data, each constructing an anchor value to build one of the areas, Channel. The tone mapping may be performed based on the luminance channel, and thereafter, applied to the color channel through post-processing, and tone mapping may be performed based on each color channel.

첨부 도면을 참조하여, 이제부터 본 발명은 예시의 목적으로 서술될 것이다.BRIEF DESCRIPTION OF THE DRAWINGS The present invention will now be described, by way of example only, with reference to the accompanying drawings, in which: Fig.

본 발명은 자동 모드에서 양호한 성능을 갖고, 동시에 사용자-보조 모드에서 사용자 친화적인 제어를 제공하는 장점을 갖는다.The present invention has the advantage of having good performance in the automatic mode and at the same time providing user-friendly control in the user-assisted mode.

도 1은 알려진 구역 시스템 크기(scale)의 도면.
도 2는 본 발명에 따른 구역 기반의 톤 매핑 방법의 흐름도.
도 3은 컬러 HDR 이미지에 대한 도 2의 방법의 응용의 흐름도.
도 4는 컬러 HDR 이미지에 대한 도 2의 방법의 다른 응용의 흐름도.
도 5는 도 2의 방법을 사용한 LDR 이미지의 톤 보정을 도시하는 흐름도.
도 6은 하나의 이미지가 본 발명의 방법에 따라 향상되는 샘플 이미지의 쌍을 도시하는 도면.
BRIEF DESCRIPTION OF THE DRAWINGS Figure 1 is a diagram of a known area system scale.
Figure 2 is a flow chart of a zone-based tone mapping method in accordance with the present invention;
Figure 3 is a flow chart of an application of the method of Figure 2 to a color HDR image.
Figure 4 is a flow chart of another application of the method of Figure 2 for a color HDR image.
Figure 5 is a flow chart illustrating tone correction of an LDR image using the method of Figure 2;
Figure 6 shows a pair of sample images in which one image is enhanced according to the method of the present invention;

전형적인 수동 톤 매핑에 대한 필름 사진술에서 개발된 "구역 시스템"의 개념과 유사하게, 방법은 일반적으로 4개의 단계:Similar to the concept of a "zone system" developed in film photography for a typical passive tone mapping, the method generally involves four steps:

a. 화상에서 주요 요소를 식별하는 단계,a. Identifying a key element in the image,

b. 각 주요 요소를 구역에 각각 매핑하는 단계,b. Mapping each major element to a zone, respectively,

c. 각 주요 요소에 대한 광휘를 측정하는 단계,c. Measuring the brightness of each key element,

d. 전역적인 노출 값을 결정하는 단계, 및d. Determining a global exposure value, and

e. 각 주요 요소가 최종 프린트에서 올바른 구역 내에 있게 하도록 프린팅 처리에서 닷지 및 번 단계e. Dodge and step in the printing process to ensure that each key element is within the correct area of the final print

로 서술될 수 있다.≪ / RTI >

방법을 더 상세히 서술하기 위해, 먼저 톤 매핑 문제의 입력 및 출력을 한정할 수 있다. 먼저, 입력은 알려진 원색을 갖는 알려진 컬러 공간에서 장면의 광휘라는 것을 가정한다. HDR 데이터가 교정되지 않을 때의 경우, 광휘 데이터는 절대적인 광휘이거나 선형적으로 크기 조정된(scaled) 광휘일 수 있다. 출력은 톤 매핑된 이미지이다,To describe the method in more detail, we can first define the input and output of the tone mapping problem. First, it is assumed that the input is the scene's brilliance in a known color space with a known primary color. When the HDR data is not calibrated, the brilliance data may be an absolute brilliance or a linearly scaled brilliance. The output is a tone mapped image,

휘도 이미지는 HDR 데이터로부터 계산될 수 있다. HDR 데이터가 XYZ 컬러 공간 내에 있다면, Y 성분은 휘도 이미지로 사용될 수 있다. HDR 데이터가 Rec. 709와 동일한 원색을 사용한다면, RGB 컬러 공간으로부터의 변환은 다음:The luminance image can be calculated from the HDR data. If the HDR data is in the XYZ color space, the Y component can be used as the luminance image. HDR data is recorded in Rec. If you use the same primary color as 709, the conversion from RGB color space is:

Figure 112011104580712-pct00001
Figure 112011104580712-pct00001

과 같이 행해질 수 있다.. ≪ / RTI >

RGB(또는 다른 컬러 공간)와 휘도 이미지 사이의 다른 변환은 입력 화상의 포맷에 따라 사용될 수 있다.Other conversions between RGB (or other color space) and luminance images can be used depending on the format of the input image.

그 다음, 톤 매핑의 가장 간단한 형태: 단일 노출을 한정한다. 일반성을 잃지 않고, HDR 데이터는 휘도 이미지일 수 있는 하나의 컬러 채널만을 갖는다는 것을 가정한다. 선형 크기 조정을 통해, "앵커점"이 규정된다. 픽셀은, 이러한 픽셀의 휘도가 앵커점을 초과한다면, 포화되고(saturated), 1로 매핑될 것이며, 그렇지 않다면 픽셀은 0 내지 1의 값으로 매핑될 것이다. 그러므로, 단일 노출의 선형 크기 조정은:It then defines the simplest form of tone mapping: single exposure. Without losing generality, it is assumed that the HDR data has only one color channel, which can be a luminance image. Through linear scaling, anchor points are defined. A pixel will be saturated and mapped to 1 if the luminance of this pixel exceeds the anchor point, otherwise the pixel will be mapped to a value of 0 to 1. Therefore, the linear scaling of a single exposure is:

Figure 112011104580712-pct00002
Figure 112011104580712-pct00002

으로 한정될 수 있는데, 여기서 A는 앵커점이고, S(x)는Where A is an anchor point and S (x) is an anchor point,

Figure 112011104580712-pct00003
Figure 112011104580712-pct00003

로 한정될 수 있으며, 여기서 ρ는 전형적으로 영역[2.2, 2.4] 내에서 값을 취하며, (톤 매핑된 이미지가 나타나는) 출력 디바이스의 감마를 나타낸다., Where rho typically takes values in the region [2.2, 2.4] and represents the gamma of the output device (where the tone mapped image appears).

결과 이미지 I는 양자화될 수 있고, 종래의 LDR 디스플레이 상에 디스플레이될 수 있다. S(x)의 다른 한정이 가능할 수 있다는 것을 주목하라: 예를 들어, 검정력 함수(power function) 대신에, S-성형 곡선이 사용될 수 있다. 일반적으로, 임의의 전역적인 매핑 곡선은 S에 대해 사용될 수 있다.The resulting image I can be quantized and displayed on a conventional LDR display. Note that other qualifications of S (x) may be possible: for example, instead of a power function, an S-shaping curve may be used. Generally, any global mapping curve can be used for S.

그런 후에, 구역 시스템은 디지털 톤 매핑에 적용된다. 도 2에 도시된 것처럼, 주요 단계는 다음과 같다. 입력의 높은 동적 범위(HDR) 이미지는 먼저, 단계(10)에서 상이한 영역으로 분할된다. 이는 분명한(hard) 분할 또는 분명치 않은(fuzzy) 분할일 수 있다. 어떠한 경우에서도, 각 영역은 매트릭스로 표현될 수 있는데, 여기서 매트릭스의 각 요소는 픽셀의 확률(가중치)이다. 분명한 분할이 사용된다면, 이미지 픽셀은 단일 영역에 속하게 되므로, 확률은 0 또는 1이다. 분명치 않은 분할이 사용된다면, 각 픽셀은 수개(심지어 전체) 영역 상에 분산될 수 있으므로, 확률은 0 내지 1의 임의의 값을 가질 수 있다.The zone system then applies to digital tone mapping. As shown in Fig. 2, the main steps are as follows. The high dynamic range (HDR) image of the input is first divided into different regions in step 10. This may be a hard partition or a fuzzy partition. In any case, each region can be represented by a matrix, where each element of the matrix is a probability (weight) of the pixel. If a clear division is used, the image pixel belongs to a single area, so the probability is 0 or 1. If unclear partitions are used, the probability can be any value between 0 and 1, as each pixel can be distributed over several (even entire) areas.

그런 후에, 단계(12)에서, 알고리즘은 각 영역이 어떤 구역에 매핑될 지를 결정한다. 이는 각 영역에 대한 노출을 본질적으로 추정한다. 영역과 구역 사이의 매핑은 또한, 적합한 사용자 인터페이스를 제공함으로써 사용자와의 상호작용을 통해 행해질 수 있다.Then, at step 12, the algorithm determines which zone each zone is mapped to. This inherently estimates the exposure for each area. The mapping between regions and zones can also be done through interaction with a user by providing a suitable user interface.

그 다음에, 단계(14)에서, 각 영역은 영역의 노출 파라미터를 통해 노출된다. Then, at step 14, each area is exposed through an exposure parameter of the area.

그 후, 단계(10)에서 획득된 가중치를 사용하여, 단계(16)에서 상이한 영역(각각이 영역의 노출 값을 통해 노출되는)을 함께 퓨징(fusing) 함으로써, 최종 톤 매핑된 이미지를 생성하는 퓨전(fusion) 또는 혼합 처리가 사용된다.The final tone mapped image is then generated by fusing together the different regions (each exposed through the exposure value of the region) in step 16, using the weights obtained in step 10 Fusion or mixing treatment is used.

선택적으로, 단계(18 및 20)에서, 사용자는 톤 매핑된 이미지의 외관을 검사할 수 있고, 하나 이상의 영역의 노출 값을 변경할 수 있으며, 그런 후에 결과가 만족스러울 때까지, 단계에서 파라미터를 변경하기 위해 적합한 사용자 인터페이스를 통해, 단계(14 내지 18)를 반복할 수 있다.Optionally, in steps 18 and 20, the user can examine the appearance of the tone mapped image, change the exposure value of one or more areas, and then change the parameters in the step until the result is satisfactory , Through steps 14 through 18, via a suitable user interface.

비디오 톤 매핑에 대해, 장면에서 하나의 주요 프레임에 대한 처리가 수행될 수 있고, 장면의 모든 프레임에 동일한 파라미터가 적용될 수 있다.For video tone mapping, processing for one main frame in a scene may be performed, and the same parameters may be applied to all frames of the scene.

주요 단계 각각에 대한 실시예는 이제부터 더 상세히 서술된다.Embodiments of each of the major steps are described in greater detail below.

단계(10)에서 이미지의 분할In step 10,

분할의 목적은 이미지를 영역으로 나누어서, 각 영역이 동일한 구역에 매핑되야 하는 객체를 포함하게 하는 것이다. 즉, 각 영역은 단일 노출을 필요로 해야 한다. 분할은 다양한 이미지 처리 기법을 사용하는 다양한 방식으로 행해질 수 있다. 여기서, 간단하지만 효율적인 접근법이 서술된다. 먼저, 휘도 이미지는 HDR 광휘 데이터로부터 계산된다. 분할은 오직 휘도 이미지상에서 수행된다. 이미지의 평균, 최대 및 최소 휘도는 다음:The goal of partitioning is to divide the image into regions, each containing an object that must be mapped to the same region. That is, each area must require a single exposure. Partitioning can be done in various ways using various image processing techniques. Here, a simple but efficient approach is described. First, the luminance image is calculated from the HDR luminance data. The division is performed only on the luminance image. The average, maximum and minimum brightness of the image are as follows:

Figure 112011104580712-pct00004
Figure 112011104580712-pct00004

Figure 112011104580712-pct00005
Figure 112011104580712-pct00005

Figure 112011104580712-pct00006
Figure 112011104580712-pct00006

으로 계산되는데, 여기서 Rmin 및 Rmax는 2개의 사전 한정된 백분율이고, maxR(X)는 X에서 값의 R% 이상 중 X의 가장 작은 값이고, minR (X)는 X의 값의 R% 이하 중 X의 가장 큰 값이다.Where R min and R max are the two predefined percentages, max R (X) is the smallest value of X among R% of the values in X, and min R (X) is the R It is the largest value of X among%.

위에서 논의된 바와 같이, 각 영역 내에서, 픽셀은 동일한 노출을 가져야 한다. 일련의 앵커점 Ai(i=1..N)은 각 Ai가 영역을 한정하고, 또한, 단일 노출 이미지를 생성하는데 사용되도록 한정된다.As discussed above, within each region, the pixels must have the same exposure. A series of anchor points A i (i = 1., N) is defined such that each A i defines a region and is also used to generate a single exposure image.

이러한 실시예에서, 앵커점은:In this embodiment, the anchor point is:

Figure 112011104580712-pct00007
Figure 112011104580712-pct00007

로 선택되는데, 상기 수학식에서 E는 상수이고, 예를 들어, 8의 값을 취할 수 있다. 상기 수학식에서 영역의 개수(N)는:, Where E is a constant and may take a value of, for example, 8. The number N of regions in the above equation is:

Figure 112011104580712-pct00008
Figure 112011104580712-pct00008

와 같이 계산될 수 있고, 이는 휘도 영역 모두를 커버할 수 있다., Which can cover all of the luminance region.

2개의 이웃하는 앵커점 사이의 거리는 사진술에 대해 2개의 "스톱(stop)"이라는 것을 관찰하는 것은 쉽다.It is easy to observe that the distance between two neighboring anchor points is two "stops" for photography.

일단 각 영역의 앵커점이 알려진다면, 각 픽셀의 가중치는 각 영역에 대해 계산된다. 일반적으로, 각 영역{대응하는 앵커점(Ai)에 의해 한정되는}에 대해, 단일 노출 이미지에서 가장 가까운 픽셀의 값은 0.5이고, 이 영역{대응하는 앵커점(Ai)에 의해 한정되는}에 대한 이 픽셀의 가중치는 커진다.Once the anchor points of each region are known, the weight of each pixel is calculated for each region. In general, for each area {defined by the corresponding anchor point A i }, the value of the closest pixel in the single exposure image is 0.5, and this area {defined by the corresponding anchor point A i ) The weight of this pixel increases.

따라서, 영역 n{앵커점(An)에 의해 한정되는}에 대한 위치(i,j)에서 픽셀의 가중치는:Thus, the weight of the pixel at position (i, j) to the area n {defined by the anchor point A n ) is:

Figure 112011104580712-pct00009
Figure 112011104580712-pct00009

로 계산될 수 있는데, 여기서 C는 정규화 계수이고, C는:, Where C is the normalization coefficient, C is:

Figure 112011104580712-pct00010
Figure 112011104580712-pct00010

로 한정될 수 있다..

상기 계산된 가중치는 영역[0, 1]에서 값을 취하고, 그러므로 휘도 이미지의 N개의 영역으로의 분명치 않은 분할을 한정한다. 이는 N개의 영역 중 일부가 큰 가중치를 가질 수 있더라도, 각 영역은 이미지에서 모든 픽셀을 포함할 수 있다는 것을 의미한다. The calculated weight takes a value in the area [0, 1] and thus defines an unclear partitioning into the N areas of the luminance image. This means that although some of the N regions may have large weights, each region may contain all of the pixels in the image.

다른 구현에서, 가중치는 이진화되어(즉, 가중치를 0 또는 1로 만든다), 분명한 분할이 초래한다:In other implementations, the weights are binarized (i.e., weights are 0 or 1), resulting in a clear partition:

Figure 112011104580712-pct00011
Figure 112011104580712-pct00011

Figure 112011104580712-pct00012
Figure 112011104580712-pct00012

앵커점(An)뿐만 아니라 가중치(Wn)는 일단 분할이 행해지면 고정된다는 것을 주목하라. 다음의 섹션에서, 각 영역에 대한 노출은 가중치가 변경되지 않은 상태로 유지되는 동안 조정될 수 있다는 것이 관찰된다.Note that the weight (W n ) as well as the anchor point (A n ) are fixed once the segmentation is done. In the next section, it is observed that the exposure for each region can be adjusted while the weights remain unchanged.

단계(12)에서 노출의 추정Estimation of exposure at step (12)

일단 각 영역이 분할되면, 각 영역은 구역에 매핑된다. 즉, 앵커점은 각 영역에 대해 한정되어, 단일 노출 이후, 각 영역은 적합하게 노출될 수 있게 된다.Once each region is divided, each region is mapped to a region. That is, the anchor points are defined for each region so that after a single exposure, each region can be exposed appropriately.

각 영역이 어떤 구역에 매핑 되어야하는지를 결정하는 것은 매우 주관적인 임무인데, 이는 이 임무가 HVS가 시각적 적응을 어떻게 완료하는지에 의존하기 때문이다. 종래의 구역 시스템에서, 구역에 주요 요소를 매핑하는 것은 포토그래퍼에 의해 시각적으로 결정된다.It is a very subjective task to determine which areas each area should be mapped to, because it depends on how the HVS completes the visual adaptation. In conventional zone systems, mapping of key elements to zones is visually determined by the photographer.

각 영역의 노출을 추정하기 위해 다수의 상이한 알고리즘이 사용될 수 있다.간단한 구현에서, 모든 영역은 중간 회색에 매핑되고, 그런 후에 사용자는 상호작용으로 앵커점을 변경할 수 있다. 이는 추정된 노출이 영역을 한정하는데 사용되는 앵커점 값과 동일한 앵커점의 값이라는 것을 의미하고:A number of different algorithms can be used to estimate the exposure of each region. In a simple implementation, all regions are mapped to a neutral gray, after which the user can change the anchor point interactively. This means that the estimated exposure is the value of the anchor point equal to the anchor point value used to define the region:

Figure 112011104580712-pct00013
Figure 112011104580712-pct00013

여기서, λn는 사용자에 의해 변경될 수 있는 변수이다.Here,? N is a variable that can be changed by the user.

λn에 대한 기본 값은 0이지만, 방법은 원하는 외관에 도달하기 위해, 이 기본 값을 수동으로 수정하는 것을 허용한다.The default value for λ n is 0, but the method allows you to manually modify this default value to reach the desired appearance.

단계(14)에서 노출 파라미터를 적용하는 것Applying exposure parameters in step (14)

일단 사용자가 HDR 이미지의 분할과, 각 영역에 대한 앵커점을 갖는다면, 대응하는 LDR 이미지는 상기 추정된 노출을 이용하여 HDR 데이터로부터 생성될 수 있다:Once the user has a partition of the HDR image and an anchor point for each area, the corresponding LDR image can be generated from the HDR data using the estimated exposure:

Figure 112011104580712-pct00014
.
Figure 112011104580712-pct00014
.

단계(16)에서 이미지 퓨전 및 개선In step 16, image fusion and enhancement

이 단계의 목표는 영역(각각이 노출 파라미터를 통해 노출되는) 모두를 함께 혼합하는 것이다. 수개의 퓨전 방법이 가능할 수 있고, 일부가 아래에 서술된다.The goal of this step is to mix all of the areas (each exposed through the exposure parameters) together. Several fusion methods may be possible, some of which are described below.

이미지 퓨전 - 제 1 실시예Image Fusion - First Embodiment

Figure 112011104580712-pct00015
Figure 112011104580712-pct00015

로 톤 매핑 결과(T)를 생성하기 위해 LDR 이미지의 가중된 평균을 계산하라.Calculate the weighted average of the LDR image to generate the tone mapping result (T).

이는 낮은 복잡성의 방법이다. 불행히도, 이 방법은 이미지 가중치에 매우 민감하여, 대부분의 구현에서 시각적 아티팩트를 초래한다.This is a low complexity method. Unfortunately, this method is very sensitive to image weights, resulting in visual artifacts in most implementations.

이미지 퓨전 - 대안적인 실시예Image Fusion - Alternative Embodiment

더 세련된 퓨전 처리는 이들 LDR 이미지를 결합하는 것이다. 다른 이미지 퓨전 방법은 피라미드를 사용하는 다중-해상도 접근법을 따른다. 이 방법은 더 복잡성을 갖지만, 가중치(즉, 영역으로의 영역의 분할)에 대해 상당히 강력하여, 영역 사이에 거의 이음매 없는 변화를 초래한다.A more sophisticated fusion process is to combine these LDR images. Other image fusion methods follow a multi-resolution approach using pyramids. Although this method is more complex, it is quite robust to weighting (i.e., partitioning of regions into regions), resulting in almost seamless transition between regions.

컬러 color HDRHDR 이미지의 톤  Tone of image 매핑Mapping

도 3은 제안된 구역-기반의 톤 매핑 접근법(300)이 컬러 HDR 이미지를 톤 매핑하기 위해 어떻게 사용될 수 있는지를 도시한다. 먼저, 컬러 HDR 이미지가 RGB 컬러 공간 내에 있다고 가정되면, 휘도 이미지는 위에 제공된 수학식을 사용하여 계산된다. 그런 후에, 휘도 이미지는 서술된 방법의 프레임워크에 따라 처리된다. 마지막으로, 컬러 처리 단계는 휘도 이미지의 톤 매핑을 각 컬러 성분에 적용한다. 특정 구현에서, 컬러 처리 단계는 각 컬러 성분의 각 픽셀을 동일한 양으로 크기 조정하는데, 여기서 휘도 이미지의 대응하는 픽셀이 크기 조정되고, 그런 후에 감마 보정 및 양자화를 수행한다. 이러한 처리는 다음의 수학식:FIG. 3 illustrates how the proposed region-based tone mapping approach 300 can be used to tone-map a color HDR image. First, if it is assumed that the color HDR image is in the RGB color space, the luminance image is calculated using the equation given above. The luminance image is then processed according to the framework of the described method. Finally, the color processing step applies tone mapping of the luminance image to each color component. In a particular implementation, the color processing step resizes each pixel of each color component to the same amount, where the corresponding pixel of the luminance image is scaled, and then performs gamma correction and quantization. This processing can be performed using the following equation:

Figure 112011104580712-pct00016
Figure 112011104580712-pct00016

으로 요약되는데, 여기서 Q(.)는 양자화 함수를 나타내고, 여기서 γ는 출력 디바이스의 감마이다., Where Q (.) Denotes the quantization function, where gamma is the gamma of the output device.

컬러 LDR 이미지의 톤 보정은 위에 서술된 구역 기반의 톤 매핑 방법을 사용하여 달성될 수 있다. 이들 방법은 LDR 이미지를 자동으로 또는 수동으로 보정하기 위해 적용될 수 있다. 도 5의 처리 흐름(500)으로 도시된 바와 같이, HDR 이미지의 처리에 비교되는 추가적인 단계는 LDR로부터 HDR로의 변환이고, 이는 역 양자화 및 역 감마 변환을 이용하여 행해질 수 있다:Tone correction of a color LDR image can be accomplished using the region based tone mapping method described above. These methods can be applied to automatically or manually correct LDR images. As shown in process flow 500 of FIG. 5, a further step compared to the processing of HDR images is the conversion from LDR to HDR, which can be done using inverse quantization and inverse gamma conversion:

Figure 112011104580712-pct00017
.
Figure 112011104580712-pct00017
.

이러한 단계에 대한 일부 변형이 가능할 수 있다. 예를 들어, 톤 매핑은 도 4에 최선으로 도시된 바와 같이, 휘도 이미지를 사용하는 것 대신, 각 컬러 성분에 대해 독립적으로 수행될 수 있다{예를 들어, 적색 매핑 흐름(401), 녹색 매핑 흐름(402) 및 청색 매핑 흐름(403)}. 또한, 톤 매핑은 휘도 이미지를 사용하는 것 대신에, 컬러 성분에 대해 수행될 수 있다.Some modifications to this step may be possible. For example, tone mapping may be performed independently for each color component, instead of using a luminance image, as best shown in FIG. 4 (e.g., red mapping flow 401, green mapping Flow 402 and blue mapping flow 403). In addition, tone mapping may be performed on the color component instead of using the luminance image.

또 다른 변형에서, 단일 성분(예를 들어, 컬러 성분 또는 휘도 이미지 중 하나)은 일부 단계에서 사용될 수 있고, 컬러 성분은 다른 단계에서 사용될 수 있다. 예를 들어, 휘도는 단계(10 내지 12)에 대해 사용될 수 있고, 컬러 성분은 단계(14 내지 16)에 대해 사용될 수 있다.In another variation, a single component (e.g., one of a color component or a luminance image) may be used in some of the steps and the color component may be used in another step. For example, luminance may be used for steps 10-12 and color components may be used for steps 14-16.

본 명세서에서 서술된 구역 기반의 톤 매핑 방법은 특히 HDR 이미지에서 LDR 이미지로의 변환에서 이미지의 개선된 디스플레이를 초래한다. 이들 결과의 예시는 도 6에 도시되고, 여기서 우측 이미지(601)는 위에 서술된 방법에 따라 처리되고, 좌측 이미지(602)는 위에 서술된 방법으로 처리되지 않았다. 여기서, 향상된 색조 변형은 이미지의 하늘 및 땅 부분에서 관찰될 수 있다.The region-based tone mapping method described herein results in improved display of the image, especially in the conversion from HDR image to LDR image. An example of these results is shown in FIG. 6, where the right image 601 was processed according to the method described above, and the left image 602 was not processed in the manner described above. Here, the enhanced tint can be observed in the sky and ground portions of the image.

이제부터, 특정 특징 및 양상을 갖는 하나 이상의 구현을 갖는 대안적인 실시예가 서술된다, 하지만, 서술된 구현의 특징 및 양상 또한 다른 구현에 대해 적응될 수 있다.[0064] Now, alternative embodiments having one or more implementations having particular features and aspects are described, but the features and aspects of the described implementations may also be adapted to other implementations.

예를 들어, 이들 구현 및 특징은 비디오의 코딩 및/또는 다른 타입의 데이터의 코딩의 배경으로 사용될 수 있다. 게다가, 이들 구현 및 특징은 H.264/MPEG-4 AVC(AVC) 표준, MVC 확장을 갖는 AVC 표준, SVC 확장을 갖는 AVC 표준, 3DV 표준 및/또는 다른 표준(기존의 또는 미래의)의 배경으로, 또는 표준을 수반하지 않는 배경으로 사용될 수 있다,For example, these implementations and features may be used as a background for coding video and / or coding other types of data. In addition, these implementations and features may be implemented in the H.264 / MPEG-4 AVC (AVC) standard, the AVC standard with MVC extension, the AVC standard with SVC extension, the 3DV standard and / , Or as a background not accompanied by a standard,

게다가, 구현은 SEI 메세지, 슬라이스 헤더, 다른 높은 레벨의 구문, 높지 않은 레벨의 구문, 대역 외 정보, 데이터스트림 데이터 및 암묵적 신호 발신을 포함하지만, 이에 제한되지 않는 다양한 기법을 사용하여 정보를 신호 발신할 수 있다. 따라서, 본 명세서에 서술된 구현이 특정 배경으로 서술될 수 있지만, 이러한 서술은 이러한 구현 또는 배경에 대한 특징 및 개념을 한정하는 것으로 취해지지 않아야 한다.In addition, implementations may use various techniques to send signals, including, but not limited to, SEI messages, slice headers, other high level syntax, high level syntax, out of band information, data stream data and implicit signaling can do. Thus, while the implementations described herein may be described in a particular context, such description should not be taken to limit features and concepts for such implementations or backgrounds.

명세서에서 본 발명의 원리의 "하나의 실시예" 또는 "일 실시예" 또는 "하나의 구현" 또는 "일 구현" 뿐만 아니라 이들의 다른 변형에 대한 언급은 실시예와 연관되어 서술된 특정 특징, 구조, 특성 등이 본 발명의 원리의 적어도 하나의 실시예에 포함된다는 것을 의미한다. 따라서, 명세서 전체에 걸쳐서 다양한 부분에 기재된 "하나의 실시예에서" 또는 "일 실시예에서" 또는 "하나의 구현에서" 또는 "일 구현에서"라는 구문, 및 임의의 다른 변형의 출현은 모두 동일한 실시예를 참조해야 하는 것은 아니다.Reference in the specification to "one embodiment" or "an embodiment" or "an implementation" or "an implementation" of the principles of the invention, as well as other variations thereof, Structure, characteristic, etc., are included in at least one embodiment of the principles of the present invention. Thus, the appearances of the phrases "in one embodiment" or "in one embodiment" or " in one embodiment " or "in one embodiment ", and any other variation described in various sections throughout the specification, It is not necessary to refer to the embodiment.

본 명세서에 서술된 구현은 예를 들어, 방법 또는 처리, 장치, 소프트웨어 프로그램, 데이터 스트림 또는 신호로 구현될 수 있다. 구현이 단일 형태의 구현(예를 들어, 오직 방법만으로 논의된)의 배경으로만 논의되었지만, 논의된 특징의 구현은 또한, 다른 형태(예를 들어, 장치 또는 프로그램)로 구현될 수 있다. 예를 들어, 장치는 적합한 하드웨어, 소프트웨어 및 펌웨어로 구현될 수 있다. 방법은 예를 들어, 일반적으로 처리 디바이스로 언급되는 처리기와 같은 장치로 구현될 수 있는데, 이 처리 디바이스는 컴퓨터, 마이크로 처리기, 집적 회로 또는 프로그램 가능 논리 디바이스를 포함한다. 또한, 처리기는 예를 들어, 컴퓨터, 셀 폰, 휴대용/개인용 디지털 장비("PDA")와 같은 통신 디바이스, 및 최종 사용자 사이의 정보의 통신을 용이하게 하는 다른 디바이스를 포함한다.The implementations described herein may be implemented, for example, as a method or process, an apparatus, a software program, a data stream, or a signal. Although an implementation is discussed only as a background for a single type of implementation (e.g., discussed only by way of example), the implementation of the discussed features may also be implemented in other forms (e.g., a device or a program). For example, the device may be implemented with suitable hardware, software, and firmware. The method may be implemented, for example, in an apparatus such as a processor, generally referred to as a processing device, which includes a computer, microprocessor, integrated circuit or programmable logic device. In addition, the processor includes, for example, a computer, a cell phone, a communication device such as a personal digital assistant ("PDA"), and other devices that facilitate communication of information between end users.

본 명세서에서 서술된 다양한 처리 및 특징의 구현은 상이한 장비 또는 애플리케이션, 특히, 예를 들어, 데이터 인코딩 및 디코딩에 관련된 장비 또는 애플리케이션으로 구현될 수 있다. 이러한 장비의 예시는 인코더, 디코더, 디코더로부터 출력을 처리하는 후-처리기, 인코더에 입력을 제공하는 전-처리기, 비디오 코더, 비디오 디코더, 비디오 코덱, 웹 서버, 셋-톱 박스, 랩톱, 개인용 컴퓨터, 셀 폰, PDA, 및 다른 통신 디바이스를 포함한다. 명백한 바와 같이, 장비는 모바일일 수 있고, 심지어 모바일 수단에 탑재될 수 있다.Implementations of the various processes and features described herein may be implemented in different devices or applications, particularly, for example, equipment or applications related to data encoding and decoding. Examples of such equipment are encoders, decoders, post-processors that process outputs from decoders, preprocessors that provide inputs to encoders, video coders, video decoders, video codecs, web servers, set-top boxes, laptops, personal computers , Cell phones, PDAs, and other communication devices. As is evident, the equipment may be mobile and may even be mounted on mobile means.

게다가, 방법은 처리기에 의해 수행되는 지령에 의해 구현될 수 있고, 이러한 지령(및/또는 구현에 의해 생성되는 데이터 값)은 예를 들어, 집적 회로, 소프트웨어 캐리어 또는, 예를 들어, 하드 디스크, 콤팩트 디스켓, 랜덤 액세스 메모리("RAM") 또는 읽기 전용 메모리("ROM")와 같은 다른 저장 디바이스와 같은 처리기 판독가능 매체 상에 저장될 수 있다. 지령은 처리기 판독가능 매체 상에 명백히 구현되는 애플리케이션 프로그램을 형성할 수 있다. 지령은 예를 들어, 하드웨어, 펌웨어, 소프트웨어 또는 이들의 조합일 수 있다. 지령은 예를 들어, 운영체제, 별도의 애플리케이션 또는 이들 2개의 조합 내에서 발견될 수 있다. 그러므로, 처리기는 처리를 수행하도록 구성되는 디바이스와, 처리를 수행하는 지령을 갖는 처리기 판독 가능 매체(저장 디바이스와 같은)를 포함하는 디바이스 모두로서 특징 지워질 수 있다. 게다가, 처리기 판독 가능 매체는 지령에 덧붙여, 또는 지령 대신에 구현에 의해 생성된 데이터 값을 저장할 수 있다.In addition, the method may be implemented by instructions executed by a processor, and such instructions (and / or data values generated by the implementation) may be stored, for example, in an integrated circuit, a software carrier, Readable medium such as a compact disk, a random access memory ("RAM") or other storage device such as a read only memory ("ROM"). The instructions may form an application program that is explicitly implemented on the processor readable medium. The instructions may be, for example, hardware, firmware, software or a combination thereof. The instructions may be found, for example, in an operating system, a separate application, or a combination of the two. Thus, a processor may be characterized as both a device configured to perform processing and a device comprising a processor-readable medium (such as a storage device) having instructions to perform processing. In addition, the processor readable medium may store data values generated by an implementation in addition to, or instead of, a directive.

당업자에게 자명한 바와 같이, 구현은 예를 들어 저장되거나 송신될 수 있는 정보를 전달하도록 포맷된 다양한 신호를 생성할 수 있다. 정보는 예를 들어, 방법을 수행하는 지령, 서술된 구현 중 하나에 의해 생성된 데이터를 포함할 수 있다. 예를 들어, 신호는 서술된 실시예의 구문을 쓰거나 판독하기 위한 규칙을 데이터로서 전달하도록, 또는 서술된 실시예에 의해 기록된 실제 구문-값을 데이터로서 전달하도록 포맷될 수 있다. 이러한 신호는 예를 들어, 전자파(예를 들어, 스펙트럼의 무선 주파수 부분을 사용하는), 또는 기저대역 신호로서 포맷될 수 있다. 포맷은 예를 들어, 데이터 스트림을 인코딩하는 것, 및 인코딩된 데이터 스트림을 통해 캐리어를 변조하는 것을 포함할 수 있다. 신호가 전달하는 정보는 예를 들어, 아날로그 또는 디지털 정보일 수 있다. 신호는 알려진 것처럼, 다양한, 상이한 유선 또는 무선 연결을 통해 송신될 수 있다. 신호는 처리기-판독 가능 매체 상에 저장될 수 있다.As will be appreciated by those skilled in the art, implementations may generate various signals that are formatted, for example, to convey information that may be stored or transmitted. The information may include, for example, instructions to perform the method, data generated by one of the described implementations. For example, the signal may be formatted to convey the rules for writing or reading the syntax of the described embodiment as data, or to convey the actual syntax-value recorded by the described embodiment as data. Such a signal may be formatted, for example, as an electromagnetic wave (e.g., using the radio frequency portion of the spectrum), or a baseband signal. The format may include, for example, encoding the data stream and modulating the carrier through the encoded data stream. The information that the signal carries may be, for example, analog or digital information. The signal may be transmitted over various, different wired or wireless connections, as is known. The signal may be stored on the processor-readable medium.

다수의 구현이 서술되었다. 그렇지만, 다양한 수정이 이루어질 수 있다는 것이 이해되어야 한다. 예를 들어, 다른 구현을 생성하기 위해, 상이한 구현의 요소가 결합, 보충, 수정 또는 제거될 수 있다. 게다가, 당업자라면, 다른 구조 및 처리가 개시된 구조 및 처리를 대체할 수 있고, 결과적인 구현이 적어도 실질적으로 개시된 구현과 동일한 결과(들)를 달성하기 위해 적어도 실질적으로 동일한 방식(들)으로 적어도 실질적으로 동일한 기능(들)을 수행한다는 것을 이해할 것이다. 이에 따라, 이들 및 다른 구현은 본 개시물에 의해 고려되고, 본 개시물의 범주 내에 있다.A number of implementations have been described. However, it should be understood that various modifications may be made. For example, elements of different implementations can be combined, supplemented, modified or eliminated to create different implementations. Furthermore, those skilled in the art will recognize that other structures and processes may be substituted for the disclosed structures and processes, and that the resulting implementations may be implemented, at least substantially in substantially the same manner (s) to achieve the same result (s) Will perform the same function (s). Accordingly, these and other implementations are contemplated by the present disclosure and are within the scope of the present disclosure.

전술한 것은 본 발명을 수행하기 위한 가능성 중 일부를 서술한다. 다수의 다른 실시예는 본 발명의 범주 및 사상 내에서 가능하다. 그러므로, 전술한 서술은 한정이 아닌 설명을 위한 것으로 여겨져야 하고, 본 발명의 범주는 등가물의 전체 범위와 함께 첨부된 청구항에 의해 주어진다고 고려된다.The foregoing describes some of the possibilities for carrying out the present invention. Many other embodiments are possible within the scope and spirit of the invention. It is therefore to be understood that the foregoing description is to be regarded as illustrative rather than limiting, and that the scope of the invention is given by the appended claims along with their full scope of equivalents.

10 : 이미지를 영역으로 분할
12 : 각 영역에 대한 노출을 추정
14 : 각 영역에 노출 파라미터를 적용
16 : 영역을 함께 이미지 퓨전 혼합
18 : 만족스러운 결과?
20 : 사용자가 각 영역에 대한 노출 파라미터를 조정
10: Split image into regions
12: Estimate exposure for each area
14: Apply exposure parameters to each area
16: Mixed image fusion with regions
18: Satisfactory results?
20: Adjust the exposure parameters for each area

Claims (14)

입력 이미지 데이터 포맷의 동적 범위보다 낮은 동적 범위를 위해 설계된 디스플레이 상에서 입력 이미지를 디스플레이하기 위해, 입력 이미지를 톤 매핑하는 방법으로서,
상기 입력 이미지에 액세스하는 단계;
상기 입력 이미지를 복수의 영역으로 분할하는 단계로서, 각 영역은 상기 입력 이미지의 픽셀에 해당하는 요소를 갖는 매트릭스로 나타나며, 매트릭스의 각 요소는 상기 요소에 해당하는 픽셀이 상기 영역에 속하는 가중치 또는 확률인, 상기 입력 이미지를 복수의 영역으로 분할하는 단계;
각 영역 내의 픽셀 값의 크기 조정(scaling)을 지정하는 노출 파라미터를 결정 또는 계산하는 단계;
각 영역 내의 픽셀 값을 그 영역에 대한 상기 노출 파라미터에 따라 크기 조정하는 단계;
최종 톤 매핑된 이미지를 획득하기 위해 상기 복수의 영역을 함께 퓨징(fusing)하는 단계; 및
사용자가 상기 노출 파라미터를 조정하기 위한 사용자 인터페이스를 제공하는 단계를
포함하는, 입력 이미지를 톤 매핑하는 방법.
CLAIMS What is claimed is: 1. A method of tone mapping an input image to display an input image on a display designed for a dynamic range lower than the dynamic range of an input image data format,
Accessing the input image;
Dividing the input image into a plurality of regions, each region being represented by a matrix having elements corresponding to the pixels of the input image, wherein each element of the matrix includes a pixel corresponding to the element having a weight or probability Dividing the input image into a plurality of regions;
Determining or calculating an exposure parameter that specifies scaling of pixel values within each region;
Scaling pixel values within each region according to the exposure parameters for that region;
Fusing the plurality of regions together to obtain a final tone mapped image; And
Providing a user with a user interface for adjusting the exposure parameters
Includes a way to tone the input image.
삭제delete 삭제delete 제1항에 있어서, 상기 입력 이미지를 복수의 영역으로 분할하는 단계는, 상기 입력 이미지를 상기 입력 이미지의 픽셀의 휘도에 따라 복수의 영역으로 분할하는 것을 포함하는, 입력 이미지를 톤 매핑하는 방법.2. The method of claim 1, wherein dividing the input image into a plurality of regions comprises dividing the input image into a plurality of regions according to a luminance of a pixel of the input image. 제4항에 있어서, 일련의 이산적인 픽셀 값을 앵커 값으로 구축하는 단계를 더 포함하고, 상기 복수의 영역의 각 영역은 앵커 값 중 하나에 대응하는, 입력 이미지를 톤 매핑하는 방법.5. The method of claim 4, further comprising building a series of discrete pixel values into an anchor value, wherein each region of the plurality of regions corresponds to one of the anchor values. 제1항에 있어서, 상기 입력 이미지를 분할하는 단계, 노출 파라미터를 결정 또는 계산하는 단계, 픽셀 값을 크기 조정하는 단계, 복수의 영역을 퓨징하는 단계 및 사용자 인터페이스를 제공하는 단계는 상기 입력 이미지의 휘도 채널에 기초하여 수행되고, 상기 픽셀 값을 크기 조정하는 단계 및 복수의 영역을 퓨징하는 단계는 상기 입력 이미지의 모든 컬러 채널에 적용되는, 입력 이미지를 톤 매핑하는 방법.2. The method of claim 1, wherein dividing the input image, determining or calculating an exposure parameter, scaling pixel values, fusing a plurality of regions, and providing a user interface comprises: Wherein the step of performing tone mapping is performed based on a luminance channel, the step of scaling the pixel values and the step of fusing a plurality of regions are applied to all color channels of the input image. 제1항에 있어서, 상기 입력 이미지를 분할하는 단계, 노출 파라미터를 결정 또는 계산하는 단계, 픽셀 값을 크기 조정하는 단계, 복수의 영역을 퓨징하는 단계 및 사용자 인터페이스를 제공하는 단계는 상기 입력 이미지의 각 컬러 채널에 기초하여 수행되는, 입력 이미지를 톤 매핑하는 방법.
2. The method of claim 1, wherein dividing the input image, determining or calculating an exposure parameter, scaling pixel values, fusing a plurality of areas, and providing a user interface comprises: ≪ / RTI > is performed based on each color channel.
삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete
KR1020117031365A 2009-06-29 2010-06-29 Zone-based tone mapping KR101739432B1 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US26976009P 2009-06-29 2009-06-29
US61/269,760 2009-06-29
PCT/US2010/001863 WO2011002505A1 (en) 2009-06-29 2010-06-29 Zone-based tone mapping

Publications (2)

Publication Number Publication Date
KR20120107429A KR20120107429A (en) 2012-10-02
KR101739432B1 true KR101739432B1 (en) 2017-05-24

Family

ID=42542728

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020117031365A KR101739432B1 (en) 2009-06-29 2010-06-29 Zone-based tone mapping

Country Status (6)

Country Link
US (1) US9087382B2 (en)
EP (1) EP2449526A1 (en)
JP (1) JP5611337B2 (en)
KR (1) KR101739432B1 (en)
CN (1) CN102473295B (en)
WO (1) WO2011002505A1 (en)

Families Citing this family (69)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102763134B (en) * 2010-02-19 2015-11-25 汤姆森特许公司 For the parameter interpolate of high dynamic range video tone mapping
US8786625B2 (en) * 2010-09-30 2014-07-22 Apple Inc. System and method for processing image data using an image signal processor having back-end processing logic
US8675957B2 (en) * 2010-11-18 2014-03-18 Ebay, Inc. Image quality assessment to merchandise an item
US9451274B2 (en) * 2011-04-28 2016-09-20 Koninklijke Philips N.V. Apparatuses and methods for HDR image encoding and decoding
US20120293533A1 (en) * 2011-05-19 2012-11-22 Foveon Inc. Methods for creating gamma correction and tone mapping effects in a digital image
GB2496423B (en) 2011-11-11 2016-08-17 Ibm Data compression
CN102497490B (en) * 2011-12-16 2014-08-13 上海富瀚微电子有限公司 System and method for realizing image high dynamic range compression
JP5713885B2 (en) * 2011-12-26 2015-05-07 キヤノン株式会社 Image processing apparatus, image processing method, program, and storage medium
BR112014023535B1 (en) * 2012-03-26 2022-06-14 Koninklijke Philips N.V IMAGE ENCODER TO ENCODE AN IMAGE OF A HIGH DYNAMIC RANGE SCENE, IMAGE DECODER TO DECODE AN ENcoded IMAGE REPRESENTATION OF A HIGH DYNAMIC RANGE SCENE, IMAGE ENCODING METHOD TO ENCODE AN IMAGE OF A HIGH DYNAMIC RANGE SCENE AND IMAGE DECODING METHOD TO DECODE AN ENCODED IMAGE REPRESENTATION OF A DYNAMIC HIGH RANGE SCENE
AU2013258866B2 (en) 2012-05-10 2017-11-23 National Ict Australia Limited Reducing the dynamic range of image data
US9025867B2 (en) 2012-05-31 2015-05-05 Apple Inc. Systems and methods for YCC image processing
US8953882B2 (en) 2012-05-31 2015-02-10 Apple Inc. Systems and methods for determining noise statistics of image data
US9105078B2 (en) 2012-05-31 2015-08-11 Apple Inc. Systems and methods for local tone mapping
US8872946B2 (en) 2012-05-31 2014-10-28 Apple Inc. Systems and methods for raw image processing
US9743057B2 (en) 2012-05-31 2017-08-22 Apple Inc. Systems and methods for lens shading correction
US9031319B2 (en) 2012-05-31 2015-05-12 Apple Inc. Systems and methods for luma sharpening
US8917336B2 (en) 2012-05-31 2014-12-23 Apple Inc. Image signal processing involving geometric distortion correction
US9014504B2 (en) 2012-05-31 2015-04-21 Apple Inc. Systems and methods for highlight recovery in an image signal processor
US9077943B2 (en) 2012-05-31 2015-07-07 Apple Inc. Local image statistics collection
US8817120B2 (en) 2012-05-31 2014-08-26 Apple Inc. Systems and methods for collecting fixed pattern noise statistics of image data
US11089247B2 (en) 2012-05-31 2021-08-10 Apple Inc. Systems and method for reducing fixed pattern noise in image data
US9142012B2 (en) 2012-05-31 2015-09-22 Apple Inc. Systems and methods for chroma noise reduction
US9332239B2 (en) 2012-05-31 2016-05-03 Apple Inc. Systems and methods for RGB image processing
CN103024300B (en) * 2012-12-25 2015-11-25 华为技术有限公司 A kind of method for high dynamic range image display and device
WO2014118033A1 (en) * 2013-01-29 2014-08-07 Thomson Licensing Method and device for modifying the dynamic range of an image sequence
WO2014118032A1 (en) * 2013-01-29 2014-08-07 Thomson Licensing Method and device for modifying the dynamic range of an image
EP2959672B1 (en) * 2013-02-21 2019-12-04 Koninklijke Philips N.V. Improved hdr image encoding and decoding methods and devices
CN103281537B (en) * 2013-05-23 2016-06-08 华为技术有限公司 A kind of dynamic range of images compression method and device
US8958658B1 (en) 2013-09-10 2015-02-17 Apple Inc. Image tone adjustment using local tone curve computation
EP2894857A1 (en) * 2014-01-10 2015-07-15 Thomson Licensing Method and apparatus for encoding image data and method and apparatus for decoding image data
WO2015105643A1 (en) * 2014-01-13 2015-07-16 Marvell World Trade Ltd. System and method for tone mapping of images
CN110708545B (en) * 2014-02-26 2022-04-01 交互数字Vc控股公司 Method and apparatus for encoding and decoding HDR image
EP2927865A1 (en) * 2014-04-01 2015-10-07 Thomson Licensing Method and apparatus for encoding and decoding HDR images
US9380218B2 (en) 2014-05-30 2016-06-28 Apple Inc. Highlight exposure metric and its applications
US9344638B2 (en) * 2014-05-30 2016-05-17 Apple Inc. Constant bracket high dynamic range (cHDR) operations
US9460499B2 (en) * 2014-05-30 2016-10-04 Shenzhen Mindray Bio-Medical Electronics Co., Ltd. Systems and methods for selective enhancement of a region of interest in an image
US9773473B2 (en) * 2014-06-03 2017-09-26 Nvidia Corporation Physiologically based adaptive image generation
GB201410635D0 (en) 2014-06-13 2014-07-30 Univ Bangor Improvements in and relating to the display of images
US20160286241A1 (en) * 2015-03-24 2016-09-29 Nokia Technologies Oy Apparatus, a method and a computer program for video coding and decoding
WO2016181819A1 (en) * 2015-05-12 2016-11-17 ソニー株式会社 Image-processing device, image-processing method, and program
WO2016192937A1 (en) * 2015-05-29 2016-12-08 Thomson Licensing Methods, apparatus, and systems for hdr tone mapping operator
EP3113492A1 (en) 2015-06-30 2017-01-04 Thomson Licensing Method and apparatus for determining prediction of current block of enhancement layer
US10885614B2 (en) 2015-08-19 2021-01-05 Samsung Electronics Co., Ltd. Electronic device performing image conversion, and method thereof
US9621767B1 (en) * 2015-11-24 2017-04-11 Intel Corporation Spatially adaptive tone mapping for display of high dynamic range (HDR) images
CN105744157A (en) * 2016-02-02 2016-07-06 西安电子科技大学 Image pixel sampling value conversion method and device as well as sampling value processing method and device
WO2017153376A1 (en) * 2016-03-07 2017-09-14 Koninklijke Philips N.V. Encoding and decoding hdr videos
CN107292829B (en) * 2016-03-31 2020-12-15 阿里巴巴集团控股有限公司 Image processing method and device
US20170289571A1 (en) * 2016-04-01 2017-10-05 Intel Corporation Temporal control for spatially adaptive tone mapping of high dynamic range video
US10129485B2 (en) 2016-06-10 2018-11-13 Microsoft Technology Licensing, Llc Methods and systems for generating high dynamic range images
US10074162B2 (en) 2016-08-11 2018-09-11 Intel Corporation Brightness control for spatially adaptive tone mapping of high dynamic range (HDR) images
JP7054851B2 (en) * 2016-09-09 2022-04-15 パナソニックIpマネジメント株式会社 Display device and signal processing method
EP3301925A1 (en) 2016-09-30 2018-04-04 Thomson Licensing Method for local inter-layer prediction intra based
JP6824817B2 (en) * 2017-05-17 2021-02-03 キヤノン株式会社 Image processing device and image processing method
US10504263B2 (en) 2017-08-01 2019-12-10 Samsung Electronics Co., Ltd. Adaptive high dynamic range (HDR) tone mapping with overlay indication
WO2019045727A1 (en) * 2017-08-31 2019-03-07 Sony Mobile Communications Inc. Methods, devices, and computer program products for checking environment acceptability for 3d scanning
CN107886479A (en) * 2017-10-31 2018-04-06 建荣半导体(深圳)有限公司 A kind of image HDR conversion methods, device, picture processing chip and storage device
EP3493150A1 (en) * 2017-11-30 2019-06-05 InterDigital VC Holdings, Inc. Tone mapping adaptation for saturation control
US10546554B2 (en) 2018-03-26 2020-01-28 Dell Products, Lp System and method for adaptive tone mapping for high dynamic ratio digital images
JP7117915B2 (en) * 2018-06-29 2022-08-15 キヤノン株式会社 Image processing device, control method, and program
EP3594894A1 (en) * 2018-07-11 2020-01-15 InterDigital VC Holdings, Inc. Tone-mapping of colors of a video content
EP3661188B1 (en) * 2018-11-27 2020-10-28 Axis AB A method for reducing intensity variations in a video image stream depicting a scene
US12050830B2 (en) * 2019-04-25 2024-07-30 Dolby Laboratories Licensing Corporation Content-aware PQ range analyzer and tone mapping in live feeds
CN110400269B (en) * 2019-07-04 2021-08-06 汕头大学 Rapid HDR image tone mapping method
US11473971B2 (en) 2019-09-27 2022-10-18 Apple Inc. Ambient headroom adaptation
CN111080565B (en) * 2019-12-11 2023-07-18 九江学院 Exposure fusion method, device and storage medium based on image quality change rule
CN111784607B (en) * 2020-06-30 2024-09-17 Oppo广东移动通信有限公司 Image tone mapping method, device, terminal equipment and storage medium
CN112468737B (en) * 2020-11-25 2022-04-29 上海摩象网络科技有限公司 Method and device for processing exposure weight matrix of automatic exposure area
WO2022151320A1 (en) * 2021-01-15 2022-07-21 深圳市大疆创新科技有限公司 Image processing method and apparatus, and computer-readable storage medium
CN115052111A (en) * 2021-03-08 2022-09-13 晶晨半导体(上海)股份有限公司 Image processing method, image processing apparatus, storage medium, and image processing device

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006215756A (en) 2005-02-02 2006-08-17 Dainippon Ink & Chem Inc Image processing apparatus, image processing method, and program for the same
JP2006345509A (en) * 2005-05-23 2006-12-21 Canon Inc Image processing method and apparatus

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69214229T2 (en) 1991-08-14 1997-04-30 Agfa Gevaert Nv Method and device for improving the contrast of images
US5717789A (en) 1993-09-08 1998-02-10 California Institute Of Technology Image enhancement by non-linear extrapolation in frequency space
GB9626676D0 (en) 1996-12-23 1997-02-12 Smith & Nephew Res Imaging method
NZ332626A (en) 1997-11-21 2000-04-28 Matsushita Electric Ind Co Ltd Expansion of dynamic range for video camera
US6359617B1 (en) 1998-09-25 2002-03-19 Apple Computer, Inc. Blending arbitrary overlaying images into panoramas
US6775407B1 (en) 2000-08-02 2004-08-10 Eastman Kodak Company Producing a final modified digital image using a source digital image and a difference digital image
JP4556319B2 (en) * 2000-10-27 2010-10-06 ソニー株式会社 Image processing apparatus and method, and recording medium
US6879731B2 (en) 2003-04-29 2005-04-12 Microsoft Corporation System and process for generating high dynamic range video
US20050117799A1 (en) 2003-12-01 2005-06-02 Chiou-Shann Fuh Method and apparatus for transforming a high dynamic range image into a low dynamic range image
JP3956311B2 (en) * 2004-02-19 2007-08-08 オムロン株式会社 Image data conversion device and camera device
US7623724B2 (en) * 2005-03-16 2009-11-24 Fabio Riccardi Interface method and system for mapping image intensity
US7492962B2 (en) 2005-08-25 2009-02-17 Delphi Technologies, Inc. System or method for enhancing an image
US7821570B2 (en) 2005-11-30 2010-10-26 Eastman Kodak Company Adjusting digital image exposure and tone scale
JP2007193585A (en) * 2006-01-19 2007-08-02 Konica Minolta Photo Imaging Inc Image processing method, display controller, reception terminal, and image processing program
EP2320653B1 (en) 2006-01-23 2015-09-02 Max-Planck-Gesellschaft zur Förderung der Wissenschaften e.V. High dynamic range codecs
US7636496B2 (en) * 2006-05-17 2009-12-22 Xerox Corporation Histogram adjustment for high dynamic range image mapping
JP4267025B2 (en) * 2006-11-27 2009-05-27 三菱電機株式会社 Video display device
CN100461218C (en) 2007-03-29 2009-02-11 杭州电子科技大学 Method for enhancing medical image with multi-scale self-adaptive contrast change
JP5041876B2 (en) 2007-05-22 2012-10-03 株式会社日立製作所 Digital broadcast receiver
JP5188101B2 (en) 2007-06-01 2013-04-24 株式会社キーエンス Magnification observation apparatus, magnified image photographing method, magnified image photographing program, and computer-readable recording medium
CN101082992A (en) 2007-07-06 2007-12-05 浙江大学 Drawing of real time high dynamic range image and display process
JP5142614B2 (en) * 2007-07-23 2013-02-13 富士フイルム株式会社 Image playback device
US8233738B2 (en) 2007-07-30 2012-07-31 Dolby Laboratories Licensing Corporation Enhancing dynamic ranges of images
US8135230B2 (en) 2007-07-30 2012-03-13 Dolby Laboratories Licensing Corporation Enhancing dynamic ranges of images
DE102007041022A1 (en) 2007-08-29 2009-03-05 Niro-Plan Ag Apparatus and method for preparing flavored hot drinks, in particular coffee and tea
US8411938B2 (en) 2007-11-29 2013-04-02 Sri International Multi-scale multi-camera adaptive fusion with contrast normalization
US7471826B1 (en) 2008-03-31 2008-12-30 International Business Machines Corporation Character segmentation by slices
US8346009B2 (en) 2009-06-29 2013-01-01 Thomson Licensing Automatic exposure estimation for HDR images based on image statistics
JP5655334B2 (en) * 2010-03-19 2015-01-21 ソニー株式会社 Image processing apparatus and method, and program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006215756A (en) 2005-02-02 2006-08-17 Dainippon Ink & Chem Inc Image processing apparatus, image processing method, and program for the same
JP2006345509A (en) * 2005-05-23 2006-12-21 Canon Inc Image processing method and apparatus

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Grzegorz Krawczyk, wt al.,"Computational model of lightness perception in high dynamic range imaging", Proc. SPIE 6057, Human Vision and Electronic Imaging XI, 605708(2006.02.03.)*

Also Published As

Publication number Publication date
JP2012532335A (en) 2012-12-13
US9087382B2 (en) 2015-07-21
US20120113130A1 (en) 2012-05-10
JP5611337B2 (en) 2014-10-22
WO2011002505A1 (en) 2011-01-06
KR20120107429A (en) 2012-10-02
CN102473295B (en) 2016-05-04
EP2449526A1 (en) 2012-05-09
CN102473295A (en) 2012-05-23

Similar Documents

Publication Publication Date Title
KR101739432B1 (en) Zone-based tone mapping
CN108885783B (en) Encoding and decoding reversible production quality single layer video signals
US10419762B2 (en) Content-adaptive perceptual quantizer for high dynamic range images
US10701359B2 (en) Real-time content-adaptive perceptual quantizer for high dynamic range images
Myszkowski et al. High dynamic range video
Zhang et al. High dynamic range video compression exploiting luminance masking
CN107203974A (en) The methods, devices and systems of HDR HDR to the HDR tones mapping of extension
CN108933933B (en) A kind of video signal processing method and device
KR20120112709A (en) High dynamic range image generation and rendering
KR20180123046A (en) Method and device for encoding high dynamic range picture, corresponding decoding method and decoding device
US20230370646A1 (en) Adaptive local reshaping for sdr-to-hdr up-conversion
CN113706412A (en) SDR-HDR conversion method
CN107087163A (en) A kind of coding method of lifting HDR Subjective video qualities
Koz et al. Methods for improving the tone mapping for backward compatible high dynamic range image and video coding
CN110770787A (en) Efficient end-to-end single-layer reverse display management coding
Chiang et al. Rate–distortion optimization of multi-exposure image coding for high dynamic range image coding
Lee et al. Piecewise tone reproduction for high dynamic range imaging
Abebe High Dynamic Range Imaging
WO2023122039A1 (en) Film grain parameters adaptation based on viewing environment
Mantiuk et al. Perception-inspired high dynamic range video coding and compression
WO2023177863A1 (en) Image optimization in mobile capture and editing applications
Shaw et al. Improved video compression using perceptual modeling
Mantiuk High dynamic range imaging: towards the limits of the human visual perception
CN118476231A (en) Film grain parameter adaptation based on viewing environment
WO2023177873A2 (en) Image optimization in mobile capture and editing applications

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant