KR101739432B1 - Zone-based tone mapping - Google Patents
Zone-based tone mapping Download PDFInfo
- Publication number
- KR101739432B1 KR101739432B1 KR1020117031365A KR20117031365A KR101739432B1 KR 101739432 B1 KR101739432 B1 KR 101739432B1 KR 1020117031365 A KR1020117031365 A KR 1020117031365A KR 20117031365 A KR20117031365 A KR 20117031365A KR 101739432 B1 KR101739432 B1 KR 101739432B1
- Authority
- KR
- South Korea
- Prior art keywords
- input image
- image
- regions
- region
- tone mapping
- Prior art date
Links
- 238000013507 mapping Methods 0.000 title claims abstract description 47
- 238000000034 method Methods 0.000 claims abstract description 54
- 239000011159 matrix material Substances 0.000 claims abstract description 8
- 230000004044 response Effects 0.000 abstract description 2
- 230000008569 process Effects 0.000 description 13
- 238000012545 processing Methods 0.000 description 13
- 230000000007 visual effect Effects 0.000 description 8
- 238000006243 chemical reaction Methods 0.000 description 5
- 230000004927 fusion Effects 0.000 description 5
- 238000005192 partition Methods 0.000 description 5
- 238000013459 approach Methods 0.000 description 4
- 238000012937 correction Methods 0.000 description 4
- 238000000638 solvent extraction Methods 0.000 description 4
- 230000006978 adaptation Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000013139 quantization Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000007500 overflow downdraw method Methods 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 229920001690 polydopamine Polymers 0.000 description 2
- 238000013316 zoning Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000007499 fusion processing Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000003278 mimic effect Effects 0.000 description 1
- 230000007935 neutral effect Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 238000012797 qualification Methods 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 229920006395 saturated elastomer Polymers 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000007493 shaping process Methods 0.000 description 1
- 230000011664 signaling Effects 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/90—Dynamic range modification of images or parts thereof
- G06T5/94—Dynamic range modification of images or parts thereof based on local image properties, e.g. for local contrast enhancement
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/40—Image enhancement or restoration using histogram techniques
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/02—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the way in which colour is displayed
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20004—Adaptive image processing
- G06T2207/20012—Locally adaptive
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20172—Image enhancement details
- G06T2207/20208—High dynamic range [HDR] image processing
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Hardware Design (AREA)
- Image Processing (AREA)
- Transforming Electric Information Into Light Information (AREA)
- Video Image Reproduction Devices For Color Tv Systems (AREA)
- Picture Signal Circuits (AREA)
Abstract
본 발명은 낮은 동적 범위의 디스플레이 상에 디스플레이를 위한 높은 동적 범위 이미지를 톤 매핑(tone mapping)하는 방법에 관한 것이고, 높은 동적 범위의 이미지가 먼저 액세스된다. 높은 동적 범위의 이미지는 상이한 영역으로 분할되어, 각 영역은 매트릭스로 나타나게 되고, 매트릭스의 각 영역은 픽셀의 가중치 또는 확률이 된다. 각 영역의 노출은 결정되거나 계산되고, 노출 값은 가중치 또는 확률에 응답하여 영역에 적용된다. 그런 후에, 상이한 영역은 최종 톤 매핑된 이미지를 획득하기 위해 함께 퓨징된다(fused).The present invention relates to a method of tone mapping high dynamic range images for display on a low dynamic range display, wherein a high dynamic range image is first accessed. High dynamic range images are divided into different areas, with each area appearing as a matrix, where each area of the matrix is a pixel's weight or probability. The exposure of each region is determined or calculated, and the exposure value is applied to the region in response to a weight or probability. Then, the different regions are fused together to obtain the final tone mapped image.
Description
본 출원은 2009년 6월 29일에 출원된, 미국 가특허출원 제61/269,760호에 대한 우선권을 주장하고, 상기 출원은 그 전체가 본 명세서에 참조로 통합된다.This application claims priority to U.S. Provisional Patent Application No. 61 / 269,760, filed June 29, 2009, the entirety of which is incorporated herein by reference.
본 발명은 낮은 동적 범위(LDR) 디스플레이 상에서 높은 동적 범위(HDR) 콘텐츠의 톤(tone) 재생에 관한 것이고, 이는 또한, 톤(tone) 매핑 문제로 알려진다. 특히, 적어도 하나의 실시예는 (1) HDR 데이터로부터, HDR 장면에 대한 사람의 지각에 부합하는 디스플레이 가능한 LDR 이미지를 자동으로 생성하고, (2) 수동 조정을 위한 사용자-친화적인 제어를 제공하는 방법을 포함한다.The present invention relates to tone reproduction of high dynamic range (HDR) content on a low dynamic range (LDR) display, which is also known as a tone mapping problem. In particular, at least one embodiment includes (1) automatically generating a displayable LDR image from HDR data that is consistent with a human perception of the HDR scene, and (2) providing user-friendly control for manual adjustment ≪ / RTI >
톤 매핑 문제는 낮은 동적 범위(LDR) 디스플레이 상에 높은 동적 범위(HDR) 콘텐츠의 톤 재생에 관계가 있다. 대다수의 응용에서, 톤 매핑 처리는 주로 2개의 요건: 이미지 세목, 예를 들어 국부적인 콘트라스트(contrast)를 유지하는 것과, 상대적인 밝기의 외관을 유지하는 것을 충족시켜야 한다. 톤 매핑에 대해 현재 알려진 작업은 제 1 요건에 초점을 맞추고, 아티스트의 견지(perspective)로부터 가장 중요한 제 2 요건은 그저 방치한다. 게다가, 현재 이용가능한 톤 매핑 알고리즘은 화상의 상이한 부분의 톤을 조작하는 것을 허용하지 않고, 따라서, 종종 원래의 HDR 콘텐츠의 감각에 부합하는데 실패한다.The tone mapping problem relates to tone reproduction of high dynamic range (HDR) content on a low dynamic range (LDR) display. In most applications, the tone mapping process has to satisfy mainly two requirements: maintaining image detail, e.g., local contrast, and maintaining a relative brightness appearance. The currently known work on tone mapping focuses on the first requirement, and the second most important requirement from the artist's perspective is just neglect. In addition, currently available tone mapping algorithms do not allow to manipulate the tones of different parts of the picture and thus often fail to meet the sense of the original HDR content.
높은 동적 범위(HDR)는 최근에 디지털 이미지화를 위한 대안적인 포맷으로 관심을 받았다. 전통적인 낮은 동적 범위(LDR) 이미지 포맷은 ITU-R 권고 BT 709(a.k.a.Rec. 709)을 준수하는 디스플레이를 위해 설계되었고, 여기서 동적 범위의 크기의 오직 수백배만이 달성될 수 있다. 하지만, 실제의 장면은 주간에 약 수백억배만큼 더 큰 동적 범위를 갖고, 사람의 시각 시스템(HVS: human visual system)은 동시에 수십만배를 지각할 수 있다.High dynamic range (HDR) has recently received attention as an alternative format for digital imaging. The traditional low dynamic range (LDR) image format is designed for displays conforming to ITU-R Recommendation BT 709 (a.k.a.Rec. 709), where only a few hundred times the magnitude of the dynamic range can be achieved. However, actual scenes have a dynamic range that is about a few tens of billion times larger during the day, and a human visual system (HVS) can perceive hundreds of thousands of times at the same time.
HDR 포맷에서 이용가능한 시각적 콘텐츠의 양이 증가하고 있다: 디지털 센서 및 영화 필름에서 최근의 진보는 콘텐츠 생성자가 매우 높은 동적 범위로 이미지를 캡처하는 것을 허용하고, 컴퓨터로 생성된 그래픽(예를 들어, 애니메이션 영화, 시각적 효과 및 게임)은 가상적으로 무제한의 동적 범위로 시각적 콘텐츠를 생성하는 것을 허용한다. 하지만, HDR 디스플레이는 아직 주류 디바이스가 아니다; 수개의 HDR 디바이스가 프로토타입(prototype) 및 최상품의 HDTV에서 이미 이용가능하지만, 이러한 디스플레이의 개수는 널리 사용되는 LDR 디스플레이에 비해 여전히 매우 적다.The amount of visual content available in the HDR format is increasing: recent advances in digital sensors and motion picture films allow content creators to capture images with a very high dynamic range and use computer generated graphics (e.g., Animated movies, visual effects, and games) allow you to create visual content with virtually unlimited dynamic range. However, HDR displays are not yet mainstream devices; Although several HDR devices are already available in prototype and top-of-the-line HDTV, the number of such displays is still very small compared to widely used LDR displays.
LDR 디스플레이 디바이스 상에 HDR 이미지를 디스플레이하기 위해, 톤 매핑 방법은, 광휘(radiance)로 이용가능한 HDR 이미지를 8비트의 RGB 인덱스 번호에 매핑하기 위해 사용된다. 톤 매핑 처리는 명백하지 않은데, 이는 톤 매핑된 LDR 이미지가 HVS로 하여금 원래의 HDR 이미지에 충분히 근접하다고 믿게 하도록, HVS에서 발생하는 처리를 시뮬레이팅해야 하기 때문이다. 이 처리는 톤 매핑 알고리즘이 국부적인 콘트라스트와 지각적 밝기 모두를 유지하는 것을 필요로 한다.To display an HDR image on an LDR display device, a tone mapping method is used to map an HDR image available with radiance to an 8-bit RGB index number. The tone mapping process is not obvious because the tone mapped LDR image must simulate the processing that occurs at the HVS, so that the HVS believes it is close enough to the original HDR image. This process requires the tone mapping algorithm to maintain both local contrast and perceptual brightness.
최근에, HDR 이미지의 톤 매핑은 컴퓨터 그래픽뿐만 아니라 이미지/비디오 처리 커뮤니티에서 연구되었다. 대략적으로, 톤 매핑 방법은 2개의 주요 카테고리: 전역적인 톤 매핑과 국부적인 톤 매핑으로 분류될 수 있다.Recently, tone mapping of HDR images has been studied not only in computer graphics but also in the image / video processing community. Approximately, the tone mapping method can be divided into two main categories: global tone mapping and local tone mapping.
전역적인 톤 매핑은 이미지 강도에 광휘를 매핑하기 위해 전역 곡선을 사용한다. 전역적인 톤 매핑이 낮은 복잡성과 쉬운 수동 제어와 같은 장점을 갖지만, 매우 높은 동적 범위일 때, 세목의 모두를 유지할 수 없다. 그러므로, 전역적인 톤 매핑은 매우 높은 품질의 출력(후-제작과 같은)을 요구하는 응용에 적합하지 않다.Global tone mapping uses global curves to map the intensity to image intensity. Global tone mapping has advantages such as low complexity and easy manual control, but it can not keep all of the details when it is very high dynamic range. Therefore, global tone mapping is not suitable for applications requiring very high quality output (such as post-production).
다른 한편으로, 국부적인 톤 매핑 방법은 국부적인 이미지 특징에 따라 각 개별적인 픽셀을 압축함으로써 더 높은 품질의 결과를 제공한다. 특히, 이들 방법은 HVS에서 발생하는 시각적 적응의 시뮬레이팅을 시도하지만, 실제로 대다수의 방법은 명백히 HVS의 거동을 명백하게 흉내 내지 못한다. 대신, 이들 방법은 HVS에 대해 단순한 가정을 하고, 그런 후에 이들 가정을 사용하여 이미지의 동적 범위의 압축을 시도하여, 시각적으로 양호한 외관의 결과를 얻게 된다. 국부적인 톤 매핑 방법의 면밀한 미세-동조(fine-tuning)를 통해, HDR 이미지의 상대적으로 넓은 영역에 대해 납득이 가는 결과를 생성하는 것이 가능하지만, 여전히 시각적 적응의 이해는 여전히 완벽함과는 거리가 멀다. 그러므로, 사람의 눈처럼 거동하는 어떠한 알고리즘도 존재하지 않는다. 게다가, 이들 방법은 톤 매핑 처리의 양호한 수동 제어를 제공하지 못하고, 전형적으로 톤 보정 처리에 수반되는 창조력을 엄격히 제한한다.On the other hand, the local tone mapping method provides a higher quality result by compressing each individual pixel according to the local image feature. In particular, these methods attempt to simulate the visual adaptation that occurs in HVS, but in practice most methods do not explicitly mimic the behavior of HVS. Instead, these methods make simple assumptions about HVS and then use these assumptions to try to compress the dynamic range of the image, resulting in a visually good appearance. Through careful fine-tuning of the local tone mapping method, it is possible to produce convincing results for a relatively large area of the HDR image, but still the understanding of visual adaptation is still far from perfect It is far. Therefore, there is no algorithm that behaves like a human eye. In addition, these methods do not provide good manual control of the tone mapping process and typically severely limit the creativity involved in the tone correction process.
톤 매핑은 이미지 처리 연구가뿐만 아니라 화가, 그리고 필름 포토그래퍼에 의해 연구되었다. 이들은 높은 동적 범위의 장면을 나타내기 위한 제한된 동적 범위 매체(즉, 화가에 대해 캔버스, 포토그래퍼에 대해 프린트지)를 사용하는데 동일한 문제에 직면한다. 도 1을 참조하면, 여기에서, Ansel Adams 및 Fred Archer에 의해 공식화된 사진 기법인 "구역(zone) 시스템(100)"을 리뷰한다. 구역 시스템은 0 내지 10의 숫자를 상이한 지각적 밝기에 할당하는데, 여기서 0은 검은색, 5는 중간 회색, 그리고 10은 순수한 백색을 나타낸다. 이들 값은 구역으로 알려진다. 구역 시스템의 이론에서, 포토그래퍼는 먼저 장면에서 주요 요소를 식별하고, 이들 요소를 원하는 구역상에 위치시킨다. Tone mapping was studied by image processing researchers as well as painters and film photographers. They face the same problem of using a limited dynamic range medium (i.e., a canvas for a painter, a print for a photographer) to represent high dynamic range scenes. Referring to Figure 1, here we review the "zone system (100)", a photographic technique formulated by Ansel Adams and Fred Archer. The zoning system assigns numbers from 0 to 10 to different perceptual brightness, where 0 represents black, 5 represents mid-gray, and 10 represents pure white. These values are known as zones. In the theory of the zoning system, the photographer first identifies the main elements in the scene and places them on the desired area.
이러한 처리는 광휘의 측정보다 장면의 지각에 의존한다. 그런 후에, 조명 측정기(light meter)는 장면에서 각 주요 요소에 대한 광휘를 측정하는데 사용된다. 촬영 당 단일 노출 값만이 존재할 수 있기에, 가장 중요한 요소가 원하는 구역에 매핑되도록 노출 값이 선택된다. 그 결과로서, 다른(또한 중요한) 요소는 "잘못된" 구역에 매핑되어, 너무 어둡거나 너무 밝게 될 수 있다. 그 후, 프린팅 처리에서, 이러한 문제는 프린팅 기법인 "닷지(dodge) 및 번(burn)" 동작을 적용함으로써 교정되는데, 여기서 현상 동안 프린트의 일 부분으로부터 일부 광이 억제되거나(닷지), 이 영역에 더 많은 광이 부가된다(번). 그러므로, 원하는 구역에 비해 더 낮은 구역에 매핑되는 주요 요소는 화상의 나머지(rest) 부분 보다 더 길게 광에 노출된다. 유사하게, 원하는 구역보다 더 높은 구역에 매핑되는 주요 요소는 덜 노출된다. 이러한 국부적인 처리는 화상의 주요 요소가 최종 출력에서 원하는 구역에 매핑되는 것을 보장한다. 즉, 이들 주요 요소의 지각적 밝기는 이 주요 요소가 실제 어떻게 보이는지에 부합된다.This treatment depends on the perception of the scene rather than the measurement of the brightness. Then, a light meter is used to measure the brightness of each major element in the scene. Since only a single exposure value per shot may be present, the exposure value is selected such that the most important factor is mapped to the desired zone. As a result, other (and important) elements may be mapped to "false" zones, becoming too dark or too bright. Then, in the printing process, this problem is corrected by applying a "dodge and burn" operation, a printing technique in which some light from a portion of the print is suppressed or damped during development, More light is added to the light. Therefore, the main element that is mapped to the lower zone relative to the desired zone is exposed to light longer than the rest of the image. Similarly, key elements that are mapped to higher zones than the desired zone are less exposed. This local processing ensures that the main elements of the picture are mapped to the desired area at the final output. In other words, the perceived brightness of these key elements corresponds to how these key elements actually look.
이러한 접근법은 디지털 이미지에 사용될 수 있지만, 자동 모드에서 양호한 성능을 갖고, 동시에 사용자-보조 모드에서 직관적인 제어를 제공하는 어떠한 방법도 존재하지 않는다.While this approach can be used for digital images, there is no way to have good performance in the automatic mode and at the same time provide intuitive control in the user-assisted mode.
낮은 동적 범위의 디스플레이 상에서 디스플레이를 위한 높은 동적 범위 이미지를 톤 매핑하는 방법이 제공되는데, 먼저 높은 동적 범위 이미지가 액세스된다. 그런 후에, 높은 동적 범위 이미지는 상이한 영역으로 분할되어, 각 영역은 매트릭스로 나타나게 되는데, 여기서 매트릭스의 각 요소는 픽셀의 가중치 또는 확률이다. 각 영역의 노출이 결정되거나 계산되고, 노출 값은 가중치 또는 확률에 응답하여 영역에 적용된다. 그런 후에, 상이한 영역이 최종 톤 매핑된 이미지를 얻기 위해 함께 퓨징(fusing)된다. 방법은 높은 동적 범위 이미지에 대해, 또는 최종 톤 매핑된 이미지에 대해 상이한 지각적 밝기를 식별하거나 구축하는 단계를 더 포함할 수 있다. 게다가, 방법은 휘도(luminance) 데이터에 응답하는 영역을 결정하는 단계, 각각이 영역 중 하나를 구축하는 앵커(anchor) 값을 구축하는 단계 중 임의의 단계를 포함할 수 있고, 톤 매핑은 개별적인 컬러 채널을 기초로 수행된다. 톤 매핑은 휘도 채널을 기초로 수행되고, 후에, 후-처리를 통해 컬러 채널에 적용될 수 있으며, 톤 매핑은 각 컬러 채널을 기초로 수행될 수 있다. A method for tone mapping high dynamic range images for display on a low dynamic range display is provided, wherein a high dynamic range image is first accessed. Then, the high dynamic range image is divided into different regions, each region appearing as a matrix, where each element of the matrix is a weight or probability of a pixel. The exposure of each region is determined or calculated, and the exposure value is applied to the region in response to a weight or probability. The different regions are then fused together to obtain the final tone mapped image. The method may further comprise identifying or constructing a different perceptual brightness for a high dynamic range image, or for a final tone mapped image. In addition, the method may comprise any of the following steps: determining an area responsive to luminance data, each constructing an anchor value to build one of the areas, Channel. The tone mapping may be performed based on the luminance channel, and thereafter, applied to the color channel through post-processing, and tone mapping may be performed based on each color channel.
첨부 도면을 참조하여, 이제부터 본 발명은 예시의 목적으로 서술될 것이다.BRIEF DESCRIPTION OF THE DRAWINGS The present invention will now be described, by way of example only, with reference to the accompanying drawings, in which: Fig.
본 발명은 자동 모드에서 양호한 성능을 갖고, 동시에 사용자-보조 모드에서 사용자 친화적인 제어를 제공하는 장점을 갖는다.The present invention has the advantage of having good performance in the automatic mode and at the same time providing user-friendly control in the user-assisted mode.
도 1은 알려진 구역 시스템 크기(scale)의 도면.
도 2는 본 발명에 따른 구역 기반의 톤 매핑 방법의 흐름도.
도 3은 컬러 HDR 이미지에 대한 도 2의 방법의 응용의 흐름도.
도 4는 컬러 HDR 이미지에 대한 도 2의 방법의 다른 응용의 흐름도.
도 5는 도 2의 방법을 사용한 LDR 이미지의 톤 보정을 도시하는 흐름도.
도 6은 하나의 이미지가 본 발명의 방법에 따라 향상되는 샘플 이미지의 쌍을 도시하는 도면.BRIEF DESCRIPTION OF THE DRAWINGS Figure 1 is a diagram of a known area system scale.
Figure 2 is a flow chart of a zone-based tone mapping method in accordance with the present invention;
Figure 3 is a flow chart of an application of the method of Figure 2 to a color HDR image.
Figure 4 is a flow chart of another application of the method of Figure 2 for a color HDR image.
Figure 5 is a flow chart illustrating tone correction of an LDR image using the method of Figure 2;
Figure 6 shows a pair of sample images in which one image is enhanced according to the method of the present invention;
전형적인 수동 톤 매핑에 대한 필름 사진술에서 개발된 "구역 시스템"의 개념과 유사하게, 방법은 일반적으로 4개의 단계:Similar to the concept of a "zone system" developed in film photography for a typical passive tone mapping, the method generally involves four steps:
a. 화상에서 주요 요소를 식별하는 단계,a. Identifying a key element in the image,
b. 각 주요 요소를 구역에 각각 매핑하는 단계,b. Mapping each major element to a zone, respectively,
c. 각 주요 요소에 대한 광휘를 측정하는 단계,c. Measuring the brightness of each key element,
d. 전역적인 노출 값을 결정하는 단계, 및d. Determining a global exposure value, and
e. 각 주요 요소가 최종 프린트에서 올바른 구역 내에 있게 하도록 프린팅 처리에서 닷지 및 번 단계e. Dodge and step in the printing process to ensure that each key element is within the correct area of the final print
로 서술될 수 있다.≪ / RTI >
방법을 더 상세히 서술하기 위해, 먼저 톤 매핑 문제의 입력 및 출력을 한정할 수 있다. 먼저, 입력은 알려진 원색을 갖는 알려진 컬러 공간에서 장면의 광휘라는 것을 가정한다. HDR 데이터가 교정되지 않을 때의 경우, 광휘 데이터는 절대적인 광휘이거나 선형적으로 크기 조정된(scaled) 광휘일 수 있다. 출력은 톤 매핑된 이미지이다,To describe the method in more detail, we can first define the input and output of the tone mapping problem. First, it is assumed that the input is the scene's brilliance in a known color space with a known primary color. When the HDR data is not calibrated, the brilliance data may be an absolute brilliance or a linearly scaled brilliance. The output is a tone mapped image,
휘도 이미지는 HDR 데이터로부터 계산될 수 있다. HDR 데이터가 XYZ 컬러 공간 내에 있다면, Y 성분은 휘도 이미지로 사용될 수 있다. HDR 데이터가 Rec. 709와 동일한 원색을 사용한다면, RGB 컬러 공간으로부터의 변환은 다음:The luminance image can be calculated from the HDR data. If the HDR data is in the XYZ color space, the Y component can be used as the luminance image. HDR data is recorded in Rec. If you use the same primary color as 709, the conversion from RGB color space is:
과 같이 행해질 수 있다.. ≪ / RTI >
RGB(또는 다른 컬러 공간)와 휘도 이미지 사이의 다른 변환은 입력 화상의 포맷에 따라 사용될 수 있다.Other conversions between RGB (or other color space) and luminance images can be used depending on the format of the input image.
그 다음, 톤 매핑의 가장 간단한 형태: 단일 노출을 한정한다. 일반성을 잃지 않고, HDR 데이터는 휘도 이미지일 수 있는 하나의 컬러 채널만을 갖는다는 것을 가정한다. 선형 크기 조정을 통해, "앵커점"이 규정된다. 픽셀은, 이러한 픽셀의 휘도가 앵커점을 초과한다면, 포화되고(saturated), 1로 매핑될 것이며, 그렇지 않다면 픽셀은 0 내지 1의 값으로 매핑될 것이다. 그러므로, 단일 노출의 선형 크기 조정은:It then defines the simplest form of tone mapping: single exposure. Without losing generality, it is assumed that the HDR data has only one color channel, which can be a luminance image. Through linear scaling, anchor points are defined. A pixel will be saturated and mapped to 1 if the luminance of this pixel exceeds the anchor point, otherwise the pixel will be mapped to a value of 0 to 1. Therefore, the linear scaling of a single exposure is:
으로 한정될 수 있는데, 여기서 A는 앵커점이고, S(x)는Where A is an anchor point and S (x) is an anchor point,
로 한정될 수 있으며, 여기서 ρ는 전형적으로 영역[2.2, 2.4] 내에서 값을 취하며, (톤 매핑된 이미지가 나타나는) 출력 디바이스의 감마를 나타낸다., Where rho typically takes values in the region [2.2, 2.4] and represents the gamma of the output device (where the tone mapped image appears).
결과 이미지 I는 양자화될 수 있고, 종래의 LDR 디스플레이 상에 디스플레이될 수 있다. S(x)의 다른 한정이 가능할 수 있다는 것을 주목하라: 예를 들어, 검정력 함수(power function) 대신에, S-성형 곡선이 사용될 수 있다. 일반적으로, 임의의 전역적인 매핑 곡선은 S에 대해 사용될 수 있다.The resulting image I can be quantized and displayed on a conventional LDR display. Note that other qualifications of S (x) may be possible: for example, instead of a power function, an S-shaping curve may be used. Generally, any global mapping curve can be used for S.
그런 후에, 구역 시스템은 디지털 톤 매핑에 적용된다. 도 2에 도시된 것처럼, 주요 단계는 다음과 같다. 입력의 높은 동적 범위(HDR) 이미지는 먼저, 단계(10)에서 상이한 영역으로 분할된다. 이는 분명한(hard) 분할 또는 분명치 않은(fuzzy) 분할일 수 있다. 어떠한 경우에서도, 각 영역은 매트릭스로 표현될 수 있는데, 여기서 매트릭스의 각 요소는 픽셀의 확률(가중치)이다. 분명한 분할이 사용된다면, 이미지 픽셀은 단일 영역에 속하게 되므로, 확률은 0 또는 1이다. 분명치 않은 분할이 사용된다면, 각 픽셀은 수개(심지어 전체) 영역 상에 분산될 수 있으므로, 확률은 0 내지 1의 임의의 값을 가질 수 있다.The zone system then applies to digital tone mapping. As shown in Fig. 2, the main steps are as follows. The high dynamic range (HDR) image of the input is first divided into different regions in
그런 후에, 단계(12)에서, 알고리즘은 각 영역이 어떤 구역에 매핑될 지를 결정한다. 이는 각 영역에 대한 노출을 본질적으로 추정한다. 영역과 구역 사이의 매핑은 또한, 적합한 사용자 인터페이스를 제공함으로써 사용자와의 상호작용을 통해 행해질 수 있다.Then, at
그 다음에, 단계(14)에서, 각 영역은 영역의 노출 파라미터를 통해 노출된다. Then, at
그 후, 단계(10)에서 획득된 가중치를 사용하여, 단계(16)에서 상이한 영역(각각이 영역의 노출 값을 통해 노출되는)을 함께 퓨징(fusing) 함으로써, 최종 톤 매핑된 이미지를 생성하는 퓨전(fusion) 또는 혼합 처리가 사용된다.The final tone mapped image is then generated by fusing together the different regions (each exposed through the exposure value of the region) in
선택적으로, 단계(18 및 20)에서, 사용자는 톤 매핑된 이미지의 외관을 검사할 수 있고, 하나 이상의 영역의 노출 값을 변경할 수 있으며, 그런 후에 결과가 만족스러울 때까지, 단계에서 파라미터를 변경하기 위해 적합한 사용자 인터페이스를 통해, 단계(14 내지 18)를 반복할 수 있다.Optionally, in
비디오 톤 매핑에 대해, 장면에서 하나의 주요 프레임에 대한 처리가 수행될 수 있고, 장면의 모든 프레임에 동일한 파라미터가 적용될 수 있다.For video tone mapping, processing for one main frame in a scene may be performed, and the same parameters may be applied to all frames of the scene.
주요 단계 각각에 대한 실시예는 이제부터 더 상세히 서술된다.Embodiments of each of the major steps are described in greater detail below.
단계(10)에서 이미지의 분할In
분할의 목적은 이미지를 영역으로 나누어서, 각 영역이 동일한 구역에 매핑되야 하는 객체를 포함하게 하는 것이다. 즉, 각 영역은 단일 노출을 필요로 해야 한다. 분할은 다양한 이미지 처리 기법을 사용하는 다양한 방식으로 행해질 수 있다. 여기서, 간단하지만 효율적인 접근법이 서술된다. 먼저, 휘도 이미지는 HDR 광휘 데이터로부터 계산된다. 분할은 오직 휘도 이미지상에서 수행된다. 이미지의 평균, 최대 및 최소 휘도는 다음:The goal of partitioning is to divide the image into regions, each containing an object that must be mapped to the same region. That is, each area must require a single exposure. Partitioning can be done in various ways using various image processing techniques. Here, a simple but efficient approach is described. First, the luminance image is calculated from the HDR luminance data. The division is performed only on the luminance image. The average, maximum and minimum brightness of the image are as follows:
으로 계산되는데, 여기서 Rmin 및 Rmax는 2개의 사전 한정된 백분율이고, maxR(X)는 X에서 값의 R% 이상 중 X의 가장 작은 값이고, minR (X)는 X의 값의 R% 이하 중 X의 가장 큰 값이다.Where R min and R max are the two predefined percentages, max R (X) is the smallest value of X among R% of the values in X, and min R (X) is the R It is the largest value of X among%.
위에서 논의된 바와 같이, 각 영역 내에서, 픽셀은 동일한 노출을 가져야 한다. 일련의 앵커점 Ai(i=1..N)은 각 Ai가 영역을 한정하고, 또한, 단일 노출 이미지를 생성하는데 사용되도록 한정된다.As discussed above, within each region, the pixels must have the same exposure. A series of anchor points A i (i = 1., N) is defined such that each A i defines a region and is also used to generate a single exposure image.
이러한 실시예에서, 앵커점은:In this embodiment, the anchor point is:
로 선택되는데, 상기 수학식에서 E는 상수이고, 예를 들어, 8의 값을 취할 수 있다. 상기 수학식에서 영역의 개수(N)는:, Where E is a constant and may take a value of, for example, 8. The number N of regions in the above equation is:
와 같이 계산될 수 있고, 이는 휘도 영역 모두를 커버할 수 있다., Which can cover all of the luminance region.
2개의 이웃하는 앵커점 사이의 거리는 사진술에 대해 2개의 "스톱(stop)"이라는 것을 관찰하는 것은 쉽다.It is easy to observe that the distance between two neighboring anchor points is two "stops" for photography.
일단 각 영역의 앵커점이 알려진다면, 각 픽셀의 가중치는 각 영역에 대해 계산된다. 일반적으로, 각 영역{대응하는 앵커점(Ai)에 의해 한정되는}에 대해, 단일 노출 이미지에서 가장 가까운 픽셀의 값은 0.5이고, 이 영역{대응하는 앵커점(Ai)에 의해 한정되는}에 대한 이 픽셀의 가중치는 커진다.Once the anchor points of each region are known, the weight of each pixel is calculated for each region. In general, for each area {defined by the corresponding anchor point A i }, the value of the closest pixel in the single exposure image is 0.5, and this area {defined by the corresponding anchor point A i ) The weight of this pixel increases.
따라서, 영역 n{앵커점(An)에 의해 한정되는}에 대한 위치(i,j)에서 픽셀의 가중치는:Thus, the weight of the pixel at position (i, j) to the area n {defined by the anchor point A n ) is:
로 계산될 수 있는데, 여기서 C는 정규화 계수이고, C는:, Where C is the normalization coefficient, C is:
로 한정될 수 있다..
상기 계산된 가중치는 영역[0, 1]에서 값을 취하고, 그러므로 휘도 이미지의 N개의 영역으로의 분명치 않은 분할을 한정한다. 이는 N개의 영역 중 일부가 큰 가중치를 가질 수 있더라도, 각 영역은 이미지에서 모든 픽셀을 포함할 수 있다는 것을 의미한다. The calculated weight takes a value in the area [0, 1] and thus defines an unclear partitioning into the N areas of the luminance image. This means that although some of the N regions may have large weights, each region may contain all of the pixels in the image.
다른 구현에서, 가중치는 이진화되어(즉, 가중치를 0 또는 1로 만든다), 분명한 분할이 초래한다:In other implementations, the weights are binarized (i.e., weights are 0 or 1), resulting in a clear partition:
앵커점(An)뿐만 아니라 가중치(Wn)는 일단 분할이 행해지면 고정된다는 것을 주목하라. 다음의 섹션에서, 각 영역에 대한 노출은 가중치가 변경되지 않은 상태로 유지되는 동안 조정될 수 있다는 것이 관찰된다.Note that the weight (W n ) as well as the anchor point (A n ) are fixed once the segmentation is done. In the next section, it is observed that the exposure for each region can be adjusted while the weights remain unchanged.
단계(12)에서 노출의 추정Estimation of exposure at step (12)
일단 각 영역이 분할되면, 각 영역은 구역에 매핑된다. 즉, 앵커점은 각 영역에 대해 한정되어, 단일 노출 이후, 각 영역은 적합하게 노출될 수 있게 된다.Once each region is divided, each region is mapped to a region. That is, the anchor points are defined for each region so that after a single exposure, each region can be exposed appropriately.
각 영역이 어떤 구역에 매핑 되어야하는지를 결정하는 것은 매우 주관적인 임무인데, 이는 이 임무가 HVS가 시각적 적응을 어떻게 완료하는지에 의존하기 때문이다. 종래의 구역 시스템에서, 구역에 주요 요소를 매핑하는 것은 포토그래퍼에 의해 시각적으로 결정된다.It is a very subjective task to determine which areas each area should be mapped to, because it depends on how the HVS completes the visual adaptation. In conventional zone systems, mapping of key elements to zones is visually determined by the photographer.
각 영역의 노출을 추정하기 위해 다수의 상이한 알고리즘이 사용될 수 있다.간단한 구현에서, 모든 영역은 중간 회색에 매핑되고, 그런 후에 사용자는 상호작용으로 앵커점을 변경할 수 있다. 이는 추정된 노출이 영역을 한정하는데 사용되는 앵커점 값과 동일한 앵커점의 값이라는 것을 의미하고:A number of different algorithms can be used to estimate the exposure of each region. In a simple implementation, all regions are mapped to a neutral gray, after which the user can change the anchor point interactively. This means that the estimated exposure is the value of the anchor point equal to the anchor point value used to define the region:
여기서, λn는 사용자에 의해 변경될 수 있는 변수이다.Here,? N is a variable that can be changed by the user.
λn에 대한 기본 값은 0이지만, 방법은 원하는 외관에 도달하기 위해, 이 기본 값을 수동으로 수정하는 것을 허용한다.The default value for λ n is 0, but the method allows you to manually modify this default value to reach the desired appearance.
단계(14)에서 노출 파라미터를 적용하는 것Applying exposure parameters in step (14)
일단 사용자가 HDR 이미지의 분할과, 각 영역에 대한 앵커점을 갖는다면, 대응하는 LDR 이미지는 상기 추정된 노출을 이용하여 HDR 데이터로부터 생성될 수 있다:Once the user has a partition of the HDR image and an anchor point for each area, the corresponding LDR image can be generated from the HDR data using the estimated exposure:
. .
단계(16)에서 이미지 퓨전 및 개선In
이 단계의 목표는 영역(각각이 노출 파라미터를 통해 노출되는) 모두를 함께 혼합하는 것이다. 수개의 퓨전 방법이 가능할 수 있고, 일부가 아래에 서술된다.The goal of this step is to mix all of the areas (each exposed through the exposure parameters) together. Several fusion methods may be possible, some of which are described below.
이미지 퓨전 - 제 1 실시예Image Fusion - First Embodiment
로 톤 매핑 결과(T)를 생성하기 위해 LDR 이미지의 가중된 평균을 계산하라.Calculate the weighted average of the LDR image to generate the tone mapping result (T).
이는 낮은 복잡성의 방법이다. 불행히도, 이 방법은 이미지 가중치에 매우 민감하여, 대부분의 구현에서 시각적 아티팩트를 초래한다.This is a low complexity method. Unfortunately, this method is very sensitive to image weights, resulting in visual artifacts in most implementations.
이미지 퓨전 - 대안적인 실시예Image Fusion - Alternative Embodiment
더 세련된 퓨전 처리는 이들 LDR 이미지를 결합하는 것이다. 다른 이미지 퓨전 방법은 피라미드를 사용하는 다중-해상도 접근법을 따른다. 이 방법은 더 복잡성을 갖지만, 가중치(즉, 영역으로의 영역의 분할)에 대해 상당히 강력하여, 영역 사이에 거의 이음매 없는 변화를 초래한다.A more sophisticated fusion process is to combine these LDR images. Other image fusion methods follow a multi-resolution approach using pyramids. Although this method is more complex, it is quite robust to weighting (i.e., partitioning of regions into regions), resulting in almost seamless transition between regions.
컬러 color HDRHDR 이미지의 톤 Tone of image 매핑Mapping
도 3은 제안된 구역-기반의 톤 매핑 접근법(300)이 컬러 HDR 이미지를 톤 매핑하기 위해 어떻게 사용될 수 있는지를 도시한다. 먼저, 컬러 HDR 이미지가 RGB 컬러 공간 내에 있다고 가정되면, 휘도 이미지는 위에 제공된 수학식을 사용하여 계산된다. 그런 후에, 휘도 이미지는 서술된 방법의 프레임워크에 따라 처리된다. 마지막으로, 컬러 처리 단계는 휘도 이미지의 톤 매핑을 각 컬러 성분에 적용한다. 특정 구현에서, 컬러 처리 단계는 각 컬러 성분의 각 픽셀을 동일한 양으로 크기 조정하는데, 여기서 휘도 이미지의 대응하는 픽셀이 크기 조정되고, 그런 후에 감마 보정 및 양자화를 수행한다. 이러한 처리는 다음의 수학식:FIG. 3 illustrates how the proposed region-based
으로 요약되는데, 여기서 Q(.)는 양자화 함수를 나타내고, 여기서 γ는 출력 디바이스의 감마이다., Where Q (.) Denotes the quantization function, where gamma is the gamma of the output device.
컬러 LDR 이미지의 톤 보정은 위에 서술된 구역 기반의 톤 매핑 방법을 사용하여 달성될 수 있다. 이들 방법은 LDR 이미지를 자동으로 또는 수동으로 보정하기 위해 적용될 수 있다. 도 5의 처리 흐름(500)으로 도시된 바와 같이, HDR 이미지의 처리에 비교되는 추가적인 단계는 LDR로부터 HDR로의 변환이고, 이는 역 양자화 및 역 감마 변환을 이용하여 행해질 수 있다:Tone correction of a color LDR image can be accomplished using the region based tone mapping method described above. These methods can be applied to automatically or manually correct LDR images. As shown in process flow 500 of FIG. 5, a further step compared to the processing of HDR images is the conversion from LDR to HDR, which can be done using inverse quantization and inverse gamma conversion:
. .
이러한 단계에 대한 일부 변형이 가능할 수 있다. 예를 들어, 톤 매핑은 도 4에 최선으로 도시된 바와 같이, 휘도 이미지를 사용하는 것 대신, 각 컬러 성분에 대해 독립적으로 수행될 수 있다{예를 들어, 적색 매핑 흐름(401), 녹색 매핑 흐름(402) 및 청색 매핑 흐름(403)}. 또한, 톤 매핑은 휘도 이미지를 사용하는 것 대신에, 컬러 성분에 대해 수행될 수 있다.Some modifications to this step may be possible. For example, tone mapping may be performed independently for each color component, instead of using a luminance image, as best shown in FIG. 4 (e.g.,
또 다른 변형에서, 단일 성분(예를 들어, 컬러 성분 또는 휘도 이미지 중 하나)은 일부 단계에서 사용될 수 있고, 컬러 성분은 다른 단계에서 사용될 수 있다. 예를 들어, 휘도는 단계(10 내지 12)에 대해 사용될 수 있고, 컬러 성분은 단계(14 내지 16)에 대해 사용될 수 있다.In another variation, a single component (e.g., one of a color component or a luminance image) may be used in some of the steps and the color component may be used in another step. For example, luminance may be used for steps 10-12 and color components may be used for steps 14-16.
본 명세서에서 서술된 구역 기반의 톤 매핑 방법은 특히 HDR 이미지에서 LDR 이미지로의 변환에서 이미지의 개선된 디스플레이를 초래한다. 이들 결과의 예시는 도 6에 도시되고, 여기서 우측 이미지(601)는 위에 서술된 방법에 따라 처리되고, 좌측 이미지(602)는 위에 서술된 방법으로 처리되지 않았다. 여기서, 향상된 색조 변형은 이미지의 하늘 및 땅 부분에서 관찰될 수 있다.The region-based tone mapping method described herein results in improved display of the image, especially in the conversion from HDR image to LDR image. An example of these results is shown in FIG. 6, where the
이제부터, 특정 특징 및 양상을 갖는 하나 이상의 구현을 갖는 대안적인 실시예가 서술된다, 하지만, 서술된 구현의 특징 및 양상 또한 다른 구현에 대해 적응될 수 있다.[0064] Now, alternative embodiments having one or more implementations having particular features and aspects are described, but the features and aspects of the described implementations may also be adapted to other implementations.
예를 들어, 이들 구현 및 특징은 비디오의 코딩 및/또는 다른 타입의 데이터의 코딩의 배경으로 사용될 수 있다. 게다가, 이들 구현 및 특징은 H.264/MPEG-4 AVC(AVC) 표준, MVC 확장을 갖는 AVC 표준, SVC 확장을 갖는 AVC 표준, 3DV 표준 및/또는 다른 표준(기존의 또는 미래의)의 배경으로, 또는 표준을 수반하지 않는 배경으로 사용될 수 있다,For example, these implementations and features may be used as a background for coding video and / or coding other types of data. In addition, these implementations and features may be implemented in the H.264 / MPEG-4 AVC (AVC) standard, the AVC standard with MVC extension, the AVC standard with SVC extension, the 3DV standard and / , Or as a background not accompanied by a standard,
게다가, 구현은 SEI 메세지, 슬라이스 헤더, 다른 높은 레벨의 구문, 높지 않은 레벨의 구문, 대역 외 정보, 데이터스트림 데이터 및 암묵적 신호 발신을 포함하지만, 이에 제한되지 않는 다양한 기법을 사용하여 정보를 신호 발신할 수 있다. 따라서, 본 명세서에 서술된 구현이 특정 배경으로 서술될 수 있지만, 이러한 서술은 이러한 구현 또는 배경에 대한 특징 및 개념을 한정하는 것으로 취해지지 않아야 한다.In addition, implementations may use various techniques to send signals, including, but not limited to, SEI messages, slice headers, other high level syntax, high level syntax, out of band information, data stream data and implicit signaling can do. Thus, while the implementations described herein may be described in a particular context, such description should not be taken to limit features and concepts for such implementations or backgrounds.
명세서에서 본 발명의 원리의 "하나의 실시예" 또는 "일 실시예" 또는 "하나의 구현" 또는 "일 구현" 뿐만 아니라 이들의 다른 변형에 대한 언급은 실시예와 연관되어 서술된 특정 특징, 구조, 특성 등이 본 발명의 원리의 적어도 하나의 실시예에 포함된다는 것을 의미한다. 따라서, 명세서 전체에 걸쳐서 다양한 부분에 기재된 "하나의 실시예에서" 또는 "일 실시예에서" 또는 "하나의 구현에서" 또는 "일 구현에서"라는 구문, 및 임의의 다른 변형의 출현은 모두 동일한 실시예를 참조해야 하는 것은 아니다.Reference in the specification to "one embodiment" or "an embodiment" or "an implementation" or "an implementation" of the principles of the invention, as well as other variations thereof, Structure, characteristic, etc., are included in at least one embodiment of the principles of the present invention. Thus, the appearances of the phrases "in one embodiment" or "in one embodiment" or " in one embodiment " or "in one embodiment ", and any other variation described in various sections throughout the specification, It is not necessary to refer to the embodiment.
본 명세서에 서술된 구현은 예를 들어, 방법 또는 처리, 장치, 소프트웨어 프로그램, 데이터 스트림 또는 신호로 구현될 수 있다. 구현이 단일 형태의 구현(예를 들어, 오직 방법만으로 논의된)의 배경으로만 논의되었지만, 논의된 특징의 구현은 또한, 다른 형태(예를 들어, 장치 또는 프로그램)로 구현될 수 있다. 예를 들어, 장치는 적합한 하드웨어, 소프트웨어 및 펌웨어로 구현될 수 있다. 방법은 예를 들어, 일반적으로 처리 디바이스로 언급되는 처리기와 같은 장치로 구현될 수 있는데, 이 처리 디바이스는 컴퓨터, 마이크로 처리기, 집적 회로 또는 프로그램 가능 논리 디바이스를 포함한다. 또한, 처리기는 예를 들어, 컴퓨터, 셀 폰, 휴대용/개인용 디지털 장비("PDA")와 같은 통신 디바이스, 및 최종 사용자 사이의 정보의 통신을 용이하게 하는 다른 디바이스를 포함한다.The implementations described herein may be implemented, for example, as a method or process, an apparatus, a software program, a data stream, or a signal. Although an implementation is discussed only as a background for a single type of implementation (e.g., discussed only by way of example), the implementation of the discussed features may also be implemented in other forms (e.g., a device or a program). For example, the device may be implemented with suitable hardware, software, and firmware. The method may be implemented, for example, in an apparatus such as a processor, generally referred to as a processing device, which includes a computer, microprocessor, integrated circuit or programmable logic device. In addition, the processor includes, for example, a computer, a cell phone, a communication device such as a personal digital assistant ("PDA"), and other devices that facilitate communication of information between end users.
본 명세서에서 서술된 다양한 처리 및 특징의 구현은 상이한 장비 또는 애플리케이션, 특히, 예를 들어, 데이터 인코딩 및 디코딩에 관련된 장비 또는 애플리케이션으로 구현될 수 있다. 이러한 장비의 예시는 인코더, 디코더, 디코더로부터 출력을 처리하는 후-처리기, 인코더에 입력을 제공하는 전-처리기, 비디오 코더, 비디오 디코더, 비디오 코덱, 웹 서버, 셋-톱 박스, 랩톱, 개인용 컴퓨터, 셀 폰, PDA, 및 다른 통신 디바이스를 포함한다. 명백한 바와 같이, 장비는 모바일일 수 있고, 심지어 모바일 수단에 탑재될 수 있다.Implementations of the various processes and features described herein may be implemented in different devices or applications, particularly, for example, equipment or applications related to data encoding and decoding. Examples of such equipment are encoders, decoders, post-processors that process outputs from decoders, preprocessors that provide inputs to encoders, video coders, video decoders, video codecs, web servers, set-top boxes, laptops, personal computers , Cell phones, PDAs, and other communication devices. As is evident, the equipment may be mobile and may even be mounted on mobile means.
게다가, 방법은 처리기에 의해 수행되는 지령에 의해 구현될 수 있고, 이러한 지령(및/또는 구현에 의해 생성되는 데이터 값)은 예를 들어, 집적 회로, 소프트웨어 캐리어 또는, 예를 들어, 하드 디스크, 콤팩트 디스켓, 랜덤 액세스 메모리("RAM") 또는 읽기 전용 메모리("ROM")와 같은 다른 저장 디바이스와 같은 처리기 판독가능 매체 상에 저장될 수 있다. 지령은 처리기 판독가능 매체 상에 명백히 구현되는 애플리케이션 프로그램을 형성할 수 있다. 지령은 예를 들어, 하드웨어, 펌웨어, 소프트웨어 또는 이들의 조합일 수 있다. 지령은 예를 들어, 운영체제, 별도의 애플리케이션 또는 이들 2개의 조합 내에서 발견될 수 있다. 그러므로, 처리기는 처리를 수행하도록 구성되는 디바이스와, 처리를 수행하는 지령을 갖는 처리기 판독 가능 매체(저장 디바이스와 같은)를 포함하는 디바이스 모두로서 특징 지워질 수 있다. 게다가, 처리기 판독 가능 매체는 지령에 덧붙여, 또는 지령 대신에 구현에 의해 생성된 데이터 값을 저장할 수 있다.In addition, the method may be implemented by instructions executed by a processor, and such instructions (and / or data values generated by the implementation) may be stored, for example, in an integrated circuit, a software carrier, Readable medium such as a compact disk, a random access memory ("RAM") or other storage device such as a read only memory ("ROM"). The instructions may form an application program that is explicitly implemented on the processor readable medium. The instructions may be, for example, hardware, firmware, software or a combination thereof. The instructions may be found, for example, in an operating system, a separate application, or a combination of the two. Thus, a processor may be characterized as both a device configured to perform processing and a device comprising a processor-readable medium (such as a storage device) having instructions to perform processing. In addition, the processor readable medium may store data values generated by an implementation in addition to, or instead of, a directive.
당업자에게 자명한 바와 같이, 구현은 예를 들어 저장되거나 송신될 수 있는 정보를 전달하도록 포맷된 다양한 신호를 생성할 수 있다. 정보는 예를 들어, 방법을 수행하는 지령, 서술된 구현 중 하나에 의해 생성된 데이터를 포함할 수 있다. 예를 들어, 신호는 서술된 실시예의 구문을 쓰거나 판독하기 위한 규칙을 데이터로서 전달하도록, 또는 서술된 실시예에 의해 기록된 실제 구문-값을 데이터로서 전달하도록 포맷될 수 있다. 이러한 신호는 예를 들어, 전자파(예를 들어, 스펙트럼의 무선 주파수 부분을 사용하는), 또는 기저대역 신호로서 포맷될 수 있다. 포맷은 예를 들어, 데이터 스트림을 인코딩하는 것, 및 인코딩된 데이터 스트림을 통해 캐리어를 변조하는 것을 포함할 수 있다. 신호가 전달하는 정보는 예를 들어, 아날로그 또는 디지털 정보일 수 있다. 신호는 알려진 것처럼, 다양한, 상이한 유선 또는 무선 연결을 통해 송신될 수 있다. 신호는 처리기-판독 가능 매체 상에 저장될 수 있다.As will be appreciated by those skilled in the art, implementations may generate various signals that are formatted, for example, to convey information that may be stored or transmitted. The information may include, for example, instructions to perform the method, data generated by one of the described implementations. For example, the signal may be formatted to convey the rules for writing or reading the syntax of the described embodiment as data, or to convey the actual syntax-value recorded by the described embodiment as data. Such a signal may be formatted, for example, as an electromagnetic wave (e.g., using the radio frequency portion of the spectrum), or a baseband signal. The format may include, for example, encoding the data stream and modulating the carrier through the encoded data stream. The information that the signal carries may be, for example, analog or digital information. The signal may be transmitted over various, different wired or wireless connections, as is known. The signal may be stored on the processor-readable medium.
다수의 구현이 서술되었다. 그렇지만, 다양한 수정이 이루어질 수 있다는 것이 이해되어야 한다. 예를 들어, 다른 구현을 생성하기 위해, 상이한 구현의 요소가 결합, 보충, 수정 또는 제거될 수 있다. 게다가, 당업자라면, 다른 구조 및 처리가 개시된 구조 및 처리를 대체할 수 있고, 결과적인 구현이 적어도 실질적으로 개시된 구현과 동일한 결과(들)를 달성하기 위해 적어도 실질적으로 동일한 방식(들)으로 적어도 실질적으로 동일한 기능(들)을 수행한다는 것을 이해할 것이다. 이에 따라, 이들 및 다른 구현은 본 개시물에 의해 고려되고, 본 개시물의 범주 내에 있다.A number of implementations have been described. However, it should be understood that various modifications may be made. For example, elements of different implementations can be combined, supplemented, modified or eliminated to create different implementations. Furthermore, those skilled in the art will recognize that other structures and processes may be substituted for the disclosed structures and processes, and that the resulting implementations may be implemented, at least substantially in substantially the same manner (s) to achieve the same result (s) Will perform the same function (s). Accordingly, these and other implementations are contemplated by the present disclosure and are within the scope of the present disclosure.
전술한 것은 본 발명을 수행하기 위한 가능성 중 일부를 서술한다. 다수의 다른 실시예는 본 발명의 범주 및 사상 내에서 가능하다. 그러므로, 전술한 서술은 한정이 아닌 설명을 위한 것으로 여겨져야 하고, 본 발명의 범주는 등가물의 전체 범위와 함께 첨부된 청구항에 의해 주어진다고 고려된다.The foregoing describes some of the possibilities for carrying out the present invention. Many other embodiments are possible within the scope and spirit of the invention. It is therefore to be understood that the foregoing description is to be regarded as illustrative rather than limiting, and that the scope of the invention is given by the appended claims along with their full scope of equivalents.
10 : 이미지를 영역으로 분할
12 : 각 영역에 대한 노출을 추정
14 : 각 영역에 노출 파라미터를 적용
16 : 영역을 함께 이미지 퓨전 혼합
18 : 만족스러운 결과?
20 : 사용자가 각 영역에 대한 노출 파라미터를 조정10: Split image into regions
12: Estimate exposure for each area
14: Apply exposure parameters to each area
16: Mixed image fusion with regions
18: Satisfactory results?
20: Adjust the exposure parameters for each area
Claims (14)
상기 입력 이미지에 액세스하는 단계;
상기 입력 이미지를 복수의 영역으로 분할하는 단계로서, 각 영역은 상기 입력 이미지의 픽셀에 해당하는 요소를 갖는 매트릭스로 나타나며, 매트릭스의 각 요소는 상기 요소에 해당하는 픽셀이 상기 영역에 속하는 가중치 또는 확률인, 상기 입력 이미지를 복수의 영역으로 분할하는 단계;
각 영역 내의 픽셀 값의 크기 조정(scaling)을 지정하는 노출 파라미터를 결정 또는 계산하는 단계;
각 영역 내의 픽셀 값을 그 영역에 대한 상기 노출 파라미터에 따라 크기 조정하는 단계;
최종 톤 매핑된 이미지를 획득하기 위해 상기 복수의 영역을 함께 퓨징(fusing)하는 단계; 및
사용자가 상기 노출 파라미터를 조정하기 위한 사용자 인터페이스를 제공하는 단계를
포함하는, 입력 이미지를 톤 매핑하는 방법.CLAIMS What is claimed is: 1. A method of tone mapping an input image to display an input image on a display designed for a dynamic range lower than the dynamic range of an input image data format,
Accessing the input image;
Dividing the input image into a plurality of regions, each region being represented by a matrix having elements corresponding to the pixels of the input image, wherein each element of the matrix includes a pixel corresponding to the element having a weight or probability Dividing the input image into a plurality of regions;
Determining or calculating an exposure parameter that specifies scaling of pixel values within each region;
Scaling pixel values within each region according to the exposure parameters for that region;
Fusing the plurality of regions together to obtain a final tone mapped image; And
Providing a user with a user interface for adjusting the exposure parameters
Includes a way to tone the input image.
2. The method of claim 1, wherein dividing the input image, determining or calculating an exposure parameter, scaling pixel values, fusing a plurality of areas, and providing a user interface comprises: ≪ / RTI > is performed based on each color channel.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US26976009P | 2009-06-29 | 2009-06-29 | |
US61/269,760 | 2009-06-29 | ||
PCT/US2010/001863 WO2011002505A1 (en) | 2009-06-29 | 2010-06-29 | Zone-based tone mapping |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20120107429A KR20120107429A (en) | 2012-10-02 |
KR101739432B1 true KR101739432B1 (en) | 2017-05-24 |
Family
ID=42542728
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020117031365A KR101739432B1 (en) | 2009-06-29 | 2010-06-29 | Zone-based tone mapping |
Country Status (6)
Country | Link |
---|---|
US (1) | US9087382B2 (en) |
EP (1) | EP2449526A1 (en) |
JP (1) | JP5611337B2 (en) |
KR (1) | KR101739432B1 (en) |
CN (1) | CN102473295B (en) |
WO (1) | WO2011002505A1 (en) |
Families Citing this family (69)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102763134B (en) * | 2010-02-19 | 2015-11-25 | 汤姆森特许公司 | For the parameter interpolate of high dynamic range video tone mapping |
US8786625B2 (en) * | 2010-09-30 | 2014-07-22 | Apple Inc. | System and method for processing image data using an image signal processor having back-end processing logic |
US8675957B2 (en) * | 2010-11-18 | 2014-03-18 | Ebay, Inc. | Image quality assessment to merchandise an item |
US9451274B2 (en) * | 2011-04-28 | 2016-09-20 | Koninklijke Philips N.V. | Apparatuses and methods for HDR image encoding and decoding |
US20120293533A1 (en) * | 2011-05-19 | 2012-11-22 | Foveon Inc. | Methods for creating gamma correction and tone mapping effects in a digital image |
GB2496423B (en) | 2011-11-11 | 2016-08-17 | Ibm | Data compression |
CN102497490B (en) * | 2011-12-16 | 2014-08-13 | 上海富瀚微电子有限公司 | System and method for realizing image high dynamic range compression |
JP5713885B2 (en) * | 2011-12-26 | 2015-05-07 | キヤノン株式会社 | Image processing apparatus, image processing method, program, and storage medium |
BR112014023535B1 (en) * | 2012-03-26 | 2022-06-14 | Koninklijke Philips N.V | IMAGE ENCODER TO ENCODE AN IMAGE OF A HIGH DYNAMIC RANGE SCENE, IMAGE DECODER TO DECODE AN ENcoded IMAGE REPRESENTATION OF A HIGH DYNAMIC RANGE SCENE, IMAGE ENCODING METHOD TO ENCODE AN IMAGE OF A HIGH DYNAMIC RANGE SCENE AND IMAGE DECODING METHOD TO DECODE AN ENCODED IMAGE REPRESENTATION OF A DYNAMIC HIGH RANGE SCENE |
AU2013258866B2 (en) | 2012-05-10 | 2017-11-23 | National Ict Australia Limited | Reducing the dynamic range of image data |
US9025867B2 (en) | 2012-05-31 | 2015-05-05 | Apple Inc. | Systems and methods for YCC image processing |
US8953882B2 (en) | 2012-05-31 | 2015-02-10 | Apple Inc. | Systems and methods for determining noise statistics of image data |
US9105078B2 (en) | 2012-05-31 | 2015-08-11 | Apple Inc. | Systems and methods for local tone mapping |
US8872946B2 (en) | 2012-05-31 | 2014-10-28 | Apple Inc. | Systems and methods for raw image processing |
US9743057B2 (en) | 2012-05-31 | 2017-08-22 | Apple Inc. | Systems and methods for lens shading correction |
US9031319B2 (en) | 2012-05-31 | 2015-05-12 | Apple Inc. | Systems and methods for luma sharpening |
US8917336B2 (en) | 2012-05-31 | 2014-12-23 | Apple Inc. | Image signal processing involving geometric distortion correction |
US9014504B2 (en) | 2012-05-31 | 2015-04-21 | Apple Inc. | Systems and methods for highlight recovery in an image signal processor |
US9077943B2 (en) | 2012-05-31 | 2015-07-07 | Apple Inc. | Local image statistics collection |
US8817120B2 (en) | 2012-05-31 | 2014-08-26 | Apple Inc. | Systems and methods for collecting fixed pattern noise statistics of image data |
US11089247B2 (en) | 2012-05-31 | 2021-08-10 | Apple Inc. | Systems and method for reducing fixed pattern noise in image data |
US9142012B2 (en) | 2012-05-31 | 2015-09-22 | Apple Inc. | Systems and methods for chroma noise reduction |
US9332239B2 (en) | 2012-05-31 | 2016-05-03 | Apple Inc. | Systems and methods for RGB image processing |
CN103024300B (en) * | 2012-12-25 | 2015-11-25 | 华为技术有限公司 | A kind of method for high dynamic range image display and device |
WO2014118033A1 (en) * | 2013-01-29 | 2014-08-07 | Thomson Licensing | Method and device for modifying the dynamic range of an image sequence |
WO2014118032A1 (en) * | 2013-01-29 | 2014-08-07 | Thomson Licensing | Method and device for modifying the dynamic range of an image |
EP2959672B1 (en) * | 2013-02-21 | 2019-12-04 | Koninklijke Philips N.V. | Improved hdr image encoding and decoding methods and devices |
CN103281537B (en) * | 2013-05-23 | 2016-06-08 | 华为技术有限公司 | A kind of dynamic range of images compression method and device |
US8958658B1 (en) | 2013-09-10 | 2015-02-17 | Apple Inc. | Image tone adjustment using local tone curve computation |
EP2894857A1 (en) * | 2014-01-10 | 2015-07-15 | Thomson Licensing | Method and apparatus for encoding image data and method and apparatus for decoding image data |
WO2015105643A1 (en) * | 2014-01-13 | 2015-07-16 | Marvell World Trade Ltd. | System and method for tone mapping of images |
CN110708545B (en) * | 2014-02-26 | 2022-04-01 | 交互数字Vc控股公司 | Method and apparatus for encoding and decoding HDR image |
EP2927865A1 (en) * | 2014-04-01 | 2015-10-07 | Thomson Licensing | Method and apparatus for encoding and decoding HDR images |
US9380218B2 (en) | 2014-05-30 | 2016-06-28 | Apple Inc. | Highlight exposure metric and its applications |
US9344638B2 (en) * | 2014-05-30 | 2016-05-17 | Apple Inc. | Constant bracket high dynamic range (cHDR) operations |
US9460499B2 (en) * | 2014-05-30 | 2016-10-04 | Shenzhen Mindray Bio-Medical Electronics Co., Ltd. | Systems and methods for selective enhancement of a region of interest in an image |
US9773473B2 (en) * | 2014-06-03 | 2017-09-26 | Nvidia Corporation | Physiologically based adaptive image generation |
GB201410635D0 (en) | 2014-06-13 | 2014-07-30 | Univ Bangor | Improvements in and relating to the display of images |
US20160286241A1 (en) * | 2015-03-24 | 2016-09-29 | Nokia Technologies Oy | Apparatus, a method and a computer program for video coding and decoding |
WO2016181819A1 (en) * | 2015-05-12 | 2016-11-17 | ソニー株式会社 | Image-processing device, image-processing method, and program |
WO2016192937A1 (en) * | 2015-05-29 | 2016-12-08 | Thomson Licensing | Methods, apparatus, and systems for hdr tone mapping operator |
EP3113492A1 (en) | 2015-06-30 | 2017-01-04 | Thomson Licensing | Method and apparatus for determining prediction of current block of enhancement layer |
US10885614B2 (en) | 2015-08-19 | 2021-01-05 | Samsung Electronics Co., Ltd. | Electronic device performing image conversion, and method thereof |
US9621767B1 (en) * | 2015-11-24 | 2017-04-11 | Intel Corporation | Spatially adaptive tone mapping for display of high dynamic range (HDR) images |
CN105744157A (en) * | 2016-02-02 | 2016-07-06 | 西安电子科技大学 | Image pixel sampling value conversion method and device as well as sampling value processing method and device |
WO2017153376A1 (en) * | 2016-03-07 | 2017-09-14 | Koninklijke Philips N.V. | Encoding and decoding hdr videos |
CN107292829B (en) * | 2016-03-31 | 2020-12-15 | 阿里巴巴集团控股有限公司 | Image processing method and device |
US20170289571A1 (en) * | 2016-04-01 | 2017-10-05 | Intel Corporation | Temporal control for spatially adaptive tone mapping of high dynamic range video |
US10129485B2 (en) | 2016-06-10 | 2018-11-13 | Microsoft Technology Licensing, Llc | Methods and systems for generating high dynamic range images |
US10074162B2 (en) | 2016-08-11 | 2018-09-11 | Intel Corporation | Brightness control for spatially adaptive tone mapping of high dynamic range (HDR) images |
JP7054851B2 (en) * | 2016-09-09 | 2022-04-15 | パナソニックIpマネジメント株式会社 | Display device and signal processing method |
EP3301925A1 (en) | 2016-09-30 | 2018-04-04 | Thomson Licensing | Method for local inter-layer prediction intra based |
JP6824817B2 (en) * | 2017-05-17 | 2021-02-03 | キヤノン株式会社 | Image processing device and image processing method |
US10504263B2 (en) | 2017-08-01 | 2019-12-10 | Samsung Electronics Co., Ltd. | Adaptive high dynamic range (HDR) tone mapping with overlay indication |
WO2019045727A1 (en) * | 2017-08-31 | 2019-03-07 | Sony Mobile Communications Inc. | Methods, devices, and computer program products for checking environment acceptability for 3d scanning |
CN107886479A (en) * | 2017-10-31 | 2018-04-06 | 建荣半导体(深圳)有限公司 | A kind of image HDR conversion methods, device, picture processing chip and storage device |
EP3493150A1 (en) * | 2017-11-30 | 2019-06-05 | InterDigital VC Holdings, Inc. | Tone mapping adaptation for saturation control |
US10546554B2 (en) | 2018-03-26 | 2020-01-28 | Dell Products, Lp | System and method for adaptive tone mapping for high dynamic ratio digital images |
JP7117915B2 (en) * | 2018-06-29 | 2022-08-15 | キヤノン株式会社 | Image processing device, control method, and program |
EP3594894A1 (en) * | 2018-07-11 | 2020-01-15 | InterDigital VC Holdings, Inc. | Tone-mapping of colors of a video content |
EP3661188B1 (en) * | 2018-11-27 | 2020-10-28 | Axis AB | A method for reducing intensity variations in a video image stream depicting a scene |
US12050830B2 (en) * | 2019-04-25 | 2024-07-30 | Dolby Laboratories Licensing Corporation | Content-aware PQ range analyzer and tone mapping in live feeds |
CN110400269B (en) * | 2019-07-04 | 2021-08-06 | 汕头大学 | Rapid HDR image tone mapping method |
US11473971B2 (en) | 2019-09-27 | 2022-10-18 | Apple Inc. | Ambient headroom adaptation |
CN111080565B (en) * | 2019-12-11 | 2023-07-18 | 九江学院 | Exposure fusion method, device and storage medium based on image quality change rule |
CN111784607B (en) * | 2020-06-30 | 2024-09-17 | Oppo广东移动通信有限公司 | Image tone mapping method, device, terminal equipment and storage medium |
CN112468737B (en) * | 2020-11-25 | 2022-04-29 | 上海摩象网络科技有限公司 | Method and device for processing exposure weight matrix of automatic exposure area |
WO2022151320A1 (en) * | 2021-01-15 | 2022-07-21 | 深圳市大疆创新科技有限公司 | Image processing method and apparatus, and computer-readable storage medium |
CN115052111A (en) * | 2021-03-08 | 2022-09-13 | 晶晨半导体(上海)股份有限公司 | Image processing method, image processing apparatus, storage medium, and image processing device |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006215756A (en) | 2005-02-02 | 2006-08-17 | Dainippon Ink & Chem Inc | Image processing apparatus, image processing method, and program for the same |
JP2006345509A (en) * | 2005-05-23 | 2006-12-21 | Canon Inc | Image processing method and apparatus |
Family Cites Families (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE69214229T2 (en) | 1991-08-14 | 1997-04-30 | Agfa Gevaert Nv | Method and device for improving the contrast of images |
US5717789A (en) | 1993-09-08 | 1998-02-10 | California Institute Of Technology | Image enhancement by non-linear extrapolation in frequency space |
GB9626676D0 (en) | 1996-12-23 | 1997-02-12 | Smith & Nephew Res | Imaging method |
NZ332626A (en) | 1997-11-21 | 2000-04-28 | Matsushita Electric Ind Co Ltd | Expansion of dynamic range for video camera |
US6359617B1 (en) | 1998-09-25 | 2002-03-19 | Apple Computer, Inc. | Blending arbitrary overlaying images into panoramas |
US6775407B1 (en) | 2000-08-02 | 2004-08-10 | Eastman Kodak Company | Producing a final modified digital image using a source digital image and a difference digital image |
JP4556319B2 (en) * | 2000-10-27 | 2010-10-06 | ソニー株式会社 | Image processing apparatus and method, and recording medium |
US6879731B2 (en) | 2003-04-29 | 2005-04-12 | Microsoft Corporation | System and process for generating high dynamic range video |
US20050117799A1 (en) | 2003-12-01 | 2005-06-02 | Chiou-Shann Fuh | Method and apparatus for transforming a high dynamic range image into a low dynamic range image |
JP3956311B2 (en) * | 2004-02-19 | 2007-08-08 | オムロン株式会社 | Image data conversion device and camera device |
US7623724B2 (en) * | 2005-03-16 | 2009-11-24 | Fabio Riccardi | Interface method and system for mapping image intensity |
US7492962B2 (en) | 2005-08-25 | 2009-02-17 | Delphi Technologies, Inc. | System or method for enhancing an image |
US7821570B2 (en) | 2005-11-30 | 2010-10-26 | Eastman Kodak Company | Adjusting digital image exposure and tone scale |
JP2007193585A (en) * | 2006-01-19 | 2007-08-02 | Konica Minolta Photo Imaging Inc | Image processing method, display controller, reception terminal, and image processing program |
EP2320653B1 (en) | 2006-01-23 | 2015-09-02 | Max-Planck-Gesellschaft zur Förderung der Wissenschaften e.V. | High dynamic range codecs |
US7636496B2 (en) * | 2006-05-17 | 2009-12-22 | Xerox Corporation | Histogram adjustment for high dynamic range image mapping |
JP4267025B2 (en) * | 2006-11-27 | 2009-05-27 | 三菱電機株式会社 | Video display device |
CN100461218C (en) | 2007-03-29 | 2009-02-11 | 杭州电子科技大学 | Method for enhancing medical image with multi-scale self-adaptive contrast change |
JP5041876B2 (en) | 2007-05-22 | 2012-10-03 | 株式会社日立製作所 | Digital broadcast receiver |
JP5188101B2 (en) | 2007-06-01 | 2013-04-24 | 株式会社キーエンス | Magnification observation apparatus, magnified image photographing method, magnified image photographing program, and computer-readable recording medium |
CN101082992A (en) | 2007-07-06 | 2007-12-05 | 浙江大学 | Drawing of real time high dynamic range image and display process |
JP5142614B2 (en) * | 2007-07-23 | 2013-02-13 | 富士フイルム株式会社 | Image playback device |
US8233738B2 (en) | 2007-07-30 | 2012-07-31 | Dolby Laboratories Licensing Corporation | Enhancing dynamic ranges of images |
US8135230B2 (en) | 2007-07-30 | 2012-03-13 | Dolby Laboratories Licensing Corporation | Enhancing dynamic ranges of images |
DE102007041022A1 (en) | 2007-08-29 | 2009-03-05 | Niro-Plan Ag | Apparatus and method for preparing flavored hot drinks, in particular coffee and tea |
US8411938B2 (en) | 2007-11-29 | 2013-04-02 | Sri International | Multi-scale multi-camera adaptive fusion with contrast normalization |
US7471826B1 (en) | 2008-03-31 | 2008-12-30 | International Business Machines Corporation | Character segmentation by slices |
US8346009B2 (en) | 2009-06-29 | 2013-01-01 | Thomson Licensing | Automatic exposure estimation for HDR images based on image statistics |
JP5655334B2 (en) * | 2010-03-19 | 2015-01-21 | ソニー株式会社 | Image processing apparatus and method, and program |
-
2010
- 2010-06-29 KR KR1020117031365A patent/KR101739432B1/en active IP Right Grant
- 2010-06-29 JP JP2012517502A patent/JP5611337B2/en active Active
- 2010-06-29 WO PCT/US2010/001863 patent/WO2011002505A1/en active Application Filing
- 2010-06-29 CN CN201080029221.1A patent/CN102473295B/en active Active
- 2010-06-29 US US13/381,224 patent/US9087382B2/en active Active
- 2010-06-29 EP EP10736865A patent/EP2449526A1/en not_active Withdrawn
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006215756A (en) | 2005-02-02 | 2006-08-17 | Dainippon Ink & Chem Inc | Image processing apparatus, image processing method, and program for the same |
JP2006345509A (en) * | 2005-05-23 | 2006-12-21 | Canon Inc | Image processing method and apparatus |
Non-Patent Citations (1)
Title |
---|
Grzegorz Krawczyk, wt al.,"Computational model of lightness perception in high dynamic range imaging", Proc. SPIE 6057, Human Vision and Electronic Imaging XI, 605708(2006.02.03.)* |
Also Published As
Publication number | Publication date |
---|---|
JP2012532335A (en) | 2012-12-13 |
US9087382B2 (en) | 2015-07-21 |
US20120113130A1 (en) | 2012-05-10 |
JP5611337B2 (en) | 2014-10-22 |
WO2011002505A1 (en) | 2011-01-06 |
KR20120107429A (en) | 2012-10-02 |
CN102473295B (en) | 2016-05-04 |
EP2449526A1 (en) | 2012-05-09 |
CN102473295A (en) | 2012-05-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101739432B1 (en) | Zone-based tone mapping | |
CN108885783B (en) | Encoding and decoding reversible production quality single layer video signals | |
US10419762B2 (en) | Content-adaptive perceptual quantizer for high dynamic range images | |
US10701359B2 (en) | Real-time content-adaptive perceptual quantizer for high dynamic range images | |
Myszkowski et al. | High dynamic range video | |
Zhang et al. | High dynamic range video compression exploiting luminance masking | |
CN107203974A (en) | The methods, devices and systems of HDR HDR to the HDR tones mapping of extension | |
CN108933933B (en) | A kind of video signal processing method and device | |
KR20120112709A (en) | High dynamic range image generation and rendering | |
KR20180123046A (en) | Method and device for encoding high dynamic range picture, corresponding decoding method and decoding device | |
US20230370646A1 (en) | Adaptive local reshaping for sdr-to-hdr up-conversion | |
CN113706412A (en) | SDR-HDR conversion method | |
CN107087163A (en) | A kind of coding method of lifting HDR Subjective video qualities | |
Koz et al. | Methods for improving the tone mapping for backward compatible high dynamic range image and video coding | |
CN110770787A (en) | Efficient end-to-end single-layer reverse display management coding | |
Chiang et al. | Rate–distortion optimization of multi-exposure image coding for high dynamic range image coding | |
Lee et al. | Piecewise tone reproduction for high dynamic range imaging | |
Abebe | High Dynamic Range Imaging | |
WO2023122039A1 (en) | Film grain parameters adaptation based on viewing environment | |
Mantiuk et al. | Perception-inspired high dynamic range video coding and compression | |
WO2023177863A1 (en) | Image optimization in mobile capture and editing applications | |
Shaw et al. | Improved video compression using perceptual modeling | |
Mantiuk | High dynamic range imaging: towards the limits of the human visual perception | |
CN118476231A (en) | Film grain parameter adaptation based on viewing environment | |
WO2023177873A2 (en) | Image optimization in mobile capture and editing applications |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |