BR112016027461B1 - METHOD OF CODING A HIGH DYNAMIC RANGE IMAGE, IMAGE ENCODER ARRANGED TO ENCODE A HIGH DYNAMIC RANGE IMAGE, IMAGE DECODER AROUND TO RECEIVE A HIGH DYNAMIC RANGE IMAGE SIGNAL, AND, METHOD OF DECODING A HIGH DYNAMIC RANGE IMAGE SIGNAL HIGH DYNAMIC RANGE - Google Patents
METHOD OF CODING A HIGH DYNAMIC RANGE IMAGE, IMAGE ENCODER ARRANGED TO ENCODE A HIGH DYNAMIC RANGE IMAGE, IMAGE DECODER AROUND TO RECEIVE A HIGH DYNAMIC RANGE IMAGE SIGNAL, AND, METHOD OF DECODING A HIGH DYNAMIC RANGE IMAGE SIGNAL HIGH DYNAMIC RANGE Download PDFInfo
- Publication number
- BR112016027461B1 BR112016027461B1 BR112016027461-0A BR112016027461A BR112016027461B1 BR 112016027461 B1 BR112016027461 B1 BR 112016027461B1 BR 112016027461 A BR112016027461 A BR 112016027461A BR 112016027461 B1 BR112016027461 B1 BR 112016027461B1
- Authority
- BR
- Brazil
- Prior art keywords
- image
- dynamic range
- ldr
- hdr
- range image
- Prior art date
Links
Classifications
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G3/00—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
- G09G3/20—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
- G09G3/2003—Display of colours
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/10—Intensity circuits
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/30—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/46—Embedding additional information in the video signal during the compression process
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/90—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
- H04N19/98—Adaptive-dynamic-range coding [ADRC]
Abstract
MÉTODO DE CODIFICAÇÃO DE UMA IMAGEM DE ALTA FAIXA DINÂMICA, CODIFICADOR DE IMAGEM DISPOSTO PARA CODIFICAR UMA IMAGEM DE ALTA FAIXA DINÂMICA, DECODIFICADOR DE IMAGEM DISPOSTO PARA RECEBER UM SINAL DE IMAGEM DE ALTA FAIXA DINÂMICA, E, MÉTODO DE DECODIFICAÇÃO DE UM SINAL DE IMAGEM DE ALTA FAIXA DINÂMICA. A presente invenção se refere a possibilitar uma boa tecnologia de codificação de imagem ou de vídeo de HDR, que tem a capacidade de produzir imagens de alta faixa dinâmica, assim como imagens de faixa dinâmica curta; inventou-se um método de codificação de uma imagem de alta faixa dinâmica (M_HDR), que compreende as etapas de: converter a imagem de alta faixa dinâmica em uma imagem de faixa dinâmica de luminância mais curta (LDR_o) aplicando-se a) dimensionamento da imagem de alta faixa dinâmica a uma escala predeterminada do eixo de luma como [0, 1], b) um mapeamento de tom de sensibilidade que muda o brilho das cores de pixel que são abrangidas por ao menos uma subalcance que compreende as cores mais escuras na imagem de alta faixa dinâmica, c) uma função gama, e d) uma função monotonicamente crescente arbitrária que mapeia as lumas resultantes da realização das etapas b (...).METHOD OF CODING A HIGH DYNAMIC RANGE IMAGE, IMAGE ENCODER ARRANGED TO ENCODE A HIGH DYNAMIC RANGE IMAGE, IMAGE DECODER AROUND TO RECEIVE A HIGH DYNAMIC RANGE IMAGE SIGNAL, AND, METHOD OF DECODING A HIGH DYNAMIC RANGE IMAGE SIGNAL HIGH DYNAMIC RANGE. The present invention relates to enabling a good HDR image or video coding technology, which has the ability to produce high dynamic range images, as well as short dynamic range images; a method of encoding a high dynamic range image (M_HDR) was invented, which comprises the steps of: converting the high dynamic range image into a shorter luminance dynamic range image (LDR_o) by applying) scaling of the high dynamic range image to a predetermined scale of the luma axis such as [0, 1], b) a sensitivity tone mapping that changes the brightness of pixel colors that are covered by at least one subrange comprising the most dark areas in the high dynamic range image, c) a gamma function, and d) an arbitrary monotonically increasing function that maps the lumas resulting from performing steps b (...).
Description
[001] A invenção refere-se a codificação de uma imagem (isto é, uma imagem estática), mas, de preferência, mais imagens de alta faixa dinâmica (High Dynamic Range) (isto é, vídeo), e que corresponde a sistemas e métodos da técnica para conduzir as informações de imagem codificadas necessárias para um lado de recebimento, e decodificadores para decodificar as imagens codificadas e, por fim, tornar as mesmas disponíveis para tela.[001] The invention relates to encoding an image (i.e., a static image), but preferably more High Dynamic Range images (i.e., video), and which corresponds to systems and methods of the art for conveying the necessary encoded image information to a receiving side, and decoders for decoding the encoded images and ultimately making the same available for display.
[002] Uma imagem de HDR é uma imagem que codifica as texturas de uma cena de HDR (que pode conter, geralmente, tanto regiões muito brilhantes quanto escuras), de tal maneira, com informações suficientes para a codificação de alta qualidade das texturas de cor dos vários objetos capturados na cena, que uma renderização visualmente de boa qualidade da cena de HDR pode ser realizada em uma tela de HDR com brilho de pico elevado como, por exemplo, 5.000 cd/m2 (5.000 nit). Na presente estrutura de codificação de HDR desenvolvida ao longo dos anos anteriores, também se deseja, ao mesmo tempo, codificar várias subvistas dinâmicas abrangidas nessa cena, o que pode servir como boas imagens de acionamento para várias telas de faixa dinâmica sucessivamente reduzido, ao menos uma aparência de imagem de LDR adequado para acionar, por exemplo, uma tela de pico de brilho de 100 cd/m2 (100 nit).[002] An HDR image is an image that encodes the textures of an HDR scene (which can generally contain both very bright and dark regions), in such a way, with sufficient information for high-quality encoding of the textures of color of the various objects captured in the scene, that a visually good quality rendering of the HDR scene can be performed on an HDR display with a high peak brightness, such as 5,000 cd/m2 (5,000 nit). In the present HDR encoding framework developed over the past years, it is also desired to simultaneously encode several dynamic subviews covered in that scene, which can serve as good trigger images for multiple screens of successively reduced dynamic range, at least an LDR image appearance suitable for driving, for example, a 100 cd/m2 (100 nit) peak brightness display.
[003] Além disso, uma codificação de HDR é, de preferência, geralmente projetada para que a mesma não apenas se correlacione relativamente bem com as tecnologias de codificação de vídeo existentes, mas até mesmo possam se ajustar às estruturas de codificação de imagem ou de vídeo atuais da tecnologia existente, como, por exemplo, armazenamento em disco blu-ray (e suas limitações como quantidade de memória de armazenamento, como também todos os aspectos substancialmente já padronizados), ou conexões por cabo HDMI, ou outros sistemas de transmissão ou armazenamento de imagem etc. Especificamente, os sistemas de codificação de HDR que usam duas imagens codificadas por unidade de tempo (por exemplo, uma imagem de LDR, e uma imagem que tem intensidades de iluminação locais para reforçar cada pixel a um pixel de imagem de HDR) são vistos, especialmente, por fabricantes do aparelho como desnecessariamente complexos.[003] Furthermore, an HDR encoding is preferably generally designed so that it not only correlates relatively well with existing video encoding technologies, but can even fit into existing image or video encoding structures. video of existing technology, such as, for example, blu-ray disc storage (and its limitations such as the amount of storage memory, as well as all substantially already standardized aspects), or HDMI cable connections, or other transmission systems or image storage etc. Specifically, HDR coding systems that use two encoded images per unit time (e.g., an LDR image, and an image that has local lighting intensities to enhance each pixel to an HDR image pixel) are seen, especially, by device manufacturers as unnecessarily complex.
[004] A codificação de vídeo de HDR (ou até mesmo de imagem estática) foi, apenas recentemente, buscada por tentativa e tem sido uma tarefa intimidadora até o momento, e a crença característica é de que a mesma precisa de significativamente mais bits, para codificar os brilhos acima da faixa de LDR dos objetos em cena (por exemplo, codificações que codificam as luminâncias da cena diretamente), ou a mesma precisa de alguma abordagem de duas camadas, sendo que, por exemplo, além de uma imagem de refletância do objeto há uma imagem de reforço de iluminação, ou estratégias de decomposição semelhantes. As abordagens alternativas, como, por exemplo, o sistema de codificação de HDR da Dolby, geralmente, sempre usam tal tecnologia de codificação de HDR de duas camadas (consulte US8248486B1). O documento WO2010/105036 é um outro exemplo de tal sistema de codificação de 2 imagens por unidade de tempo da Dolby. Alguns mapeamentos de tom fixo simples TM (por exemplo, que emula o comportamento da fotografia de celuloide analógica clássica) podem ser usados para mapear uma imagem de LDR para uma classificação de HDR que corresponde à mesma, ou vice-versa. Essa pode ser qualquer função de mapeamento não muito correta (devido ao fato de que o classificador pode ter usado decisões de otimização complicadas, ou seja, sua classificação de LDR), então, pode haver uma diferença considerável entre a predição da imagem original, diga-se, imagem de HDR, e a própria imagem de HDR original, mas isso não é problema devido ao fato de que o sistema pode enviar as diferenças como uma segunda imagem de correção (fluxo de bits residual 742).[004] HDR video (or even still image) encoding has only recently been attempted tentatively and has been a daunting task to date, and the characteristic belief is that it needs significantly more bits, to encode brightnesses above the LDR range of objects in the scene (for example, encodings that encode scene luminances directly), or it needs some two-layer approach, for example, in addition to a reflectance image of the object there is a lighting reinforcement image, or similar decomposition strategies. Alternative approaches, such as Dolby's HDR encoding system, generally always use such a two-layer HDR encoding technology (see US8248486B1). WO2010/105036 is another example of such a Dolby 2-picture-per-unit-time coding system. Some simple TM fixed tone mapping (for example, which emulates the behavior of classic analog celluloid photography) can be used to map an LDR image to an HDR rating that matches it, or vice versa. This could be any mapping function that is not quite correct (due to the fact that the classifier may have used complicated optimization decisions, i.e. its LDR classification), so there could be a considerable difference between the original image prediction, say up, HDR image, and the original HDR image itself, but this is not a problem due to the fact that the system can send the differences as a second correction image (residual bitstream 742).
[005] Um outro exemplo de tal sistema de codificação de duas imagens é o sistema de codificação de HDR de technicolor (documento JCTVC-P0159r1, do 16° encontro do Time de Junta Cooperativa em codificação de vídeo de ITU- T SG 16 WP3, San José de 9 a 17 de janeiro de 2014) que codifica como uma primeira imagem um sinal de baixa resolução que é a iluminação local conforme será normalmente gerado em uma luz de fundo de LED 2D modulada, e a segunda imagem é uma imagem com textura de, normalmente, modulações de faixa dinâmica mais curta após aquele sinal de baixa frequência, que será normalmente gerado após a exibição por meio de sinais de acionamento de válvula de LCD adequados.[005] Another example of such a two-image coding system is the Technicolor HDR coding system (document JCTVC-P0159r1, from the 16th meeting of the Cooperative Board Team on Video Coding of ITU-T SG 16 WP3, San José January 9-17, 2014) which encodes as a first image a low-resolution signal that is local lighting as would normally be generated in a 2D modulated LED backlight, and the second image is a textured image of typically shorter dynamic range modulations after that low frequency signal, which will typically be generated after display via suitable LCD valve drive signals.
[006] A Philips inventou, recentemente, uma abordagem muito mais simples de única imagem(ainda não publicada amplamente, mas alguns aspectos podem ser encontrados nos documentos WO2012/147022 e WO2012/153224), que é uma nova direção na codificação de imagem e de vídeo, e não apenas, a priori, não fácil de imaginar, mas também quando, ao fazer isso, leva a muitas questões técnicas novas a serem solucionadas, o que, entretanto, funciona bem na prática.[006] Philips has recently invented a much simpler single-image approach (not yet widely published, but some aspects of it can be found in documents WO2012/147022 and WO2012/153224), which is a new direction in image coding and of video, and not only, a priori, not easy to imagine, but also when, in doing so, it leads to many new technical issues to be solved, which, however, works well in practice.
[007] Com o termo “alta faixa dinâmica” (HDR) entende-se que qualquer imagem (ou imagens) conforme capturada do lado de captura tenha uma alta razão de luminância e contraste em comparação com a codificação de LDR legado (isto é, razões de luminância e contraste de objeto de 10.000:1 ou mais podem ser manipuladas pela codificação, e todos os componentes da cadeia de manipulação de imagem até a renderização; e as luminâncias de objeto capturado podem estar acima de 1.000 cd/m2 (1.000 nit), ou mais especificamente, podem ser tipicamente reproduzidas/renderizadas acima de 1.000 cd/m2 (1.000 nit) para, devido ao ambiente de reprodução, gerar alguma aparência desejada de, diga-se, uma lâmpada acesa ou exterior ensolarado). E, geralmente, a renderização de tal imagem (ou imagens) é HDR (isto é, as imagens devem ser adequadas no sentido em que as mesmas contêm informações suficientes para a renderização de HDR de alta qualidade, e, de preferência, de uma maneira tecnicamente fácil de usar), o que significa que a imagem (ou imagens) é renderizada ou pretende-se que seja renderizada nas telas com pico de brilho de ao menos 1.000 cd/m2 (1.000 nit) (o que não implica que as mesmas não devem ou não precisam ser, alternativamente, renderizadas em telas de LDR de, por exemplo, pico de brilho de 100 cd/m2 (100 nit), tipicamente, após o mapeamento de cor adequado).[007] By the term “high dynamic range” (HDR) it is meant that any image (or images) as captured from the capture side has a high luminance and contrast ratio compared to legacy LDR encoding (i.e. Object luminance and contrast ratios of 10,000:1 or more can be manipulated by encoding, and all components of the image manipulation chain through rendering; and captured object luminances can be above 1,000 cd/m2 (1,000 nit ), or more specifically, can typically be played/rendered above 1,000 cd/m2 (1,000 nit) to, due to the playback environment, generate some desired appearance of, say, a lit lamp or sunny exterior). And generally, the rendering of such an image (or images) is HDR (that is, the images must be suitable in the sense that they contain sufficient information for high-quality HDR rendering, and preferably in a manner technically easy to use), which means that the image (or images) is rendered or is intended to be rendered on screens with peak brightness of at least 1,000 cd/m2 (1,000 nit) (which does not imply that the same should not or need not be alternatively rendered on LDR displays of, for example, 100 cd/m2 (100 nit) peak brightness, typically after appropriate color mapping).
[008] Recentemente, inúmeras tecnologias de codificação de HDR foram propostas como, por exemplo, o método de camada dupla da Dolby (WO2005/1040035). Entretanto, atualmente, a indústria ainda está buscando uma tecnologia de codificação de vídeo (/imagem) de HDR pragmática que se adeque a todos os requisitos (um saldo dos mesmos), como os fatores importantíssimos como quantidade de dados, mas também, complexidade computacional (preço de ICs), facilidade de introdução, versatilidade para os artistas criarem o que desejarem etc. Especificamente, uma abordagem de camada dupla é vista como desnecessariamente complexa. Alguém, idealmente, gostaria de ter a capacidade de projetar uma tecnologia de codificação que se adeque à codificação legada, como, por exemplo, a codificação de HEVC de MPEG baseada em DCT. Um problema é que isso é um tanto contra intuitivo: como se pode codificar uma imagem de HDR, que deveria ser, por definição, algo diferente de uma imagem de LDR, que tem geralmente uma quantidade maior de alcances de brilho/luminância interessantes, em uma tecnologia otimizada para conter imagens de LDR? Esses sistemas de manipulação/codificação de imagem de LDR legado foram projetados e otimizados para funcionar com os típicos cenários de imageamento de LDR, que são normalmente bem iluminados com, por exemplo, uma razão de iluminação em estúdio de 4:1(ou, por exemplo, 10:1), fornecendo para a maioria dos objetos (que pode variar em refletância entre, diga-se, 85% para branco e 5% para preto) na vista, uma razão de contraste total de cerca de 68:1 (respectivamente, 170:1). Caso se observe a renderização relativa (isto é, mapear a imagem branca para o branco da tela disponível) das luminâncias do objeto que começam a partir de um pico de branco, um típico monitor LCD anterior sem regulação de intensidade de luz local teria tido algo como 100 cd/m2 (100 nit) de branco e 1 cd/m2 (1 nit) de preto, o que estaria correlacionado à razão de contraste de imagem e, geralmente, se pensaria que nos sistemas de CRT médios que podem ter sido observados também durante o dia teriam algo como uma capacidade de 40:1. O fato de existir uma função gama de alocação de código de luminância de legado padrão de 2,2 nesses sistemas pareceu satisfatório para a maioria dos cenários de contraste de cena ainda superior. Embora alguns erros tidos como aceitáveis atualmente tenham sido cometidos, tais erros de renderização de regiões de cena de luminância elevada codificadas de modo ruim (por exemplo, grande limitação de exteriores claros atrás de uma janela) eram também aceitáveis devido ao fato de que as telas de LDR não poderiam, de qualquer modo, renderizar essas luminâncias de objeto fisicamente precisas.[008] Recently, numerous HDR encoding technologies have been proposed, such as Dolby's dual layer method (WO2005/1040035). However, currently, the industry is still looking for a pragmatic HDR video (/image) coding technology that fits all requirements (a balance of them), such as the very important factors such as quantity of data, but also computational complexity (price of ICs), ease of introduction, versatility for artists to create whatever they want, etc. Specifically, a dual-layer approach is seen as unnecessarily complex. One would ideally like to have the ability to design an encoding technology that suits legacy encoding, such as DCT-based MPEG HEVC encoding. One problem is that this is somewhat counterintuitive: how can you encode an HDR image, which should by definition be something different from an LDR image, which generally has a greater number of interesting brightness/luminance ranges, instead of a technology optimized to contain LDR images? These legacy LDR image manipulation/encoding systems have been designed and optimized to work with typical LDR imaging scenarios, which are typically well lit with, for example, a 4:1 studio lighting ratio(or, for example, example, 10:1), providing for most objects (which can vary in reflectance between, say, 85% for white and 5% for black) in the view, a total contrast ratio of about 68:1 ( respectively, 170:1). If one observes the relative rendering (i.e., mapping the white image to the available screen white) of object luminances that start from a white peak, a typical earlier LCD monitor without local light intensity regulation would have had something such as 100 cd/m2 (100 nit) white and 1 cd/m2 (1 nit) black, which would correlate to the image contrast ratio and generally one would think that on average CRT systems that may have been observed also during the day they would have something like a 40:1 capacity. The fact that there is a standard legacy luminance code allocation gamma function of 2.2 in these systems seemed satisfactory for most even higher scene contrast scenarios. Although some errors currently considered acceptable were made, such errors in rendering poorly encoded high luminance scene regions (e.g., severely limiting bright exteriors behind a window) were also acceptable due to the fact that screens of LDR could not, in any case, render these physically accurate object luminances.
[009] Entretanto, existem cenários para os quais há, no momento, um desejo de aprimorar a renderização como, por exemplo, uma cena em ambiente interno na qual um indivíduo pode ver simultaneamente ambientes externos ensolarados, em cujo caso pode haver uma razão de iluminação de 100:1 ou até mais. Com a renderização relativa linear (isto é, focalização nas primeiras regiões codificadas com mais brilho, ou equivalentemente, o cinza intermediário das regiões de cena com mais brilho, e mapeamento do branco da imagem para o branco da tela), o branco das partes internas faria o mapeamento para o preto psicovisual para o espectador! Então, em LDR, essas regiões ensolaradas normalmente aparecerão como limitadas (moderadamente) (geralmente, já na imagem codificada que tem dificuldade de discriminar códigos em torno de 255, no máximo, para esses pixels). Entretanto, em uma tela de HDR, deseja-se mostrar as mesmas tanto brilhantes quanto coloridas. Isso forneceria uma renderização muito mais naturalística e espetacular de tais cenas (como se você realmente estivesse de férias na Itália), mas mesmo cenas em que o conteúdo de brilho mais elevado é apenas composto de algumas reflexões especulares já mostra um aprimoramento de qualidade visual maior. Se os artefatos como erros de limitação ou quantização não parecerem inconvenientes, por exemplo, em uma tela de 5.000 ou 10.000 cd/m2 (5.000 ou 10.000 nit), deseja-se, ao menos, ter a capacidade de conduzir tais telas de HDR com o tipo certo de imagem, para que as imagens renderizadas sejam tão bonitas quanto a tela de HDR permitir.[009] However, there are scenarios for which there is currently a desire to improve rendering, for example, an indoor scene in which an individual may simultaneously view sunny outdoor environments, in which case there may be a reason to illumination of 100:1 or even more. With linear relative rendering (i.e., focusing on the first brightest encoded regions, or equivalently, the middle gray of the brightest scene regions, and mapping the white of the image to the white of the screen), the white of the inner parts would map it to psychovisual black for the viewer! So in LDR, these sunny regions will normally appear as (moderately) limited (usually already in the encoded image which has difficulty discriminating codes around 255 at most for these pixels). However, on an HDR screen, you want to show them both bright and colorful. This would provide a much more naturalistic and spectacular rendering of such scenes (as if you were actually on vacation in Italy), but even scenes where the higher brightness content is just made up of some specular reflections already show a greater visual quality improvement. . If artifacts such as limiting or quantization errors do not appear to be inconvenient, for example on a 5,000 or 10,000 cd/m2 (5,000 or 10,000 nit) display, one would at least want the ability to drive such HDR displays with the right type of image, so that the rendered images are as beautiful as the HDR screen allows.
[0010] O pensamento clássico era, entretanto, que para codificar faixas adicionais de brilho em excesso, precisaria se ter (muito) mais bits, que são os bits superiores que codificam as luminâncias de objeto acima de uma faixa de LDR. Isso poderia acontecer através da codificação natural em palavras de código único maiores (como OpenEXR com 16 bits dos quais um bit de sinal, exponente de 5 bits e mantissa de 10 bits, ou codificação de LogLuv de Ward, que tenta rigorosamente de modo matemático capturar todas as possibilidades de luminâncias de objeto com alta precisão), ou com o uso de uma primeira camada com códigos de alcance de LDR padrão (por exemplo, uma aproximação de JPEG clássica da imagem de HDR), e uma segunda camada para aprimorar tais luminâncias de pixel para brilho superior (por exemplo, uma imagem de reforço para reforçar cada pixel, caso necessário, para uma luminância superior, isto é, uma multiplicação de duas tais imagens de 8 bits equivalentes a um único código de 16 bits linear).[0010] The classical thinking was, however, that to encode additional excess brightness ranges, one would need to have (many) more bits, which are the upper bits that encode object luminances above an LDR range. This could happen through natural encoding into larger single code words (such as OpenEXR with 16 bits of which a sign bit, 5-bit exponent and 10-bit mantissa, or Ward's LogLuv encoding, which rigorously mathematically attempts to capture all possible object luminances with high precision), or using a first layer with standard LDR range codes (for example, a classic JPEG approximation of the HDR image), and a second layer to enhance such luminances of pixel for higher brightness (e.g., a boost image to boost each pixel, if necessary, to higher luminance, i.e., a multiplication of two such 8-bit images equivalent to a single 16-bit linear code).
[0011] Um grande problema prático a ser solucionado quando se projeta uma tecnologia de codificação de HDR prática, além do fato de que, logicamente, precisa ter a capacidade de manipular uma grande gama de imagens de diferentes HDR, é que os fabricantes de hardware desejam quantidades menores de bits por palavra-código (canal, isto é, a luma, e dois canais cromáticos), entretanto, e embora a presente tecnologia proposta abaixo possa também funcionar com palavras com mais bits, propõe-se uma solução que funciona bem sob uma limitação de 10 bits para ao menos um canal de luminância (ou, mais precisamente, uma luma) (nota- se que, embora sejam elucidadas as modalidades com um canal de luminâncias, os presentes conceitos podem, com as devidas alterações, ser concretizados como funcionando em representações de cor de RGB (lineares ou não lineares) etc.). Além disso, foi desenvolvida uma estrutura que pode realizar, em uma filosofia dupla, tanto a codificação de pixels de cor (da aparência de HDR por meio de uma imagem de LDR) quanto a conversão de aparência de cor para diversos cenários de renderização (isto é, as aparências ideais necessárias para renderizar uma cena em diversas telas com diferentes picos de brilho, por exemplo, PB = 800 nit) de uma maneira funcional, o que significa que apenas as funções precisam ser co-codificadas quando se codifica a aparência de ao menos uma classificação adicional e, especificamente uma aparência de HDR além de uma aparência de LDR, em vez de, para cada figura, ao menos uma segunda figura.[0011] A major practical problem to be solved when designing a practical HDR encoding technology, besides the fact that it logically needs to have the ability to handle a wide range of images of different HDR, is that hardware manufacturers desire smaller amounts of bits per codeword (channel, i.e. the luma, and two chromatic channels), however, and although the present technology proposed below can also work with words with more bits, a solution is proposed that works well under a limitation of 10 bits for at least one luminance channel (or, more precisely, one luma) (note that, although modalities with a luminance channel are elucidated, the present concepts can, with due modifications, be realized as functioning in RGB color representations (linear or non-linear) etc.). Furthermore, a framework has been developed that can perform, in a dual philosophy, both color pixel encoding (from HDR appearance through an LDR image) and color appearance conversion for various rendering scenarios (i.e. is, the ideal appearances needed to render a scene on multiple screens with different peak brightness, e.g. PB = 800 nit) in a functional manner, meaning that only the functions need to be co-coded when encoding the appearance of at least one additional rating, and specifically an HDR appearance in addition to an LDR appearance, rather than, for each figure, at least a second figure.
[0012] Têm-se, atualmente, duas categorias de sistemas de codificação de HDR, uma vez que o mercado gostaria de tal versatilidade em um sistema de codificação, devido aos vários reprodutores e suas necessidades diferentes. No sistema de modo-i(ou aparência de HDR codificada como uma única imagem de definição, por exemplo, em um disco de BD, ou um fluxo de imagens de AVC ou HEVC através de uma conexão de rede), usa-se uma imagem de aparência de HDR como a imagem de único pixel, que é usada para codificar as texturas de cor e formatos do objeto (consultar no documento WO2015007505 do requerente como tal única imagem de HDR pode ser enviada para um receptor para definir as cores de pixel de ao menos a aparência de HDR, e como com as funções de reclassificação adequadas o receptor pode calcular, por meio de processamento das cores nessa imagem, outras imagens aparências). Com isso, deve-se que toma-se a imagem de classificação superior de HDR original, isto é, uma imagem idealmente classificada colorida parece melhor em uma tela de HDR de referência como, por exemplo, tipicamente uma tela de pico de brilho de 5.000 cd/m2 (5.000 nit), e que se transforme a mesma apenas minimamente: aplique apenas basicamente uma função de alocação de código ou função de transferência Optoeletrônica OETF (nota-se que embora essa OETF defina como as luminâncias da cena conforme capturadas, por exemplo, por uma câmera são transferidas para códigos luma, os engenheiros de televisão, em vez disso, gostam de especificar a função inversa que é a função de transferência eletro-óptica EOTF para ir de códigos luma para luminâncias renderizadas de tela de referência) com o uso da OETF idealmente aloca os 10 bit de códigos disponíveis, por exemplo, para o canal de luma Y’ através de todos os valores de brilho, um indivíduo precisa ser capaz de realizar em uma tela de referência [0 a 5.000] cd/m2 ( [0 a 5.000] nit). Outras classificações desejadas para diferentes picos de brilho podem, então, ser realizadas transformando-se essa imagem de aparência de HDR. Na presente estrutura, permite-se esse ajuste de aparência de tela realizando-se, geralmente, apenas uma segunda classificação que está na outra extremidade do alcance de telas possíveis a serem servidas, ou seja, uma aparência que é ideal ou razoável de acordo com o criador de conteúdo/classificador de cor para uma tela de pico de brilho de 100 cd/m2 (100 nit) (que é, normalmente, a tela de referência para a categoria de telas de LDR). Nota-se que essa é uma co-codificação de uma aparência adicional em vez de uma mera etapa de recoloração do lado da criação. Essa transformação de cor necessária é determinada mediante a aplicação de funções de mapeamento como funções gama que realizam um reajuste de brilho global (por exemplo, clareia as cores mais escuras na imagem), as curvas arbitrárias em formato de S ou inversas em formato de S para ajustar o contraste local, funções de processamento de saturação de cor para ajustar, por exemplo, a saturação para o brilho correspondente de alguns objetos ou regiões na imagem etc. Pode-se, de modo liberal, co-codificar essas funções (quaisquer que sejam as funções necessárias, contanto que pertençam a um conjunto limitado de funções de base que o receptor pode entender de uma maneira padronizada) como metadados associados à imagem de aparência de HDR pixelizada, em cujo caso se DEFINE, de modo paramétrico, a segunda imagem de classificação de aparência de LDR da imagem de aparência de HDR (isto é, não é mais necessário codificar essa imagem de aparência de LDR como uma imagem de pixel). Nota-se, cuidadosamente, a diferença com sistemas de codificação de duas camadas: no presente sistema, as funções de transformação de cor é tudo o que é codificado sobre a segunda aparência com capacidade de reclassificar a segunda aparência no receptor, então, em vez das funções aproximadas de tecnologias de 2 imagens, as presentes funções contêm o conhecimento inteligente total de como as iluminações dos vários objetos devem se comportar em várias aparências de renderização de acordo com o criador de conteúdo. Dado esse conhecimento de como os artistas criadores desejam parecer para transformar, a partir da primeira aparência para telas com um primeiro nível de capacidades de renderização de cor para uma segunda aparência para telas com um segundo nível de capacidades de renderização de cor (especificamente, o pico de brilho de tela), uma tela com capacidades intermediárias (por exemplo, 1.200 cd/m2 (1.200 nit) pico de brilho) podem, então, obter automaticamente uma imagem de acionamento mais ideal para essa situação de renderização com o uso do conhecimento nas duas classificações e interpolação (por exemplo, a tela pode realizar uma mistura assimétrica das duas imagens pixelizadas da aparência de HDR e da imagem de aparência de LDR derivada da imagem de aparência de HDR e as transformações funcionais, nas quais as porcentagens de mistura multiplicativas são determinadas por quão próxima a tela de HDR ou de LDR da tela atual está em uma escala não linear psicovisual), o que será melhor do que acionar a tela com a imagem de aparência de HDR ou a imagem de aparência de LDR original.[0012] There are currently two categories of HDR coding systems, as the market would like such versatility in a coding system, due to the various players and their different needs. In the i-mode system (or HDR appearance encoded as a single definition image, for example, on a BD disc, or a stream of AVC or HEVC images over a network connection), an image is used of HDR appearance as the single pixel image, which is used to encode the color textures and shapes of the object (see applicant's document WO2015007505 how such a single HDR image can be sent to a receiver to define the pixel colors of at least the HDR appearance, and as with suitable reclassification functions the receiver can calculate, by processing the colors in this image, other image appearances). This means taking the original HDR top-rated image, that is, an ideally color-rated image looks best on a reference HDR display, for example, typically a 5,000 peak brightness display. cd/m2 (5,000 nit), and that transforms it only minimally: apply only basically a code allocation function or OETF Optoelectronic transfer function (note that although this OETF defines how the luminances of the scene as captured, for example, by a camera are transferred to luma codes, television engineers instead like to specify the inverse function which is the EOTF electro-optical transfer function to go from luma codes to reference screen rendered luminances) with Using the OETF ideally allocates the 10 bits of codes available, for example, to the luma channel Y' across all brightness values, an individual needs to be able to perform on a reference screen [0 to 5,000] cd/ m2 ([0 to 5,000] nit). Other desired ratings for different brightness peaks can then be accomplished by transforming this HDR appearance image. In the present structure, this adjustment of screen appearance is allowed by generally performing only a second classification that is at the other end of the range of possible screens to be served, that is, an appearance that is ideal or reasonable according to the content creator/color classifier for a 100 cd/m2 (100 nit) peak brightness display (which is typically the reference display for the LDR display category). Note that this is a co-coding of an additional appearance rather than a mere recolor step on the creation side. This required color transformation is determined by applying mapping functions such as gamma functions that perform a global brightness readjustment (e.g., lightens the darkest colors in the image), arbitrary S-shaped curves, or inverse S-shaped curves. to adjust local contrast, color saturation processing functions to adjust, for example, saturation for the corresponding brightness of some objects or regions in the image, etc. One can liberally co-code these functions (whatever functions are needed, as long as they belong to a limited set of base functions that the receiver can understand in a standardized way) as metadata associated with the appearance image of Pixelated HDR, in which case you parametrically DEFINE the second LDR appearance classification image from the HDR appearance image (i.e., it is no longer necessary to encode this LDR appearance image as a pixel image). Note carefully the difference with two-layer coding systems: in the present system, the color transformation functions are all that are encoded on the second appearance with the ability to reclassify the second appearance at the receiver, so instead From the approximate functions of 2-image technologies, the present functions contain the total intelligent knowledge of how the illuminations of the various objects should behave in various rendering appearances according to the content creator. Given this knowledge of how creative artists want to appear to transform, from the first appearance for screens with a first level of color rendering capabilities to a second appearance for screens with a second level of color rendering capabilities (specifically, the screen brightness peak), a screen with intermediate capabilities (e.g. 1200 cd/m2 (1200 nit) peak brightness) can then automatically obtain a more ideal drive image for that rendering situation using knowledge in the two classifications and interpolation (for example, the screen may perform an asymmetric blend of the two pixelated images of the HDR appearance and the LDR appearance image derived from the HDR appearance image and the functional transformations, in which the multiplicative blend percentages are determined by how close the HDR or LDR screen is to the current screen on a non-linear psychovisual scale), which will be better than triggering the screen with the HDR appearance image or the original LDR appearance image.
[0013] Essa é uma definição potente, embora simples não somente de uma aparência de imagem (HDR) única em uma cena (por exemplo, uma renderização de 5.000 cd/m2 (5.000 nit)), mas uma estrutura total para acionar renderizações razoáveis da cena para várias telas possíveis no campo como em uma residência do consumidor (e, ainda, a adaptação potencial para visualizar o ambiente, por exemplo, aplicando-se uma modelagem pós-gama à sensibilidade de contraste alterada da visão humana sob várias iluminâncias circundantes). É principalmente útil, por exemplo, para aplicações/cenários nos quais um criador tenha realizado uma boa versão de HDR de seu conteúdo e deseja ter antecipadamente essa aparência de HDR na codificação atual enviada para os receptores (por exemplo, em um disco de BD de HDR, ou mediante o pedido de um filme de HDR online através da internet, ou uma difusão de televisão da HDR etc.). Não é necessário que um cliente que adquire essa versão de conteúdo tem, de fato, uma tela de HDR, uma vez que o mesmo pode adquirir a mesma para mais tarde, quando tiver uma tela de HDR e pode, agora, usar a conversão de HDR-2-LDR, mas seria a opção preferenciada quando o cliente desejar o conteúdo para sua tela de HDR.[0013] This is a powerful yet simple definition of not just a single image appearance (HDR) in a scene (e.g., a 5,000 cd/m2 (5,000 nit) render), but a total framework for triggering reasonable renders of the scene to various possible screens in the field such as in a consumer home (and further, the potential adaptation to viewing the environment, for example, applying post-gamma modeling to the altered contrast sensitivity of human vision under various surrounding illuminances ). It is mainly useful, for example, for applications/scenarios where a creator has made a good HDR version of their content and wants to have that HDR look in advance in the actual encoding sent to the receivers (e.g. on a BD disc of HDR, or by ordering an HDR movie online via the internet, or an HDR television broadcast, etc.). It is not necessary for a customer who purchases this version of content to actually have an HDR screen, as they can purchase the same for later, when they have an HDR screen and can now use the image conversion. HDR-2-LDR, but would be the preferred option when the customer wants content for their HDR screen.
[0014] Enquanto a maneira de codificação de cenas de HDR de aparência de HDR (conforme explicado, o modo i que é aquele modo de ao menos imagens de aparência de HDR codificadas como uma imagem de pixel, mas, de fato, também promove aparências nessa mesma cena que são codificadas, então, parametricamente com funções de transformação de cor, como, por exemplo, uma modalidade de limitação, na qual a aparência de LDR isola um subalcance da imagem de HDR e limita o restante) já impõe desafios técnicos significativos para obter um novo sistema técnico pragmático para futuras imagens, mas, principalmente, também para codificação de vídeo (levando-se em conta tais fatores como simplicidade de projeto de IC (integrated circuit - circuito integrado) para os fabricantes de hardware, permitindo, ainda, que os desenvolvedores de conteúdo criem quaisquer conteúdos bonitos de HDR que desejem criar como filmes de ficção científica, programas de televisão espetaculares ou documentários sobre a natureza etc., com muitos efeitos de HDR criativos como lâmpadas que realmente parecem estar acesas), o mercado deseja ainda uma outra camada de complexidade, que será ensinada neste relatório de patente.[0014] While the way of encoding HDR appearance HDR scenes (as explained, the i mode which is that mode of at least HDR appearance images encoded as a pixel image, but in fact also promotes appearance in that same scene that are then encoded parametrically with color transformation functions, such as, for example, a limiting modality, in which the LDR appearance isolates a subrange of the HDR image and limits the rest) already imposes significant technical challenges to obtain a new pragmatic technical system for future imaging, but mainly also for video coding (taking into account such factors as simplicity of IC (integrated circuit) design for hardware manufacturers, while still allowing , for content developers to create whatever beautiful HDR content they want to create like sci-fi movies, spectacular television shows or nature documentaries, etc., with lots of creative HDR effects like light bulbs that actually appear to be lit), the market wants yet another layer of complexity, which will be taught in this patent report.
[0015] Ou seja, para algumas aplicações (que serão chamadas de modo-ii), pode ser desejável ter uma imagem de aparência de LDR como a única imagem pixelizada que codifica os objetos da cena, que é, por exemplo, gravada como a única imagem em um disco blu-ray. Embora o criador de conteúdo também se preocupe muito com a qualidade da aparência de HDR, o mesmo se atenta muito na aparência de LDR que é semelhante a como seria com as tecnologias de legado. Haverá, então, geralmente parâmetros de função co-codificados em metadados associáveis para derivar uma imagem de aparência de HDR ao atualizar a imagem de aparência de LDR que foi comunicada no sinal de imagem S_im. Pode haver várias razões para se escolher essa variante de modo-ii (ou aparência de LDR), que pode, por exemplo, ser para sistemas de legado que não têm capacidade de realizar qualquer processamento (por exemplo, se um indivíduo preferir codificar a única imagem em uma modalidade específica que codifica as cores como cores de Y’uv em vez de uma codificação de YCrCb, um indivíduo poderia, ainda, codificar isso em uma estrutura de HEVC de legado, fazendo de conta que a imagem de Y’uv é uma imagem de YCrCb com colorido incomum e com o uso adicional de esquemas de codificação baseados em DCT de legado, como padronizado em um dos membros da família de codec de MPEG), mas também para aplicações que precisam de uma aparência de LDR (por exemplo, ao assistir um filme em uma tela portátil com pouco brilho) e pode não desejar realizar muito processamento. Ou, talvez, o criador não deseja investir muito tempo na criação de uma aparência de HDR perfeita (mas, por exemplo, apenas um rápido ajuste mínimo de sintonia fina de uma autoconversão de LDR-2- HDR que, por exemplo, isola as regiões brilhantes e as reforça de modo não linear, por exemplo, para uma remasterização de um filme antigo de “O Gordo e o Magro”), e considera sua aparência de LDR ser a classificação mestre mais importante das aparências de LDR e HDR, que deve ser diretamente codificada sem precisar de qualquer transformação de cor, com possíveis erros de cor. Por exemplo, uma emissora de televisão pode escolher essa opção, especialmente para transmissões sobre a vida real (por exemplo, as notícias podem não precisar estar no HDR mais espetacular).[0015] That is, for some applications (which will be called mode-ii), it may be desirable to have an LDR appearance image as the only pixelated image encoding the objects in the scene, which is, for example, recorded as the Single image on a Blu-ray disc. Although the content creator also cares a lot about the quality of the HDR appearance, he pays a lot of attention to the LDR appearance, which is similar to what it would be like with legacy technologies. There will then generally be function parameters co-coded into bindable metadata to derive an HDR appearance image by updating the LDR appearance image that was communicated in the S_im image signal. There may be several reasons for choosing this mode-ii variant (or LDR appearance), which may, for example, be for legacy systems that do not have the capability to perform any processing (e.g., if an individual prefers to encode the single image in a specific modality that encodes the colors as Y'uv colors rather than a YCrCb encoding, an individual could still encode this in a legacy HEVC structure, pretending that the Y'uv image is a YCrCb image with unusual coloring and with the additional use of legacy DCT-based coding schemes, as standardized in one of the members of the MPEG codec family), but also for applications that need an LDR appearance (e.g. , when watching a movie on a portable screen with low brightness) and may not want to do much processing. Or perhaps the creator doesn't want to invest a lot of time in creating a perfect HDR look (but, for example, just a quick minimal fine-tune adjustment of an LDR-2-HDR autoconversion that, for example, isolates regions and enhances them in a non-linear fashion, for example, for a remaster of an old “The Fat and the Skinny” film), and considers its LDR appearance to be the most important master rating of LDR and HDR appearances, which should be directly coded without needing any color transformation, with possible color errors. For example, a television broadcaster may choose this option, especially for broadcasts about real life (for example, the news may not need to be in the most spectacular HDR).
[0016] Essa codificação de aparência de LDR (modo ii) tem, no entanto, complexidade adicional devido à natureza matemática do problema e à matemática de codificação por um lado, versus desejos de classificação artística liberal por outro lado, o que torna isso uma tarefa desencorajadora para se produzir uma boa estrutura técnica. Para ser mais preciso, por um lado, precisa-se de funções que, primeiro, diminuam a classificação de uma imagem de HDR mestre desejada e, no receptor com essas funções recebidas (ou as funções inversas da diminuição, de fato) o receptor possa atualizar para ao menos uma aproximação próxima da imagem de HDR original novamente, isto é, na função de metadados, os dados de parâmetro serão parâmetros para funções (derivadas pelo codificador das funções que o classificador usou na redução do HDR mestre) que podem mapear a única imagem de LDR para uma predição de HDR suficientemente próxima Rec_HDR. Mas, por outro lado, a imagem de LDR deve, quando diretamente renderizada em uma tela de +- 100 cd/m2 (100 nit), isto é, sem mais transformação de cor, parecer suficientemente boa de acordo com o classificador de cor também. Então, haverá um equilíbrio entre a seleção das funções, e como irão influenciar as aparências de LDR Rec_HDR, e que, também levando em conta outras questões, como os fabricantes de CI ou de aparelho gostariam de ver um conjunto limitado de funções padrão que são úteis para a reclassificação de aparências, e os criadores de conteúdo desejam que essas funções especifiquem rapidamente quais aparências eles desejam, uma vez que o tempo de classificação é caro e a temporização das liberações do filme pode ser crítica. Na descrição abaixo, será descrito um sistema prático para manipular essa variante de modo ii de codificação de cena de HDR.[0016] This LDR appearance coding (mode ii) has, however, additional complexity due to the mathematical nature of the problem and the mathematics of coding on the one hand, versus desires for liberal artistic classification on the other hand, which makes this a daunting task to produce a good technical structure. To be more precise, on the one hand, one needs functions that first decrease the rating of a desired master HDR image, and in the receiver with these received functions (or the inverse functions of the decrease, in fact) the receiver can update to at least a close approximation of the original HDR image again, that is, in the metadata function, the parameter data will be parameters to functions (derived by the encoder from the functions the classifier used in reducing the HDR master) that can map the single LDR image for sufficiently close HDR prediction Rec_HDR. But on the other hand, the LDR image must, when directly rendered on a +- 100 cd/m2 (100 nit) screen, i.e. without further color transformation, look good enough according to the color classifier as well. . So there will be a balance between the selection of functions, and how they will influence the LDR Rec_HDR appearances, and that, also taking into account other issues, such as IC or device manufacturers would like to see a limited set of standard functions that are useful for reclassifying appearances, and content creators want these functions to quickly specify which appearances they want, since classification time is expensive and the timing of film releases can be critical. In the description below, a practical system for handling this mode II variant of HDR scene encoding will be described.
[0017] Os documentos a seguir estão tangencialmente relacionados à presente invenção, mas, não obstante, é de interesse mencioná-los e distingui-los.[0017] The following documents are tangentially related to the present invention, but, nevertheless, it is of interest to mention and distinguish them.
[0018] Durante a reunião de Sapporo MPEG2014/M34274, R. van de Vleuten et al. da Philips publicaram (julho de 2014, então, após a data de prioridade deste pedido) “Proposed electro-optical transfer function (EOTF) for HDR video delivery”. Esse documento contém o EOTF que é também usado para as presentes modalidades para realizar um pré-mapeamento para a faixa dinâmica LDR. Entretanto, esse documento ensina apenas que esse EOTF tem boas propriedades de correlação com o aparecimento de iluminação humana, e por isso, poderia ser útil como uma função de alocação de código luma para codificação de imagem de HDR. Ergo, claramente, o que, no máximo, pode ser derivado desse documento, é um ensinamento ou uma inspiração de que se for desejado codificar uma única imagem ou vídeo de HDR mestre, isto é, as imagens com lumas de pixel codificadas para, por exemplo, uma tela de 5.000 nit, então, esse EOTF é útil. A codificação somente de um vídeo de HDR significa que há apenas imagens definidas com referência ao pico de brilho de, por exemplo, 1.000 nit ou 5.000 nit, que precisa ser comunicado aos receptores, e não há nada mais, em particular, nenhuma outra aparência classificada nas mesmas imagens de cena como imagens de LDR com pico de brilho de 100 nit, que também precisam ser comunicadas. Essa codificação única de vídeo de HDR é muito mais simples tecnicamente, e uma vista diferente na codificação de HDR que não é o que a presente invenção ensina. Tais imagens apenas de HDR não são adequadas para a exibição direta em telas de LDR legado, que tem tipicamente um pico de brilho de cerca de 100 nit, como, por exemplo, as regiões escuras se parecerão muito mais escuras em tal tela que é 50 vezes mais escura do que a tela de 5.000 nit para a qual as imagens de HDR foram criadas. Conforme claramente mencionado acima, o presente pedido fornece tecnologias para os cenários em cujos casos não se deseja conduzir as informações de HDR de uma cena de HDR original para um receptor, mas pode-se desejar, de fato, comunicar uma versão de LDR de tal imagem (de uma maneira que, entretanto, permite a imagem reconstruída da imagem de HDR no receptor), que fornece uma aparência adequada quando renderizada diretamente em uma tela de legado, isto é, com as regiões escuras não sendo muito escuras. Ou seja, um requisito técnico muito diferente da codificação apenas de imagem de HDR e, por isso, este pedido ensina fatores adicionais bem contemplados.[0018] During the Sapporo MPEG2014/M34274 meeting, R. van de Vleuten et al. of Philips published (July 2014, then, after the priority date of this request) “Proposed electro-optical transfer function (EOTF) for HDR video delivery”. This document contains the EOTF which is also used for the present embodiments to perform a pre-mapping for the LDR dynamic range. However, this document only teaches that this EOTF has good correlation properties with the appearance of human lighting, and therefore, it could be useful as a luma code allocation function for HDR image coding. Ergo, clearly, what, at most, can be derived from this document, is a teaching or an inspiration that if it is desired to encode a single master HDR image or video, that is, images with pixel lumas encoded to, e.g. example, a 5,000 nit screen, then this EOTF is useful. Encoding only an HDR video means that there are only images defined with reference to the peak brightness of, for example, 1000 nit or 5000 nit that need to be communicated to the receivers, and there is nothing else, in particular, no other appearance classified in the same scene images as LDR images with 100 nit peak brightness, which also need to be reported. This unique HDR video encoding is much simpler technically, and a different view on HDR encoding is not what the present invention teaches. Such HDR-only images are not suitable for direct display on legacy LDR displays, which typically have a peak brightness of about 100 nits, as, for example, dark regions will appear much darker on such a display that is 50 nits. times darker than the 5,000 nit screen the HDR images were created for. As clearly mentioned above, the present application provides technologies for scenarios in which it is not desired to convey the HDR information of an original HDR scene to a receiver, but one may wish to in fact communicate an LDR version of such image (in a way that, however, allows reconstructed imaging of the HDR image in the receiver), which provides a suitable appearance when rendered directly on a legacy screen, that is, with the dark regions not being too dark. In other words, a very different technical requirement from HDR image-only encoding and, therefore, this request teaches additional well-considered factors.
[0019] O documento m34165 da mesma reunião de Sapporo de Tourapis et al. “Report on the XYZ/HDR exploratory experiment 1: EOTFs for XYZ HDR delivery”, semelhantemente é apenas um estudo sobre como várias funções de EOTF são realizadas quando apenas imagens de HDR são codificadas com as mesmas (devido ao fato de que o uso de EOTF errado pode levar a bandagem no lado de recebimento), isto é, sem qualquer consideração, ou até mesmo, mencionam uma necessidade de uma imagem de LDR, deixar a qualidade visual ou artística dessa imagem de LDR.[0019] Document m34165 from the same Sapporo meeting by Tourapis et al. “Report on the XYZ/HDR exploratory experiment 1: EOTFs for Wrong EOTF can lead to banding on the receiving side), that is, without any consideration, or even mentioning a need for an LDR image, leave the visual or artistic quality of that LDR image.
[0020] O documento WO2013/046095 ensina princípios técnicos gerais necessários para se ter a capacidade de realizar qualquer decodificação de HDR, em particular, novamente decodificação de dados de cena de HDR que foram codificados como imagens únicas de HDR, mas, que não precisam necessariamente ser renderizadas em uma tela com o mesmo pico de brilho de tela (PB_D) como a luminância de ponto branco da imagem de HDR recebida (por exemplo, considera-se um decodificador de sinal que recebe conteúdo de HDR especificado, isto é, com os brilhos de pixel de objeto de imagem com cor classificada coreto a ser renderizado em uma tela de referência de 5.000 nit PB_D, no entanto, tem uma tela fixada de, diga-se, 2.000 nit PB_D, ou 7.000 nit, por isso, deve realizar uma transformação de faixa dinâmica ideal para obter imagens de aparência correta para enviar para sua tela conectada atual). Precisa-se saber várias coisas, como o que a luminância de ponto branco do código foi (por exemplo, R=G=B=1.023 significava um branco de 1.000 nit, ou 5.000 nit, conforme mudaria seriamente a transformação necessária para algum branco renderizável na tela conectada), e que é o EOTF usado que define, de fato, os códigos de RGB ou luma, isto é, que liga os códigos luma às luminâncias que supostamente devem representar, isto é, que devem ser renderizadas na tela conectada. Também há alguns ensinamentos gerais de que alguns dados de transformação de faixa dinâmica podem ser co- comunicados com a (única) imagem/vídeo de HDR (ou imagens/vídeos) comunicada, ou talvez imagem de LDR (ou imagens) comunicada. Esse ensinamento poderia, no máximo, inspirar um leitor versado na técnica a co-comunicar alguma modificação de aparência desejada com a imagem (por exemplo, o HDR podem de propósito, ser escurecido um pouco por qualquer razão, e então, clareado novamente no lado do receptor comunicando-se uma transformação de faixa dinâmica/mapeamento de tom de clareamento, ou talvez a transformação poderia ocorrer no lado de recebimento independente do que o lado de codificação teria feito com a imagem antes de transmiti a mesma; essa função de mapeamento de tom deve ser contrastada com o EOTF, que é uma alocação técnica pura de códigos luma para a luminâncias, mas o mapeamento de tom pode realizar algumas alterações adicionais do brilho dos pixels, por exemplo, tecnicamente realizadas como um mapeamento de input_luma para output_luma, por exemplo, por razões artísticas). Para esse pedido de patente o ensinamento sobre a estrutura de manipulação de dados principais para gerenciar a compreensão do significado de algum tipo de codificação de imagem de HDR (definida pelo que o máximo do pico de brilho dos códigos corresponde, por exemplo, R=G=B=1.023 precisa ser renderizado como branco de 5.000 nit; e que o EOTF foi usado para alocar todos os códigos luma de RGB para, de fato, serem valores de RGB e luminâncias lineares renderizadas em tela), que não pode ser derivado disso, é a construção de um sistema técnica novo e diferente específico que comunica os dados de imagem de HDR como imagens de LDR como no presente pedido, deixa-se os componentes necessários específicos que realiza isso de modo pragmático conforme reivindicado.[0020] Document WO2013/046095 teaches general technical principles necessary to have the ability to perform any HDR decoding, in particular, again decoding HDR scene data that has been encoded as single HDR images, but which does not need necessarily be rendered on a screen with the same peak screen brightness (PB_D) as the white point luminance of the received HDR image (for example, consider a signal decoder that receives specified HDR content, i.e. with color graded image object pixel brightnesses are correct to be rendered on a 5,000 nit PB_D reference screen, however, it has a fixed screen of, say, 2,000 nit PB_D, or 7,000 nit, so it must perform an optimal dynamic range transformation to get correct-looking images to output to your current connected screen). One needs to know several things, such as what the code's white point luminance was (e.g., R=G=B=1023 meant a 1000 nit white, or 5000 nit, as would seriously change the transformation needed for some renderable white on the connected screen), and that it is the EOTF used that actually defines the RGB or luma codes, that is, that links the luma codes to the luminances that they are supposed to represent, that is, that should be rendered on the connected screen. There is also some general teaching that some dynamic range transformation data may be co-communicated with the (single) communicated HDR image/video (or images/videos), or perhaps communicated LDR image (or images). This teaching could, at most, inspire a reader skilled in the art to co-communicate some desired appearance change with the image (e.g., HDR can on purpose be darkened a little for whatever reason, and then lightened again on the side). of the receiver communicating a brightening dynamic range/tone mapping transformation, or perhaps the transformation could occur on the receiving side independent of what the encoding side would have done with the image before transmitting it; this tone mapping function tone must be contrasted with EOTF, which is a pure technical allocation of luma codes to luminances, but tone mapping can perform some additional changes of pixel brightness, for example, technically performed as a mapping from input_luma to output_luma, e.g. example, for artistic reasons). For this patent application the teaching about the main data manipulation structure to manage the understanding of the meaning of some type of HDR image coding (defined by what the maximum of the peak brightness of the codes corresponds to, e.g. R=G =B=1023 needs to be rendered as 5000 nit white; and that EOTF was used to allocate all RGB luma codes to in fact be RGB values and screen-rendered linear luminances), which cannot be derived from this , is the construction of a specific new and different technical system that communicates HDR image data as LDR images as in the present application, leaving the specific necessary components that accomplishes this in a pragmatic way as claimed.
[0021] O Doc. JVT-S087 do 19° Encontro de MPEG de Genebra: Segall et al. “Tone mapping SEI message”, ensina apenas, de modo genérico, que se alguém tiver um desejo por “algum” mapeamento de tom seja aplicado às luminâncias de pixel, então, pode ser comunicado isso em uma mensagem de SEI de metadados dedicados. Isto é, o lado de recebimento poderia, então, receber, por exemplo, uma codificação de 10 bit de uma imagem de HDR, e, por exemplo, usar a imagem de SEI para converter em uma imagem de LDR de 8 bits padrão que corresponde à mesma, isto é, com os brilhos de pixel do objeto mais adequados para renderizar em uma tela de 100 nit PB_C (em vez de, por exemplo, a tela de 1.000 nit ou 5.000 nit para qual a imagem de HDR foi feita). Por exemplo, um formato sigmoide pode ser usado. Isso é, novamente, um exemplo de comunicar apenas os dados de cor de pixel de um vídeo de HDR de imagens, então, esse documento contém novamente nada suficiente para inspirar no sentido de algum componente de um sistema de codificação dupla compatível com LDR para imagens de HDR como se tem.[0021] Doc. JVT-S087 of the 19th Geneva MPEG Meeting: Segall et al. “Tone mapping SEI message” just teaches, in a generic way, that if someone has a desire for “some” tone mapping to be applied to pixel luminances, then this can be communicated in a dedicated metadata SEI message. That is, the receiving side could then receive, for example, a 10-bit encoding of an HDR image, and, for example, use the SEI image to convert to a standard 8-bit LDR image that matches at the same, that is, with the object's pixel brightnesses best suited to rendering on a 100 nit PB_C screen (rather than, for example, the 1000 nit or 5000 nit screen for which the HDR image was made). For example, a sigmoid shape can be used. This is, again, an example of communicating only the pixel color data of an HDR video of images, so this document again contains nothing sufficient to inspire towards some component of an LDR-compatible dual coding system for images of HDR as it is.
[0022] O documento JCTVC-P0159r1/m32076 de Lasserre et al. “High dynamic range video coding” é um exemplo de um sistema de 2 camadas (isto é, um fluxo de imagem básico e um fluxo de imagens de correção) (consulte a Figura 1), consequentemente, bem distante da tecnologia apresentada, e que não contém qualquer inspiração útil, ou ainda provável de ser consultada para inspiração útil. Os sistemas de duas camadas estão sem sua filosofia técnica, consequentemente, construção e os componentes técnicos usados, muito diferente de codificações de imagem única, mais transformações de função de cor para derivar outras imagens de faixa dinâmica.[0022] Document JCTVC-P0159r1/m32076 by Lasserre et al. “High dynamic range video coding” is an example of a 2-layer system (i.e., a basic image stream and a correction image stream) (see Figure 1), consequently, quite far from the technology presented, and which it does not contain any useful inspiration, or even likely to be consulted for useful inspiration. Two-layer systems are without their technical philosophy, hence construction and the technical components used, very different from single image encodings plus color function transformations to derive other dynamic range images.
[0023] Os documentos EP2406959 ou WO2010/105036 também são apenas uma codificação de HDR de duas camadas (consultar a Figura 7, fluxo de bits residual 742), muito diferente e irrelevante para absorver ensinamentos de modo suficiente retidos nos conceitos do presente pedido. O mesmo fornece uma visão interessante sobre alguns aspectos de codificação de imagem de HDR como informações de antecedente.[0023] Documents EP2406959 or WO2010/105036 are also just a two-layer HDR encoding (see Figure 7, residual bit stream 742), too different and irrelevant to sufficiently absorb lessons learned in the concepts of the present application. It provides an interesting insight into some aspects of HDR image coding as background information.
[0024] O documento M34355 da conferência Sapporo de julho (novamente, após a data de prioridade) de Stessen et al de Philips “Chromaticity-based color signals” ensina que quando um indivíduo deseja codificar (apenas) imagem de HDR (ou imagens), pode-se desejar usar outro espaço de cor além do espaço de cor Y’CbCr de codificação de LDR de legado. O mesmo menciona novamente que o eixo “brilho” desse espaço de cor poderia ser definido com o EOTF da Philips que, sem nenhuma surpresa, também é usado em alguns outros dentre as revelações e ensinamentos, como no presente pedido de patente. O documento, então, ensina adicionalmente que caso se deseje realizar processamento de cor em um espaço que é determinado por, por exemplo, tal EOTF altamente inclinado e duas crominâncias, por exemplo, se um receptor gostaria de realizar sua transformada de faixa dinâmica de qualquer modo ou outra otimização de cor em seu fim, por exemplo, sempre que o mesmo tiver decidido automaticamente que poderia ser uma transformada razoável para converter a(s) imagem(ns) de HDR recebidas em imagem(ns) de LDR, então, esse espaço pode não ser tão útil, e erros de cores de uma magnitude maior que o desejável poderiam ocorrer. Portanto, os autores introduziram as cromaticidades de canais de duas cores que são independentes de faixa dinâmica. Pouco valor para os ensinamentos do presente pedido poderia ser derivado disso, muito menos que esses ensinamentos seriam abrangidos pelo padrão da tecnologia necessária para codificação ou decodificação de vídeo de HDR baseado em LDR.[0024] Paper M34355 from the July Sapporo conference (again, after the priority date) by Stessen et al of Philips “Chromaticity-based color signals” teaches that when an individual wishes to encode (only) HDR image (or images) , you may want to use another color space in addition to the legacy LDR encoding Y'CbCr color space. It mentions again that the “brightness” axis of this color space could be defined with the Philips EOTF which, unsurprisingly, is also used in some other disclosures and teachings, such as in the present patent application. The document then further teaches that if one wishes to perform color processing in a space that is determined by, for example, such a highly biased EOTF and two chrominances, for example, if a receiver would like to perform its dynamic range transform of any mode or other color optimization on its end, for example, whenever it has automatically decided that it could be a reasonable transform to convert the received HDR image(s) to LDR image(s), then this space may not be as useful, and color errors of a magnitude greater than desirable could occur. Therefore, the authors introduced two-color channel chromaticities that are independent of dynamic range. Little value could be derived from the teachings of the present application, much less that these teachings would be covered by the standard of technology necessary for encoding or decoding LDR-based HDR video.
[0025] A proposta genérica da Philips de TM- AVC0671 apresentada no fórum de padronização de DVB, é meramente um ensinamento de sistema de caixa preta de nível alto no sentido de negócios que foram desenvolvidos de uma (modo-ii) possibilidade para codificar imagens de HDR comunicando-se, de fato, imagens de LDR (+ o tipo certo de metadados funcionais, deve-se pesquisar mais sobre um invento, para que isso funcione subitamente). A mesma, no entanto, não fornece quaisquer especificações sobre os componentes necessários, conforme apresentado neste pedido de patente. A mesma diz apenas que há um “conversor de faixa dinâmica” de caixa, que uma pessoa suficientemente versada na técnica entenderia sobre o que o mesmo faria em tal topologia de sistema, mas nenhum detalhe dos internos foi revelado. Além disso, uma captura de tela da ferramenta de classificação é mostrada, em que um graduador humano no lado de criação poderia usar para especificar todas as funções necessárias, como também na presente invenção, mas o requerente foi cuidadoso para não mostrar quaisquer detalhes técnicos que seriam deriváveis daquela figuração simples.[0025] Philips' generic proposal of TM-AVC0671 presented at the DVB standardization forum, is merely a high-level black box system teaching in the business sense that was developed from a (mode-ii) possibility to encode images of HDR communicating, in fact, LDR images (+ the right type of functional metadata, one must research more about an invention, for this to suddenly work). It, however, does not provide any specifications about the necessary components, as presented in this patent application. It only says that there is a box “dynamic range converter”, which a person sufficiently versed in the art would understand what it would do in such a system topology, but no details of the internals were revealed. Furthermore, a screenshot of the sorting tool is shown, which a human grader on the creation side could use to specify all the necessary functions, as also in the present invention, but the applicant was careful not to show any technical details that would would be derivable from that simple figuration.
[0026] Precisa-se ter uma codificação aprimorada de imagens de HDR e, especificamente, começou-se com a filosofia de que especialmente no momento atual, quando há muitos sistemas de LDR legado no campo, precisa-se de alguns níveis de compatibilidade. Isso significa, por um lado, que se deseja manter o uso de CIs (de)codificadores existentes que implementam a funcionalidade como (I)DCT [= primeiro nível de compatibilidade com tecnologias de comunicação de imagem]. Mas, além disso, deve haver o segundo nível de compatibilidade com telas que, por causa de seu pico de brilho baixo, precisa de imagens de LDR (isto é, uma aparência de LDR, não uma aparência de HDR com, por exemplo, cores muito escuras nas partes mais escuras da imagem, mas, em vez disso, com cores mais escuras que foram clareadas para melhor visibilidade nas telas de LDR) devido ao fato de que as mesmas só podem renderizar imagens de LDR (isto é, a aparência de LDR correta sob tal capacidade de faixa dinâmica de tela). Isso se deve ao fato de que, além das TVs de legado atualmente empregadas, no futuro haverá um espectro de telas que varia de telas portáteis pequenas com pouca capacidade de brilho como computadores do tipo laptop ou computadores do tipo pad ou até mesmo telefones móveis nos quais um consumidor deseja também ver alguma renderização de filme de HDR, até as telas de HDR mais avançadas, que no futuro podem ter um pico de brilho de, por exemplo, 10.000 cd/m2 (10.000 nit), e todas as telas entre ou ao redor das mesmas. Então, embora a tela ainda seja legada e simples, poderia ser servida por um CI de mapeamento de cor e nova decodificação com alta complexidade em, por exemplo, um decodificador de sinal futuro ou computador que fornece o conteúdo de HDR através, por exemplo, de um HDMI ou outra conexão, sendo que o decodificador de sinal oferece qualquer combinação das opções inventadas e descritas. Nota-se que uma imagem de LDR legado precisaria ser alguma otimização entre contraste intraobjetos e interobjetos. Seria desejável ver as texturas interiores de objeto de modo claro, ainda deseja-se também ter, na imagem de LDR, uma impressão da aparência talvez com grande contraste de HDR da cena original. Isto é, a diferença entre uma região com muito e pouco brilho pode não ser renderizável perfeitamente com a imagem de LDR, no entanto, ainda deveria haver um remanescente desse, fazendo com que as alterações de iluminação na cena sejam transportáveis o mais idealmente possível em LDR pelo classificador humano.[0026] There is a need to have improved encoding of HDR images, and specifically, it started with the philosophy that especially at the current time, when there are many legacy LDR systems in the field, there is a need for some levels of compatibility. This means, on the one hand, that one wants to maintain the use of existing (de)coder ICs that implement functionality as (I)DCT [= first level of compatibility with image communication technologies]. But in addition there must be the second level of compatibility with displays that, because of their low peak brightness, need LDR images (i.e. an LDR look, not an HDR look with e.g. very dark in the darkest parts of the image, but instead with darker colors that have been lightened for better visibility on LDR screens) due to the fact that they can only render LDR images (i.e. the appearance of correct LDR under such screen dynamic range capability). This is due to the fact that, in addition to the legacy TVs currently employed, in the future there will be a spectrum of screens ranging from small portable screens with low brightness capabilities to laptop-type computers or pad-type computers or even mobile phones in which a consumer would also want to see some HDR film rendering, up to the most advanced HDR displays, which in the future may have a peak brightness of, for example, 10,000 cd/m2 (10,000 nit), and all displays in between or around them. So, although the display is still legacy and simple, it could be served by a color mapping and new decoding IC with high complexity in, for example, a future signal decoder or computer that delivers the HDR content through e.g. of an HDMI or other connection, with the signal decoder offering any combination of the invented and described options. It is noted that a legacy LDR image would need to be some optimization between intra-object and inter-object contrast. It would be desirable to see the object's interior textures clearly, yet one would also like to have, in the LDR image, an impression of the perhaps high-contrast HDR appearance of the original scene. That is, the difference between a high and low bright region may not be perfectly renderable with the LDR image, however, there should still be a remnant of it, making the lighting changes in the scene as ideally transportable as possible in LDR by human classifier.
[0027] Esses requisitos foram convertidos em uma abordagem na qual um indivíduo precisaria, no cenário ideal, (ao menos) de duas gradações para o mesmo filme ou as mesmas figurações a partir do provedor de conteúdo, que serão chamadas de uma imagem de LDR (a ser usada para cenários de tela de LDR, por exemplo, com telas com pico de brilho em torno de 100 cd/m2 (100 nit)) e uma imagem de HDR (para as telas mais brilhantes, por exemplo, uma tela de referência de pico de brilho de 5.000 cd/m2 (5.000 nit)).[0027] These requirements have been converted into an approach in which an individual would need, in the ideal scenario, (at least) two gradations for the same film or the same pictures from the content provider, which will be called an LDR image (to be used for LDR screen scenarios, for example with screens with peak brightness around 100 cd/m2 (100 nit)) and an HDR image (for the brightest screens, for example a reference peak brightness of 5,000 cd/m2 (5,000 nit)).
[0028] Então, para diversos cenários exemplificadores práticos, tem-se um ponto de partida para as modalidades de codificação de HDR inovadora como entrada de uma imagem classificada de HDR mestre (diga-se, é classificada por vontade própria, de acordo com qualquer que seja o gosto do criador com qualquer que seja o software de processamento de cor e, por exemplo, codificada em uma codificação de cor de partida como OpenEXR, e pode até mesmo ser uma atualização para uma aparência de HDR de uma imagem que foi originalmente capturada como LDR, por exemplo, adicionando-se efeitos gráficos de computador). Precisa-se, então, codificar esse HDR mestre (M_HDR) de um modo que seja praticamente útil para as tecnologias de codificação de vídeo e de imagem atuais (isto é, apenas minimamente modificadas a partir do modo normal de usar tais tecnologias de codificação que pode envolver uma redefinição dos significados de código, isto é, as respectivas luminâncias codificadas por vários códigos luma, mas não que, por exemplo, todos os barramentos precisem ser alterados para 12 bit, isto é, os presentes métodos devem funcionar com hardware de 12 bits, mas também, se apenas 10 bits por componente estiverem disponíveis, ou se uma qualidade inferior for aceita até mesmo em sistemas de 8 bits), para, por exemplo, um novo reprodutor de disco de BD, ou CI de televisão que recebe vídeo com fluxo contínuo de Internet, ou qualquer receptor conectado a qualquer que seja a fonte de imagem amplamente compatível com uma variante das tecnologias de codificação de imagem/vídeo atuais.[0028] So, for several practical example scenarios, there is a starting point for innovative HDR coding modalities as input from a master HDR classified image (that is, it is classified of its own accord, according to any that is to the creator's taste with whatever color processing software and, for example, encoded in a starting color encoding like OpenEXR, and can even be an update to an HDR look of an image that was originally captured as LDR, for example, by adding computer graphics effects). One then needs to encode this master HDR (M_HDR) in a way that is practically useful for current video and image coding technologies (that is, only minimally modified from the normal way of using such coding technologies that may involve a redefinition of the code meanings, i.e. the respective luminances encoded by various luma codes, but not that, for example, all buses need to be changed to 12 bit, i.e. the present methods must work with 12 bit hardware. bits, but also, if only 10 bits per component are available, or if lower quality is supported even on 8-bit systems), for, for example, a new BD disc player, or television IC that receives video streaming Internet, or any receiver connected to any image source that is broadly compatible with a variant of current image/video coding technologies.
[0029] Chegou-se a uma importante compreensão de que uma imagem de HDR pode ser codificada como uma imagem de aparência de LDR (isto é, uma imagem que, com pouco ou nenhum processamento colorimétrico - pode ser uma conversão em um outro espaço de cor, mas sem qualquer ou muito mapeamento de tom para converter o brilho dos objetos de imagem para serem mais adequados a uma tela com um outra faixa dinâmica de luminância - pode ser diretamente usada para a tela com boa qualidade em uma tela de LDR) caso apenas se adicionar os parâmetros das funções de mapeamento de cor que podem converter essa aparência de LDR em uma imagem de aparência de HDR (o presente modo ii). O leitor deve considerar que isso não é uma coisa trivial a se fazer, mesmo teoricamente, certamente não a priori, mas até mesmo após ter definido a tarefa técnica (devido ao fato de que, sem o desenvolvimento adicional correto, pareceria um tanto contraditório codificar uma aparência por meio de uma outra aparência que é supostamente diferente). Especificamente, uma vez que muitas das presentes modalidades começam de um M_HDR existente, as funções podem mapear a imagem de aparência de LDR pixelizada em uma reconstrução próxima Rec_HDR do M_HDR. Mas, logicamente, isso, em geral, pode não apenas ser realizado de qualquer maneira específica ad hoc, isto é, uma cadeia de codificação técnica específica é necessária.[0029] An important understanding has been reached that an HDR image can be encoded as an LDR-looking image (that is, an image that, with little or no colorimetric processing - can be a conversion into another image space). color, but without any or much tone mapping to convert the brightness of image objects to be more suitable for a screen with a different dynamic range of luminance - can be directly used to screen with good quality on an LDR screen) if only if you add the parameters of the color mapping functions that can convert this LDR appearance into an HDR appearance image (the present mode ii). The reader should consider that this is not a trivial thing to do, even theoretically, certainly not a priori, but even after having defined the technical task (due to the fact that without the correct further development it would seem somewhat contradictory to code one appearance through another appearance that is supposedly different). Specifically, since many of the present embodiments start from an existing M_HDR, the functions can map the pixelated LDR appearance image into a nearby Rec_HDR reconstruction of the M_HDR. But logically this, in general, cannot just be accomplished in any specific ad hoc manner, i.e. a specific technical coding chain is required.
[0030] A presente invenção pode ser realizada, por exemplo, ao menos dos seguintes modos: um método de codificação de uma imagem de alta faixa dinâmica (M_HDR), que compreende as etapas de: - converter a imagem de grande faixa dinâmica em uma imagem de faixa dinâmica de luminância mais curta (LDR_o) mediante a aplicação de: a) normalização da imagem de grande faixa dinâmica a uma escala do eixo de luma que é [0, 1] produzindo uma imagem de grande faixa dinâmica normalizada com cores normalizadas que têm luminâncias normalizadas (Yn_HDR), b) cálculo de uma função gama nas luminâncias normalizadas que produzem luminâncias convertidas por gama (xg), c) um primeiro mapeamento de tom que reforça essas luminâncias convertidas por gama de pixels da imagem de grande faixa dinâmica normalizada que se situa abaixo de 0,1 com uma quantidade predeterminada que se situa entre 1,5 e 5,0, produzindo lumas (v), e d) uma função de mapeamento de tom monotonicamente crescente arbitrária que mapeia as lumas que resulta da realização das etapas b e c para emitir lumas (Yn_LDR) da imagem de faixa dinâmica mais curto (LDR_o); e - emitir em um sinal de imagem (S_im) uma codificação das cores de pixel da imagem de faixa dinâmica de luminância mais curta (LDR_o), e - emitir os valores de sinal de imagem (S_im) que codificam os formatos de função das conversões de cor acima b a d como metadados, ou valores para suas funções inversas, cujos metadados permitem que um receptor reconstrua uma imagem de alta faixa dinâmica reconstruída (Rec_HDR) a partir da imagem de faixa dinâmica de luminância mais curta (LDR_o).[0030] The present invention can be carried out, for example, in at least the following ways: a method of encoding a high dynamic range (M_HDR) image, which comprises the steps of: - converting the high dynamic range image into a luminance shortest dynamic range image (LDR_o) by applying: a) normalizing the wide dynamic range image to a luma axis scale that is [0, 1] producing a normalized wide dynamic range image with normalized colors that have normalized luminances (Yn_HDR), b) calculation of a gamma function on the normalized luminances that produce gamma-converted luminances (xg), c) a first tone mapping that reinforces these gamma-converted luminances of pixels of the high dynamic range image normalized value that lies below 0.1 with a predetermined quantity that lies between 1.5 and 5.0, producing lumas (v), and d) an arbitrary monotonically increasing tone mapping function that maps the lumas that results from performing of steps b and c to output lumas (Yn_LDR) from the shortest dynamic range image (LDR_o); and - output in an image signal (S_im) an encoding of the pixel colors of the image of shorter luminance dynamic range (LDR_o), and - output the image signal values (S_im) that encode the function formats of the conversions of color above b to d as metadata, or values for their inverse functions, which metadata allows a receiver to reconstruct a reconstructed high dynamic range image (Rec_HDR) from the shorter luminance dynamic range image (LDR_o).
[0031] Essa combinação específica de funções de conversão de luma provou ser um modo muito bom de manipular a codificação de imagens de HDR na mentalidade do modo ii, isto é, em particular, no modo duplo de codificação de imagens de HDR como imagens de aparência de LDR derivadas por essas funções de conversão de um HDR mestre, cujas imagens de LDR servem o propósito duplo de codificar exatamente a aparência de HDR, assim como de serem imagens de aparência de LDR bem utilizáveis.[0031] This particular combination of luma conversion functions has proven to be a very good way of handling the encoding of HDR images in the mode ii mindset, that is, in particular, in the dual mode of encoding HDR images as LDR appearance derived by these conversion functions from an HDR master, whose LDR images serve the dual purpose of accurately encoding the HDR appearance as well as being very usable LDR appearance images.
[0032] Nota-se que qualquer codificação das cores de pixel, isto é, que representam as cores dos pixels em algum sistema de codificação de espaço de cor pode ser usada, e algumas serão mais pragmáticas do que outras. Por exemplo, o LDR_o poderia ser produzido como uma imagem (R’G’B’) [em que os traços indicam alguns mapeamentos não lineares de componentes de RGB lineares]. Elucida-se um exemplo que tem capacidade de codificar a imagem de LDR para ser comunicada a um receptor de uma maneira Yu’v’ e, então, também o processamento como o mapeamento de tom pode ser realizado em uma representação de Yxy com coordenadas de cromaticidade de xy como, por exemplo, então, u’v’, mas os mesmos princípios da invenção abaixo podem também ser incorporados em outras representações de cor, por exemplo, representações de RGB lineares (isto é, os cálculos são, então, feitos com componentes de RGB diretamente em vez de componentes de Y), etc. Também, os versados na técnica compreenderão quais das diversas maneiras podem ser usadas para co-codificar os parâmetros que caracterizam os mapeamentos funcionais (que podem ser, por exemplo, uma função multilinear definida por seus pontos de mudança de segmento), que serão, geralmente, como metadados no sinal de imagem S_im, ou associáveis ao mesmo, (por exemplo, uma estrutura de mensagem de SEI ou semelhante), o que significa que, no momento em que um receptor precisar dos parâmetros para fazer sentido para os dados de cor de pixel codificado para transformar os mesmos em, por exemplo, uma imagem de saída de RGB linear para renderização em uma tela conectada, o mesmo deve ter obtido esses parâmetros de definição de aparência através de alguma tecnologia de comunicação de dados, por exemplo, um local de memória conectável por meio de algum enlace de comunicação.[0032] It is noted that any coding of pixel colors, i.e. representing the colors of pixels in some color space coding system can be used, and some will be more pragmatic than others. For example, LDR_o could be output as a (R’G’B’) image [where the dashes indicate some non-linear mappings of linear RGB components]. An example is elucidated that has the ability to encode the LDR image to be communicated to a receiver in a Yu'v' manner and then also processing such as tone mapping can be performed on a Yxy representation with coordinates of chromaticity of xy as, for example, then u'v', but the same principles of the invention below can also be incorporated into other color representations, for example, linear RGB representations (i.e., calculations are then made with RGB components directly instead of Y components), etc. Also, those skilled in the art will understand which of the various ways can be used to co-code the parameters characterizing the functional mappings (which may be, for example, a multilinear function defined by its segment change points), which will generally be , as metadata in, or associable with, the S_im image signal (e.g., a SEI message structure or similar), meaning that at the time a receiver needs the parameters to make sense of the color data of coded pixels to transform them into, for example, a linear RGB output image for rendering on a connected screen, it must have obtained these appearance definition parameters through some data communication technology, for example, a memory location connectable through some communication link.
[0033] Essa combinação específica de um mapeamento de “sensibilidade” que clareia ao menos as cores do objeto mais escuras em uma imagem (em um subalcance de cores de pixel mais escuras, que pode-se definir, na prática, para ser os 10% de luminâncias mais baixas de uma imagem linear normalizada, que pode ser, por exemplo, um canal de Y, ou os valores de RGB lineares mais baixos correspondentes) e uma função de gama/potência funciona bem para manipular as características colorimétricas de imagens de HDR e, em particular, sua típica discrepância com renderização de LDR. Muitas renderizações de LDR poderiam, logicamente, ser contempladas, por exemplo, uma renderização trivial ignora apenas todas as cores que são consideradas muito brilhantes ou muito escuras através de limitação, mas essa não é, necessariamente, a melhor aparência de LDR, e certamente não é útil para a reconstrução de aparência de HDR de boa qualidade.[0033] This specific combination of a “sensitivity” mapping that lightens at least the darkest object colors in an image (in a subrange of darker pixel colors, which can be defined, in practice, to be the 10 % of lowest luminances of a normalized linear image, which can be, for example, a Y channel, or the corresponding lowest linear RGB values) and a gamma/power function works well for manipulating the colorimetric characteristics of images. HDR and in particular its typical discrepancy with LDR rendering. Many LDR renderings could logically be considered, for example, a trivial rendering just ignores all colors that are considered too bright or too dark through limiting, but this is not necessarily the best LDR appearance, and certainly not It is useful for good quality HDR appearance reconstruction.
[0034] Já que tanto uma imagem de HDR (diretamente no modo i) quanto uma imagem de LDR (em particular, uma imagem de LDR que está, de fato, codificando uma imagem de HDR) podem ser, de fato, codificadas em um recipiente semelhante, por exemplo, recipiente de HEVC de 3x 10 bits, pode-se perguntar qual é a diferença entre uma imagem de HDR e de LDR. Essa diferença é uma diferença calorimétrica, que é muito importante quando uma tela, um ambiente de visualização e um espectador estão envolvidos. Matematicamente, pode-se medir isso a partir de típicos valores de pixel na imagem normalizada (isto é, uma imagem de LDR ou de HDR normalizada) e, em particular, o histograma. Se a mesma for uma imagem de LDR regular, normalmente não haverá um contraste tão alto entre as cores de pixel mais escuras e as mais brilhantes. Logicamente, em imagens de LDR também pode haver valores que são brancos, assim como valores que são pretos (zero), mas esses irão corresponder às luminâncias reais a serem renderizadas diferentes, devido ao fato de que há uma função de alocação de código diferente definindo as mesmas. Outros receptores/decodificadores inovadores reconhecerão a situação e aplicarão, em cada caso, a decodificação adequada. Quando se diz que a imagem de LDR precisa ser diretamente útil em uma tela legada, significa que o receptor que fornece imagens decodificadas para o receptor irá compreender/decodificar os valores de luma com uma função de alocação de código de legado, isto é, geralmente, o gama 2,2 de Rec. 709. Agora, uma imagem master_HDR (modo i) pode ser codificada por uma função de alocação de código totalmente diferente, o que significa que uma luma preta de, diga-se, 0,05 corresponde a um preto muito mais escuro do que para uma imagem de LDR, e 0,96 corresponde a uma cor muito mais brilhante. Além desse modo ii introduzir um conceito mais novo de que os códigos luma podem estar, agora, relacionados ao HDR ou poderem ser lumas renderizadas por uma outra alocação de código, e que pode, até mesmo, ser variável dependendo das escolhas pelo classificador (em particular, a curva de cliente)! Especificamente, uma imagem de modo i não terá, geralmente, um histograma relativamente uniforme (bem aceso) como na codificação de LDR legado, mas, geralmente, um histograma bimodal, em que há inúmeros objetos mais escuros, e inúmeros pixels muito mais brilhantes (por exemplo, os pixels externos que poderiam ser 100x mais brilhantes em uma representação de luminância linear, mas podem ser, por exemplo, 3x mais brilhantes quando se usa uma função de alocação de código específica, isto é, na representação de luma finalmente usada). Em algumas imagens de HDR, os pixels mais brilhantes podem também estar em menor número, por exemplo, um par de lâmpadas em uma cena de noite. Em uma imagem de modo ii, a relação será novamente diferente. Haverá, ainda, alguma diferença suficiente entre as regiões (supondo- se, na elucidação simples do presente documento, de que as imagens de HDR estão então formadas), não apenas porque as funções relativamente simples podem mapear o Rec_HDR, como também devido ao fato de que até mesmo a renderização direta de LDR pode ser desejável para reter um tanto da aparência de contraste. Mas, por outro lado, as duas faixas de luminância podem ter sido encolhidas uma em direção a outra até um certo grau em função das limitações da escala de LDR. Mas, o que é importante em tudo isso é que ainda pode-se ver alguma assinatura de uma imagem ser ou não proveniente de uma cena de LDR ou de HDR. Não apenas os algoritmos de análise de imagem matemática pode analisar a aparência de faixa dinâmica conforme codificados em imagens (por exemplo, para produção de televisão em tempo real, em que a qualidade final das aparências é menos importante do que, por exemplo, os custos de produção), para os quais uma unidade de análise de imagem 177 pode ser usada. Mas, em geral, as presentes tecnologias de codificação em seu formato de maior qualidade serão usadas com um classificador de cor humano no final da criação, que pode ver, geralmente, em uma tela de HDR e de LDR como o sistema se comporta (isto é, como as aparências de LDR e de HDR de fato parecem ser), girar os botões de seu teclado de classificação e, por fim, codificar uma imagem de LDR e as funções de reconstrução de HDR com as quais ele está satisfeito. Nota-se que, normalmente os receptores não precisam realizar uma análise total da situação. Os mesmos não precisam, por si, se preocupar com a possibilidade da imagem normalizada que receberam ser uma imagem de HDR ou uma imagem de LDR, e com qual variante de imagem de LDR. Os mesmos precisam apenas aplicar “cegamente” as funções recebidas. A única coisa que precisam saber, geralmente, é o que as funções definem e/ou o que a única imagem define. Então, geralmente, o sinal conterá um indicador (IND) de qual tipo de sinal ele é. Logicamente, podem ter sido comunicadas muitas coisas sobre o sinal, por exemplo, para televisões que desejam realizar seu próprio aprimoramento de imagem adicional inteligente, mas, geralmente, o que um receptor precisa saber minimamente é que esse sinal de codificação de HDR S_im é do tipo que contém uma imagem diretamente útil para renderização de LDR (independente de sua aparência poder ser justada para uma imagem de LDR melhor pelos receptores que podem mapear o por tom a imagem de LDR recebida LDR_t com mais funções de mapeamento de tom [parametrizadas com Ff1, Ff2, etc.] ou não). Com essas informações, o receptor sabe que se uma tela de LDR conectada tiver que ser servida com imagens adequadas, as imagens de aparência de LDR podem ser diretamente enviadas para o mesmo, e se for uma tela de HDR, primeiro, as transformações de cor serão aplicadas para obter as imagens de HDR corretas para renderização. O leitor versado na técnica compreenderá que isso pode ser indicado de diversos modos, por exemplo, com uma palavra-chave como “DIRECTLDR”, ou com um conjunto de números “100/5.000”, que indica que a única imagem é uma imagem destinada a uma tela de 100 cd/m2 (100 nit) (tela real ou de referência) e foi derivada e é mapeável para uma imagem de HDR de 5.000 cd/m2 (5.000 nit) (que não significa que nenhuma outra imagem para telas de outro pico de brilho pode ser derivada da imagem de LDR com as informações nos parâmetros que definem as funções de transformação de cor) etc.[0034] Since both an HDR image (directly in mode i) and an LDR image (in particular, an LDR image that is, in fact, encoding an HDR image) can, in fact, be encoded in a similar container, for example, 3x 10-bit HEVC container, one may wonder what is the difference between an HDR and LDR image. This difference is a calorimetric difference, which is very important when a screen, a viewing environment, and a viewer are involved. Mathematically, one can measure this from typical pixel values in the normalized image (i.e., a normalized LDR or HDR image) and, in particular, the histogram. If it is a regular LDR image, there will usually not be as high a contrast between the darkest and brightest pixel colors. Logically, in LDR images there can also be values that are white, as well as values that are black (zero), but these will correspond to the actual luminances to be rendered differently, due to the fact that there is a different code allocation function defining the same. Other innovative receivers/decoders will recognize the situation and apply the appropriate decoding in each case. When it is said that the LDR image needs to be directly usable on a legacy screen, it means that the receiver providing decoded images to the receiver will understand/decode the luma values with a legacy code allocation function, i.e. generally , the 2.2 gamma of Rec. 709. Now a master_HDR (i-mode) image can be encoded by an entirely different code allocation function, which means that a black luma of, say, 0.05 corresponds to a much darker black than for an LDR image, and 0.96 corresponds to a much brighter color. In addition to this, I introduce a newer concept that luma codes can now be related to HDR or can be lumas rendered by another code allocation, and that can even be variable depending on the choices made by the classifier (in particular, the customer curve)! Specifically, an i-mode image will not generally have a relatively uniform (brightly lit) histogram as in legacy LDR encoding, but will generally have a bimodal histogram, in which there are numerous darker objects, and numerous much brighter pixels ( for example, the outer pixels that could be 100x brighter in a linear luminance representation, but can be, for example, 3x brighter when using a specific code allocation function, i.e. in the ultimately used luma representation) . In some HDR images, the brightest pixels may also be fewer in number, for example, a pair of light bulbs in a night scene. In a mode ii image, the relationship will again be different. There will still be some sufficient difference between the regions (assuming, in the simple elucidation of this document, that HDR images are then formed), not only because relatively simple functions can map Rec_HDR, but also due to the fact that even direct LDR rendering may be desirable to retain some of the appearance of contrast. But on the other hand, the two luminance ranges may have been shrunk towards each other to a certain degree due to the limitations of the LDR scale. But what's important in all of this is that you can still see some signature of an image whether or not it comes from an LDR or HDR scene. Not only can mathematical image analysis algorithms analyze dynamic range appearances as encoded in images (e.g., for real-time television production, where the final quality of appearances is less important than, e.g., costs). production), for which an image analysis unit 177 can be used. But in general, present encoding technologies in their highest quality format will be used with a human color classifier at the end of creation, who can generally see on an HDR and LDR screen how the system behaves (i.e. is, as LDR and HDR actually appear to be), turn the knobs on his sorting keyboard and ultimately encode an LDR image and the HDR reconstruction functions he is satisfied with. Note that normally receivers do not need to carry out a total analysis of the situation. They do not, in themselves, need to worry about the possibility of the normalized image they received being an HDR image or an LDR image, and with which LDR image variant. They just need to “blindly” apply the functions received. The only thing they need to know, generally, is what the functions define and/or what the single image defines. So, generally, the signal will contain an indicator (IND) of what type of signal it is. Logically, many things may have been communicated about the signal, for example to televisions wanting to perform their own intelligent additional picture enhancement, but generally what a receiver needs to know minimally is that this HDR encoding signal S_im is from type that contains an image directly useful for LDR rendering (regardless of whether its appearance can be adjusted to a better LDR image by receivers that can tone map the received LDR image LDR_t with more tone mapping functions [parameterized with Ff1 , Ff2, etc.] or not). With this information, the receiver knows that if a connected LDR display is to be served with suitable images, the LDR appearance images can be directly sent to it, and if it is an HDR display, color transformations first. will be applied to obtain the correct HDR images for rendering. The skilled reader will understand that this can be indicated in several ways, for example, with a keyword such as “DIRECTLDR”, or with a set of numbers “100/5,000”, which indicates that the only image is an image intended to a 100 cd/m2 (100 nit) screen (real or reference screen) and was derived from and is mappable to a 5,000 cd/m2 (5,000 nit) HDR image (which does not mean that any other image for another brightness peak can be derived from the LDR image with the information in the parameters that define the color transformation functions) etc.
[0035] Se for observado um pouco mais detalhadamente para o que uma imagem de HDR pode ser tipicamente (quando normalizada e para ser classificada para uma imagem de LDR de modo ii ideal), deve-se compreender como várias cenas serão tipicamente classificadas em um ambiente definido por tela de referência de HDR com um pico de brilho de, por exemplo, 5.000 ou 10.000 cd/m2 (5.000 ou 10.000 nit).[0035] If one looks in a little more detail at what an HDR image might typically look like (when normalized and to be classified to an ideal mode II LDR image), one should understand how various scenes will typically be classified in a environment defined by HDR reference screen with a peak brightness of, for example, 5,000 or 10,000 cd/m2 (5,000 or 10,000 nit).
[0036] Novamente, tendo-se o exemplo de elucidação de uma cena interna com um ambiente externo ensolarado brilhante, pode-se desejar classificar as cores externas no M_HDR para aproximadamente cinza médio de HDR, então, cerca de 20% de 5.000 cd/m2 (5.000 nit), isto é, +1.000 cd/m2 (1.000 nit). As cores do ambiente interno não devem ser renderizadas com típicas luminâncias de ambientes internos reais, uma vez que se vê o filme em um outro ambiente, por exemplo, um ambiente normal escurecido de visualização de televisão. Então, definidamente, as cores de ambientes internos não devem ser renderizadas em 1/100° das luminâncias de pixel de ambientes externos ensolarados, uma vez que essas não são também renderizadas exatamente, apenas uma cópia exata em qualquer lado de recebimento do qual a classificação mestre de referência na tela de referência teria sido feita. Deve-se levar em consideração o aparecimento para o espectador mediano adaptado, em particular, que na aparência de HDR os ambientes internos não devem parecer escuros de modo irreal. Pode-se classificar essas cores em, por exemplo, 1/10° da luminância média das cores de região de imagem “espaço externo ensolarado”, então em torno de +- 100 cd/m2 (100 nit). Entretanto, agora, o mapeamento ingênuo dessas lumas em uma tela de referência de LDR de 100 cd/m2 (100 nit) (com um mapeamento de cor que é, diga-se, próximo de uma extensão linear ao menos conceitualmente), as cores de espaços externos ensolarados em LDR pareceriam perfeitas, em cerca de 20 cd/m2 (20 nit) e acima até branco, mas as cores de espaços internos seriam renderizadas em torno de 2 cd/m2 (2 nit), que pareceriam como pretos psicovisuais. Esta é a razão pela qual se deve realizar “alguma” otimização, que pode ser um tanto complexa dependendo da complexidade de uma cena de HDR específica, que é o motivo pelo qual, de preferência, tem-se um classificador de cor humano envolvido no lado da criação de conteúdo, para os aspectos da presente estrutura de codificação. Para tornar essas cores de ambientes internos também razoavelmente visualizáveis, pode-se colocá-las um tanto mais escuras do que cinza médio (18%), mas não muito mais na otimização. Então, pode-se desejar reforçar essas cores mais escuras com um fator geralmente entre 5 e 7 (dependendo do que está nas regiões escuras respectivamente brilhosas, logicamente, a otimização pode ser diferente para uma base escura em que se deve dificilmente ver ferramentas na parede e pode limitar a luz da lâmpada que ilumina as mesmas), mantendo as cores mais brilhantes acima dessas. A Figura 5 mostra dois cenários exemplificativos da presente cadeia de codificação de HDR/LDR. As curvas 501 e 502 mostram apenas a primeira curva de mapeamento de tom (“sensibilidade”) característica, isto é, antes do gama. As mesmas são definidas por, com valores normalizados possíveis para a log(7?/70) ' entrada xg entre zero e 1,0, e um valor de RHO ideal no caso do HDR mestre ser definido com um pico de brilho de tela de referência de f 1.000 cd/m2 (1.000 nit) para a curva 501 (que significa que qualquer que seja o conteúdo na cena capturada, as luminâncias de objeto no M_HDR são definidas entre zero e maximamente 1.000 cd/m2 (1.000 nit), o valor para o qual, por exemplo, uma centelha de soldagem ou o sol podem ser graduados), e 5.000 cd/m2 (5.000 nit) para a curva 502. O valor de RHO ideal pode ser determinado de várias maneiras, conforme o leitor versado na técnica compreenderá. Por exemplo, o classificador pode escolhê-lo, adequado para o que o mesmo considera uma boa aparência de LDR dada a imagem de M_HDR específica. Ou, um aparelho no lado da criação pode calculá-lo, automaticamente, por exemplo, de acordo com a equação a seguir: [0036] Again, taking the example of elucidating an indoor scene with a bright sunny outdoor environment, one may wish to classify the outdoor colors in M_HDR to approximately HDR mid-gray, so about 20% of 5,000 cd/ m2 (5,000 nit), that is, +1,000 cd/m2 (1,000 nit). Indoor colors should not be rendered with luminances typical of real indoor environments, as the film is viewed in another environment, for example, a normal darkened television viewing environment. So indoor colors should definitely not be rendered at 1/100° of the pixel luminances of sunny outdoor environments, since those are not also rendered exactly, just an exact copy on either receiving side of which the rating reference master on the reference screen would have been made. Consideration should be given to the appearance for the average adapted viewer, in particular that in the HDR appearance indoor environments should not appear unrealistically dark. You can classify these colors at, for example, 1/10° of the average luminance of the “sunny outer space” image region colors, so around +- 100 cd/m2 (100 nit). However, now, naively mapping these lumas onto a 100 cd/m2 (100 nit) LDR reference screen (with a color mapping that is, let's say, close to a linear extent at least conceptually), the colors of sunny outdoor spaces in LDR would appear perfect, at about 20 cd/m2 (20 nit) and up to white, but colors of indoor spaces would render at around 2 cd/m2 (2 nit), which would appear like psychovisual blacks . This is why “some” optimization must be performed, which can be quite complex depending on the complexity of a specific HDR scene, which is why, ideally, you have a human color classifier involved in the content creation side, for aspects of this coding framework. To make these indoor colors also reasonably viewable, you can make them somewhat darker than medium gray (18%), but not much more in optimization. So, one may wish to enhance these darker colors with a factor generally between 5 and 7 (depending on what is in the respectively bright dark regions, logically, the optimization may be different for a dark base where one should hardly see tools on the wall). and can limit the light from the lamp that illuminates them), keeping the brightest colors above them. Figure 5 shows two example scenarios of the present HDR/LDR coding chain. Curves 501 and 502 show only the first characteristic tone mapping (“sensitivity”) curve, i.e. before gamma. They are defined by , with possible normalized values for the log(7?/70)' input xg between zero and 1.0, and an ideal RHO value in case the HDR master is set with a reference screen brightness peak of f 1,000 cd /m2 (1,000 nit) for curve 501 (which means that whatever the content in the captured scene, object luminances in M_HDR are set between zero and maximally 1,000 cd/m2 (1,000 nit), the value for which, for example, a welding spark or the sun can be graded), and 5,000 cd/m2 (5,000 nit) for curve 502. The ideal RHO value can be determined in several ways, as the reader skilled in the art will understand. For example, the classifier may choose what it considers a good LDR appearance given the specific M_HDR image. Or, a device on the creation side can calculate it automatically, for example, according to the following equation:
[0037] Nessa equação PBHDR é o pico de brilho da tela de referência associada à classificação de M_HDR (isto é, que define o alcance de valores possíveis, e tipicamente, corresponde ao PB de uma tela real na qual o graduador estudou e criou sua aparência de HDR mestre), por exemplo, 1.000 ou 5.000 cd/m2 (1.000 ou 5.000 nit) como na Figura 5, e GAM é um valor gama, que pode ser, tipicamente, por exemplo, 2,4. Logicamente, o aparelho (ou classificador) pode se desviar desses valores por qualquer outro algoritmo ou heurística, por exemplo, no caso de uma aparência um tanto mais brilhante, ou plana, ser necessária etc.[0037] In this equation PBHDR is the peak brightness of the reference screen associated with the M_HDR rating (that is, which defines the range of possible values, and typically corresponds to the PB of a real screen on which the grader studied and created his master HDR appearance), for example, 1,000 or 5,000 cd/m2 (1,000 or 5,000 nit) as in Figure 5, and GAM is a gamma value, which can typically be, for example, 2.4. Logically, the device (or classifier) can deviate from these values by any other algorithm or heuristic, for example, in case a somewhat brighter, or flat, appearance is required, etc.
[0038] Agora, pode-se ver na Figura 5 que se forem determinados os fatores de reforço (em comparação com à diagonal, sendo que a luma de HDR normalizada está no eixo x, e a luma de LDR normalizada no eixo y) para a parte do primeiro mapeamento de tom/mapeamento de tom de sensibilidade apenas para um valor entre +- 1,5 e 4,0, tem-se, após aplicar o mapeamento de gama com um gama de 2,4 também, os fatores de reforço de cerca de 6 a 7 para os 10% mais escuros das cores (curvas 503 respectivamente 504 sendo o mapeamento combinado de log e gama), que é aproximadamente o que se precisa (o classificador pode, mais tarde, ajustar conforme desejado com sua curva de mapeamento de tom arbitrário, mas é uma boa estratégia para, por exemplo, aparelhos de autoconversão, que envolvem minimamente o classificador apenas no caso do ajuste ser necessário ou desejável). Em geral, um indivíduo gostaria de ter, de modo geral, um reforço de +- 4 a 8 para as operações combinadas de mapeamento de tom de log/gama (isto é, unidade 602 e 603), que significaria que um valor de reforço entre 1,5 e 5,0 seria adequado para a parte de sensibilidade baseada em RHO apenas (unidade 603). Qualquer função de mapeamento de tom para a unidade 603 que tenha tal comportamento para as cores mais escuras satisfaria o que se deseja para a presente invenção, mas a equação baseada em log acima é uma maneira pragmática simples de se realizar isso. O comportamento para as cores mais claras acima será, geralmente, uma compactação suave, isto é, com um formato de função que mapeia geralmente de modo não linear as luminâncias mais claras acima da faixa tomado pelas cores mais escuras reforçadas. Agora, pode-se ter imagens de HDR muito complexas, que podem desejar outros valores, mas tais situações extremas podem ser manipuladas por uma definição de curva arbitrária adequada pelo classificador (ou um algoritmo de classificação automática). Nota-se que no lado da decodificação, a cadeia de processamento precisa ser substancialmente inversível, para ter capacidade de calcular o Rec_HDR a partir da única imagem (ou imagens) de LDR comunicada. “Substancialmente inversível” significa que não se tem necessariamente que obter exatamente os mesmos valores de componente de cor em Rec_HDR como no M_HDR original, as diferenças de cor devem estar em um limite de tolerância. Portanto, o receptor deve, por fim, ter a capacidade de obter as funções de transformação de cor necessárias para atualizar a aparência de HDR Rec_HDR, independente se o mesmo calcular as mesmas pela inversão das funções de rebaixamento originalmente usadas no lado do receptor quando se faz com que o LDR_o (ou LDR_i) forme o M_HDR e receber as informações de formato dessas funções, ou pela recepção direta das funções inversas necessárias para realizar a atualização para Rec_HDR. Isso, inter alia, significará geralmente que para a função de mapeamento de tom arbitrária que o classificador pode definir para ajustar a aparência de LDR para suas preferências críticas, o mesmo precisará definir uma função monotonicamente crescente relacionada às lumas de LDR e HDR normalizadas conforme o versado na técnica compreenderá.[0038] Now, it can be seen in Figure 5 that if the reinforcement factors are determined (compared to the diagonal, with the normalized HDR luma being on the x-axis, and the normalized LDR luma on the y-axis) for the part of the first tone mapping/sensitivity tone mapping only for a value between +- 1.5 and 4.0, one has, after applying the gamma mapping with a gamma of 2.4 also, the gamma factors boost of about 6 to 7 for the darkest 10% of colors (curves 503 respectively 504 being the combined log and gamma mapping), which is roughly what is needed (the classifier can later adjust as desired with its arbitrary tone mapping curve, but it is a good strategy for, for example, autoconverting devices, which minimally involve the classifier just in case tuning is necessary or desirable). In general, an individual would generally like to have a boost of +- 4 to 8 for the combined log/gamma tone mapping operations (i.e., unit 602 and 603), which would mean that a boost value between 1.5 and 5.0 would be suitable for the sensitivity part based on RHO only (unit 603). Any tone mapping function for unit 603 that has such behavior for the darkest colors would satisfy what is desired for the present invention, but the above log-based equation is a simple pragmatic way of accomplishing this. The behavior for the lighter colors above will generally be a smooth compression, that is, with a function format that maps generally non-linearly to the lighter luminances above the range taken by the boosted darker colors. Now, one can have very complex HDR images, which may want other values, but such extreme situations can be handled by a suitable arbitrary curve definition by the classifier (or an automatic classification algorithm). Note that on the decoding side, the processing chain needs to be substantially invertible, to be able to calculate Rec_HDR from the single communicated LDR image (or images). “Substantially invertible” means that one does not necessarily have to obtain exactly the same color component values in Rec_HDR as in the original M_HDR, the color differences must be within a tolerance limit. Therefore, the receiver must ultimately have the ability to obtain the color transformation functions necessary to update the appearance of HDR Rec_HDR, regardless of whether it calculates them by inverting the drawdown functions originally used on the receiver side when causes the LDR_o (or LDR_i) to form the M_HDR and receive the format information from these functions, or by directly receiving the inverse functions necessary to perform the update to Rec_HDR. This, inter alia, will generally mean that for the arbitrary tone mapping function that the classifier can define to adjust the LDR appearance to its critical preferences, it will need to define a monotonically increasing function related to the LDR and HDR lumas normalized as per the skilled in the technique will understand.
[0039] A cadeia técnica de modo ii básica pode funcionar de uma maneira simples. Por exemplo, para algumas cenas menos críticas, o classificador pode ocupar a função arbitrária com valores padrão que são uma transformação de identidade. Nota-se também que embora sejam descritos os componentes técnicos básicos necessários na cadeia, nas realizações práticas, um ou mais desses blocos podem ser agrupados em unidades reais que realizam as funções. Por exemplo, em algumas aplicações, pode ser desejável enviar um LUT total de todas as funções de mapeamento de cor juntas, enquanto em outras aplicações, pode ser vantajoso enviar as funções separadas, devido ao fato de que a televisão (automaticamente, por exemplo, após análise da cena, ou sob controle de interface de usuário pelo espectador) pode, por exemplo, desejar ajustar adicionalmente, por exemplo, a primeira função que clareia a imagem um tanto em comparação com a sensibilidade ou o valor de RHO recebido da tecnologia de comunicação de imagem/vídeo. As versões mais avançadas podem usar algumas etapas de processamento adicionais, por exemplo, o método de codificação pode determinar um valor de ganho (gai) para mapear a luma máxima da imagem de faixa dinâmica mais curto (LDR_o) para um valor específico dos valores possíveis na imagem de grande faixa dinâmica reconstruída (Rec_HDR), e para codificar esse valor de ganho no sinal de imagem (S_im), que não deve ser confundido com as cores normalizadas de forma de dimensionamento final em relação ao pico de brilho da tela conectada (por exemplo, Lm=5.000 cd/m2 (5.000 nit)). Esse ganho permite classificação e/ou codificação mais versátil.[0039] The basic mode ii technical chain can work in a simple way. For example, for some less critical scenes, the classifier may occupy the arbitrary function with default values that are an identity transformation. It is also noted that although the basic technical components needed in the chain are described, in practical implementations, one or more of these blocks can be grouped into real units that perform the functions. For example, in some applications, it may be desirable to send a total LUT of all color mapping functions together, while in other applications, it may be advantageous to send the functions separately, due to the fact that the television (automatically, e.g. after analysis of the scene, or under user interface control by the viewer) may, for example, wish to additionally adjust, for example, the first function which brightens the image somewhat in comparison to the sensitivity or RHO value received from the image technology. image/video communication. More advanced versions may use some additional processing steps, for example the encoding method may determine a gain value (gai) to map the maximum luma of the shortest dynamic range image (LDR_o) to a specific value from the possible values in the reconstructed high dynamic range image (Rec_HDR), and to encode this gain value into the image signal (S_im), which should not be confused with the final scaling shape normalized colors relative to the peak brightness of the connected display ( for example, Lm=5,000 cd/m2 (5,000 nit)). This gain allows for more versatile classification and/or coding.
[0040] Um método aprimorado muito útil de codificação de uma imagem de alta faixa dinâmica (M_HDR) compreende: após aplicar qualquer um dentre os mapeamentos de cor acima para determinar a imagem de faixa dinâmica mais curta (LDR_o), aplicar um mapeamento de tom técnico adicional (301) para determinar uma segunda imagem de faixa dinâmica mais curta (LDR_i) que pode ser usada para acionar telas de LDR como uma alternativa de imagem de acionamento alternativa para a imagem de faixa dinâmica de luminância mais curta (LDR_o), cujo mapeamento de tom técnico é determinado por: a) se determinar uma primeira região geométrica da imagem de faixa dinâmica de luminância mais curta (LDR_o) para a qual a visibilidade de criação de faixas na imagem na imagem de alta faixa dinâmica reconstruída correspondente (Rec_HDR) está acima de um nível aceitável, b) se determinar uma faixa de lumas (L_u) para essa região, c) se determinar um segunda faixa de lumas de pixel (L_uu) adjacente no eixo de luma às alcance de lumas (L_u), sendo que a segunda faixa é identificada para satisfazer as condições de que a mesma tem várias lumas acima de um número mínimo (MIN), e corresponde a uma segunda região de imagem geométrica que contém uma textura que pode ser representada com o uso de menos que o número mínimo de códigos em uma imagem de LDR (LDR_i) na qual se aplicam as funções que produzem uma imagem de alta faixa dinâmica reconstruída (Rec_HDR) de qualidade visual suficiente para essa segunda região, e d) se determinar uma função de mapeamento de redistribuição que redistribui as lumas da primeiro e da segunda faixas de luma, para que os códigos adicionais estejam disponíveis para a primeira faixa, e emitir nos valores de sinal de imagem (S_im) que codificam o formato de função da função de mapeamento de redistribuição ou, de preferência, seu inverso.[0040] A very useful improved method of encoding a high dynamic range (M_HDR) image comprises: after applying any of the above color mappings to determine the shortest dynamic range image (LDR_o), applying a tone mapping additional technical skill (301) to determine a second shorter dynamic range image (LDR_i) that can be used to drive LDR displays as an alternative drive image alternative to the luminance shorter dynamic range image (LDR_o), which Technical tone mapping is determined by: a) determining a first geometric region of the shortest luminance dynamic range image (LDR_o) for which the image banding visibility in the corresponding reconstructed high dynamic range image (Rec_HDR) is above an acceptable level, b) a range of lumas (L_u) is determined for that region, c) a second pixel luma range (L_uu) is determined adjacent on the luma axis to the luma range (L_u), being that the second strip is identified to satisfy the conditions that it has several lumas above a minimum number (MIN), and corresponds to a second geometric image region that contains a texture that can be represented using less than the minimum number of codes in an LDR image (LDR_i) to which functions are applied that produce a reconstructed high dynamic range (Rec_HDR) image of sufficient visual quality for that second region, and d) a redistribution mapping function is determined that redistributes the lumas of the first and second luma tracks, so that additional codes are available for the first track, and outputs in the image signal values (S_im) that encode the function format of the redistribution mapping function, or otherwise preference, its inverse.
[0041] Um método é um tanto limitado em relação à troca entre reconstrução total ou suficientemente precisa do Rec_HDR, e a aparência da imagem de LDR LDR_o, em particular, se o hardware (e custos de classificação) ditar que umas quantidades relativamente limitadas de funções de classificação precisam ser usadas. Algumas cenas de HDR podem não ser tão difíceis (por exemplo, o espectador comum pode não ser muito crítico sobre a possibilidade das sombras de um lado sombreado de uma rua ensolarada serem um pouco mais escuras, ou um pouco mais cinza claro, contanto que os desvios da aparência ideal não sejam muito excessivos), mas algumas cenas de HDR podem ser mais críticas (por exemplo, em algum lugar na faixa de luminância de HDR pode haver um rapaz parcialmente escondido na névoa luminosa, e se o contraste local existente for muito alto, ele pode ficar muito visível, mas se o contraste for muito baixo, ele pode ficar invisível, mudando a história). Seria vantajoso ter uma outra dimensão de classificação possível, ao menos para receptores não legados (e não sabem como realizar qualquer processamento de HDR), e podem realizar algum mapeamento de tom adicional. Uma tela legada poderia, então, obter a imagem de LDR com “melhor esforço”, que será a única imagem transmitida, mas os receptores futuros inteligentes poderiam realizar alguns truques técnicos inteligentes para otimizar ainda mais a aparência de LDR, para que se aproxime do que o classificador deseja (talvez até limite alguns valores na aparência de LDR final, o que seria incongruente com a reconstrução de HDR se isso acontecesse na única imagem de LDR transmitida). Existindo tal possibilidade, alguns métodos de codificação ou codificadores devem satisfazer essa necessidade. Compactar um imagem de HDR com razão de contraste altíssimo muito complexa em uma única imagem de LDR (por exemplo, uma imagem de HDR que têm diversas regiões importantes com muitos valores de cinza, por exemplo, uma sala sem iluminação escura, uma segunda sala relativamente bem iluminada, e, ao mesmo tempo, um espaço externo iluminado com sol colorido, e com essas 3 regiões contendo também gradientes importantes que cobrem muitos valores de cinza, por exemplo, de uma tabela de branco sob a lâmpada na sala bem iluminada), poderia ocorrer que uma ou mais regiões se tornassem inaceitáveis, devido ao comprimento limitado de palavra (por exemplo, 10 bits) para os componentes de cor, em qualquer lugar (dependendo dos formatos das funções de mapeamento de cor) há a criação de faixas na imagem, a qual é considerada muito grave. Essa região pode ser identificada, por exemplo, pelo classificador que a observa (e o mesmo pode ser auxiliado ao receber indicação de possíveis áreas críticas pelo software de análise de imagem de HDR no aparelho de classificação). Os detectores de criação de faixas na imagem podem calcular, por exemplo, que para uma região prolongada (que potencialmente leva também em consideração quais luminâncias essa região tem, e JNDs estimados) há saltos de cada vez de inúmeras cores sucessivamente iguais, e podem definir um nível aceitável com base nos valores de tal cálculo (e típicos experimentos em fábrica). O aparelho de classificação após ter encontrado tal região (por exemplo, por meio de segmentação mais fina daquilo que o classificador selecionou aproximadamente), pode, então, determinar aproximadamente a faixa L_u de luminâncias que correspondem à mesma. Por exemplo, pode haver criação de faixas na imagem em um céu azul, cujas cores têm luminâncias entre L_sky_low e L_sky_high. O problema seria mitigado, se a codificação de LDR tivesse mais valores para codificar a imagem, sendo que deve-se compreender que no lado de codificação, o M_HDR e quaisquer transformações podem ainda ter altíssima precisão. Mas esses códigos não existem: tem-se apenas os 10 bits disponíveis para todas as luminâncias necessárias, e precisa-se também codificar suficientemente todas as outras regiões de imagem de iluminação diferente. Mas um truque pode ser usado, caso alguns códigos possam ser emprestados das regiões da imagem que tem luminâncias adjacentes a L_u, especialmente se a qualidade visual dessas regiões piorar um pouco, tirando-se alguns códigos de seu alcance de código (que o classificador geralmente julgará, por meio de uma simples operação de aceitar o resultado, ou discordar em relação a qual caso será feita uma outra tentativa, que é mais agressiva no caso da criação de faixas na imagem ainda ser grande para a área originalmente com faixas e a região adjacente ainda pode ser mais deteriorada, ou um pouco menos agressiva se o classificador indicar que a região adjacente começa a se deteriorar muito). Uma maneira simples de redistribuir os códigos é, por exemplo, uma modificação linear ou não linear da parte de função local. Agora, a questão com a única imagem transmitida LDR_o, é que o céu pode, por exemplo, ter se tornado um pouco escuro demais e, talvez, com muito contraste por meio dessa operação (e, também, as regiões adjacentes podem ser um tanto escuras demais, e sua aparência de textura pode ter mudado etc.). Isso pode não ser muito problemático no caso de pequenas alterações e cenas menos críticas, e um pouco mais inconveniente para cenas difíceis. Esse é o preço que os sistemas legados podem ter que pagar, devido ao fato de que os mesmos não podem fazer absolutamente nada com qualquer um dos dados recebidos exceto por renderizar diretamente o LDR_o, mas novos receptores podem aplicar o inverso das transformações usadas para redistribuir as lumas, para criar uma aparência de LDR muito próxima daquela originalmente pretendida (isto é, com as luminâncias de céu adequadas etc.), mas, agora, com menos criação de faixas na imagem. Um receptor não precisa fazer muita análise inteligente, precisa apenas ver que tal função de mapeamento de tom técnico está disponível, e precisa aplicar a mesma à reconstrução da única imagem de LDR transmitida LDR_t para obter a melhor imagem de aparência de LDR LDR_ul. Inúmeros métodos podem também ser aplicados nos aparelhos de classificação para fornecer boas sugestões para a região adjacente, por exemplo, uma região com uma quantidade suficiente de lumas (por exemplo, igual à quantidade no céu) e com alguma textura complexa pode ser determinada. As modalidades simples podem por exemplo, usar todos os códigos abaixo da faixa das regiões com faixas, até o preto mais escuro.[0041] One method is somewhat limited with respect to the tradeoff between fully or sufficiently accurate reconstruction of the Rec_HDR, and the appearance of the LDR LDR_o image, in particular, if the hardware (and classification costs) dictate that relatively limited amounts of sorting functions need to be used. Some HDR scenes may not be that difficult (for example, the average viewer may not be very critical about whether the shadows on a shaded side of a sunny street are a little darker, or a little more light gray, as long as the deviations from the ideal appearance are not too excessive), but some HDR scenes may be more critical (for example, somewhere in the HDR luminance range there may be a boy partially hidden in the luminous haze, and if the existing local contrast is very high, it can be very visible, but if the contrast is too low, it can be invisible, changing the story). It would be advantageous to have another rating dimension possible, at least for non-legacy receivers (and don't know how to do any HDR processing), and can do some additional tone mapping. A legacy display could then get the “best effort” LDR image, which will be the only image transmitted, but future smart receivers could perform some clever technical tricks to further optimize the LDR appearance so that it approaches the that the classifier wants (perhaps even limits some values in the final LDR appearance, which would be incongruous with the HDR reconstruction if this happened in the only transmitted LDR image). If such a possibility exists, some coding methods or encoders must satisfy this need. Compress a very complex very high contrast ratio HDR image into a single LDR image (for example, an HDR image that has several important regions with many gray values, for example, a room with no dark lighting, a second room relatively well-lit, and, at the same time, an external space illuminated with colored sunlight, and with these 3 regions also containing important gradients that cover many gray values, for example, of a white table under the lamp in the well-lit room), It could occur that one or more regions become unacceptable, due to the limited word length (e.g. 10 bits) for the color components, anywhere (depending on the formats of the color mapping functions) there is banding in the image, which is considered very serious. This region can be identified, for example, by the classifier that observes it (and it can be helped by receiving indication of possible critical areas by the HDR image analysis software in the classification device). Image banding detectors can calculate, for example, that for an extended region (which potentially also takes into account what luminances that region has, and estimated JNDs) there are jumps at a time of countless successively identical colors, and can define an acceptable level based on the values from such a calculation (and typical factory experiments). The classification apparatus, after having found such a region (for example, through finer segmentation of what the classifier has approximately selected), can then determine approximately the range L_u of luminances that correspond to it. For example, there may be banding in the image in a blue sky, whose colors have luminances between L_sky_low and L_sky_high. The problem would be mitigated if the LDR encoding had more values to encode the image, and it must be understood that on the encoding side, M_HDR and any transformations can still have very high precision. But these codes do not exist: we only have 10 bits available for all the necessary luminances, and we also need to sufficiently encode all other image regions with different lighting. But a trick can be used if some codes can be borrowed from regions of the image that have luminances adjacent to L_u, especially if the visual quality of these regions worsens a little, taking some codes out of their code range (which the classifier usually will judge, through a simple operation of accepting the result, or disagreeing in relation to which case another attempt will be made, which is more aggressive in case the creation of bands in the image is still large for the originally banded area and the region adjacent region may still be more deteriorated, or a little less aggressive if the classifier indicates that the adjacent region begins to deteriorate a lot). A simple way to redistribute the codes is, for example, a linear or non-linear modification of the local function part. Now, the issue with the single image transmitted LDR_o, is that the sky may, for example, have been made a little too dark and perhaps too contrasty by this operation (and also the adjacent regions may be a little too dark). too dark, and its texture appearance may have changed, etc.). This may not be too much of an issue in the case of small changes and less critical scenes, and a bit more inconvenient for difficult scenes. This is the price that legacy systems may have to pay, due to the fact that they cannot do absolutely anything with any of the received data except for directly rendering the LDR_o, but new receivers can apply the inverse of the transformations used to redistribute the lumas, to create an LDR appearance very close to that originally intended (i.e. with the appropriate sky luminances, etc.), but now with less banding in the image. A receiver does not need to do much intelligent analysis, it only needs to see that such a technical tone mapping function is available, and it needs to apply the same to the reconstruction of the single transmitted LDR image LDR_t to obtain the best LDR appearance image LDR_ul. Numerous methods can also be applied to classification devices to provide good suggestions for the adjacent region, for example, a region with a sufficient amount of lumas (e.g., equal to the amount in the sky) and with some complex texture can be determined. Simple embodiments may, for example, use all codes below the range of banded regions, down to the darkest black.
[0042] A quantidade de códigos adicionais para a primeira faixa é determinada com base em um critério de visibilidade de criação de faixas na imagem para a primeira região geométrica. Um algoritmo automático pode estar em uma proporção, por exemplo, 20% de códigos adicionais e, geralmente, o classificador humano reconhecerá isso. O algoritmo também pode realçar as regiões que o mesmo tinha que piorar, por exemplo, deixando-se intermitente uma coloração dessas regiões, para que o classificador possa verificar rapidamente a possibilidade dessas terem qualidade visual suficiente também no HDR reconstruído Rec_HDR.[0042] The number of additional codes for the first stripe is determined based on a visibility criterion for creating stripes in the image for the first geometric region. An automatic algorithm might be at a ratio, for example 20% additional codes, and usually the human classifier will recognize this. The algorithm can also highlight the regions that it had to worsen, for example, leaving a coloration of these regions flashing, so that the classifier can quickly verify the possibility of these having sufficient visual quality also in the reconstructed HDR Rec_HDR.
[0043] Na maioria das modalidades práticas, a identificação da primeira região geométrica que mostra a criação excessiva de faixas na imagem é normalmente realizada por fim por um classificador humano por meio de uma unidade de interface de usuário (105), por exemplo, rabiscando-se uma linha ondulada ao longo da região com faixas, e a quantidade de criação de faixas na imagem da primeira região geométrica na imagem de alta faixa dinâmica reconstruída (Rec_HDR) e a qualidade visual de reconstrução da segunda região geométrica na imagem de alta faixa dinâmica reconstruída (Rec_HDR) ser julgada pelo classificador humano como aceitável ou não aceitável, sendo que no caso do julgamento aceitável, os valores que codificam o formato de função da função de mapeamento de redistribuição ou seu inverso são codificados no sinal de imagem, ou no caso do julgamento inaceitável, as etapas são realizadas com diferentes parâmetros para resultar em uma função de mapeamento de redistribuição alternativa. Por exemplo, 10% de mais códigos pode ser alocado para a região com faixas, talvez, às custas de uma faixa de lumas adjacentes alargadas L_uu.[0043] In most practical embodiments, identification of the first geometric region that shows excessive banding in the image is typically performed ultimately by a human classifier via a user interface unit (105), e.g., by scribbling a wavy line along the banded region, and the amount of banding in the image of the first geometric region in the reconstructed high dynamic range (Rec_HDR) image and the visual quality of reconstruction of the second geometric region in the high dynamic range image reconstructed dynamics (Rec_HDR) be judged by the human classifier as acceptable or not acceptable, and in the case of acceptable judgment, the values that encode the function format of the redistribution mapping function or its inverse are encoded in the image signal, or in the case of unacceptable judgment, steps are performed with different parameters to result in an alternative redistribution mapping function. For example, 10% more code may be allocated to the banded region, perhaps at the expense of an enlarged adjacent luma band L_uu.
[0044] Uma modalidade interessante do método de codificação de uma imagem de grande faixa dinâmica (M_HDR) tem as cores de pixel da imagem de faixa dinâmica de luminância mais curta (LDR_o) que são codificadas como um canal de luma e coordenadas de cor u’ e v’ que são calculadas coordenadas de cor 1931 CIE independentes de dispositivo que são deriváveis para qualquer representação de RGB (isto é, a representação de cromaticidade CIE 1976 (u’,v’)). Normalmente, de acordo com a filosofia legada, as imagens (especialmente imagens de LDR) seriam codificadas como imagens de YCrCb. Mas, se for alterado qualquer codec (por exemplo para a transmissão por internet), pode-se, também, codificar os componentes de cor como planos de componente de Yuv que tem algumas vantagens tanto na qualidade de imagem das imagens transmitidas, quanto na facilidade de aplicar as várias transformações de cor do presente sistema (logicamente, as televisões de legado não terão, então, capacidade de produzir figurações com boa aparência).[0044] An interesting embodiment of the method of encoding a large dynamic range (M_HDR) image has the pixel colors of the shorter luminance dynamic range (LDR_o) image that are encoded as a luma channel and color coordinates u ' and v' which are calculated device-independent CIE 1931 color coordinates that are derivable for any RGB representation (i.e., the CIE 1976 chromaticity representation (u',v')). Normally, according to the legacy philosophy, images (especially LDR images) would be encoded as YCrCb images. But, if any codec is changed (for example for internet transmission), one can also encode the color components as Yuv component planes, which has some advantages both in the image quality of the transmitted images and in the ease to apply the various color transformations of the present system (logically, legacy televisions will then not have the capacity to produce good-looking figurations).
[0045] Concluiu-se que a definição de luma escolhida em geral, (definida pela estratégia de mapeamento de tom total escolhido das etapas acima, que, por fim, obtém as lumas em LDR_o ou LDR_i) que, juntamente com duas coordenadas de cromaticidade independentes de luma, em particular, as coordenadas de u’,v’ padronizadas pelo CIE, será uma boa codificação a ser usada nas tecnologias de compactação de vídeo ou imagem padrão. As tecnologias de compactação semelhantes, por exemplo, a HEVC irão, tipicamente, aplicar ao menos compactação espacial fazendo-se DCTs de blocos de amostras, mas para vídeo, as mesmas podem também fazer a compactação baseada em estimação de movimento, etc.[0045] It was concluded that the chosen luma definition in general, (defined by the total tone mapping strategy chosen from the steps above, which ultimately obtains the lumas in LDR_o or LDR_i) which, together with two chromaticity coordinates luma-independent, in particular, the CIE-standardized u',v' coordinates, will be a good encoding to use in standard video or image compression technologies. Similar compression technologies, for example HEVC, will typically apply at least spatial compression by making DCTs of sample blocks, but for video, they can also do compression based on motion estimation, etc.
[0046] Em modalidades simples, a codificação do comportamento de transformação de cor funcional das conversões de cor pode ser comunicada com apenas alguns parâmetros simples armazenando-se nos metadados associados ou associáveis à única imagem (ou imagens): a) um valor de sensibilidade (por exemplo, RHO, ou um parâmetro equivalente que define RHO chamado de SENS e definido no presente documento abaixo, ou qualquer função ou correlato de RHO que permite determinar um valor de RHO), b) um valor gama (GAM), e c) inúmeros valores que caracterizam o formato funcional da função arbitrária que mapeia as lumas.[0046] In simple embodiments, the coding of the functional color transformation behavior of color conversions can be communicated with just a few simple parameters by storing in the metadata associated or associable with the single image (or images): a) a sensitivity value (e.g., RHO, or an equivalent parameter that defines RHO called SENS and defined herein below, or any function or correlate of RHO that allows a value of RHO to be determined), b) a gamma value (GAM), and c) numerous values that characterize the functional format of the arbitrary function that maps the lumas.
[0047] Um método de codificação de uma imagem de alta faixa dinâmica (M_HDR) que compreende determinar um valor de ganho para mapear a luma máxima da imagem de faixa dinâmica mais curta (LDR_o) para um valor específico dos valores possíveis na imagem de alta faixa dinâmica reconstruída (Rec_HDR), e codificar esse valor de ganho no sinal de imagem (S_im). Isso é útil para um dimensionamento adicional da imagem de Rec_HDR que pode ser obtida a partir da imagem de LDR, por exemplo, se a imagem de LDR de uma filmagem relativamente escura é representada de modo relativamente brilhante, isto é, que representa, em lumas, um valor relativamente alto na faixa de lumas de LDR possíveis, ainda, a imagem de HDR deve ser renderizada de modo não muito brilhante, que é melhor manipulada ao já se decodificar a mesma com uma luma máxima não muito alta.[0047] A method of encoding a high dynamic range (M_HDR) image comprising determining a gain value to map the maximum luma of the shortest dynamic range image (LDR_o) to a specific value from the values possible in the high dynamic range image. reconstructed dynamic range (Rec_HDR), and encode this gain value into the image signal (S_im). This is useful for further scaling of the Rec_HDR image that can be obtained from the LDR image, for example if the LDR image of a relatively dark footage is represented relatively brightly, i.e. representing in lumas , a relatively high value in the range of possible LDR lumas, yet the HDR image must be rendered in a not too bright way, which is best handled by decoding it with a not too high maximum luma.
[0048] Um método de codificação de uma imagem de alta faixa dinâmica (M_HDR) que compreende determinar uma estratégia de modificação de saturação das cores da imagem de alta faixa dinâmica (M_HDR) para as cores na imagem de faixa dinâmica mais curta (LDR_o), ou do modo inverso, e codificar essa estratégia de modificação de saturação como valores paramétricos em metadados no sinal (S_im). Geralmente, os classificadores também desejarão afetar a saturação de uma imagem, por exemplo, os mesmos podem alterar a saturação do LDR_o obtido a partir de M_HDR com alguma estratégia de mapeamento de saturação, e/ou a saturação de Rec_HDR a partir de LDR_o (por exemplo, primeiro, um mapeamento de tom que deixa as cromaticidades de u,v das cores de Rec_HDR obtidas nos valores que se tinha em LDR_o, e, então, alterando-se as saturações dessas cores de Rec_HDR).[0048] A method of encoding a high dynamic range (M_HDR) image comprising determining a saturation modification strategy from the colors of the high dynamic range image (M_HDR) to the colors in the shorter dynamic range image (LDR_o) , or vice versa, and encode this saturation modification strategy as parametric values in metadata in the signal (S_im). Generally, classifiers will also want to affect the saturation of an image, for example, they can change the saturation of LDR_o obtained from M_HDR with some saturation mapping strategy, and/or the saturation of Rec_HDR from LDR_o (e.g. example, first, a tone mapping that leaves the chromaticities of u,v of the Rec_HDR colors obtained at the values they had in LDR_o, and then changing the saturations of these Rec_HDR colors).
[0049] Algumas modalidades do método de codificação de uma imagem de alta faixa dinâmica (M_HDR) compreendem: após aplicar qualquer um dos mapeamentos de cor acima para determinar a imagem de faixa dinâmica mais curta (LDR_o), aplicar um mapeamento de tom técnico (301) adicional para determinar uma segunda imagem de faixa dinâmica mais curta com lumas redistribuídas, isto é, lumas geralmente de valores ligeiramente alterados para ao menos uma região geométrica e subalcance de luma da imagem (isto é, uma imagem de faixa dinâmica curto imagem de luma redistribuída LDR_i), que garante que ao menos, para o classificador, nas regiões mais importantes, da segunda imagem de faixa dinâmica mais curta (LDR_i), por exemplo, que são cuidadosamente observadas pelo típico espectador destinado, devido ao fato de que são, por exemplo, grandes e brilhantes, e propensas à criação de faixas na imagem, códigos luma suficientes podem ser alocados para codificar as texturas nessas regiões com precisão suficiente para possibilitar a reconstrução da imagem de alta faixa dinâmica reconstruída (Rec_HDR) com erros abaixo de um critério de erro predeterminado (uma quantidade de criação de faixas na imagem mínima).[0049] Some embodiments of the method of encoding a high dynamic range (M_HDR) image comprise: after applying any of the above color mappings to determine the shortest dynamic range image (LDR_o), applying a technical tone mapping ( 301) additional to determine a second shorter dynamic range image with redistributed lumas, i.e., lumas generally of slightly altered values for at least one geometric region and luma underrange of the image (i.e., a short dynamic range image luma redistributed LDR_i), which ensures that at least for the classifier, in the most important regions, of the second shortest dynamic range image (LDR_i), for example, which are carefully observed by the typical intended viewer, due to the fact that they are , for example, large and bright, and prone to image banding, sufficient luma codes can be allocated to encode the textures in these regions with sufficient precision to enable reconstruction of the reconstructed high dynamic range (Rec_HDR) image with errors below a predetermined error criterion (a minimum amount of banding in the image).
[0050] É importante que em algumas modalidades não seja escolhida nenhuma estratégia de mapeamento de tom incomum. Especificamente, se for desejado que se tenha capacidade de obter um Rec_HDR com boa qualidade, isto é, perto em valores de cor de pixel matemáticos ao M_HDR, então, é preciso garantir que não haja texturas não amostradas adequadamente em LDR_i, que acontece caso seja garantido que o mapeamento final antes da quantização uniforme seja, agora, muito plano.[0050] It is important that in some embodiments no unusual tone mapping strategy is chosen. Specifically, if it is desired to be able to obtain Rec_HDR with good quality, that is, close in mathematical pixel color values to M_HDR, then it is necessary to ensure that there are no textures not adequately sampled in LDR_i, which happens if it is guaranteed that the final mapping before uniform quantization is now very flat.
[0051] Geralmente, isso pode ser feito através de estratégias de contagem de luma na figuração de LDR e/ou estratégias de contagem de luma como, por exemplo, um detector de criação de faixas na imagem na imagem de HDR, ou qualquer tal critério de erro de reconstrução de HDR predeterminado. Em algumas modalidades, o critério pode ser realizado por um classificador humano. Sua presença pode ter sido vista, tendo-se uma estratégia de remapeamento técnico co-codificada em S_im, a ser aplicada pelos receptores de geração futuros mais inteligentes.[0051] Generally, this can be done through luma counting strategies in the LDR figuration and/or luma counting strategies such as, for example, an image banding detector in the HDR image, or any such criterion of default HDR reconstruction error. In some embodiments, the criteria may be performed by a human classifier. Its presence could have been seen by having a technical remapping strategy co-coded in S_im, to be applied by smarter future generation receivers.
[0052] O método pode ser incorporado em um codificador de imagem (100) disposto para codificar uma imagem de alta faixa dinâmica (M_HDR), que compreende: - uma unidade de conversão de faixa dinâmica (104) disposta para converter a imagem de alta faixa dinâmica em uma imagem de faixa dinâmica de luminância mais curta (LDR_o), sendo que a unidade de conversão de faixa dinâmica (104) compreende, conectados em ordem de processamento: a) um normalizador (601) disposto para normalizar a imagem de alta faixa dinâmica em relação a um eixo de luma que está na faixa de [0,1] e para emitir luminâncias normalizadas (Yn_HDR), b) uma unidade de conversão de gama (602) disposta para aplicar uma função gama às luminâncias normalizadas e para emitir luminâncias convertidas por gama (xg), c) uma primeira unidade de mapeamento de tom (603) disposta para aplicar um primeiro mapeamento de tom que reforça essas luminâncias convertidas por gama que se situam abaixo de 0,1 com uma quantidade predeterminada que se situa entre 1,5 e 5,0, produzindo lumas (v), d) uma unidade de mapeamento de tom arbitrário (604) disposta para d) aplicar uma função arbitrária que mapeia as lumas (v) para emitir lumas (Yn_LDR) da imagem de faixa dinâmica mais curta (LDR_o); sendo que o codificador de imagem (100) compreende adicionalmente: - um compactador de imagem (108) disposto para aplicar uma transformação de redução de dados às cores da imagem de faixa dinâmica mais curta (LDR_o), cujas cores são organizadas em imagens de componente, e em que a transformação de redução envolve ao menos aplicar uma transformação de DCT em blocos de valores de componente de cor adjacentes, produzindo uma codificação compactada (LDR_c) das cores de pixel da imagem de faixa dinâmica de luminância mais curta; e - um formatador (110) disposto para emitir, em um sinal de imagem (S_im), a codificação compactada (LDR_c), e disposto para, adicionalmente, emitir nos valores de sinal de imagem (S_im), codificar o formato de função das conversões de cor como metadados, ou valores para suas funções inversas, cujos metadados permitem que um receptor reconstrua uma imagem de alta faixa dinâmica (Rec_HDR) com base na imagem de faixa dinâmica de luminância mais curta (LDR_o).[0052] The method may be incorporated into an image encoder (100) arranged to encode a high dynamic range (M_HDR) image, which comprises: - a dynamic range conversion unit (104) arranged to convert the high dynamic range (M_HDR) image dynamic range into a shorter luminance dynamic range image (LDR_o), the dynamic range conversion unit (104) comprising, connected in processing order: a) a normalizer (601) arranged to normalize the high luminance image. dynamic range with respect to a luma axis that is in the range of [0,1] and to output normalized luminances (Yn_HDR), b) a gamma conversion unit (602) arranged to apply a gamma function to the normalized luminances and to output gamma-converted luminances (xg), c) a first tone mapping unit (603) arranged to apply a first tone mapping that enhances those gamma-converted luminances that fall below 0.1 with a predetermined amount that is lies between 1.5 and 5.0, producing lumas (v), d) an arbitrary tone mapping unit (604) arranged to d) apply an arbitrary function that maps the lumas (v) to output lumas (Yn_LDR) of the shorter dynamic range image (LDR_o); wherein the image encoder (100) further comprises: - an image compressor (108) arranged to apply a data reduction transformation to the colors of the shortest dynamic range image (LDR_o), the colors of which are organized into component images , and wherein the reduction transformation involves at least applying a DCT transformation to blocks of adjacent color component values, producing a compressed encoding (LDR_c) of the pixel colors of the shorter luminance dynamic range image; and - a formatter (110) arranged to output, in an image signal (S_im), the compressed coding (LDR_c), and arranged to, additionally, output in the image signal values (S_im), encode the function format of the color conversions as metadata, or values for their inverse functions, which metadata allows a receiver to reconstruct a high dynamic range (Rec_HDR) image based on the shorter luminance dynamic range (LDR_o) image.
[0053] Uma modalidade pragmática de tal codificador é uma na qual a unidade de conversão de gama (602) usa um valor gama igual a 1/(2,4), e/ou a primeira unidade de mapeamento de tom (603) usa um mapeamento de tom sendo que RHO tem um valor predeterminado, cujo valor é, geralmente, uma função do pico de brilho da tela servida destinada e/ou da tela de referência associada à codificação de HDR mestre M_HDR.[0053] A pragmatic embodiment of such an encoder is one in which the gamma conversion unit (602) uses a gamma value equal to 1/(2,4), and/or the first tone mapping unit (603) uses a tone mapping where RHO has a predetermined value, which value is generally a function of the peak brightness of the target served screen and/or the reference screen associated with the M_HDR master HDR encoding.
[0054] Um codificador de imagem (100) disposto para especificar um ganho que permite mapear o máximo dos códigos luma na imagem de faixa dinâmica mais curta (LDR_o) para um valor de luma escolhido da imagem de alta faixa dinâmica reconstruída (Rec_HDR), e que tem o formatador (110) disposto para produzir esse ganho como um valor em metadados no sinal de imagem (S_im).[0054] An image encoder (100) arranged to specify a gain that allows mapping the maximum of the luma codes in the shortest dynamic range image (LDR_o) to a luma value chosen from the reconstructed high dynamic range image (Rec_HDR), and which has the formatter (110) arranged to produce this gain as a value in metadata in the image signal (S_im).
[0055] Um codificador de imagem (100), conforme reivindicado em qualquer uma das reivindicações de codificador acima que compreende uma unidade de mapeamento de tom técnico (106), disposto para determinar automaticamente ou guiado por ser humano as informações de textura e estatística da imagem de faixa dinâmica mais curta (LDR_o) e em particular, ao menos uma região geométrica crítica que é propensa aos erros de reconstrução, em particular criação de faixas na imagem no Rec_HDR, e com base no mesmo calcular um segundo mapeamento de tom (Ff1, Ff2, ...) para ser aplicado como uma transformação para a imagem de faixa dinâmica mais curta (LDR_o) para produzir uma segunda imagem de faixa dinâmica mais curta (LDR_i) que tem um número mínimo de códigos luma (por exemplo, 1,3*L_u) que caracteriza as texturas de ao menos algumas regiões propensas a erro importantes da segunda imagem de faixa dinâmica mais curta (LDR_i), permitindo, desse modo, a reconstrução da imagem de alta faixa dinâmica reconstruída (Rec_HDR) com erros abaixo de um critério de erro predeterminado. Para possibilitar a comunicação das informações necessárias que permite, após a codificação, que um receptor implemente, de modo espelhado, o presente sistema de modo ii, é útil transmitir (ou armazenar, para transmissão posterior) um sinal de imagem de alta faixa dinâmica (S_im) que compreende: - uma imagem de faixa dinâmica mais curta pixelizada (LDR_o) com cores de pixel codificadas; e adicionalmente: - um valor de sensibilidade (RHO); e - um valor gama (GAM); e - um valor de ganho (GAI); e - um conjunto de valores que especificam um formato de função de mapeamento de tom arbitrária (P_CC).[0055] An image encoder (100) as claimed in any one of the above encoder claims comprising a technical tone mapping unit (106), arranged to automatically or human-guidedly determine the texture and statistical information of the shortest dynamic range image (LDR_o) and in particular, at least one critical geometric region that is prone to reconstruction errors, in particular banding the image in Rec_HDR, and based on the same calculate a second tone mapping (Ff1 , Ff2, ...) to be applied as a transformation to the shortest dynamic range image (LDR_o) to produce a second shortest dynamic range image (LDR_i) that has a minimum number of luma codes (e.g. 1 ,3*L_u) that characterizes the textures of at least some important error-prone regions of the second shortest dynamic range image (LDR_i), thereby allowing reconstruction of the reconstructed high dynamic range image (Rec_HDR) with errors below of a predetermined error criterion. To enable communication of the necessary information that allows, after encoding, a receiver to mirror-implement the present mode II system, it is useful to transmit (or store, for later transmission) a high dynamic range image signal ( S_im) comprising: - a pixelated shorter dynamic range image (LDR_o) with encoded pixel colors; and additionally: - a sensitivity value (RHO); e - a gamma value (GAM); and - a gain value (GAI); and - a set of values that specify an arbitrary tone mapping function format (P_CC).
[0056] A partir desses valores, o receptor pode, então, determinar os formatos de função de todas as funções a serem aplicadas à única imagem de LDR comunicada (LDR_o, ou LDR_i), caso qualquer imagem de maior faixa dinâmica do que a imagem de LDR 100 cd/m2 (100 nit) seja necessária e calculada.[0056] From these values, the receiver can then determine the function formats of all functions to be applied to the single communicated LDR image (LDR_o, or LDR_i), if any image of greater dynamic range than the image of LDR 100 cd/m2 (100 nit) is necessary and calculated.
[0057] Especificamente, a S_im também pode compreender valores 207 que codificam uma estratégia de remapeamento técnico (Ff1, Ff2, ...) para mapeamento entre uma classificação de LDR artística conforme desejado pelo criador/classificador humano do conteúdo, e um LDR técnico que, quando amostrado, tem lumas suficientes para todas as regiões da imagem para a boa reconstrução de Rec_HDR, ou ao menos aquelas regiões determinadas como mais críticas por uma unidade de análise de imagem automática e/ou um humano.[0057] Specifically, the S_im may also comprise values 207 that encode a technical remapping strategy (Ff1, Ff2, ...) for mapping between an artistic LDR classification as desired by the human content creator/classifier, and a technical LDR which, when sampled, has enough lumas for all regions of the image for good Rec_HDR reconstruction, or at least those regions determined to be most critical by an automatic image analysis unit and/or a human.
[0058] Especificamente, é útil, embora muito pragmático, que os receptores determinem rapidamente qual dentre os diversos (muitos) mecanismos de codificação de imagem de HDR atuais possíveis diferentes é usado, em particular, ao compreender, no sinal de imagem S_im, um indicador (IND) que especifica que uma imagem de alta faixa dinâmica foi codificada no mesmo, e com um método que a codifica como uma imagem de faixa dinâmica curto, que é diretamente útil, sem uma necessidade de adicionalmente mapear por tom, para renderização em uma tela de LDR. Vários modos de codificação podem ser planejados e concordados, contanto que qualquer receptor compreenda isso.[0058] Specifically, it is useful, although very pragmatic, for receivers to quickly determine which of several (many) different possible current HDR image coding mechanisms is used, in particular, by understanding, in the image signal S_im, a indicator (IND) that specifies that a high dynamic range image has been encoded in it, and with a method that encodes it as a short dynamic range image, that is directly useful, without a need for additional tone mapping, for rendering in an LDR screen. Various coding modes can be devised and agreed upon, as long as any receiver understands this.
[0059] Um produto de memória como um disco blu- ray armazena qualquer modalidade do presente sinal de imagem de alta faixa dinâmica (S_im).[0059] A memory product such as a Blu-ray disc stores any modality of the present high dynamic range image signal (S_im).
[0060] Para se ter uma cadeia de comunicação de imagem, na extremidade de recebimento pode-se ter várias realizações de aparelhos que são ou compreendem um decodificador de imagem (150) disposto para receber um sinal de imagem de alta faixa dinâmica (S_im) e que compreende: - um desformatador (151) disposto para obter uma imagem de faixa dinâmica mais curta pixelizada compactada (LDR_c) e dados de parâmetro (P) fora do sinal de imagem (S_im); e - um descompactador (152) disposto para aplicar ao menos uma transformação de DCT inversa à imagem de faixa dinâmica mais curta pixelizada compactada (LDR_c) para obter uma imagem de faixa dinâmica mais curta pixelizada (LDR_t); e uma unidade de conversão de faixa dinâmica (153) disposta para transformar a imagem de faixa dinâmica mais curta (LDR_t) em uma imagem de alta faixa dinâmica reconstruída (Rec_HDR), sendo que a unidade de conversão de faixa dinâmica (153) compreende, na ordem de processamento: a) uma unidade de mapeamento de tom arbitrário (402) disposta para aplicar um mapeamento de tom arbitrário, sendo que os parâmetros que definem o mesmo (P_CC) são recebidos nos dados de parâmetro (P), b) uma primeira unidade de mapeamento de tom (403) disposta para aplicar um mapeamento conforme definido por ao menos um parâmetro recebido (RHO) que define o primeiro mapeamento de tom que foi determinado anteriormente por qualquer uma dentre as modalidades de codificador ou de método de codificação, e c) uma unidade de conversão de gama (404) disposta para aplicar um mapeamento de gama com um valor gama recebido (GAM).[0060] To have an image communication chain, at the receiving end there may be several embodiments of apparatus that are or comprise an image decoder (150) arranged to receive a high dynamic range image signal (S_im) and comprising: - a deformatter (151) arranged to obtain a compressed pixelated shorter dynamic range image (LDR_c) and parameter data (P) out of the image signal (S_im); and - a decompressor (152) arranged to apply at least one inverse DCT transformation to the compressed pixelated shorter dynamic range image (LDR_c) to obtain a pixelated shorter dynamic range image (LDR_t); and a dynamic range conversion unit (153) arranged to transform the shorter dynamic range image (LDR_t) into a reconstructed high dynamic range image (Rec_HDR), the dynamic range conversion unit (153) comprising, in the processing order: a) an arbitrary tone mapping unit (402) arranged to apply an arbitrary tone mapping, the parameters defining the same (P_CC) being received in the parameter data (P), b) a first tone mapping unit (403) arranged to apply a mapping as defined by at least one received parameter (RHO) that defines the first tone mapping that was previously determined by any of the encoder or encoding method embodiments, and c) a gamma conversion unit (404) arranged to apply a gamma mapping to a received gamma value (GAM).
[0061] Esse decodificador primeiramente desfará todas as típicas codificações legadas de compactação, por exemplo, HEVC ou semelhantes e, então, aplicará os vários mapeamentos na ordem inversa (nota-se que nem tudo precisa estar, em todas as modalidades, exatamente na ordem inversa; por exemplo, em Yu’v’ pode-se escolher fazer o processamento de luma e saturação ortogonal em uma ordem inversa, talvez com funções matemáticas ligeiramente diferentes, contanto que o resultado final seja exata ou aproximadamente a cor pretendida). Deve-se observar também que pode haver etapas adicionais de processamento, que podem existir apenas na extremidade de recebimento (por exemplo, uma imagem pode ser codificada em alguma representação de RGB como Rec. 2020, mas pode precisar ser convertida para um outro formato conforme compreendido por uma televisão, por exemplo, DCI-P3, e adicionalmente convertido nas cores primárias reais da TV).[0061] This decoder will first undo all typical legacy compression encodings, e.g. HEVC or similar, and then apply the various mappings in reverse order (note that not everything needs to be, in all embodiments, exactly in the order inverse; for example, in Yu'v' one may choose to do orthogonal luma and saturation processing in a reverse order, perhaps with slightly different mathematical functions, as long as the end result is exactly or approximately the intended color). It should also be noted that there may be additional processing steps, which may exist only at the receiving end (for example, an image may be encoded in some RGB representation such as Rec. 2020, but may need to be converted to another format as per understood by a television, e.g. DCI-P3, and additionally converted to the TV's actual primary colors).
[0062] Então, o decodificador de imagem (150) compreenderá uma unidade de conversão de faixa dinâmica (153) disposta para transformar a imagem de faixa dinâmica mais curta (LDR_t) em uma imagem de alta faixa dinâmica reconstruída (Rec_HDR), e pode haver normalmente unidades lógicas e mais funções de processamento de cor que definem ao menos quando fazer o desejado (por exemplo, dependendo de qual tela ou de quais telas estão atualmente conectadas e são servidas).[0062] Then, the image decoder (150) will comprise a dynamic range conversion unit (153) arranged to transform the shorter dynamic range image (LDR_t) into a reconstructed high dynamic range image (Rec_HDR), and may there will normally be logical units and more color processing functions that define at least when to do what is desired (for example, depending on which screen or screens are currently connected and served).
[0063] Uma modalidade pragmática do decodificador de imagem tem a primeira unidade de mapeamento de tom (403) disposta para aplicar uma função da fórmula: , na qual v é uma luma de pixel, e RHO é um (RHO-1) parâmetro com valor real ou número inteiro recebido nos dados de parâmetro (P).[0063] A pragmatic embodiment of the image decoder has the first tone mapping unit (403) arranged to apply a function of the formula: , where v is a pixel luma, and RHO is a (RHO-1) real-valued parameter or integer received in the parameter data (P).
[0064] Uma modalidade útil do decodificador de imagem (150) compreende uma unidade de remapeamento de tom (159) disposta para aplicar um mapeamento de tom adicional (Ff1, Ff2, ...) recebido no sinal de imagem (S_im) à imagem de faixa dinâmica mais curta (LDR_t) para obter uma segunda imagem de faixa dinâmica mais curta (LDR_ul) que inverte uma ação de redistribuição de código, aplicada por qualquer um dos métodos do codificador 5 a 7 produzindo uma segunda imagem de faixa dinâmica curto (LDR_i) com lumas redistribuídas para obter uma criação de faixas na imagem reduzida em ao menos uma região da imagem de alta faixa dinâmica reconstruída (Rec_HDR). De fato, o codificador não precisa necessariamente saber com exatidão como qualquer codificador chega a uma função de transformação específica que redistribui as lumas, o mesmo precisa apenas aplicar as funções inversas para obter substancialmente a aparência de LDR (LDR_ul) pretendida.[0064] A useful embodiment of the image decoder (150) comprises a tone remapping unit (159) arranged to apply an additional tone mapping (Ff1, Ff2, ...) received in the image signal (S_im) to the image of shorter dynamic range (LDR_t) to obtain a second shorter dynamic range image (LDR_ul) which reverses a code redistribution action applied by any of encoder methods 5 to 7 producing a second short dynamic range image ( LDR_i) with redistributed lumas to achieve banding in the reduced image in at least one region of the reconstructed high dynamic range (Rec_HDR) image. In fact, the coder does not necessarily need to know exactly how any coder arrives at a specific transformation function that redistributes the lumas, he only needs to apply the inverse functions to substantially obtain the intended LDR appearance (LDR_ul).
[0065] Uma outra modalidade útil do decodificador pode compreender codificações de Yu’v’ da imagem de LDR, e em relação à mesma, compreende uma unidade de transformação de cor (155) disposta para converter uma representação de cor de Yu’v’ em uma representação de cor de RGB. O mapeamento de tom pode ser realizado antes da conversão ser feita deixando, portanto, a conversão para RGB para a última parte da cadeia de processamento, ou alternativamente, a conversão pode ser realizada primeiramente, e um processamento de cor equivalente pode ser feito nos sinais de RGB.[0065] Another useful embodiment of the decoder may comprise Yu'v' encodings of the LDR image, and in relation thereto, comprises a color transformation unit (155) arranged to convert a color representation of Yu'v' in an RGB color representation. Tone mapping can be performed before the conversion is done, therefore leaving the conversion to RGB for the last part of the processing chain, or alternatively, the conversion can be performed first, and equivalent color processing can be done on the signals. of RGB.
[0066] Em correspondência a qualquer um dos decodificadores, os métodos correspondentes de decodificação de um sinal de imagem de alta faixa dinâmica (S_im) compreendem obter uma imagem de alta faixa dinâmica reconstruída (Rec_HDR), aplicando-se as conversões de cor codificadas nos dados de parâmetro (P) para a imagem de faixa dinâmica mais curta (LDR_t), em particular, um método de decodificação de um sinal de imagem de alta faixa dinâmica (S_im) compreende: - obter uma imagem de faixa dinâmica mais curta pixelizada compactada (LDR_c) e dados de parâmetro (P) fora do sinal de imagem (S_im); descompactar a imagem de faixa dinâmica mais curta pixelizada compactada (LDR_c), aplicando-se ao menos uma transformação de DCT inversa à imagem de faixa dinâmica mais curta pixelizada compactada (LDR_c) para obter uma imagem de faixa dinâmica mais curta pixelizada (LDR_t); e transformar a imagem de faixa dinâmica mais curta (LDR_t) em uma imagem de alta faixa dinâmica reconstruída (Rec_HDR), mediante: a) a aplicação de um mapeamento de tom arbitrário, sendo que os parâmetros que definem o mesmo (P_CC) são recebidos nos dados de parâmetro (P), b) a aplicação de um mapeamento conforme definido por ao menos um parâmetro recebido (RHO) que define o primeiro mapeamento de tom que foi anteriormente determinado por qualquer uma dentre as modalidades de codificador ou de método de codificação, e c) a aplicação de um mapeamento de gama com um valor gama recebido (GAM), que é, de preferência, igual a 2,4. Descreve-se um sistema que permite que o classificador otimize, de modo simplesmente potente, a aparência de uma aparência de LDR em uma imagem de HDR de uma cena de HDR. De preferência, um sacrifício em relação à qualidade visual tão pequeno quanto possível é realizado, mas, uma vez que o LDR pode precisar de alguma otimização devido a suas limitações de faixa dinâmica, o sistema permite que o classificador ajuste os microcontrastes de objetos de cena interessantes para o mesmo específicos, isto é, objetos de característica geralmente importante nessa cena e, desse modo, se algum sacrifício de qualidade de brilho precisar ser feito, o sacrifica-se a aparência precisa de alguns objetos menos importantes como uma parede no fundo, em vez do objeto principal na cena. A invenção pode ser realizada de muitos outros modos (práticos) como com intermediários contendo os requisitos técnicos principais das várias modalidades como os parâmetros de definição incorporados nos sinais, e muitas aplicações dos mesmos podem resultar, como vários modos de comunicar, usar, transformar cor etc. os vários sinais possíveis, e vários modos de incorporar os vários componentes de hardware, ou de usar os vários métodos, em sistemas de consumidor ou profissionais. Qualquer componente pode, logicamente, ser realizado em ou como um componente pequeno, ou vice-versa como um núcleo-chave de um aparelho grande ou sistema que funciona predominantemente devido a esse componente.[0066] In correspondence with any of the decoders, the corresponding methods of decoding a high dynamic range image signal (S_im) comprise obtaining a reconstructed high dynamic range image (Rec_HDR) by applying the color conversions encoded in the parameter data (P) for the shorter dynamic range image (LDR_t), in particular, a method of decoding a high dynamic range image signal (S_im) comprises: - obtaining a compressed pixelated shorter dynamic range image (LDR_c) and parameter data (P) outside the image signal (S_im); decompressing the compressed pixelated shorter dynamic range image (LDR_c) by applying at least one inverse DCT transformation to the compressed pixelized shorter dynamic range image (LDR_c) to obtain a pixelized shorter dynamic range image (LDR_t); and transform the shortest dynamic range image (LDR_t) into a reconstructed high dynamic range image (Rec_HDR), by: a) applying an arbitrary tone mapping, with the parameters that define it (P_CC) being received on the parameter data (P), b) applying a mapping as defined by at least one received parameter (RHO) that defines the first tone mapping that was previously determined by any of the encoder or encoding method embodiments , and c) applying a gamma mapping with a received gamma value (GAM) which is preferably equal to 2.4. A system is described that allows the classifier to simply powerfully optimize the appearance of an LDR appearance in an HDR image of an HDR scene. Preferably, as little sacrifice in visual quality as possible is made, but since LDR may need some optimization due to its dynamic range limitations, the system allows the classifier to adjust the microcontrasts of scene objects. interesting for the same specific, that is, objects with a generally important characteristic in this scene and, therefore, if any sacrifice of brightness quality needs to be made, the precise appearance of some less important objects such as a wall in the background, instead of the main object in the scene. The invention can be carried out in many other (practical) ways such as with intermediaries containing the main technical requirements of the various embodiments such as the definition parameters incorporated in the signals, and many applications thereof can result, such as various ways of communicating, using, transforming color etc. the various possible signals, and various ways of incorporating the various hardware components, or of using the various methods, in consumer or professional systems. Any component can logically be realized in or as a small component, or vice versa as a key core of a large apparatus or system that functions predominantly due to that component.
[0067] Esses e outros aspectos do método e aparelho de acordo com a invenção ficarão evidentes e serão elucidados com referência às implementações e modalidades doravante descritas neste documento, e com referência aos desenhos anexos, que servem meramente como ilustrações específicas não limitadoras que exemplificam o conceito mais amplo.[0067] These and other aspects of the method and apparatus according to the invention will be evident and will be elucidated with reference to the implementations and embodiments hereinafter described, and with reference to the accompanying drawings, which serve merely as specific non-limiting illustrations that exemplify the broader concept.
[0068] A Figura 1 mostra esquematicamente um exemplo de uma modalidade de um codificador e um decodificador de acordo com a presente invenção, em uma tecnologia de comunicação de imagem;[0068] Figure 1 schematically shows an example of an embodiment of an encoder and a decoder according to the present invention, in an image communication technology;
[0069] a Figura 2 mostra esquematicamente uma modalidade de como pode parecer um sinal de imagem de HDR S_im de acordo com a presente invenção;[0069] Figure 2 schematically shows an embodiment of what an HDR S_sim image signal according to the present invention may look like;
[0070] a Figura 3 elucida esquematicamente, através de uma espécie, como se pode obter, de modo genérico, uma classificação de LDR técnica, que poderia até mesmo ocorrer abaixo da cobertura automaticamente sem perturbar o classificador ou criador de conteúdo em algumas modalidades, o que permite a melhor amostragem das lumas do objeto e, portanto, reconstrução de Rec_HDR de melhor qualidade;[0070] Figure 3 schematically elucidates, through a species, how one can obtain, in a generic way, a technical LDR classification, which could even occur below coverage automatically without disturbing the classifier or content creator in some modalities, which allows for better sampling of object lumas and therefore better quality Rec_HDR reconstruction;
[0071] a Figura 4 é uma elucidação esquemática simples de um decodificador possível de acordo com a presente invenção;[0071] Figure 4 is a simple schematic elucidation of a possible decoder in accordance with the present invention;
[0072] a Figura 5 mostra curvas de modalidade possíveis de dois x dois para realizar o mapeamento de sensibilidade que clareia significativamente as cores, ou a classificação de LDR inicial combinada, em adição ao comportamento de gama; e[0072] Figure 5 shows possible two x two modality curves to perform sensitivity mapping that significantly brightens colors, or combined initial LDR classification, in addition to gamma behavior; It is
[0073] a Figura 6 é uma elucidação esquemática simples de uma unidade de conversão de faixa dinâmica possível de um codificador.[0073] Figure 6 is a simple schematic elucidation of a possible dynamic range conversion unit of an encoder.
[0074] A Figura 1descreve um típico sistema exemplificativo que incorpora a presente invenção, com um codificador de imagem (ou vídeo) 100 em um lado da criação, e um decodificador de imagem 150. Presume-se que haja uma memória 101 em um sistema de classificação que contenha uma imagem de aparência de HDR classificada mestre (M_HDR) que foi classificada conforme desejado pelo criador de conteúdo de acordo com técnicas de classificação de cor atualmente conhecidas para, diga-se, um filme em um software de classificação de cor como, por exemplo, do Da Vinci (semelhantes a outros sistemas podem se beneficiar das técnicas no presente pedido, por exemplo, M_HDR podem ser proveniente, diretamente, de uma câmera, após, por exemplo, um ajuste de uma curva de aparência de câmera nos mostradores da câmera etc.). Nesse M_HDR, por exemplo, a claridade da luz que brilha através das janelas pode ser sido escolhida para fornecer uma aparência mais agradável na tela de referência de [0,5.000] cd/m2 ( [0,5.000] nit) ao ser fornecida a esses pixels uma luminância pretendida a ser renderizada L_out em um código de luma correspondente v_HDR, e muitos efeitos de luz adicionais podem ter sido projetados, assim como outras otimizações de cor. O M_HDR é inserido por meio de entrada de imagem 115 no presente codificador 100, e pode também ser visto em uma tela de referência de HDR 102 (cujas características exatas da tela de referência teórica, por exemplo, [0 a 5.000] cd/m2 ( [0 a 5.000] nit) são propostas para a codificação de HDR). Isso significa que, quando o classificador deseja realizar uma aparência de LDR (que não deve codificar apenas as texturas do objeto de modo suficientemente preciso, para que, no lado de recebimento uma reconstrução Rec_HDR razoavelmente precisa do M_HDR possa ser obtida, mas também, essa aparência de LDR deve ser adequada para renderizar, de modo ideal, a cena de HDR codificada em uma tela de LDR), o classificador possa comparar, ao mesmo tempo, o quanto a aparência de LDR, dadas as limitações técnicas, parece na tela de LDR 103 semelhante ao M_HDR, e possa otimizar pela alteração das funções de mapeamento de cor para obter o mesmo a partir do M_HDR conforme desejado de acordo com seu gosto. As duas telas podem estar em ambientes de visualização ideais diferentes e o classificador pode estar olhando para ambas separadas, por exemplo, por uma parede (por exemplo, em dois ambientes de referência confinados com sua respectiva abertura de janela para olhar simultaneamente as mesmas, e com cortinas que podem ser fechadas se o classificador desejar ver apenas uma delas durante algum intervalo de tempo). O graduador pode também verificar a classificação reconstruída da aparência de HDR na tela de HDR 102 (por exemplo, comutar Rec_HDR e M_HDR, alternativamente).[0074] Figure 1 depicts a typical exemplary system incorporating the present invention, with an image (or video) encoder 100 on one side of the creation, and an image decoder 150. It is assumed that there is a memory 101 in a system grading file that contains a master graded HDR appearance (M_HDR) image that has been graded as desired by the content creator according to currently known color grading techniques for, say, a movie in color grading software such as , for example, from Da Vinci (similar to other systems can benefit from the techniques in the present application, for example, M_HDR can be sourced directly from a camera, after, for example, an adjustment of a camera appearance curve in the camera dials, etc.). In this M_HDR, for example, the brightness of the light shining through windows can be chosen to provide a more pleasing appearance on the [0.5000] cd/m2 ([0.5000] nit) reference screen when provided with these pixels an intended luminance to be rendered L_out in a corresponding luma code v_HDR, and many additional light effects may have been designed, as well as other color optimizations. The M_HDR is input via image input 115 in the present encoder 100, and can also be viewed on an HDR reference screen 102 (which has exact characteristics of the theoretical reference screen, e.g., [0 to 5,000] cd/m2 ([0 to 5,000] nit) are proposed for HDR encoding). This means that when the classifier wants to perform an LDR appearance (it must not only encode the object textures sufficiently precisely so that on the receiving side a reasonably accurate Rec_HDR reconstruction of the M_HDR can be obtained, but also that LDR appearance must be suitable to ideally render the HDR scene encoded on an LDR screen), the classifier can at the same time compare how the LDR appearance, given technical limitations, looks on the LDR screen. LDR 103 similar to M_HDR, and can optimize by changing the color mapping functions to get the same from M_HDR as desired according to your taste. The two screens may be in different ideal viewing environments and the classifier may be looking at both separated by, for example, a wall (e.g., in two confined reference environments with their respective window opening to simultaneously look at them, and with curtains that can be closed if the classifier wishes to see only one of them during some period of time). The grader may also check the reconstructed rating of the HDR appearance on the HDR screen 102 (e.g., switching Rec_HDR and M_HDR alternatively).
[0075] Por meio de uma unidade de interface de usuário 105 que oferece ao classificador controles clássicos como, por exemplo, rodas giratórias ou, semelhantemente, corrediças para definir os valores como um valor gama ou de sensibilidade, o classificador pode realizar transformações colorimétricas que definem como o M_HDR deve ser mapeado para a imagem de aparência de LDR, com os parâmetros das transformações a serem emitidas em um sinal de imagem S_im por meio de uma saída 116 do codificador que pode ser conectável a qualquer meio de transmissão de imagem 140, por exemplo, uma rede de comunicação, ou uma memória de portadora física como um BD ou memória de estado sólido etc.[0075] By means of a user interface unit 105 that provides the classifier with classical controls such as, for example, rotating wheels or similarly slides to set values such as a gamma or sensitivity value, the classifier can perform colorimetric transformations that define how the M_HDR is to be mapped to the LDR appearance image, with the parameters of the transformations to be output into an image signal S_im via an encoder output 116 that may be connectable to any image transmission medium 140, for example, a communication network, or a physical carrier memory like a BD or solid state memory etc.
[0076] A aparência de LDR é gerada por meio de uma unidade de conversão de faixa dinâmica 104, que é disposta para aplicar transformações colorimétricas ao menos nas lumas das cores de pixel, mas também geralmente nas coordenadas de cromaticidade. Por “lumas”, entende-se qualquer codificação que seja, por fim, conversível em uma luminância física, ou até mesmo por meio de modelos psicovisuais, um brilho (que é a aparência final que um espectador verá quando a imagem for renderizada em uma tela). Nota-se que, por matemática equivalente, as transformações de luma podem ser aplicadas como transformações correspondentes em componentes de RGB diretamente. Embora o objetivo final seja o brilho correto do objeto (aparências) na aparência, pode-se limitar a presente discussão técnica à determinação de luminâncias na faixa de referência, por exemplo, [0 a 5.000], ou um espaço de cores impendente de dispositivo como XYZ definido por essa faixa. Além disso, supõe-se que quaisquer transformações cromáticas das cores sejam feitas no plano UCS de espaço 1976 CIE Luv, entretanto, o versado na técnica pode compreender o quão semelhantemente outros segundos e terceiros componentes de cor podem ser usados, sendo que os componentes básicos da presente invenção são, em geral, aplicáveis.[0076] The LDR appearance is generated by means of a dynamic range conversion unit 104, which is arranged to apply colorimetric transformations at least to the pixel color lumas, but also generally to the chromaticity coordinates. By “lumas” we mean any encoding that is ultimately convertible into a physical luminance, or even through psychovisual models, a glow (which is the final appearance a viewer will see when the image is rendered in a screen). Note that, by equivalent mathematics, luma transformations can be applied as corresponding transformations to RGB components directly. Although the ultimate goal is the correct brightness of the object (appearances) in appearance, one may limit the present technical discussion to determining luminances in the reference range, e.g., [0 to 5,000], or a device-independent color space. as XYZ defined by that range. Furthermore, it is assumed that any chromatic transformations of the colors are made on the UCS plane of 1976 CIE Luv space, however, one skilled in the art can understand how similarly other second and third color components can be used, the basic components being of the present invention are generally applicable.
[0077] CIELuv define u e v a partir de XYZ (semelhantemente, pode-se transformar a partir de algum RGB) como: [0077] CIELuv defines ueva from XYZ (similarly, it can be transformed from some RGB) as:
[0078] Supõe-se, por questão de simplicidade, que as escalas de HDR e LDR (isto é, as escalas de telas teóricas associadas à matemática de codificação das duas imagens) têm as mesmas três (ou mais) R, G, B, cores primárias, e pode, por isso, dimensionando-se a respectiva máxima de, diga-se, 5.000 e 100 cd/m2 (5.000 e 100 nit) para 1,0, ser colocalizado como exatamente sobreposto. Então, um mapeamento de tom de HDR para LDR, então, se torna uma transformação relativa ao longo da direção de luma normalizada nessa única escala de RGB dependente de dispositivo. Por exemplo, se for desejado fazer com que as cores mais escuras na aparência de HDR, sejam as mesmas na tela de LDR e de HDR, isso se torna, como uma transformação relativa na mesma escala, o seguinte: devido ao fato de que em uma definição de cores definida em 5.000 cd/m2 (5.000 nit) tais cores na imagem de HDR terão pequenos códigos (por exemplo, abaixo de 0,1), precisa-se clarear as mesmas para se tornarem suficientemente visíveis em uma tela de LDR de 100 cd/m2 (100 nit), por exemplo, com valores em torno de 0,3. O mapeamento exato irá depender da definição das lumas tanto para a imagem de LDR quanto de HDR, devido ao fato de que, como uma generalização das definições de “gama 2,2” da imagem de LDR de legado e da codificação de vídeo, pode-se, agora, definir a função de alocação de códigos arbitrária que mapeia a partir de luminâncias físicas para códigos luma (ou, do modo inverso, devido ao fato de que os engenheiros de tv começam definindo-se uma tela de referência que, além disso de um alcance de referência de [0 a 5.000] cd/m2 ( [0 a 5.000] nit) tem algum comportamento EOTF de tela de referência que indica como, por exemplo, as lumas 1024 mapeiam para as luminâncias renderizáveis ao longo desse alcance de referência). Pode-se usar não apenas uma potência de 1/(7,0) gama como OETF, como também se pode usar as funções de alocação de código descontínuas caso em uma filmagem de imagens em que não há luminâncias presentes entre um alcance inferior de luminâncias e um alcance superior de luminâncias. Nota-se também que o trabalho em uma representação de Y’uv com cromaticidades independentes de luma (u,v) permite-se trabalhar de modo totalmente independente e livre nas direções acromáticas e cromáticas de espaço de cores.[0078] It is assumed, for the sake of simplicity, that the HDR and LDR scales (i.e., the theoretical screen scales associated with the coding mathematics of the two images) have the same three (or more) R, G, B , primary colors, and can therefore, scaling the respective maximum of, say, 5,000 and 100 cd/m2 (5,000 and 100 nit) to 1.0, be colocalized as exactly overlapping. So a tone mapping from HDR to LDR then becomes a relative transformation along the luma direction normalized to this single device-dependent RGB scale. For example, if it is desired to make the darker colors in the HDR appearance be the same on the LDR and HDR screen, this becomes, as a relative transformation on the same scale, the following: due to the fact that in a color definition set to 5,000 cd/m2 (5,000 nit) such colors in the HDR image will have small codes (for example, below 0.1), they need to be brightened to become sufficiently visible on an LDR screen of 100 cd/m2 (100 nit), for example, with values around 0.3. The exact mapping will depend on the luma definition for both the LDR and HDR image, due to the fact that as a generalization of the “2.2 gamma” definitions of the legacy LDR image and video encoding, it may We now define the arbitrary code allocation function that maps from physical luminances to luma codes (or, conversely, due to the fact that TV engineers start by defining a reference screen that, in addition to addition from a reference range of [0 to 5000] cd/m2 ( [0 to 5000] nit) has some reference screen EOTF behavior that indicates how, for example, lumas 1024 map to renderable luminances over that range of reference). Not only can one use a power of 1/(7.0) gamma as OETF, but one can also use the discontinuous code allocation functions when shooting images where there are no luminances present within a lower range of luminances. and a superior range of luminances. It is also noted that working on a representation of Y’uv with independent chromaticities of luma (u,v) allows us to work in a totally independent and free way in the achromatic and chromatic directions of color space.
[0079] Limitando-se a presente elucidação para o leitor versado em relação aos mapeamentos acromáticos de HDR-2-LDR apenas, esses podem ser formulados de modo geral como, em princípio, uma função de mapeamento de tom arbitrária das lumas [0, 1] da imagem de aparência de HDR para as lumas [0, 1] da imagem de aparência de LDR, conforme pode ser visto com um exemplo na Figura 2a.[0079] Limiting the present elucidation to the reader versed in relation to HDR-2-LDR achromatic mappings only, these can be generally formulated as, in principle, an arbitrary tone mapping function of the lumas [0, 1] of the HDR appearance image to the lumas [0, 1] of the LDR appearance image, as can be seen with an example in Figure 2a.
[0080] Especificando-se tal função, pode-se supor que o mapeamento em todas as cores (Y_M_HDR, u,v) é realizado para que para uma cor não acromática (u<>u_wp, v<>v_wp) em que (u_wp, v_wp) são as coordenadas de cromaticidade de um ponto branco escolhido como D65, a função de mapeamento de tom determinada 210 é dimensionada de modo não linear para uma luminância máxima L_max(u,v) capaz de ser obtida para essa cor, conforme ensinado em mais detalhes no documento WO2014056679. O leitor versado pode compreender como tal processamento em vez de ser aplicado em uma codificação de cor de Y’uv pode ser também, semelhantemente, realizada em uma codificação de cor de RGB.[0080] By specifying such a function, it can be assumed that the mapping in all colors (Y_M_HDR, u,v) is carried out so that for a non-achromatic color (u<>u_wp, v<>v_wp) where ( u_wp, v_wp) are the chromaticity coordinates of a white point chosen as D65, the determined tone mapping function 210 is scaled non-linearly to a maximum luminance L_max(u,v) capable of being obtained for that color, as taught in more detail in document WO2014056679. The skilled reader can understand how such processing instead of being applied in a Y'uv color coding can also be similarly carried out in an RGB color coding.
[0081] Uma vez que o classificador especifica um comportamento de mapeamento de tom, os codificadores têm informações suficientes para uma transformação de faixa dinâmica de brilho a ser aplicada em qualquer cor possível em M_HDR, produzindo uma aparência de LDR LDR_o original (descompactada, possivelmente ainda não quantizada em uma representação de flutuação). A partir disso, qualquer transformação matemática exata ou aproximada pode ser determinada pelo codificador, o que permite que um receptor realize a predição de outro modo, de LDR_o para Rec_HDR. O graduador pode verificar por meio de uma saída de imagem 111 como tal imagem (após suficientemente formata em um sinal de imagem que pode ser comunicado através de um enlace de comunicação de imagem como, por exemplo, HDMI) pareceria em uma tela de LDR 103 de referência (diga-se, 100 cd/m2 (100 nit), ou no futuro, talvez, 500 cd/m2 (500 nit)).[0081] Once the classifier specifies a tone mapping behavior, the encoders have sufficient information for a brightness dynamic range transformation to be applied to any possible color in M_HDR, producing an original LDR appearance (uncompressed, possibly not yet quantized into a fluctuation representation). From this, any exact or approximate mathematical transformation can be determined by the encoder, which allows a receiver to perform the prediction in another way, from LDR_o to Rec_HDR. The grader may check via an image output 111 what such an image (after sufficiently formatting into an image signal that can be communicated via an image communication link such as, for example, HDMI) would look like on an LDR screen 103 reference (say, 100 cd/m2 (100 nit), or in the future, perhaps, 500 cd/m2 (500 nit)).
[0082] Entretanto, será ensinado na presente invenção que é útil quando o mapeamento de tom não é apenas construído de qualquer maneira genérica, mas de uma maneira específica, e os (poucos) parâmetros correspondentes são codificados, de modo útil, como metadados separados no sinal de imagem S_im, devido ao fato de que os mesmos podem, então, ser vantajosamente usados em um lado de recebimento, por exemplo, durante o ajuste para derivar uma imagem de acionamento ideal para uma tela específica de X cd/m2 (X nit).[0082] However, it will be taught in the present invention that it is useful when the tone mapping is not just constructed in any generic way, but in a specific way, and the (few) corresponding parameters are usefully encoded as separate metadata in the image signal S_im, due to the fact that they can then be advantageously used on a receiving side, for example during tuning to derive an ideal drive image for a specific screen of X cd/m2 (X nit).
[0083] Como um primeiro parâmetro, o classificador escolherá, por exemplo, um parâmetro de sensibilidade SENS, ou RHO diretamente. Esse será um valor que é intuitivamente semelhante a valores de ASA ou ISO conhecidos na fotografia, e determinam, geralmente, quão clara a imagem de LDR parecerá (inter alia, o quanto as cores do objeto escuro de M_HDR são produzidas).[0083] As a first parameter, the classifier will choose, for example, a sensitivity parameter SENS, or RHO directly. This will be a value that is intuitively similar to known ASA or ISO values in photography, and generally determines how bright the LDR image will appear (inter alia, how much the dark M_HDR object's colors are produced).
[0084] Conforme uma modalidade preferencial, o codificador pode usar uma função EOTF/OETF que já fornece uma boa aparência de LDR inicial,[0084] According to a preferred embodiment, the encoder can use an EOTF/OETF function that already provides a good initial LDR appearance,
[0085] cuja função EOTF é definida conforme segue: [0085] whose EOTF function is defined as follows:
[0086] Essa equação define as luminâncias L de HDR a serem renderizadas correspondendo os códigos luma v em [0, 1] dispersa de modo equidistante com base na quantidade de bits disponível para a palavra-código de luma das cores de pixel, como, diga-se, 1.024 valores possíveis. Lm é uma variável que pode ser escolhida que indica o pico de brilho da tela de referência da representação de cor linear/luminância de M_HDR ou Rec HDR, que pode, por exemplo, ser fixada como 5.000. Por exemplo, o classificador terá mostradores para escolher a sensibilidade que pode ser geralmente relatada para rho como: [0086] This equation defines the HDR luminances L to be rendered corresponding to the luma codes v in [0, 1] dispersed equidistantly based on the amount of bits available for the luma codeword of the pixel colors, such as, say, 1,024 possible values. Lm is a chooseable variable that indicates the peak brightness of the reference screen from the linear color/luminance representation of M_HDR or Rec HDR, which can, for example, be set to 5,000. For example, the classifier will have dials to choose sensitivity which can generally be reported for rho as:
[0087] Juntamente com o valor de SENS (RHO) que determina o comportamento de cores escuras e alguma aparência de brilho geral, o classificador pode coajustar a gama (GAM) como algum parâmetro de flexão que realoca o brilho do objeto/da região ao longo da faixa de lumas de LDR possíveis. Certamente, quando o mapeamento das luminâncias L em uma representação de espaço de XYZ de referência da classificação de M_HDR (que pode ser uma representação intermediária útil), para valores de luma v da aparência de LDR, o classificador definirá a função inversa.[0087] Along with the SENS value (RHO) that determines the behavior of dark colors and some appearance of general brightness, the classifier can co-adjust the gamma (GAM) as some bending parameter that relocates the brightness of the object/region to the over the range of possible LDR lumas. Of course, when mapping the luminances L onto a reference XYZ space representation of the M_HDR classification (which can be a useful intermediate representation), to luma v values of the LDR appearance, the classifier will define the inverse function.
[0088] Ao se realizar cálculos matemáticos elementares na divisão de RHO, pode ser visto que a função inversa (OETF) é: primeiro aplicada a uma produção de e, então, calcular: [0088] When carrying out elementary mathematical calculations in the division of RHO, it can be seen that the inverse function (OETF) is: first applied to a production of and then calculate:
[0089] Geralmente, no codificador pode haver uma dentre diversas modalidades possíveis de uma unidade de análise de imagem 177. Essa unidade pode estar disposta com inteligência artificial para analisar regiões na imagem, e cada uma dessas regiões poderia produzir problemas particulares em codificação de HDR, em particular, do tipo de modo ii Especificamente, a mesma pode identificar regiões que poderia estar propensa à criação de faixas na imagem, e regiões que são suficientemente texturizadas, para que as mesmas possam ser codificadas com uma quantidade menor de códigos de componente de cor e/ou luma. Em algumas aplicações, essa unidade pode automaticamente chegar a uma proposição de codificação final (por exemplo, um transcodificador) sem qualquer envolvimento de classificador humano, mas em outras aplicações pode, por exemplo, colocar as regiões sob a atenção do classificador, para que o mesmo possa examiná-las. Certamente, pode haver uma interação com a interface de usuário, por exemplo, o classificador poderia indicar que deseja atenuar uma criação de faixas na imagem com uma região particular, ou com uma textura particular e, então, a unidade 177 pode extrair tal região e seu alcance de luma etc.[0089] Generally, in the encoder there may be one of several possible embodiments of an image analysis unit 177. This unit may be arranged with artificial intelligence to analyze regions in the image, and each of these regions could produce particular problems in HDR coding. , in particular, mode type ii Specifically, it can identify regions that could be prone to banding in the image, and regions that are sufficiently textured, so that they can be encoded with a smaller amount of image component codes. color and/or luma. In some applications, this unit can automatically arrive at a final coding proposition (e.g., a transcoder) without any human classifier involvement, but in other applications it can, for example, place regions under the classifier's attention, so that the even examine them. Of course, there may be an interaction with the user interface, for example, the classifier could indicate that it wants to mitigate banding in the image with a particular region, or with a particular texture, and then the unit 177 may extract such a region and your luma range etc.
[0090] Conforme pode ser visto na Figura 2, embora se possa decidir codificar uma função de mapeamento de tom final em geralmente um espaço de LUT reservado nos metadados 205, geralmente será codificado um parâmetro de sensibilidade (por exemplo, 200 ISO) ou um valor de RHO, e um valor gama (por exemplo, 2,8) em respectivamente campo de metadados de sensibilidade 202 e campo de metadados de gama 203. A Figura 2 mostra esquematicamente como uma imagem ou sinal de vídeo S_im (200) parece, e o versado na técnica saberá, certamente, que pode ser definido na prática, mas muitas variantes digitais, devido aos recipientes de dados de imagem existentes etc. As modalidades de codificador usam uma codificação de 3 componentes clássica da imagem de cor de pixel (201), que será a imagem de aparência de LDR otimizada por classificador. Essa imagem de LDR LDR_o será geralmente codificada por DCT de modo clássico, codificada por tiragem, formatada etc. de acordo com um formato de codificação de imagem padronizado semelhante a JPEG, ou um formato de codificação de vídeo padronizado semelhante a MPEG-HEVC, VP1, etc. O leitor versado na técnica irá entender que reformatar de modo colorimétrico para ser capaz de reutilizar tecnologias de codificação legada (ou futuro similar) como um conceito genérico faz parte desta invenção, mas não é tão importante que tais codificações sejam, de fato, usadas. E uma outra parte desta invenção são os metadados necessários para serem coerentes com os dados, por exemplo, ao menos quando recupera a Rec_aparência de HDR da cena (devido ao fato da aparência de LDR pode, em teoria, ser usada diretamente para acionar uma tela de LDR, com nenhum processamento dinâmico de alcance adicional, mas apenas mapeamento de redefinição colorimétrica de Y’uv para algum dispositivo dependente de codificação de espaço de RGB).[0090] As can be seen in Figure 2, although one may decide to encode a final tone mapping function in generally a reserved LUT space in metadata 205, one will generally encode a sensitivity parameter (e.g., ISO 200) or a RHO value, and a gamma value (e.g., 2.8) in respectively sensitivity metadata field 202 and gamma metadata field 203. Figure 2 schematically shows how an image or video signal S_im (200) looks, and one skilled in the art will certainly know that it can be defined in practice, but many digital variants, due to existing image data containers etc. The encoder embodiments use a classical 3-component encoding of the pixel color image (201), which will be the classifier-optimized LDR appearance image. This LDR LDR_o image will generally be classically DCT encoded, run encoded, formatted, etc. according to a standardized image coding format similar to JPEG, or a standardized video coding format similar to MPEG-HEVC, VP1, etc. The reader skilled in the art will understand that colorimetric reformatting to be able to reuse legacy (or similar future) encoding technologies as a generic concept is part of this invention, but it is not so important that such encodings are, in fact, used. And another part of this invention is the metadata needed to be coherent with the data, for example, at least when retrieving the HDR Rec_appearance of the scene (due to the fact that the LDR appearance can, in theory, be used directly to trigger a screen of LDR, with no additional dynamic range processing, but just colorimetric reset mapping of Y'uv to some device dependent RGB space coding).
[0091] Além disso, o classificador pode usar um valor de ganho (co-codificado em um campo de metadados de ganho 204) para que as funções não precisem mapear por si só 1,0 a 1,0. Por exemplo, o ganho pode indicar como uma imagem de LDR que é definida através da faixa completa [0,1] deve ser mapeada de, diga-se, apenas um [0,1500] subalcance d [0,5000] alcance da tela de HDR. A outra maneira de limitar a faixa de LDR usada também é, a princípio, possível, embora tenha menos probabilidade de ser usada. Esse ganho pode ser usado para produzir algumas imagens não muito claras, conforme se pode imaginar se a cena for, por exemplo, uma cena nebulosa, ou uma imagem escura que é razoavelmente clareada em LDR, mas precisa permanecer escura em HDR.[0091] Additionally, the classifier may use a gain value (co-encoded in a gain metadata field 204) so that the functions do not need to map 1.0 to 1.0 by themselves. For example, the gain can indicate how an LDR image that is defined across the full [0.1] range should be mapped from, say, just a [0.1500] subrange of the [0.5000] screen range. of HDR. The other way of limiting the LDR range used is also in principle possible, although less likely to be used. This gain can be used to produce some not very bright images, as one might imagine if the scene is, for example, a hazy scene, or a dark image that is reasonably brightened in LDR but needs to remain dark in HDR.
[0092] Esses três parâmetros (RHO, GAM, GAI) já fornecem um primeiro mapeamento muito útil de uma imagem de M_HDR para uma imagem de aparência de LDR correspondente, com um ajuste de iluminação ou brilho praticamente global. Isso pode, por exemplo, ser suficiente para difundir shows da vida real, em que os parâmetros ideais são determinados logo antes do início da difusão. Usuários mais críticos como produtores de filme, podem desejar um controle melhor ajustado sobre a aparência. Os mesmos podem desejar especificar uma função de mapeamento de tom mais amplo que aquele “loggama” acima, com dobras bem posicionadas na curva que pode aumentar, por exemplo, o brilho ou contraste local médio de um objeto particular (por exemplo, uma face) para um subalcance desejado de todas as luminâncias de LDR renderizáveis (ou mais precisamente, suas lumas correspondentes). Ou uma especificação de uma inclinação local pode especificar o contraste desejado em algum subalcance BL interessante de uma região importante na imagem, no custo de posições e contastes de brilho de outras regiões/objetos na imagem de aparência de LDR.[0092] These three parameters (RHO, GAM, GAI) already provide a very useful first mapping of an M_HDR image to a corresponding LDR appearance image, with a practically global illumination or brightness adjustment. This may, for example, be sufficient for broadcasting real-life shows, where the ideal parameters are determined just before broadcasting begins. More critical users, such as film producers, may want fine-tuned control over appearance. They may wish to specify a tone mapping function broader than the “loggama” above, with well-placed folds in the curve that can increase, for example, the average local brightness or contrast of a particular object (e.g., a face). for a desired underreach of all renderable LDR luminances (or more precisely, their corresponding lumas). Or a specification of a local slope may specify the desired contrast in some interesting BL subrange of an important region in the image, at the cost of positions and brightness contrasts of other regions/objects in the LDR appearance image.
[0093] Agora, uma questão importante que se deve entender é que, com o sistema de modo-i (aparência de HDR), o classificador pode definir tais mapeamentos de modo arbitrário, devido ao fato de que se precisa apenas derivar uma imagem de aparência de LDR (que não é reconstrução, mas pode ser feita por destruição de dados, se assim desejado pelo classificador), devido ao fato de que nessa abordagem de codificação tem-se a imagem de aparência de HDR já codificada como imagem única no sinal de imagem S-im. Em sistemas de modo-ii, no entanto, é necessário cumprir um critério duplo: por um lado, deve-se ter a capacidade para reconstruir a imagem de Rec_HDR com qualidade boa, mas, por outro lado, deseja-se uma liberdade suficiente para criar a maior parte, se não todas as aparências de LDR que um classificador pode desejar (e, então, pode ser bem criativo em alguns momentos, conforme um indivíduo pode ver, por exemplo, no filme Sin City 2).[0093] Now, an important issue that one must understand is that with the i-mode system (HDR appearance), the classifier can define such mappings arbitrarily, due to the fact that one only needs to derive an image from LDR appearance (which is not reconstruction, but can be done by data destruction, if desired by the classifier), due to the fact that in this coding approach we have the HDR appearance image already encoded as a single image in the signal of S-im image. In mode-ii systems, however, it is necessary to fulfill a double criterion: on the one hand, one must have the ability to reconstruct the Rec_HDR image with good quality, but, on the other hand, one wants sufficient freedom to create most if not all of the appearances of LDR that a classifier might desire (and then can be quite creative at times, as an individual can see, for example, in the movie Sin City 2).
[0094] Mas deve-se entender que qualquer que seja a classificação LDR_o, o classificador foi feito com seu mapeamento de tom preferencial 210, em uma codificação legada essas lumas de LDR de saída serão submetidos à quantização uniforme clássica (e mesmo fazendo-se DCT). Então, é preciso ter cuidado para não criar mapeamentos que são muito planos em algumas partes de seu alcance (isto é, o derivativo local delta_LDR_out/delta_HDR-in não deve ser muito pequeno, para que uma quantidade mínima exigida de códigos luma de LDR seja alocada para aquele alcance delta_HDR-in ou o delta_LDR_out correspondente), devido ao fato de que, de outro modo, quando se reforça essa faixa no mapeamento de tom LDR-2-HDR, serão visualizados artefatos, como criação de faixas na imagem ou artefatos de DCT visíveis e com contraste excessivo.[0094] But it must be understood that whatever the LDR_o classification, the classifier was made with its preferred tone mapping 210, in a legacy encoding these output LDR lumas will be subjected to classical uniform quantization (and even doing DCT). So, one must be careful not to create mappings that are too flat in some parts of their range (i.e., the local delta_LDR_out/delta_HDR-in derivative must not be too small, so that a minimum required amount of LDR luma codes is allocated to that range delta_HDR-in or the corresponding delta_LDR_out), due to the fact that otherwise, when boosting that range in LDR-2-HDR tone mapping, artifacts will be seen, such as banding in the image or artifacts of visible DCT with excessive contrast.
[0095] Poderia se ter um mecanismo de controle com uma rigidez dos pontos de controle locais que o usuário usa para alterar o formato do mapeamento de tom arbitrário, mas que é desagradável para o usuário, especialmente se implantado de modo muito adverso (certamente, o sistema pode avisar se o classificador está esperando para realizar curvas de mapeamento muito insólitas, por exemplo, inversões como uma curva em N não devem ser feitas).[0095] One could have a control mechanism with a rigidity of local control points that the user uses to change the format of the arbitrary tone mapping, but which is unpleasant for the user, especially if implemented in a very adverse way (certainly, the system can warn if the classifier is waiting to perform very unusual mapping curves, for example, inversions such as an N-curve should not be done).
[0096] Uma modalidade útil é mostrada na Figura 3, que elucida o comportamento de uma unidade de mapeamento de tom técnico 106, que pode ser usada para determinar uma segunda aparência de LDR, alternativamente útil para LDR_o por receptores mais inteligentes que precisam auxiliar uma tela de LDR.[0096] A useful embodiment is shown in Figure 3, which elucidates the behavior of a technical tone mapping unit 106, which can be used to determine a second LDR appearance, alternatively useful for LDR_o by more intelligent receivers that need to assist a LDR screen.
[0097] Assume-se que o classificador escolheu sua curva desejada que fornece a aparência de LDR apropriada, que é a curva sólida na Figura 3. Se a curva de mapeamento de tom não for boa, isso significará que há ao menos uma faixa que é muito plana, que se assume no presente documento que seja a parte R-u do HDR com mais brilho de pixels de LDR, diga-se o céu da cena. É necessário ser possível estender essa faixa L_u em LDR, para que um pouco mais de códigos luma possam ser alocados, e de uma maneira tanto não destrutiva (pouca alteração em sua aparência) a quando possível para o classificador.[0097] It is assumed that the classifier has chosen its desired curve that provides the appropriate LDR appearance, which is the solid curve in Figure 3. If the tone mapping curve is not good, this will mean that there is at least one range that is very flat, which is assumed in this document to be the R-u part of the HDR with the brightest LDR pixels, in other words the sky of the scene. It needs to be possible to extend this L_u range in LDR, so that a little more luma codes can be allocated, and in a manner both non-destructive (little change in their appearance) and where possible for the classifier.
[0098] Isso pode ser feito quando há uma faixa adjacente L_uu que contém objeto mais texturizado.[0098] This can be done when there is an adjacent strip L_uu that contains more textured object.
[0099] Esta é uma saída do enigma de que a curva de aparência para adquirir uma aparência de LDR desejada ao mesmo tempo determina a quantização ou número de códigos luma disponíveis para codificar de modo fidedigno as diversas texturas de região de HDR (a caracterização fiel suficiente de todas as texturas que estão na cena que são o objetivo primário de qualidade de codificação em codificação de HDR). Ter 1024 níveis de luma/cinza diferentes (e milhões de códigos) deve ser suficiente para codificar bem todas as texturas para a visão humana, se bem feito. Objetos complexos podem ser codificados com relativamente menos códigos, visto que o olho visualiza primeiro o padrão de textura áspero e, em seguida, não tanto os valores precisos das cores de pixel. Apenas em situações desfavoráveis particulares pode-se ter uma questão, se houver gradientes de brilho para os quais foram usados muitos poucos códigos.[0099] This is a way out of the conundrum that the appearance curve for acquiring a desired LDR appearance at the same time determines the quantization or number of luma codes available to reliably encode the various HDR region textures (the faithful characterization enough of all the textures that are in the scene which are the primary objective of encoding quality in HDR encoding). Having 1024 different luma/gray levels (and millions of codes) should be enough to encode all textures well for human vision, if done right. Complex objects can be encoded with relatively less code, as the eye sees the rough texture pattern first and then not so much the precise pixel color values. Only in particular unfavorable situations may there be an issue, if there are brightness gradients for which very few codes were used.
[00100] Então, existem duas coisas quando se adapta uma curva: a unidade de mapeamento de tom técnico 106 geralmente mantém a adaptação quando necessário de modo suficientemente local no eixo de luma, para que não haja desorientação das lumas de muitas cores de objeto (por exemplo, evitar novamente escurecer muito as regiões escuras críticas). Um critério de qualidade para essa cena exemplificativa pode ser que seja necessário clarear as cores escuras para conseguir uma boa aparência de LDR, então, uma alteração local nas cores claras não irá desorientar a mesma de nenhuma maneira. Então, o mapeamento de tom unidade 106 geralmente redistribuirá os códigos na mesma subalcance de luma local em torno da área de problema e determina uma curva de adaptação correspondente para isso, que é a linha pontilhada (essa curva pode seguir de algum modo o formato da curva original, em suas duas partes de codificação de região de imagem, isto é, se houvesse um formato de local de inclinação de modo parabólico para as lumas de céu, pode geralmente usar um segmento parabólico de inclinação semelhantemente maior, em escala para o ar, mas que não é absolutamente necessário, visto que apenas precisão de codificação é o critério).[00100] So, there are two things when adapting a curve: the technical tone mapping unit 106 generally keeps the adaptation when necessary sufficiently local on the luma axis, so that there is no disorientation of the lumas of many object colors ( for example, again avoid darkening critical dark regions too much). A quality criterion for this example scene may be that it is necessary to lighten the dark colors to achieve a good LDR appearance, so a local change in the light colors will not disorient it in any way. Then, the unit tone mapping 106 will generally redistribute the codes in the same local luma subrange around the problem area and determine a corresponding adaptation curve for this, which is the dotted line (this curve may somewhat follow the shape of the original curve, in its two image region coding parts, that is, if there was a parabolic slant location format for the sky lumas, can generally use a similarly larger slant parabolic segment, scaled to the air , but that is not absolutely necessary, since only coding accuracy is the criterion).
[00101] Então, precisa-se estender o alcance de brilho da região do céu de algum modo, para ter códigos suficientes para codificar fielmente um gradiente de céu azul Rec_HDR. Mas quanto é necessário fazer e o quanto a faixa de ajuste R_Adj pode ser estendida?[00101] Therefore, one needs to extend the brightness range of the sky region in some way, to have enough codes to faithfully encode a Rec_HDR blue sky gradient. But how much is needed and how much can the R_Adj adjustment range be extended?
[00102] Isso depende de diversas coisas. Certamente, R_adj deve-se cobrir a região na qual há um problema, que será geralmente uma região de aparência relativamente simples, como regiões relativamente uniformes como um gradiente no céu (esse gradiente azul existirá de alguma forma ao longo da faixa de luma de LDR). Por outro lado, deve-se precisar de uma região adjacente que é suficientemente texturizada. Na situação improvável de que a região adjacente é ainda outro gradiente suave (que poderia ocorrer em imagens sintéticas, como imagens de teste de gradiente artificial, as quais terão que ser satisfeitas com qualquer alocação de luma ideal que houver, mas isso não ocorre geralmente em imagens naturais), R_adj pode se tornar relativamente grande. Na situação normal na qual será encontrada uma faixa texturizada que possa estender L_u com uma faixa L_uu de um tamanho que depende de quantos códigos foram adicionados e a complexidade do padrão de textura. Se for preciso adicionar apenas 3 códigos para o céu, precisa-se salvar 3 códigos luma em L_uu e se for texturizado o suficiente, poderia ser feito além de uma faixa de ay 10 a 15 lumas, dependendo do que o classificador ou o espectador acha/pode achar aceitável.[00102] This depends on several things. Of course, R_adj must cover the region in which there is a problem, which will generally be a relatively simple-looking region, such as relatively uniform regions like a gradient in the sky (this blue gradient will exist in some form throughout the LDR luma range). ). On the other hand, you must need an adjacent region that is sufficiently textured. In the unlikely situation that the adjacent region is yet another smooth gradient (which could occur in synthetic images, such as artificial gradient test images, which will have to be satisfied with whatever optimal luma allocation there is, but this does not generally occur in natural images), R_adj can become relatively large. In the normal situation you will find a textured strip that can extend L_u with a strip L_uu of a size that depends on how many codes were added and the complexity of the texture pattern. If you only need to add 3 codes for the sky, you need to save 3 luma codes in L_uu and if it is textured enough it could be done beyond a range of y 10 to 15 lumas depending on what the classifier or viewer thinks /may find it acceptable.
[00103] O aparelho pode conter tabelas para isso.[00103] The device may contain tables for this.
[00104] Então, o problema desagradável com codificação de luma dependente de curva de aparência é agora amplamente solucionado. Por um lado, não se escurece os objetos mais escuros adjacentes muito severamente, visto que apenas altera-se as cores de L_uu um pouco na faixa superior expandindo-se a faixa de céu L_u, mas em grande parte, mantém- se a parte inferior de L_uu a mesma, apenas amostrado um pouco menos, que não é uma questão visualmente notável de qualquer forma, devido ao fato de que as texturas não precisam de tantos códigos de qualquer maneira. A faixa de céu ampliada pode ser um pouco subideal, mas não deve realmente ser um problema, e adquire-se uma qualidade aprimorada Rec_HDR, em contrapartida. Porém, isso só ocorre se não for tomada qualquer ação contrária na extremidade de recebimento, por exemplo, por um receptor que não pode realizar qualquer processamento. Devido ao fato de que no decodificador pode-se realizar uma estratégia de pré-compensação na unidade de remapeamento de tom 159. Isso, então, tornará a alocação de luma uma matéria puramente técnica que não é de interesse das intenções artísticas do classificador. Devido ao fato de que a unidade de recapeamento de tom 159 irá aplicar a correção para a extensão local em uma compressão novamente, antes de usar a aparência de LDR pretendida resultante (LDR_ul) para, por exemplo, acionar uma tela de LDR. Então, no exemplo do céu, em que, estendendo-se o limite inferior de céu de L_u para baixo no brilho de objetos na faixa adjacente L_uu (escurecendo-se, desse modo, esses objetos), a unidade de recapeamento de tom 159 de um decodificador 150 aplicará o mapeamento inverso de 301 como uma correção. Isso significa que, visualmente a faixa de céu terá sua faixa de luma original L_u novamente e, quando renderizada em uma tela de LDR, a faixa de luminância correta, ainda que a mesma tenha mais precisão devido ao fato de que foram alocados mais códigos luma de codificação de textura. De modo similar, na aparência LDR_ul, o objeto com brilho adjacente em L_uu também terá o brilho sem regulação correto, e apenas se difere em precisão devido à quantidade reduzida de códigos. E o versado na técnica pode entender como essa técnica pode sempre, nas diversas outras situações possíveis, aprimorar a precisão de codificação nessas regiões de uma imagem onde necessário, na medida em que mantém a aparência de LDR prevista LDR_ul do classificador. A única coisa que a unidade de recapeamento de tom 159 precisa ser capaz de fazer é aplicar uma estratégia de mapeamento de tom para o LDR_t técnico codificado, por exemplo, por meio de um LUT, que pode ser co-codificado no sinal S_im (ou parcialmente codificado se o mapeamento de tom puder ser derivado de, por exemplo, um conjunto limitado de pontos de controle, por exemplo, delimitar segmentos lineares) e, consequentemente, deve ser claro o porquê o mesmo é vantajoso para codificar essa função de ajuste técnico separadamente (Ff1, Ff2,...) em S_im, devido ao fato de que o mesmo pode ser usado pelo decodificador mesmo para adquirir uma aparência de LDR mais desejável LDR_ul, uma vez que o mesmo foi determinado no lado da criação e aceito pelo classificador e comunicado para um lado de recebimento.[00104] So the nasty problem with appearance curve-dependent luma coding is now largely solved. On the one hand, it does not darken the adjacent darker objects too severely, as it only changes the colors of L_uu a little in the upper band expanding the L_u sky band, but largely keeps the lower part L_uu's the same, just sampled a little less, which isn't a visually notable issue anyway, due to the fact that textures don't need as much coding anyway. The expanded skyband may be a little sub-optimal, but it shouldn't really be a problem, and you get an improved Rec_HDR quality in return. However, this only occurs if no contrary action is taken at the receiving end, for example by a receiver that cannot perform any processing. Due to the fact that in the decoder a pre-compensation strategy can be carried out in the tone remapping unit 159. This will then make luma allocation a purely technical matter that is not of interest to the artistic intentions of the classifier. Due to the fact that the tone resurfacing unit 159 will apply the correction for local extension in a compression again, before using the resulting intended LDR appearance (LDR_ul) to, for example, trigger an LDR screen. So, in the sky example, where by extending the lower sky boundary of L_u downward into the brightness of objects in the adjacent range L_uu (thereby dimming those objects), the tone resurfacing unit 159 of a 150 decoder will apply the inverse mapping of 301 as a correction. This means that, visually, the sky strip will have its original luma range L_u again and, when rendered on an LDR screen, the correct luminance range, although it will have more precision due to the fact that more luma codes have been allocated. of texture encoding. Similarly, in LDR_ul appearance, the object with adjacent brightness in L_uu will also have the correct unregulated brightness, and only differs in accuracy due to the reduced number of codes. And one skilled in the art can understand how this technique can always, in many other possible situations, improve the coding accuracy in those regions of an image where necessary, while maintaining the LDR appearance predicted by the classifier LDR_ul. The only thing that the tone resurfacing unit 159 needs to be able to do is apply a tone mapping strategy to the encoded technical LDR_t, for example, through a LUT, which can be co-coded into the S_im signal (or partially encoded if the tone mapping can be derived from, for example, a limited set of control points, e.g. delimiting linear segments) and consequently it should be clear why it is advantageous to encode this technical adjustment function separately (Ff1, Ff2,...) in S_im, due to the fact that the same can be used by the decoder even to acquire a more desirable LDR appearance LDR_ul, since the same has been determined on the creation side and accepted by the classifier and communicated to a receiving side.
[00105] Haverá amplamente duas categorias de modalidades de codificador que possibilitarão o descrito acima. A primeira faz amplamente todo o processamento automaticamente, e não precisa envolver o usuário. Os detectores de suavidade e textura categorizarão automaticamente as diversas regiões e, então, identificarão o padrão de gradiente no céu e os objetos localizados de modo adjacente (isto é, na faixa de luma localizado abaixo e/ou acima L_u) outros objetos texturizados. Diversos caracterizadores de textura podem ser embutidos para determinar a complexidade da textura (por exemplo, sem grânulos finos, quantidade de valores de cinza interligados etc.) e determinar, a partir disso, como as interferências visualmente notáveis que levam a menos lumas de codificação serão, e a faixa L_uu necessária resultante. Conforme mencionado, essas preferências podem ser pré-embutidas nas fórmulas que determinam a funcionalidade de L_uu ou com LUTs. Além disso, em algumas modalidades, DCT ou outros emuladores de compressão podem estar presentes, por exemplo, que calculam as imagens descomprimidas resultantes de LDR LDR_d mediante diversas escolhas para R_adj e o formato de distúrbio de mapeamento de tom funcional 301, e calculam uma medição severa para a visibilidade típica (em alcance de visualização normal, tamanho de tela, brilho circundante, etc.) da criação de faixas na imagem e /ou outros artefatos de compressão. A unidade de análise de textura 117 pode estar presente para isso, que está geralmente disposta para analisar texturas e, em particular, seu impacto de aparência, tanto no original (LDR_o) quanto no codificado LDR_c, ou no fato de que a decodificação do mesmo LDR_d que, em última instância, estará presente na extremidade de recebimento. Especificamente, os remapeamentos para HDR por unidade de mapeamento de cor LDR-2- HDR 118 podem ser usados para possibilitar que o classificador verifique o impacto de aparência, se necessário. Se o classificador desejar verificar a capacidade de reconstrução desse M_HDR como Rec_HDR, o mesmo pode, por exemplo, comutá- los ao mesmo tempo em sua tela de HDR 102, por meio de saída de imagem de HDR 119. De fato, o decodificador pode ter diversas saídas (que foram mostradas separadas, mas certamente as mesmas podem ser roteadas internamente para apenas uma saída) 111, 112, 113, 114 para ser capaz de verificar as diversas versões de LDR.[00105] There will be broadly two categories of encoder modalities that will enable the above. The first largely does all processing automatically, and does not need to involve the user. The smoothness and texture detectors will automatically categorize the various regions and then identify the gradient pattern in the sky and the objects located adjacently (i.e. in the luma range located below and/or above L_u) other textured objects. Various texture characterizers can be built in to determine texture complexity (e.g. no fine granules, amount of interlocking gray values, etc.) and determine from this how visually noticeable interferences that lead to fewer encoding lumas will be , and the resulting required range L_uu. As mentioned, these preferences can be pre-built into formulas that determine the functionality of L_uu or with LUTs. Additionally, in some embodiments, DCT or other compression emulators may be present, for example, which calculate the resulting decompressed images from LDR LDR_d through various choices for R_adj and the functional tone mapping disturbance format 301, and calculate a measurement Severe to typical visibility (at normal viewing range, screen size, surrounding brightness, etc.) of image banding and/or other compression artifacts. The texture analysis unit 117 may be present for this, which is generally arranged to analyze textures and in particular their appearance impact, both in the original (LDR_o) and in the encoded LDR_c, or in the fact that the decoding of the same LDR_d which will ultimately be present at the receiving end. Specifically, HDR remaps per LDR-2-HDR 118 color mapping unit can be used to enable the classifier to check appearance impact if necessary. If the classifier wishes to check the ability to reconstruct this M_HDR as Rec_HDR, it can, for example, switch them at the same time on its HDR screen 102, through HDR image output 119. In fact, the decoder can have several outputs (which were shown separately, but they can certainly be routed internally to just one output) 111, 112, 113, 114 to be able to check the different LDR versions.
[00106] Uma segunda categoria de codificadores com reclassificação técnica pode envolver diretamente o classificador humano. Se o mesmo já estiver verificando a qualidade dos algoritmos automáticos, ele pode ter uma opção para influenciar os resultados (isto é, geralmente semiautomaticamente). Isso deve ser simples para o classificador, pois ele pode desejar estar mais envolvido com a determinação artística da aparência, isto é, a colocação das lumas de objeto, em vez de questões técnicas, como artefatos de compressão (se já estiver aguardando para olhar para os mesmos, e embora o mesmo vá verificar um ou mais cenários típicos e aprovados, a linha de comunicação de imagem pode ser, certamente, compressões adicionais que poderiam ter mais artefatos severos).[00106] A second category of encoders with technical reclassification may directly involve the human classifier. If he is already checking the quality of automatic algorithms, he may have an option to influence the results (i.e., usually semi-automatically). This should be simple for the classifier, as he may wish to be more involved with the artistic determination of appearance, i.e. the placement of object lumas, rather than technical issues such as compression artifacts (if he is already waiting to look at the same, and although it will verify one or more typical and approved scenarios, the image communication line can certainly be additional compressions that could have more severe artifacts).
[00107] Nessas modalidades de codificador, a unidade de interface de usuário 105 geralmente permitirá que o classificador especifique áreas de imagem geométrica que, de acordo com o mesmo, são áreas particularmente problemáticas. Por exemplo, ele pode rabiscar através do céu, e as unidades de análise de histograma e de análise de textura, então, focalizarão essa parte da imagem quando realizarem suas análises e a determinação de curva de mapeamento de tom parcial de atualização técnica. Por exemplo, os mesmos podem propor de modo sucessivo uma estratégia que adiciona alguns códigos luma a mais em um momento para o céu, até que o classificador esteja satisfeito. Por exemplo, um algoritmo de modalidade da unidade de mapeamento de tom 106 pode multiplicar essa faixa do objeto de gradiente (sensível a criação de faixas na imagem) por k= por exemplo, 1,5 e selecionar uma faixa próxima de uma região de imagem texturizada e compactar a mesma para L_uu-1,5*L_u. Isto é, qualquer redistribuição curvilínea ou linear dos códigos nas duas regiões pode ser usada. O L_uu pode ser selecionado para ser ao menos por exemplo, 3*L_u, no qual os valores são geralmente otimizados por um projetor de aparelho na base de um conjunto de imagens representativas. Se a proposição pelo aparelho for boa, o classificador aceita a mesma, fazendo o codificador armazenar os parâmetros correspondentes em S_im ou, de outro modo, uma nova iteração é iniciada, por exemplo, com k=1,1*1,5.[00107] In these encoder embodiments, the user interface unit 105 will generally allow the classifier to specify geometric image areas that, according to it, are particularly problematic areas. For example, it can scribble across the sky, and the histogram analysis and texture analysis units will then focus on that part of the image when they perform their analysis and technical update partial tone mapping curve determination. For example, they can successively propose a strategy that adds a few more luma codes at a time to the sky, until the classifier is satisfied. For example, a modality algorithm of the tone mapping unit 106 may multiply this range of the gradient object (sensitive to banding in the image) by k = e.g., 1.5 and select a range close to an image region textured and compact it to L_uu-1.5*L_u. That is, any curvilinear or linear redistribution of the codes in the two regions can be used. The L_uu can be selected to be at least, for example, 3*L_u, in which the values are generally optimized by a device projector based on a set of representative images. If the proposition by the device is good, the classifier accepts it, making the encoder store the corresponding parameters in S_im or, otherwise, a new iteration is started, for example, with k=1.1*1.5.
[00108] A perturbação 301 irá levar a um mapeamento de tom final, que corresponde a uma classificação técnica final LDR_i, a qual será a aparência de LDR que é enviada no sistema de comunicação após formatação adicional de acordo com o sistema de codificação de HDR de modo-ii e que corresponde amplamente ao que o classificador deseja como aparência de LDR.[00108] Disturbance 301 will lead to a final tone mapping, which corresponds to a final technical classification LDR_i, which will be the appearance of LDR that is sent in the communication system after additional formatting according to the HDR coding system of mode-ii and which broadly corresponds to what the classifier wants the LDR to look like.
[00109] A vantagem do envolvimento do classificador reside em que ele pode indicar - ao menos com um mínimo de envolvimento - quais regiões são semanticamente mais relevantes. O analisador de textura estatística pode determinar que poucas lumas (isto é, poucos pixels) de fato existem em uma região entre por exemplo, as lumas escuras de ambientes internos, e as lumas de brilho dos ambientes externos ensolarados, e consequentemente, decide aplicar uma estratégia de remapeamento que aplica poucos códigos no mesmo (no caso, o remapeador de decodificador 159 pode reconstruir de modo arbitrário a aparência de LDR desejada, pode-se até mesmo usar uma curva de deformação técnica forte que quase corta todo o subalcance usado de modo limitado da codificação de LDR_i tornando, desse modo, imediatamente adjacente em LDR_i luma valor os ambientes internos e subalcances externos). Entretanto, se nessa região pequena houver um objeto importante, como a face de alguém ou um objeto que foi enfatizado de algum como como um objeto aparecendo, o classificador pode se contrapor ao mesmo. Diversas modalidades práticas são possíveis, por exemplo, o mesmo pode rabiscar no desenho um retângulo ao redor dessa região e, então, gira um mostrador que aumenta a quantidade de códigos luma a serem usados para aquela região. O leitor versado na técnica entenderá que há diversas outras maneiras da interface de usuário selecionar uma região ou objeto importante na imagem ou foto, e para indicar como os mesmos devem ser codificados com lumas, mesmo até o classificador que desenha ou influencia o formato da própria curva de modificação 301.[00109] The advantage of classifier involvement lies in the fact that it can indicate - at least with a minimum of involvement - which regions are semantically most relevant. The statistical texture analyzer may determine that few lumas (i.e., few pixels) actually exist in a region between, for example, the dark lumas of indoor environments, and the bright lumas of sunny outdoor environments, and accordingly decide to apply a remapping strategy that applies few codes to it (in this case, the decoder remapper 159 can arbitrarily reconstruct the desired LDR appearance, one can even use a strong technical deformation curve that almost cuts out the entire underrange used so limited LDR_i encoding, thereby making internal environments and external subranges immediately adjacent in LDR_i value). However, if in this small region there is an important object, such as someone's face or an object that has been emphasized by someone as an object appearing, the classifier may counteract it. Several practical modalities are possible, for example, one can scribble a rectangle around that region on the drawing and then rotate a dial that increases the number of luma codes to be used for that region. The reader skilled in the art will understand that there are several other ways for the user interface to select an important region or object in the image or photo, and to indicate how they should be encoded with lumas, even down to the classifier that draws or influences the format of the image itself. modification curve 301.
[00110] O resto do sistema de modo-ii é como segue:[00110] The rest of the mode-ii system is as follows:
[00111] Opcionalmente, a unidade de conversão de faixa dinâmica pode realizar algum processamento de saturação de cor (por exemplo, visto que a coloração diminui com o escurecimento e vice-versa, o classificador pode desejar compensar a saturação que se tornou, de algum modo, inapropriado devido ao mapeamento de tom de luma). Uma boa modalidade exemplificativa prática funciona com uma função de saturação geral do tipo destrutivo de não informações. Isso significa também que essa função de saturação é, em alguma parte, muito plana, então, a mesma também pode ser revertida. Mas, em algumas modalidades, a função de saturação pode precisar ser apenas aplicada na atualização de LDR-2-HDR, e então, pode ser mais liberal. Na Figura 3, mostrou-se uma saturação suave de s_in para s_out, que pode ser codificada com inúmeros valores S1, S2, S3 em um LUT no sinal S_im. Esses podem ser os valores de s_out para valores de s_in equidistantes (uma quantidade suficiente para que a curva desejada possa ser razoavelmente recuperada de modo suave no decodificador), mas isso também seria, por exemplo, pontos de controle em formato de função. Uma função de dessaturação pode, por exemplo, ser codificada como uma linha com decline menor que 45 graus (em um gráfico de s_in em função de s_out). Em tal caso de dessaturação, o sinal de imagem poderia ter apenas um valor inteiro ou oscilante para o multiplicador nos metadados. Supõe-se no exemplo de elucidação, que s_out será a saturação da imagem de HDR, e precisa-se reforçar a saturação das cores mais escuras, agora escurecidas, da cena para aumentar o colorido, mas o versado na técnica pode compreender que pode haver diferentes variantes de processamento na mesma filosofia de codificação estrutural. Supõe-se, por questão de simplicidade de elucidação, que a saturação seja realizada no espaço de uv, por exemplo, independente da luma, pode-se realizar a operação s_out = s_in+MS(s_in)*s_in. O MS(s_in) é, então, o valor multiplicador recuperável da função, conforme visto na 2b e codificado em LUT 206, que estira o vetor de saturação em uma direção de matiz em comparação com algum ponto branco. Supõe-se, por questão de simplicidade, que foi definido o presente espaço de uv em um espaço cilíndrico com a saturação máxima na periferia (e codificado como 1,0). Logicamente, o versado na técnica entenderá que pode-se codificar a presente estratégia de saturação em uma outra definição colorimétrica, ou dado que a definição é, por exemplo, no espaço de Y’uv cilíndrico, o designer do hardware ou software de decodificador pode escolher realizar, de fato, a mesma de modo equivalente em um outro espaço de cores, como o espaço de YCrCb baseado em RGB, etc. O classificador pode também determinar e codificar, em S_im, estratégias de saturação dependentes de luma, isto é, funções que alteram a saturação, cujo multiplicador varia com a luminância da cor processada. Basicamente, uma modalidade mais avançada de S_im terá uma estrutura de codificação de saturação. Isso pode ser, por exemplo, uma definição baseada em web que tem inúmeras matizes chave (por exemplo, os 6: RGBCYM) uma função de multiplicador definida sobre luma: MS(Y’). A partir disso, o que pode ser codificado como 6 LUTs de valores semelhantes a 206, na extremidade de recebimento, o decodificador pode determinar uma estratégia de saturação para todas as cores na escala por meio de interpolação. Uma estratégia mais complexa pode, até mesmo, introduzir variabilidade da saturação na direção radial. Esse pode ser facilmente codificado ao se determinar essas funções (semelhante àquelas vistas em Figura 2b, mas, agora, variáveis sobre a altura da luma na escala) de modo simplesmente paramétrico, por exemplo, como funções de deslocamento, gama, ganho. Nesse caso, tem-se: s_out = s_in+F(s_in, Y’) para as matizes chave, e, por exemplo, no caso de um controle de formato de função de três parâmetro, pode-se codificar em S_im tanto como 3x6 LUTs que especifica o comportamento de luma de, por exemplo, o parâmetro de saturation_gamma como variante sobre Y’, ou 6 LUTs para as matizes, mas onde nem um único valor multiplicador é codificado em cada posição, mas um trio [sat_offset(Y’_i), sat_gain(Y’_i), sat_gama(Y’_i)]_LUT_of_yellow, consecutivamente através de inúmeras posições i que amostram as possíveis lumas na escala.[00111] Optionally, the dynamic range conversion unit may perform some color saturation processing (e.g., since coloration decreases with darkening and vice versa, the classifier may wish to compensate for the saturation that has become, in some way, mode, inappropriate due to luma tone mapping). A good practical exemplary modality works with a general saturation function of the non-information destructive type. This also means that this saturation function is, in some part, very flat, so it can also be reversed. But in some embodiments, the saturation function may only need to be applied in the LDR-2-HDR update, and then it may be more liberal. In Figure 3, a smooth saturation from s_in to s_out was shown, which can be encoded with numerous S1, S2, S3 values in a LUT on the S_im signal. These could be s_out values for equidistant s_in values (a sufficient amount so that the desired curve can be reasonably smoothly recovered in the decoder), but this would also be, for example, function-shaped control points. A desaturation function can, for example, be encoded as a line with a slope of less than 45 degrees (in a graph of s_in versus s_out). In such a case of desaturation, the image signal could only have an integer or swing value for the multiplier in the metadata. It is assumed in the elucidation example that s_out will be the saturation of the HDR image, and it is necessary to reinforce the saturation of the darker, now darkened, colors of the scene to increase the color, but one skilled in the art can understand that there may be different processing variants within the same structural coding philosophy. It is assumed, for the sake of simplicity of elucidation, that the saturation is carried out in the uv space, for example, regardless of the luma, the operation s_out = s_in+MS(s_in)*s_in can be performed. The MS(s_in) is then the retrievable multiplier value of the function, as seen in 2b and encoded in LUT 206, which stretches the saturation vector in a hue direction compared to some white point. It is assumed, for the sake of simplicity, that the present UV space was defined in a cylindrical space with maximum saturation at the periphery (and coded as 1.0). Logically, one skilled in the art will understand that one can encode the present saturation strategy in another colorimetric definition, or given that the definition is, for example, in cylindrical Y'uv space, the designer of the hardware or decoder software can choose to actually perform the same in an equivalent way in another color space, such as the YCrCb space based on RGB, etc. The classifier can also determine and encode, in S_im, luma-dependent saturation strategies, that is, functions that change saturation, whose multiplier varies with the luminance of the processed color. Basically, a more advanced embodiment of S_im will have a saturation coding structure. This could be, for example, a web-based definition that has numerous key hues (e.g. the 6: RGBCYM) a multiplier function defined over luma: MS(Y’). From this, what can be encoded as 6 LUTs of similar values to 206, at the receiving end the decoder can determine a saturation strategy for all colors in the scale through interpolation. A more complex strategy can even introduce saturation variability in the radial direction. This can be easily coded by determining these functions (similar to those seen in Figure 2b, but now variable over the height of the luma on the scale) in a simply parametric way, for example, as displacement, gamma, gain functions. In this case, one has: s_out = s_in+F(s_in, Y') for the key hues, and, for example, in the case of a three-parameter function format control, one can encode in S_im as much as 3x6 LUTs that specify the luma behavior of, for example, the saturation_gamma parameter as variant over Y', or 6 LUTs for the hues, but where not a single multiplier value is encoded at each position, but a trio [sat_offset(Y' _i), sat_gain(Y'_i), sat_gama(Y'_i)]_LUT_of_yellow, consecutively through countless i positions that sample the possible lumas on the scale.
[00112] Agora, em algumas modalidades de um codificador (e decodificador correspondente), há uma transformação opcional para u’v’ para as características de cor dos pixels, que serão, agora, elucidadas (mas, outras modalidades podem, alternativa ou adicionalmente codificar, por exemplo, em R’G’B’ ou YCrCb etc. diretamente, e não têm, ao menos, a unidade opcional 107 no lado de dentro; Nota-se também que para alguns Yu’v’ o processamento pode ser matematicamente reescrito como processamento de RGB linear equivalente).[00112] Now, in some embodiments of an encoder (and corresponding decoder), there is an optional transformation to u'v' for the color characteristics of the pixels, which will now be elucidated (but other embodiments may alternatively or additionally encode, for example, in R'G'B' or YCrCb etc. directly, and do not have, at least, the optional unit 107 on the inside; It is also noted that for some Yu'v' the processing can be mathematically rewritten as equivalent linear RGB processing).
[00113] Tendo-se aplicado à transformação de faixa dinâmica para criar a aparência de LDR correta (por exemplo, no espaço de RGB, ou XYZ etc.), supõe-se que o mapeamento ainda não tenha sido feito no espaço de Y’uv, a unidade de transformação de cor 107 da modalidade de elucidação exemplificativa não fará a conversão para a presente representação de u’v’, sendo que as lumas Y’ nessa representação de cor são determinadas pela presente função de mapeamento de tom total (isto é, as lumas de imagem de LDR intermediárias LDR_i), e u, v conforme para as equações acima. Podem ser realizadas, também, transformações colorimétricas na unidade 107, que condicionam as cores já quando um RGB dependente de dispositivo diferente ou espaço multiprimário é previsto. Por exemplo, se o presente M_HDR foi codificado com um triângulo de RGB menor, mas o LDR é para uma tela com ampla escala, o classificador já pode predefinir uma estratégia de reforço de saturação, embora as coisas, frequentemente, fiquem invertidas, em cujo caso, a unidade 107 pode implementar um mapeamento de escala cromática.[00113] Having applied dynamic range transformation to create the correct LDR appearance (e.g. in RGB space, or XYZ etc.), it is assumed that the mapping has not yet been done in Y' space uv, the color transformation unit 107 of the exemplary elucidation modality will not convert to the present representation of u'v', and the lumas Y' in this color representation are determined by the present total tone mapping function (i.e. is, the intermediate LDR image lumas LDR_i), and u, v as per the above equations. Colorimetric transformations can also be carried out in unit 107, which condition the colors when an RGB dependent on a different device or multi-primary space is predicted. For example, if the present M_HDR was encoded with a smaller RGB triangle, but the LDR is for a wide-scale screen, the classifier may already predefine a saturation boost strategy, although things are often reversed, in which case case, the unit 107 may implement a chromatic scale mapping.
[00114] Por fim, o LDR_uv resultante é codificado com uma imagem de LDR clássica ou compactador de vídeo 108, isto é, geralmente DCT ou transformado por ondeletas etc.[00114] Finally, the resulting LDR_uv is encoded with a classical LDR image or video compressor 108, i.e. generally DCT or wavelet transformed etc.
[00115] Essa imagem LDR_c compactada é enviada para um formatador 116, que adiciona os metadados na função de mapeamento aplicada de acordo com um formato padronizado, para que esteja adequadamente disponível em um lado de recebimento. Isto é, esse formatador auxilia o valor de sensibilidade (RHO ou alternativamente, SENS), a mapear por tom adicionalmente para o ajuste da aparência de LDR conforme determinado normalmente pelo classificador humano (embora, no futuro próximo, alguns codificadores possam ser inteligentes o bastante para realizar, por si próprios, o ajuste) com parâmetros de definição de função 205 geralmente como um LUT de valores (F1, F2, ...), a codificação de saturação 206, por exemplo, também, um conjunto de parâmetros que definem uma função multilinear etc.[00115] This compressed LDR_c image is sent to a formatter 116, which adds the metadata into the applied mapping function according to a standardized format so that it is appropriately available on a receiving side. That is, this formatter helps the sensitivity value (RHO or alternatively, SENS) to be tone mapped additionally to adjust the LDR appearance as normally determined by the human classifier (although, in the near future, some encoders may be smart enough to perform the adjustment themselves) with function definition parameters 205 generally as a LUT of values (F1, F2, ...), the saturation encoding 206, for example, also, a set of parameters that define a multilinear function etc.
[00116] O mapeamento de tom adicional, por razões técnicas, é geralmente armazenado separadamente na imagem ou sinal de vídeo S_im, de preferência, como um conjunto de valores inteiros ou reais 207, que podem ser usados para armazenar, por exemplo, um LUT de 256 pontos ou de 1.024 pontos.[00116] Additional tone mapping, for technical reasons, is generally stored separately in the image or video signal S_im, preferably as a set of integer or real values 207, which can be used to store, for example, a LUT 256 points or 1,024 points.
[00117] O LDR_c codificado pode ser decodificado novamente para LDR_d, e então, atualizado pela unidade de mapeamento de cor 118 para que o classificador possa ver por meio da saída de imagem 119 como o Rec_HDR de HDR reconstruído se pareceria em uma extremidade de recebimento. Se o mesmo desejar, poderia, até mesmo, testar a influência de algumas típicas definições de compactação, por exemplo, até a forte compactação. O decodificador descrito aqui poderia também ser usado em uma estratégia de recodificação, em que a aparência de classificação pode já ter sido preparada anteriormente, mas, agora, por exemplo, uma versão de LDR altamente compactada de baixa qualidade é determinada novamente para algum aplicativo específico de comunicação de imagem/vídeo. Esse classificador secundário pode, até mesmo, reajustar os parâmetros. Dependendo da possibilidade do mesmo ter o M_HDR original disponível, o mesmo pode, por exemplo, determinar novamente as funções de desvalorização para obter uma nova aparência de LDR mais adequadamente ajustada (por exemplo, que serve os espectadores de telefone móvel), e, de fato, o mesmo pode até fazer isso quando tem apenas o bom Rec_HDR disponível em vez de M_HDR. A separação de uma parte de classificação técnica para alocar mais adequadamente os códigos luma é muito útil para tais cenários. Devido ao fato de que as funções que mapeiam o LDR_o (e a LDR_ul de reconstrução próxima correspondente do mesmo) determinam a aparência artística real de LDR, as mesmas podem ter sido determinadas de uma vez por todas pelo classificador primário no momento ou perto do momento da produção inicial do conteúdo. Mas, o codificador ainda pode automatica ou semiautomaticamente, com o envolvimento do classificador secundário, determinar o mapeamento técnico com as pequenas modificações como 301, e o LDR_i (ou LDR_t) correspondente, e os metadados codificados Ff1, Ff2, no conjunto de valores reais ou inteiros 207 em S_im, que pode, logicamente, ser diferente para diferentes limitações tecnológicas, como a quantidade de bits (por exemplo, apenas 8 bits para o canal de luma).[00117] The encoded LDR_c can be decoded back to LDR_d, and then updated by the color mapping unit 118 so that the classifier can see through the image output 119 what the reconstructed HDR Rec_HDR would look like at a receiving end . If you wish, you could even test the influence of some typical compression settings, for example, even strong compression. The decoder described here could also be used in a recoding strategy, where the classification appearance may have already been prepared previously, but now, for example, a low-quality, highly compressed LDR version is determined again for some specific application. image/video communication. This secondary classifier can even readjust the parameters. Depending on whether it has the original M_HDR available, it may, for example, re-determine the devaluation functions to obtain a new, more appropriately adjusted LDR appearance (e.g., serving mobile phone viewers), and then In fact, it can even do this when it only has the good Rec_HDR available instead of M_HDR. Separating a technical classification part to more appropriately allocate luma codes is very useful for such scenarios. Because the functions mapping LDR_o (and its corresponding nearby reconstruction LDR_ul) determine the actual artistic appearance of LDR, they may have been determined once and for all by the primary classifier at or near the time of the initial content production. But, the encoder can still automatically or semi-automatically, with the involvement of the secondary classifier, determine the technical mapping with the small modifications like 301, and the corresponding LDR_i (or LDR_t), and the encoded metadata Ff1, Ff2, in the set of real values or integers 207 in S_im, which can logically be different for different technological limitations, such as the amount of bits (e.g. only 8 bits for the luma channel).
[00118] O decodificador 150 pode ser um CI em, por exemplo, como nessa elucidação, um decodificador de sinal ou computador conectável a uma tela 160 ou televisão (então, quando se diz decodificador inventado para cobrir qualquer pequena realização do mesmo como um “decodificador de sinal em um bastão de USB” ou qualquer realização de aparelho grande e se beneficia da presente invenção como um decodificador de sinal com instalações de leitura de disco rígido e disco óptico, e o codificador pode ser qualquer coisa dentre um pequeno dispositivo até um grande sistema de classificação etc.), mas, logicamente, a televisão pode não ser um monitor limitado, mas compreende toda essa tecnologia de decodificação em seu próprio CI. A tela 160 pode ser tanto uma tela de LDR quanto uma tela de HDR, ou basicamente, qualquer tela conectada por meio de qualquer tecnologia de comunicação de imagem por meio de saída de imagem 157, como, por exemplo, fluxo contínuo sem fio para um dispositivo multimídia portátil ou um projetor de cinema profissional.[00118] The decoder 150 may be an IC in, for example, as in this elucidation, a signal decoder or computer connectable to a screen 160 or television (so when it says decoder invented to cover any small realization thereof as a “ signal decoder on a USB stick” or any embodiment of large apparatus and benefits from the present invention as a signal decoder with hard disk and optical disk reading facilities, and the encoder can be anything from a small device to a large rating system etc.), but logically the television may not be a limited monitor but comprises all this decoding technology in its own IC. Display 160 can be either an LDR display or an HDR display, or basically any display connected via any image communication technology via image output 157, such as wireless streaming to a portable multimedia device or a professional cinema projector.
[00119] O decodificador obtém a presente S_im formatada por meio da entrada de imagem 158, e um desformatador 151 irá, então, separar a mesma em uma imagem LDR_c (IMG na Figura 2) para descompactação por um descompactador do tipo JPEG ou do tipo MPEG clássico 152, e os parâmetros P dos metadados (por exemplo, uma definição de sensibilidade 1.000, e alguns valores que podem ser usados para reconstruir um formato funcional de mapeamento de tom ou mapeamento de saturação). Opcionalmente, no decodificador está a unidade de recapeamento de tom 159, devido ao fato de que uma vez que esse remapeamento técnica é normalmente não uma deformação grava da aparência de LDR LDR_ul pretendida pelo classificador, alguns decodificadores podem suportar ou ignorar a mesma. Os decodificadores totalmente compatíveis com HDR devem, entretanto, usar essa unidade 159 para aplicar uma estratégia de nova correção técnica conforme codificados nos valores de Ff 207, para chegar à aparência de LDR LDR_ul corrigida (que é uma aproximação próxima de LDR_o). Essa imagem de LDR (LDR_ul) corrigida é direcionada a uma unidade de ajuste de cor de tela 154 adicional. Essa unidade 154 pode aplicar a otimização necessária para uma tela de escala ampla específica, diga-se, 1.300 cd/m2 (1.300 nit) (ajuste). Embora as variantes sejam possíveis, projetou-se um típico decodificador para a presente filosofia de codificação de HDR, que tem uma trajetória de processamento de imagens para recuperar o LDR_ul (ou se 159 não estiver presente, sua aproximação LDR_t), mas também tem uma segunda trajetória de processamento de imagens para determinar o Rec_HDR. Isso é realizado na unidade de conversão de faixa dinâmica 153, que geralmente se aplica aos mapeamentos inversos aplicados no codificador (de fato, no sinal um codificador irá geralmente codificar os parâmetros desse mapeamento inverso, isto é, uma atualização). A unidade de ajuste de cor de tela 154 será geralmente disposta para combinar as informações nas duas classificações, que poderiam ser realizadas com base no uso de apenas uma imagem e dos parâmetros de mapeamento de cor P, mas supõe-se, nessa modalidade de elucidação, que se obtém uma imagem de Rec_HDR e LDR_ul como entrada e, então, interpola-se aqueles, de acordo com qual tela com qual pico de brilho está conectada para ser fornecida com as imagens adequadamente classificadas.[00119] The decoder obtains the present formatted S_im via image input 158, and a deformatter 151 will then separate it into an LDR_c image (IMG in Figure 2) for decompression by a JPEG-type or JPEG-type decompressor. Classic MPEG 152, and the metadata P parameters (for example, a sensitivity setting of 1000, and some values that can be used to reconstruct a working tone mapping or saturation mapping format). Optionally, in the decoder is the tone resurfacing unit 159, due to the fact that since this remapping technique is normally not a gross deformation of the LDR LDR_ul appearance intended by the classifier, some decoders may support or ignore the same. Fully HDR-capable decoders must, however, use this unit 159 to apply a technical re-correction strategy as encoded in the Ff values 207, to arrive at the corrected LDR LDR_ul appearance (which is a close approximation of LDR_o). This corrected LDR (LDR_ul) image is directed to an additional screen color adjustment unit 154. This unit 154 can apply the optimization required for a specific wide-scale display, say, 1,300 cd/m2 (1,300 nit) (tuning). Although variants are possible, a typical decoder for the present HDR encoding philosophy has been designed, which has an image processing path to recover the LDR_ul (or if 159 is not present, its approximation LDR_t), but also has a second image processing path to determine Rec_HDR. This is performed in the dynamic range conversion unit 153, which generally applies to inverse mappings applied in the encoder (indeed, in the signal an encoder will generally encode the parameters of this inverse mapping, i.e. an update). The screen color adjustment unit 154 will generally be arranged to combine the information in the two classifications, which could be accomplished based on the use of only one image and the color mapping parameters P, but it is assumed that in this elucidation mode , which takes an image of Rec_HDR and LDR_ul as input and then interpolates those, according to which screen with which brightness peak is connected to be provided with the appropriately classified images.
[00120] Com exceção do mapeamento de tom para obter a aparência de brilho correta, uma unidade de transformação de cor 155 pode, geralmente, ser compreendida disposta para realizar adaptações cromáticas para otimizar para uma escala de cor diferente da escala de codificação (por exemplo, Rec. 2020 para DCI-P3 ou Rec. 709 etc.).[00120] With the exception of tone mapping to obtain the correct brightness appearance, a color transformation unit 155 may generally be understood to be arranged to perform chromatic adaptations to optimize for a color scale other than the coding scale (e.g. , Rec. 2020 for DCI-P3 or Rec. 709 etc.).
[00121] O que será produzido por meio da saída de imagem 157 e, por isso, calculado pela unidade 154, logicamente, dependerá da tela conectada. Se a mesma for uma tela de LDR, a unidade 154 pode enviar, por exemplo, LDR_ul, após, logicamente, o remapeamento de cor correto (pela unidade 155) a partir da codificação de Y’uv para uma codificação de R’G’B’ dependente de dispositivo específico, por exemplo. Se a tela 160 conectada estiver próxima de uma tela de pico de brilho de 5.000 cd/m2 (5.000 nit) (consultar, também, o fato de como o aparelho de decodificação pode perguntar a uma tv suas capacidades no documento WO 2013/046096; um controlador 161 pode realizar tal comunicação com a tela e até mesmo com o espectador para obter suas preferencias, e pode estar disposto para configurar como a unidade de ajuste de tela 154 deve se comportar e qual tipo de aparência de imagem o mesmo deve calcular e produzir) a imagem de aparência de Rec_HDR pode ser produzida, novamente após a formatação adequada de acordo com o que a televisão deseja receber (isto é, isso ainda pode ser uma codificação de Y’uv, por exemplo, o presente formato de S_im com, agora, uma imagem de aparência de HDR armazenada em 201/IMG, e alguns metadados funcionais podem também ser transmitidos para que a televisão possa realizar algum último ajuste colorimétrico de aparência com base nas informações sobre como a alteração de classificação através do espectro de possibilidades de renderização conforme codificado nesses metadados, ou pode já ser uma imagem de acionamento de tela de HDR de R’G’B’). Para telas com pico de brilho intermediário, a unidade 154 pode produzir uma imagem de acionamento adequada, novamente no presente formato de Y’uv ou em um outro formato.[00121] What will be produced through image output 157 and, therefore, calculated by unit 154, will logically depend on the connected screen. If it is an LDR screen, unit 154 may send, for example, LDR_ul, after logically correct color remapping (by unit 155) from the Y'uv encoding to an R'G' encoding B' dependent on specific device, for example. If the connected screen 160 is close to a peak brightness screen of 5,000 cd/m2 (5,000 nit) (see also how the decoding apparatus can ask a TV for its capabilities in WO 2013/046096; a controller 161 may perform such communication with the screen and even with the viewer to obtain their preferences, and may be willing to configure how the screen adjustment unit 154 should behave and what type of image appearance it should calculate and produce) the Rec_HDR appearance image can be produced, again after proper formatting according to what the television wishes to receive (i.e. this can still be a Y'uv encoding, e.g. the present S_im format with , now an HDR appearance image stored in 201/IMG, and some functional metadata may also be transmitted so that the television can perform some final colorimetric appearance adjustment based on information about how the rating changes across the spectrum of possibilities rendering image as encoded in this metadata, or may already be an R'G'B' HDR screen trigger image). For displays with intermediate peak brightness, unit 154 can produce a suitable drive image, again in the present Y'uv format or in another format.
[00122] Por fim, o criador de conteúdo pode descrever no sinal se o mesmo deseja que a mapeamento por compensação de unidade 159 não seja pulado, por exemplo, devido ao fato de que o criador de conteúdo acha que LDR_t se desvia seriamente de LDR_ul. Isso pode ser feito mediante a codificação de um Boolean 209 em um campo dos metadados de IGNORE_TECHNICAL_MAPPING.[00122] Finally, the content creator can describe in the signal whether he wants the unit offset mapping 159 not to be skipped, for example, due to the fact that the content creator thinks that LDR_t seriously deviates from LDR_ul . This can be done by encoding a Boolean 209 in a field of the IGNORE_TECHNICAL_MAPPING metadata.
[00123] Deve ficar claro para o leitor que onde foi elucidado apenas o mínimo de um conjunto de parâmetros, certamente, ao longo dos mesmos diversos conjuntos racionais de metadados funcionais de mapeamento de cor podem ser codificados em S_im, por exemplo, um conjunto para ir da imagem única IMG (que é uma imagem de LDR) para uma referência, por exemplo, uma imagem de aparência de [05.000] nit HDR, e um segundo conjunto pode ser adicionado para ir para, por exemplo, uma aparência de MDR de 1500 nit. E, embora o fato de realizar uma decomposição específica de um formato de função uma sensibilidade, gama, ganho e ajuste adicional seja vantajoso, e ao menos bom para elucidação técnica, qualquer um dos mapeamentos, por exemplo, o mapeamento LDR-2-MDR pode ser codificado em S_im em uma forma condensada, por exemplo, preenchendo, apenas, o mapeamento de tom LUT ou conjunto de valores 205, que codifica a função de mapeamento final (isto é, todos juntos, sensibilidade, ajuste e mapeamento técnico).[00123] It should be clear to the reader that where only the minimum of a set of parameters has been elucidated, certainly along the same several rational sets of functional color mapping metadata can be encoded in S_im, for example, a set for go from the single IMG image (which is an LDR image) to a reference, for example, a [05000] nit HDR appearance image, and a second set can be added to go to, for example, an MDR appearance of 1500nit. And while performing a specific decomposition of a function format with sensitivity, range, gain, and additional tuning is advantageous, and at least good for technical elucidation, any of the mappings, e.g., the LDR-2-MDR mapping can be encoded in S_im in a condensed form, for example, filling only the LUT tone mapping or value set 205, which encodes the final mapping function (i.e., all together, sensitivity, tuning and technical mapping).
[00124] A Figura 4 mostra esquematicamente uma típica modalidade da presente unidade principal de decodificador 400 (nesse exemplo, a parti mínima de modo ii, sem relação técnica ou conversão de Yu’v’ etc.). Após um descompactador 401 fazer o comprimento de execução e a decodificação aritmética, e DCT inversa etc., obtém-se uma imagem LDR_t, que se supõe estar em representação de gama 2,2. (isto é, com lumas ou componentes R’G’B’ definidos de acordo com Rec. 709) e normalizada. Pode haver uma primeira unidade de controle 420, que pode enviar diretamente essa imagem para uma LDR TV conectada 410 (que significa diretamente que pode haver, logicamente, alguma formatação de legado envolvida; a princípio, LDR_t poderia também ser, por exemplo, uma imagem linear, em cujo caso haverá uma necessidade de mapear por re- gama-2,2 a mesma antes de enviá-la para a tela de LDR, mas pode ser vantajoso se não for necessário; as funções de mapeamento de tom adicionais serão geralmente diferentes dependendo de qual tipo LDR_t é, o que pode também ser indicado com um indicador IND_2 em S_im). Então, uma primeira unidade de mapeamento de tom 402 realiza o mapeamento inverso do mapeamento de tom arbitrário, sendo que os parâmetros definidores desse formato de função P_CC são recebidos nos metadados MET(F). Então, uma segunda unidade de mapeamento de tom 403 realiza um mapeamento de tom escurecendo novamente as cores mais escuras em relação àquelas mais brilhantes, por exemplo, aplicando-se a equação de rho acima, com um valor de RHO recebido. A unidade poderia também calcular o valor de RHO a partir de um pico de brilho de tela recebido PB_HDR, recebido da tela de HDR 411 conectada. Em seguida, uma terceira unidade de mapeamento de tom 404 realiza uma função de potência gama com um valor GAM recebido que é, por exemplo, 2,4, de preferência. Em seguida, um multiplicador 405 pode realizar uma multiplicação com GAI, que, por padrão, pode ser 1,0. Opcionalmente, um processador de saturação de cor 406 pode realizar algum processamento de saturação. Por fim, a unidade de controle 421 pode enviar a imagem para a tela de HDR 411, e a mesma pode realizar algum processamento adicional, por exemplo, para formatar corretamente a imagem de acordo com um padrão que a tela compreende, por exemplo, através de uma conexão HDMI.[00124] Figure 4 schematically shows a typical embodiment of the present decoder main unit 400 (in this example, the minimum part of mode ii, without technical relationship or Yu'v' conversion etc.). After a decompressor 401 does run length and arithmetic decoding, and inverse DCT etc., an LDR_t image is obtained, which is assumed to be in gamma 2.2 representation. (i.e. with lumas or R’G’B’ components defined according to Rec. 709) and normalized. There may be a first control unit 420, which may directly send this image to a connected LDR TV 410 (which directly means that there may logically be some legacy formatting involved; in principle, LDR_t could also be, for example, an image linear, in which case there will be a need to regamma-2.2 it before sending it to the LDR screen, but it may be advantageous if not necessary; additional tone mapping functions will generally be different. depending on what type LDR_t is, which can also be indicated with an IND_2 indicator in S_im). Then, a first tone mapping unit 402 performs the inverse mapping of the arbitrary tone mapping, and the defining parameters of this P_CC function format are received in the MET(F) metadata. Then, a second tone mapping unit 403 performs tone mapping by again darkening darker colors relative to brighter ones, for example, applying the rho equation above, with a received RHO value. The unit could also calculate the RHO value from a PB_HDR peak received screen brightness received from the connected HDR screen 411. Next, a third tone mapping unit 404 performs a gamma power function with a received GAM value that is, for example, 2.4, preferably. Then a 405 multiplier can perform a multiplication with GAI, which by default can be 1.0. Optionally, a color saturation processor 406 may perform some saturation processing. Finally, the control unit 421 may send the image to the HDR screen 411, and it may perform some additional processing, for example, to correctly format the image according to a pattern that the screen understands, for example, through of an HDMI connection.
[00125] A Figura 6 mostra uma modalidade de unidade de conversão de faixa dinâmica de codificador simples. A mesma compreende uma unidade de normalização 601 para normalizar todos os componentes de cor para 1 (isto é, se, por exemplo, R, G e B forem normalizados para 1,0, então, a luminância máxima será normalizada para 1,0, e vice-versa). As luminâncias normalizadas Yn_HDR de pixel de imagens de HDR (ou em modalidades equivalentes, por exemplo, os componentes de RGB lineares normalizados) vão para um primeiro mapeador de tom 602 que realiza uma operação gama, com um gama conforme desejado pelo classificador (ou unidade de classificação automática), mas, por fim, fixa a 1/(2,4). Então, um segundo mapeador de tom 603 realiza a transformação que clareia adequadamente as cores escuras de HDR, por com um fator de RHO adequado proposto pelo sistema de classificação dependendo da diferença de faixa dinâmica entre (o pico de brilho de) M_HDR e o LDR normalmente de 100 cd/m2 (100 nit) LDR, e geralmente aceito por fim, pelo classificador, que pode ou não alterar esse valor de RHO inicialmente proposto. Então, com o uso do terceiro mapeador de tom 604, o classificador começa o ajuste fino buscando por vários objetos na imagem, e por fim, define uma curva de mapeamento de tom padronizada CC, ao alterar várias lumas dessas várias de acordo com os objetos de imagem importantes do classificador. Isso produz as lumas Yn_LDR de da imagem de LDR_o, com todos os dados prontos para serem codificados.[00125] Figure 6 shows an embodiment of a simple encoder dynamic range conversion unit. It comprises a normalization unit 601 to normalize all color components to 1 (i.e., if, for example, R, G and B are normalized to 1.0, then the maximum luminance will be normalized to 1.0, and vice versa). The Yn_HDR normalized pixel luminances of HDR images (or in equivalent embodiments, e.g., the normalized linear RGB components) go to a first tone mapper 602 that performs a gamma operation, with a gamma as desired by the classifier (or unit automatic classification), but ultimately settles at 1/(2,4). Then, a second tone mapper 603 performs the transformation that appropriately lightens the dark HDR colors, e.g. with a suitable RHO factor proposed by the classification system depending on the dynamic range difference between (the peak brightness of) M_HDR and the LDR typically 100 cd/m2 (100 nit) LDR, and generally accepted ultimately by the classifier, which may or may not change this initially proposed RHO value. Then, using the third tone mapper 604, the classifier begins fine-tuning by searching for various objects in the image, and finally defines a standardized tone mapping curve CC, by changing several of these lumas according to the objects. important image images of the classifier. This produces the lumas Yn_LDR and the LDR_o image, with all the data ready to be encoded.
[00126] Os componentes algorítmicos aqui revelados podem (inteira ou parcialmente) ser obtidos na prática como hardware (por exemplo, partes de um CI específico de aplicação), ou como software executado em um processador de sinal digital especial, ou um processador genérico etc.[00126] The algorithmic components disclosed herein may (in whole or in part) be obtained in practice as hardware (e.g., parts of an application-specific IC), or as software running on a special digital signal processor, or a generic processor, etc. .
[00127] O versado na técnica compreenderá, a partir da nossa apresentação, quais componentes podem ser aprimoramentos opcionais e podem ser concebidos em combinação com outros componentes, e como as etapas (opcionais) dos métodos correspondem aos respectivos meios de aparelhos, e vice versa. A palavra “aparelho” neste pedido é usada em seu sentido mais amplo, a saber, um grupo de meios que permitem alcançar um objetivo específico, e podem, assim, ser (uma pequena parte de) um CI, ou um aparelho dedicado (como um aparelho com uma tela), ou parte de um sistema ligado em rede, entre outras coisas. O termo “disposição” destina-se também a ser usado em seu sentido mais amplo, de modo a compreender, entre outras coisas, um único aparelho, uma parte de um aparelho, um conjunto de (partes de) aparelhos que operam em conjunto etc.[00127] One skilled in the art will understand from our presentation which components may be optional enhancements and may be designed in combination with other components, and how the (optional) steps of the methods correspond to the respective apparatus means, and vice versa . The word “apparatus” in this application is used in its broadest sense, namely, a group of means that allow achieving a specific objective, and can thus be (a small part of) an IC, or a dedicated device (such as a device with a screen), or part of a networked system, among other things. The term “arrangement” is also intended to be used in its broadest sense to include, among other things, a single apparatus, a part of an apparatus, a set of (parts of) apparatus operating together, etc. .
[00128] Uma versão de produto de programa de computador da presente modalidade como denotação deve ser entendida como abrangendo qualquer concretização física de um conjunto de comandos que permite que um processador para fins gerais ou específicos, após uma série de etapas de carga (que pode incluir etapas de conversão intermediárias, como tradução para uma linguagem intermediária, e uma linguagem de processador final) insira os comandos no processador e executar qualquer uma das características da invenção. Em particular, o produto de programa de computador pode ser concebido como dados em um portador, como, por exemplo, um disco ou fita, dados presentes em uma memória, dados se deslocando através de uma conexão de rede - com fio ou sem fio - ou código de programa em papel. A não ser pelo código de programa, dados característicos necessários para o programa também podem ser incorporados como produto de programa de computador. Deve ficar claro que, por computador, deve-se entender qualquer dispositivo com capacidade de realizar as computações de dados, isto é, o mesmo pode também ser, por exemplo, um telefone móvel. Também, as reivindicações do aparelho podem cobrir versões implantadas por computador das modalidades.[00128] A computer program product version of the present embodiment as a denotation should be understood as encompassing any physical embodiment of a set of commands that enables a processor for general or specific purposes, after a series of load steps (which may include intermediate conversion steps, such as translating to an intermediate language, and a final processor language) enter the commands into the processor and execute any of the features of the invention. In particular, the computer program product may be conceived as data on a carrier, such as a disk or tape, data present in a memory, data moving over a network connection - wired or wireless - or program code on paper. In addition to program code, characteristic data necessary for the program may also be incorporated as a computer program product. It must be clear that, by computer, we must understand any device capable of performing data computations, that is, it can also be, for example, a mobile phone. Also, device claims may cover computer-implanted versions of the embodiments.
[00129] Algumas das etapas necessárias para a operação do método podem já estar presentes na funcionalidade do processador em vez de descritas no produto de programa de computador, como as etapas de entrada de dados e de saída de dados.[00129] Some of the steps necessary for the operation of the method may already be present in the processor functionality rather than described in the computer program product, such as the data input and data output steps.
[00130] Deve-se notar que as modalidades mencionadas acima ilustram, e não limitam, a invenção. Nos pontos onde o versado na técnica puder realizar facilmente um mapeamento dos exemplos apresentados para outras regiões das reivindicações, por uma questão de concisão, nem todas as opções foram mencionadas em profundidade. Além das combinações de elementos da invenção, conforme combinados nas reivindicações, outras combinações dos elementos são possíveis. Qualquer combinação de elementos pode ser executada em um único elemento dedicado.[00130] It should be noted that the modalities mentioned above illustrate, and do not limit, the invention. At points where one skilled in the art can easily map the examples presented to other regions of the claims, for the sake of brevity, not all options have been mentioned in depth. In addition to the combinations of elements of the invention as combined in the claims, other combinations of the elements are possible. Any combination of elements can run on a single dedicated element.
[00131] Qualquer sinal de referência entre parênteses na reivindicação não se destina a limitar a reivindicação. O uso do verbo “compreender” e suas conjugações não exclui a presença de elementos ou etapas não mencionados em qualquer uma das reivindicações ou na presente descrição. A palavra “um” ou “uma” antes de um elemento não exclui a presença de uma pluralidade de tais elementos.[00131] Any parenthetical reference sign in the claim is not intended to limit the claim. The use of the verb “understand” and its conjugations does not exclude the presence of elements or steps not mentioned in any of the claims or in the present description. The word “one” or “an” before an element does not exclude the presence of a plurality of such elements.
Claims (6)
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP14170157.3 | 2014-05-28 |
Publications (1)
Publication Number | Publication Date |
---|---|
BR112016027461B1 true BR112016027461B1 (en) | 2023-08-15 |
Family
ID=
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11949921B2 (en) | Methods and apparatuses for encoding an HDR images, and methods and apparatuses for use of such encoded images | |
JP6596125B2 (en) | Method and apparatus for creating a code mapping function for encoding of HDR images, and method and apparatus for use of such encoded images | |
US10182247B2 (en) | HDR image encoding and decoding methods and devices | |
RU2589871C2 (en) | Device and methods for encoding and decoding hdr images | |
BR112014027815B1 (en) | Image color processing apparatus, image encoder, image decoder and image color processing method | |
BR112014006977B1 (en) | IMAGE PROCESSING APPARATUS, IMAGE SIGNAL ENCODERING APPARATUS READY TO ENCODE AN IMAGE, IMAGE PROCESSING METHOD AND METHOD FOR TRANSMITTING AN PICTURE SIGNAL READY TO ENCODE AN IMAGE | |
BR112021002187A2 (en) | high dynamic range video encoder and decoder, high dynamic range video encoding method of a received input high dynamic range image, and high dynamic range video decoding method of a received intermediate dynamic range image | |
ES2979319T3 (en) | Handling multiple HDR image sources | |
BR112016027461B1 (en) | METHOD OF CODING A HIGH DYNAMIC RANGE IMAGE, IMAGE ENCODER ARRANGED TO ENCODE A HIGH DYNAMIC RANGE IMAGE, IMAGE DECODER AROUND TO RECEIVE A HIGH DYNAMIC RANGE IMAGE SIGNAL, AND, METHOD OF DECODING A HIGH DYNAMIC RANGE IMAGE SIGNAL HIGH DYNAMIC RANGE | |
ES2787827T3 (en) | Apparatus and procedures for encoding and decoding HDR images | |
BR112018010367B1 (en) | APPARATUS FOR COMBINING TWO IMAGES OR TWO VIDEOS OF IMAGES, AND METHOD FOR COMBINING TWO IMAGES OR TWO VIDEOS OF IMAGES | |
BR112015019787B1 (en) | PICTURE ENCODER, PICTURE DECODER, PICTURE CODING METHOD, PICTURE DECODING METHOD, PICTURE SIGNAL, AND, MEMORY OBJECT | |
BR112017009528B1 (en) | APPARATUS AND METHOD FOR DECODING AN INTEGRATED HDR VIDEO SIGNAL FROM ONE OR MORE SOURCE SIGNALS, APPARATUS FOR ENCODING A VIDEO SIGNAL, AND METHOD FOR DECODING A VIDEO SIGNAL |