KR20210137886A - Image sensor - Google Patents
Image sensor Download PDFInfo
- Publication number
- KR20210137886A KR20210137886A KR1020200143664A KR20200143664A KR20210137886A KR 20210137886 A KR20210137886 A KR 20210137886A KR 1020200143664 A KR1020200143664 A KR 1020200143664A KR 20200143664 A KR20200143664 A KR 20200143664A KR 20210137886 A KR20210137886 A KR 20210137886A
- Authority
- KR
- South Korea
- Prior art keywords
- sensing
- array
- mask
- image sensor
- elements
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B11/00—Filters or other obturators specially adapted for photographic purposes
- G03B11/04—Hoods or caps for eliminating unwanted light from lenses, viewfinders or focusing aids
- G03B11/043—Protective lens closures or lens caps built into cameras
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B17/00—Details of cameras or camera bodies; Accessories therefor
- G03B17/02—Bodies
- G03B17/12—Bodies with means for supporting objectives, supplementary lenses, filters, masks, or turrets
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Transforming Light Signals Into Electric Signals (AREA)
- Studio Devices (AREA)
- Solid State Image Pick-Up Elements (AREA)
Abstract
Description
이하, 이미지를 센싱하는 기술이 제공된다.Hereinafter, a technique for sensing an image is provided.
광학 기술 및 영상 처리 기술의 발달로 인해, 멀티미디어 컨텐츠, 보안 및 인식 등 광범위한 분야에 촬영 장치가 활용되고 있다. 예를 들어, 촬영 장치는 모바일 기기, 카메라, 차량 및 컴퓨터 등에 탑재되어, 영상을 촬영하거나, 객체를 인식하거나, 기기를 제어하기 위한 데이터를 획득할 수 있다. 촬영 장치의 부피는 렌즈의 사이즈, 렌즈의 초점 거리(focal length) 및 센서의 사이즈 등에 의해 결정될 수 있다. 렌즈의 사이즈가 감소할 경우, 렌즈의 초점 거리가 줄어들 수 있어, 촬영 장치의 부피를 감소시키기 위해, 소형 렌즈들로 구성된 멀티 렌즈가 이용될 수 있다.Due to the development of optical technology and image processing technology, a photographing device is being used in a wide range of fields such as multimedia content, security, and recognition. For example, the photographing device may be mounted on a mobile device, a camera, a vehicle, a computer, or the like to capture an image, recognize an object, or acquire data for controlling the device. The volume of the photographing apparatus may be determined by the size of the lens, the focal length of the lens, the size of the sensor, and the like. When the size of the lens is reduced, the focal length of the lens may be reduced, and in order to reduce the volume of the photographing apparatus, a multi-lens composed of small lenses may be used.
일 실시예에 따르면 이미지 센서는, 결상 광학 렌즈들을 통과한 빛 중 일부 방향의 빛을 차단하는 복수의 마스크 엘리먼트들을 포함하고, 상기 일부 방향과 다른 방향의 빛을 통과시키는 마스크 어레이; 및 상기 결상 광학 렌즈들 및 상기 마스크 어레이를 통과한 빛을 센싱하는 복수의 센싱 소자들을 포함하는 센싱 어레이를 포함할 수 있다.According to an exemplary embodiment, the image sensor includes: a mask array including a plurality of mask elements blocking light in a partial direction among light passing through the imaging optical lenses, and passing light in a direction different from the partial direction; and a sensing array including a plurality of sensing elements sensing the light passing through the imaging optical lenses and the mask array.
이미지 센서는 상기 센싱 어레이 상에 배치되어, 각 센싱 소자로 입사되는 빛에서 일부 파장 대역을 필터링하는 색상 필터를 더 포함하고, 상기 마스크 어레이는, 상기 색상 필터와 상기 센싱 어레이 사이에 배치될 수 있다.The image sensor may be disposed on the sensing array and further include a color filter configured to filter a partial wavelength band from light incident on each sensing element, and the mask array may be disposed between the color filter and the sensing array. .
이미지 센서는 상기 센싱 어레이 상에 배치되어, 각 센싱 소자로 빛을 전달하는 집광 렌즈 어레이를 더 포함하고, 상기 마스크 어레이는, 상기 집광 렌즈 어레이와 상기 센싱 어레이 사이에 배치될 수 있다.The image sensor may further include a converging lens array disposed on the sensing array to transmit light to each sensing element, and the mask array may be disposed between the converging lens array and the sensing array.
상기 마스크 어레이와 상기 센싱 소자는, 1μm 이내로 이격될 수 있다.The mask array and the sensing element may be spaced apart within 1 μm.
상기 마스크 어레이와 상기 센싱 소자는, 서로 접촉할 수 있다.The mask array and the sensing element may contact each other.
상기 마스크 어레이에서 개별 센싱 소자에 대응하는 영역은, 해당 영역의 전체 면적 대비 개구율(aperture ratio)에 대응하는 면적을 차지하는 개구 영역(aperture region); 및 해당 영역에서 상기 복수의 마스크 엘리먼트들이 배치되는 나머지 면적을 차지하는 마스킹 영역(masked region)을 포함할 수 있다.The region corresponding to the individual sensing element in the mask array may include an aperture region occupying an area corresponding to an aperture ratio to a total area of the corresponding region; and a masked region occupying the remaining area in which the plurality of mask elements are disposed in the corresponding region.
상기 개구율은, 40% 이상 60%이하의 비율일 수 있다.The aperture ratio may be 40% or more and 60% or less.
상기 마스크 어레이의 부분 영역 각각에서 개구 파트(aperture part)가 차지하는 면적은, 설정된 개구율에 대응하는 면적 이상일 수 있다.An area occupied by an aperture part in each partial area of the mask array may be greater than or equal to an area corresponding to a set aperture ratio.
상기 마스크 어레이는, 복수의 센싱 소자 그룹들에 대응하는 복수의 그룹 영역들로 분할(segment)되고, 상기 마스크 어레이에서 상기 복수의 그룹 영역의 각각은, 한 픽셀을 표현하기 위해 그룹핑된 복수의 센싱 소자들을 포함하는 센싱 소자 그룹을 커버할 수 있다.The mask array is segmented into a plurality of group regions corresponding to a plurality of sensing device groups, and each of the plurality of group regions in the mask array includes a plurality of sensing groups grouped to represent one pixel. A sensing element group including elements may be covered.
상기 마스크 어레이에서 그룹 영역의 마스킹 패턴이 반복될 수 있다.In the mask array, the masking pattern of the group region may be repeated.
상기 마스크 어레이의 상기 복수의 그룹 영역들의 각각은 모두 동일한 마스킹 패턴을 가질 수 있다.Each of the plurality of group regions of the mask array may have the same masking pattern.
상기 마스크 어레이에서 개별 마스킹 패턴에 대응하는 영역은, 결상 광학계의 결상 광학 렌즈들의 개수 이상의 칸들을 포함할 수 있다.The region corresponding to the individual masking pattern in the mask array may include more than the number of imaging optical lenses of the imaging optical system.
복수의 마스크 엘리먼트들은, 2개 이상의 투과 레벨들(levels) 중 하나를 가질 수 있다.The plurality of mask elements may have one of two or more transmission levels.
복수의 마스크 엘리먼트들의 각각은, 복수의 영역들로 분할되고, 각 마스크 엘리먼트의 투과율은, 상기 복수의 영역들 중 열린 영역 및 닫힌 영역의 비율에 따라 결정될 수 있다.Each of the plurality of mask elements may be divided into a plurality of regions, and transmittance of each mask element may be determined according to a ratio of an open region and a closed region among the plurality of regions.
이미지 센서는 상기 복수의 센싱 소자들에 의해 센싱되는 센싱 정보에 기초하여 이미지를 복원하는 프로세서를 더 포함할 수 있다.The image sensor may further include a processor for reconstructing an image based on sensing information sensed by the plurality of sensing elements.
상기 프로세서는, 상기 센싱 정보를 주파수 도메인으로 변환하여 주파수 정보를 생성하고, 상기 주파수 정보를 상기 마스크 어레이의 마스킹 패턴에 대응하는 블러 커널(blur kernel)의 주파수 변환 결과로 나누어(divide) 디블러된(deblurred) 주파수 정보를 생성하며, 상기 디블러된 주파수 정보를 시간 도메인으로 역변환함으로써 고해상도 이미지를 복원할 수 있다.The processor converts the sensed information into a frequency domain to generate frequency information, divides the frequency information by a frequency conversion result of a blur kernel corresponding to the masking pattern of the mask array, and deblurs. A high-resolution image may be reconstructed by generating (deblurred) frequency information and inversely transforming the deblurred frequency information into a time domain.
상기 마스크 어레이는 복수의 마스킹 패턴들을 포함하고, 각 마스킹 패턴은, 상기 센싱 어레이에서 둘 이상의 센싱 소자를 포함하는 센싱 소자 그룹을 커버할 수 있다.The mask array may include a plurality of masking patterns, and each masking pattern may cover a sensing element group including two or more sensing elements in the sensing array.
일 실시예에 따른 카메라 장치는, 외부로부터 수신되는 빛을 전달하는 결상 광학 렌즈들을 포함하는 결상 렌즈 어레이; 상기 결상 렌즈 어레이를 통과한 빛을 센싱하는 복수의 센싱 소자들을 포함하는 센싱 어레이; 및 복수의 마스크 엘리먼트들을 포함하고, 상기 결상 렌즈 어레이와 상기 센싱 어레이 사이에 배치되는 마스크 어레이를 포함할 수 있다.A camera device according to an embodiment includes: an imaging lens array including optical imaging lenses that transmit light received from the outside; a sensing array including a plurality of sensing elements for sensing the light passing through the imaging lens array; and a mask array including a plurality of mask elements and disposed between the imaging lens array and the sensing array.
상기 마스크 어레이는, 상기 복수의 센싱 소자들 상에서 상기 센싱 어레이에 접촉되는 위치 및 상기 센싱 어레이 내부 위치 중 하나에 배치될 수 있다.The mask array may be disposed on one of a position in contact with the sensing array and a position inside the sensing array on the plurality of sensing elements.
상기 마스크 어레이에서 개별 센싱 소자에 대응하는 영역은, 해당 영역의 전체 면적 대비 개구율에 대응하는 면적을 차지하는 개구 영역; 및 해당 영역에서 상기 복수의 마스크 엘리먼트들이 배치되는 나머지 면적을 차지하는 마스킹 영역을 포함할 수 있다.In the mask array, the region corresponding to the individual sensing element may include: an opening region occupying an area corresponding to an opening ratio to a total area of the corresponding region; and a masking region occupying the remaining area in which the plurality of mask elements are disposed in the corresponding region.
상기 마스크 어레이에서 부분 영역의 각각에서 개구 파트가 차지하는 면적은, 설정된 개구율에 대응하는 면적 이상일 수 있다.An area occupied by an opening part in each of the partial regions in the mask array may be equal to or greater than an area corresponding to a set opening ratio.
상기 마스크 어레이에서 그룹 영역의 마스킹 패턴이 반복될 수 있다.In the mask array, the masking pattern of the group region may be repeated.
카메라 장치는 상기 복수의 센싱 소자들에 의해 센싱되는 센싱 정보를 주파수 도메인으로 변환하여 주파수 정보를 생성하고, 상기 주파수 정보를 상기 마스크 어레이의 마스킹 패턴에 대응하는 블러 커널의 주파수 변환 결과로 나누어(divide) 디블러된 주파수 정보를 생성하며, 상기 디블러된 주파수 정보를 시간 도메인으로 역변환함으로써 고해상도 이미지를 복원하는 프로세서를 더 포함할 수 있다.The camera device converts the sensing information sensed by the plurality of sensing elements into a frequency domain to generate frequency information, and divides the frequency information by a frequency conversion result of a blur kernel corresponding to the masking pattern of the mask array. ) may further include a processor for generating deblurred frequency information and reconstructing a high-resolution image by inversely transforming the deblurred frequency information into a time domain.
도 1a 및 도 1b는 일 실시예에 따른 이미징 장치의 구조를 도시한다.
도 2는 일 실시예에 따른 센싱 소자가 렌즈 엘리먼트를 통해 광선을 수신하는 모습을 도시한 도면이다.
도 3은 일 실시예에 따른 센싱 소자의 수와 렌즈 엘리먼트의 수 간의 관계를 나타낸 도면이다.
도 4는 일 실시예에 따른 이미징 장치에서 멀티 렌즈 어레이 구조에 따른 초점 거리 감소를 설명한다.
도 5는 일 실시예에 따른 이미징 장치에서 멀티 렌즈 어레이 구조에 따른 블러 커널을 설명한다.
도 6은 일 실시예에 따른 마스크 어레이를 포함하는 이미징 장치의 블러 커널을 설명한다.
도 7은 일 실시예에 따른 마스크 어레이가 배치된 이미징 장치의 단면도를 도시한다.
도 8은 일 실시예에 따른 마스크 어레이에 대한 마스킹 패턴의 설계를 설명한다.
도 9 및 도 10은 일 실시예에 따른 마스크 어레이의 예시적인 형상을 도시한다.
도 11은 일 실시예에 따른 이미지 센서의 센싱 소자 그룹 별 마스킹 패턴 배치를 설명하는 도면이다.
도 12a 내지 도 12b는 일 실시예에 따른 마스크 어레이의 배치를 설명한다.
도 13은 일 실시예에 따른 이미징 장치의 구성을 도시한 블록도이다.
도 14는 일 실시예에 따른 전자 단말의 구성을 도시한 블록도이다.
도 15 및 도 16은 일 실시예에 따른 이미지 센서가 구현되는 기기의 예시를 도시하는 도면이다.1A and 1B show the structure of an imaging device according to an embodiment.
2 is a diagram illustrating a state in which a sensing element according to an embodiment receives a light beam through a lens element.
3 is a diagram illustrating a relationship between the number of sensing elements and the number of lens elements according to an exemplary embodiment.
4 illustrates a reduction in a focal length according to a multi-lens array structure in an imaging apparatus according to an exemplary embodiment.
5 illustrates a blur kernel according to a multi-lens array structure in an imaging apparatus according to an embodiment.
6 illustrates a blur kernel of an imaging device including a mask array according to an exemplary embodiment.
7 is a cross-sectional view of an imaging device in which a mask array is disposed according to an embodiment.
8 illustrates a design of a masking pattern for a mask array according to an exemplary embodiment.
9 and 10 show exemplary shapes of a mask array according to an embodiment.
11 is a view for explaining arrangement of a masking pattern for each sensing element group of an image sensor according to an exemplary embodiment.
12A to 12B illustrate an arrangement of a mask array according to an exemplary embodiment.
13 is a block diagram illustrating a configuration of an imaging apparatus according to an exemplary embodiment.
14 is a block diagram illustrating a configuration of an electronic terminal according to an embodiment.
15 and 16 are diagrams illustrating examples of a device in which an image sensor is implemented according to an embodiment.
이하, 실시예들을 첨부된 도면을 참조하여 상세하게 설명한다. 그러나, 특허출원의 범위가 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 아래 설명하는 실시예들은 실시 형태에 대해 한정하려는 것이 아니며, 이들에 대한 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. However, the scope of the patent application is not limited or limited by these examples. It should be understood that the embodiments described below are not intended to limit the embodiments, and include all modifications, equivalents or substitutes thereto.
실시예에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 실시형태를 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수 개의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성 요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Terms used in the examples are used only to describe specific examples, and are not intended to limit the embodiments. The singular expression includes the plural expression unless the context clearly dictates otherwise. In this specification, terms such as "comprise" or "have" are intended to designate that a feature, number, step, operation, component, part, or combination thereof described in the specification exists, but one or more other features It should be understood that this does not preclude the existence or addition of numbers, steps, operations, components, parts, or combinations thereof.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which the embodiment belongs. Terms such as those defined in a commonly used dictionary should be interpreted as having a meaning consistent with the meaning in the context of the related art, and should not be interpreted in an ideal or excessively formal meaning unless explicitly defined in the present application. does not
또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조 부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 실시예의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.In addition, in the description with reference to the accompanying drawings, the same components are assigned the same reference numerals regardless of the reference numerals, and the overlapping description thereof will be omitted. In the description of the embodiment, if it is determined that a detailed description of a related known technology may unnecessarily obscure the gist of the embodiment, the detailed description thereof will be omitted.
도 1a 및 도 1b는 일 실시예에 따른 이미징 장치의 구조를 도시한다. 도 1a는 이미징 장치의 사시도이고, 도 1b는 이미징 장치의 단면도이다.1A and 1B show the structure of an imaging device according to an embodiment. 1A is a perspective view of an imaging device, and FIG. 1B is a cross-sectional view of the imaging device.
이미징 장치(100)는 렌즈 어레이(110) 및 이미지 센서(120)를 포함한다. 렌즈 어레이(110)는 렌즈 엘리먼트들을 포함하고, 이미지 센서(120)는 광학 센싱 소자들(optical sensing elements)을 포함한다. 렌즈 엘리먼트들은 렌즈 어레이(110)의 평면을 따라 배치될 수 있고, 광학 센싱 소자들은 이미지 센서(120)에서 센싱 어레이(121)의 평면을 따라 배치될 수 있다. 렌즈 어레이(110)의 평면은 센싱 어레이(121)의 평면과 평행하게 배치될 수 있다. 렌즈 어레이(110)는 결상(imaging)을 위한 멀티 렌즈 어레이(MLA, multi lens array)로서, 결상 렌즈 어레이라고도 나타낼 수 있다.The
본 명세서에서 광학 센싱 소자(이하, '센싱 소자')는 해당 소자로 입사되는 빛에 기초한 광학 정보를 센싱하는 소자로서, 입사된 빛의 세기를 지시하는 값을 출력할 수 있다. 광학 센싱 소자는, 예를 들어, CMOS(complementary metal oxide semiconductor), CCD(Charge-Coupled Device), 및 포토 다이오드(photo diode) 등을 포함할 수 있다.In the present specification, an optical sensing element (hereinafter, 'sensing element') is an element that senses optical information based on light incident on the element, and may output a value indicating the intensity of the incident light. The optical sensing device may include, for example, a complementary metal oxide semiconductor (CMOS), a charge-coupled device (CCD), and a photo diode.
본 명세서에서 픽쳐 엘리먼트(picture element)(이하, 픽셀(pixel))는 이미지를 구성하는 기본 단위 정보로서, 픽셀 위치에 대응하는 피사체 상의 물리적 위치로부터 반사된 빛이 센싱 소자에 의해 센싱된 광학 정보를 나타낼 수 있다. 픽셀 위치는 이미지 내에서 픽셀의 위치로서 화소 좌표계를 따르고, 물리적 위치는 월드 좌표계를 따를 수 있다.In the present specification, a picture element (hereinafter, a pixel) is basic unit information constituting an image, and light reflected from a physical location on a subject corresponding to the pixel location provides optical information sensed by the sensing element. can indicate A pixel location is the location of a pixel in an image, which may follow a pixel coordinate system, and a physical location may follow a world coordinate system.
참고로, 컬러 이미지를 구성하는 픽셀은 한 픽셀 위치에 대해 복수의 색상 값들(예를 들어, RGB 색상계인 경우, 적색 값, 녹색 값, 및 청색 값)을 가진다. 디스플레이 분야에서 디스플레이를 구성하는 단위 픽셀은 한 픽셀 위치의 색상 값들을 표현하기 위해 복수의 색상들에 관한 서브 픽셀들(예를 들어, RGB 색상계인 경우 적색 서브 픽셀, 녹색 서브 픽셀, 및 청색 서브 픽셀)을 포함할 수 있다. 이와 달리, 이미지 센서 분야에서는 픽셀이 색상 별 서브 픽셀로 구분되지 않고, 한 색상 값을 센싱하는 센싱 소자(예를 들어, 컬러 필터가 전단에 배치된 포토 다이오드)를 지칭하는 것이 일반적이다. 또한, 이미지 센서 분야에서는 픽셀이 한 센싱 소자와 그 센싱 소자에 의해 센싱된 값을 지칭하는 것으로 혼용되어 사용되기도 한다. 다만, 본 명세서에서는 명확한 설명을 위해 픽셀은 이미지를 구성하는 기본 단위 정보이고, 센싱 소자는 피사체로부터 수신되는 빛에 응답하여 해당 픽셀의 픽셀 값을 출력하는 하드웨어 소자인 것으로 그 의미를 구별한다.For reference, a pixel constituting a color image has a plurality of color values (eg, a red value, a green value, and a blue value in the case of an RGB color system) for one pixel position. In the display field, a unit pixel constituting a display is sub-pixels related to a plurality of colors (eg, in the case of an RGB color system, a red sub-pixel, a green sub-pixel, and a blue sub-pixel) in order to express color values of one pixel position. ) may be included. Contrary to this, in the image sensor field, it is common to refer to a sensing element (eg, a photodiode having a color filter disposed at the front end) that senses one color value instead of dividing the pixel into sub-pixels for each color. Also, in the image sensor field, a pixel is used interchangeably to refer to a sensing element and a value sensed by the sensing element. However, in the present specification, for clarity, a pixel is basic unit information constituting an image, and a sensing element is a hardware element that outputs a pixel value of a corresponding pixel in response to light received from a subject.
본 명세서에서는 각 픽셀이 단일 센싱 소자로 표현되는 예시를 주로 설명하나, 이로 한정하는 것은 아니고 한 픽셀이 복수의 센싱 소자들로 표현될 수도 있다. 한 픽셀을 표현하기 위해 그룹핑된 복수의 센싱 소자들을 센싱 소자 그룹이라고 나타낼 수 있다. 한 센싱 소자에 의해 센싱 가능한 광량에는 한계가 있는데, 한 픽셀을 복수의 센싱 소자들에 의해 센싱된 값을 이용하여 표현함으로써 감도가 개선될 수 있다. 후술하는 도 11은 한 픽셀 값이 4개의 센싱 소자들을 포함하는 센싱 소자 그룹에 의해 센싱되는 예시를 설명한다.In this specification, an example in which each pixel is expressed as a single sensing element is mainly described, but the present disclosure is not limited thereto, and one pixel may be expressed as a plurality of sensing elements. A plurality of sensing elements grouped to represent one pixel may be referred to as a sensing element group. There is a limit to the amount of light that can be sensed by one sensing element, and sensitivity may be improved by expressing one pixel using values sensed by a plurality of sensing elements. 11, which will be described later, describes an example in which one pixel value is sensed by a sensing element group including four sensing elements.
이미지 센서(120)는 센싱 어레이(121), 광학 필터(optical filter)(122), 및 집광 렌즈 어레이(condensing lens array)(123)를 포함할 수 있다. 다만, 이로 한정하는 것은 아니고, 광학 필터(122) 대신, 집광 렌즈 어레이(123)의 개별 집광 마이크로 렌즈(condensing micro lens)(123a)가 미리 정한 파장 대역을 통과시키고 나머지 파장 대역을 차단하는 광학 특성을 가지게 구성될 수도 있다.The
집광 렌즈 어레이(123)는 렌즈 어레이(110)를 통과한 빛을 센싱 어레이(121)로 집광(concentrate)하기 위한 복수의 집광 마이크로 렌즈들을 포함할 수 있다. 예를 들어, 집광 렌즈 어레이(123)는 센싱 어레이(121)에 포함된 센싱 소자들의 개수와 동일한 개수의 집광 마이크로 렌즈들을 포함할 수 있다. 복수의 집광 마이크로 렌즈들은 결상 광학 렌즈 및 센싱 어레이(121) 사이에 배치되어, 결상 광학 렌즈를 통과한 빛을 각 집광 마이크로 렌즈(123a)에 대응하는 센싱 소자(121a)로 집광하여 전달할 수 있다. 예를 들어, 도 1b에 도시된 바와 같이, 센싱 어레이(121)의 각 센싱 소자(121a) 상에 집광 마이크로 렌즈(123a)가 배치되어, 아래에 배치된 센싱 소자(121a)로 빛을 집광할 수 있다. 또한, 도 1b에 도시된 바와 같이, 색상 필터(122a)가 각 집광 마이크로 렌즈(123a) 및 센싱 소자(121a) 사이에 배치될 수도 있다.The condensing
광학 필터(122)는 미리 정한 파장 대역을 통과시키고 나머지 파장 대역을 차단하는 광학 특성을 가지는 필터일 수 있다. 예를 들어, 광학 필터(122)는 필터 평면을 따라 배치되는 복수의 색상 필터들을 포함하는 색상 필터 어레이(CFA, color filter array)로 구현될 수 있다. 각 색상 필터(122a)는 임의의 색상에 대응하는 파장 대역의 빛을 통과시키고 나머지 대역의 빛을 차단하는 필터일 수 있다. 예를 들어, 색상 필터(122a)로서 적색 통과 필터, 녹색 통과 필터, 및 청색 통과 필터가 있을 수 있다. 적색 통과 필터는 적색에 대응하는 파장 대역의 빛을 통과시키고, 나머지 대역의 빛을 차단할 수 있다. 녹색 통과 필터는 녹색에 대응하는 파장 대역의 빛을 통과시키고 나머지 대역의 빛을 차단할 수 있다. 청색 통과 필터는 청색에 대응하는 파장 대역의 빛을 통과시키고 나머지 대역의 빛을 차단할 수 있다. 색상 필터 어레이에서 개별적으로 색상 광들을 통과시키는 색상 필터들은 필터 평면을 따라 베이어 패턴(Bayer pattern) 또는 다른 패턴으로 배치될 수 있다. 광학 필터(122)는 또한 가시광선 대역을 통과시키고 적외선 대역을 차단하는 적외선 차단 필터일 수도 있다.The
이미지 센서(120)에 의하여 촬영 및 복원되는 이미지의 품질은 센싱 어레이(121)에 포함된 센싱 소자들의 수, 및 센싱 소자(121a)에 입사되는 광량에 의하여 결정될 수 있다. 예를 들어, 이미지의 해상도는 센싱 어레이(121)에 포함된 센싱 소자들의 수에 의하여, 이미지의 감도는 센싱 소자(121a)에 입사되는 광량에 의하여 결정될 수 있고, 입사되는 광량은 센싱 소자(121a)의 사이즈에 기초하여 결정될 수 있다. 센싱 소자(121a)의 사이즈가 클수록 입사되는 광량은 증가할 수 있고, 센싱 어레이(121)의 동적 범위(dynamic range)가 증가할 수 있다. 따라서, 센싱 어레이(121)에 포함된 센싱 소자들의 수가 증가함에 따라 이미지 센서(120)는 고해상도 이미지를 촬영할 수 있고, 센싱 소자(121a)의 사이즈가 증가함에 따라 이미지 센서(120)는 저조도에서 고감도 이미지 촬영에 유리하게 작동할 수 있다.The quality of the image captured and restored by the
렌즈 어레이(110)의 개별 렌즈 엘리먼트(111)는 자신의 렌즈 크기(lens size)에 대응하는 센싱 어레이(121)의 일정 센싱 영역(129)을 커버할 수 있다. 센싱 어레이(121)에서 렌즈 엘리먼트(111)에 의해 커버되는 센싱 영역(129)은, 해당 렌즈 엘리먼트(111)의 렌즈 크기에 따라 결정될 수 있다. 센싱 영역(129)은, 일정한 시야각 범위의 광선들이 해당 렌즈 엘리먼트(111)를 통과한 후 도달하는 센싱 어레이(121) 상의 영역을 나타낼 수 있다. 센싱 영역(129)의 크기는 센싱 영역(129)의 중심으로부터 최외곽 지점까지의 거리 또는 대각 길이로 표현될 수 있다. 다시 말해, 센싱 영역(129)에 포함된 센싱 소자들에는 해당 개별 렌즈 엘리먼트(111)를 통과한 빛이 입사될 수 있다. The
센싱 어레이(121)의 센싱 소자들 각각은 렌즈 어레이(110)의 렌즈들을 통과한 광선에 기초하여 센싱 정보를 생성할 수 있다. 예를 들어, 센싱 소자(121a)는 렌즈 엘리먼트(111)를 통해 수신된 빛의 세기 값을 센싱 정보로서 센싱할 수 있다. 이미징 장치(100)는 센싱 어레이(121)에 의해 출력된 센싱 정보에 기초하여, 이미징 장치(100)의 시야에 포함된 지점들에 관한 원본 신호(original signal)에 대응하는 세기 정보를 결정하고, 결정된 세기 정보에 기초하여 촬영 이미지를 복원할 수 있다.Each of the sensing elements of the
또한, 센싱 소자(121a)는 색상 필터(122a)를 통과한 빛을 센싱함으로써 원하는 색상에 대응하는 색상 세기 값을 센싱 정보로 생성할 수 있다. 센싱 어레이(121)를 구성하는 복수의 센싱 소자들 각각은 공간적으로 인접한 인접 센싱 소자와 다른 색상을 센싱하도록 배치될 수 있다. Also, the
센싱 정보의 다양성이 충분히 확보되어, 이미징 장치(100)의 시야에 포함된 지점들에 대응하는 원본 신호 정보와 센싱 정보 사이에 완전 랭크(full rank) 관계가 형성될 때, 센싱 어레이(121)의 최대 해상도에 대응하는 촬영 이미지가 도출될 수 있다. 센싱 정보의 다양성은 렌즈 어레이(110)에 포함된 렌즈들의 수 및 센싱 어레이(121)에 포함된 센싱 소자들의 수와 같은 이미징 장치(100)의 파라미터들에 기초하여 확보될 수 있다. When the diversity of the sensing information is sufficiently secured and a full rank relationship is formed between the sensing information and the original signal information corresponding to points included in the field of view of the
결상을 위한 멀티 렌즈 어레이 구조에서, 결상 광학 렌즈 및 센싱 어레이(121)는 분수 정렬 구조(fractional alignment structure)로 배치될 수 있다. 예를 들어, 분수 정렬 구조는 개별 렌즈 엘리먼트(111)에 의해 커버되는 센싱 영역(129)이 비정수개(non-integer)의 센싱 소자들을 포함하는 구조를 나타낼 수 있다.In the multi-lens array structure for imaging, the imaging optical lens and the
렌즈 어레이(110)에 포함된 렌즈 엘리먼트들이 동일한 렌즈 크기를 가지는 경우, 렌즈 어레이(110)에 포함된 렌즈 엘리먼트들의 수와 센싱 어레이(121)에 포함된 센싱 소자들의 수는 서로 소(relatively prime) 관계일 수 있다. 렌즈 어레이(110)의 일축에 해당하는 렌즈 엘리먼트들의 개수 L 및 센싱 어레이(121)의 일축에 해당하는 센싱 소자들의 개수 P 간의 비율 P/L은 실수(real number)로 결정될 수 있다. 렌즈 엘리먼트들 각각은 P/L에 대응하는 오프셋과 동일한 개수의 센싱 소자들을 커버할 수 있다. 참고로, 도 1a에 도시된 센싱 영역(129)은 예시적으로 세로 축을 따라 7/3=2.3개, 가로 축을 따라 11/3=3.67개의 센싱 소자들을 포함할 수 있다. 더 나아가, 렌즈 엘리먼트(111)는 복수의 비정수개의 집광 마이크로 렌즈들을 커버할 수 있다. 따라서 이미지 센서(120)에서 집광 마이크로 렌즈들의 개수는 센싱 어레이(121)의 센싱 소자들의 개수와 동일하고, 렌즈 어레이(110)의 렌즈 엘리먼트들(예를 들어, 결상 광학 렌즈들)의 개수는 집광 마이크로 렌즈들의 개수보다 작을 수 있다.When the lens elements included in the
상술한 바와 같은 분수 정렬 구조를 통해, 이미징 장치(100)는, 각 렌즈 엘리먼트(111)의 광학 중심 축(OCA, optical center axis)이 센싱 어레이(121)에 대해 서로 조금씩(slightly) 다른 배치를 가질 수 있다. 다시 말해, 렌즈 엘리먼트(111)는 센싱 소자(121a)에 대해 엇갈려서(eccentric) 배치될 수 있다. 따라서, 렌즈 어레이(110)의 각 렌즈 엘리먼트(111)는 서로 다른 라이트 필드(LF, light field) 정보를 수신한다. 분수 정렬 구조에 의해 수신되는 라이트 필드 정보는 하기 도 2에서 설명한다.Through the fractional alignment structure as described above, the
도 2는 일 실시예에 따른 센싱 소자가 렌즈 엘리먼트를 통해 광선을 수신하는 모습을 도시한 도면이다.2 is a diagram illustrating a state in which a sensing element according to an embodiment receives a light beam through a lens element.
라이트 필드는 임의의 타겟 지점으로부터 방출될 수 있고, 피사체(subject) 상의 임의의 지점에서 반사된 광선들의 방향 및 세기를 나타내는 필드(field)를 나타낼 수 있다. 라이트 필드 정보는, 복수의 라이트 필드가 조합된 정보를 나타낼 수 있다. 각 렌즈 엘리먼트의 주 광선(chief ray)의 방향(direction)도 달라지게 되므로, 각 센싱 영역이 서로 다른 라이트 필드 정보를 수신하게 되는 바, 이미징 장치는 광학적으로 보다 많은 센싱 정보를 획득할 수 있다.The light field may be emitted from any target point and may represent a field representing the direction and intensity of light rays reflected at any point on the subject. The light field information may indicate information in which a plurality of light fields are combined. Since the direction of a chief ray of each lens element is also changed, each sensing region receives different light field information, so that the imaging apparatus may optically acquire more sensing information.
도 2에 도시된 바와 같이 센싱 어레이(220)는 개별 지점들(points)(230)(X1 내지 X10)에 대응하는 광선들을 수신하고 검출할 수 있다. 개별 지점들(230) 각각으로부터 방출된 복수의 광선들이 라이트 필드를 형성할 수 있다. 제1 지점(X1)으로부터 방출된 광선들은 제1 라이트 필드를 형성할 수 있고, 제1 센싱 소자(S1), 제4 센싱 소자(S4), 및 제7 센싱 소자(S7)로 입사할 수 있다. 나머지 지점들(X2 내지 X10) 각각으로부터 방출된 광선들도 각각 그에 대응하는 라이트 필드를 형성할 수 있다. 개별 지점들(230)은 임의의 객체(예를 들어, 피사체) 상의 지점들일 수 있다. 개별 지점들(230)로부터 방출되는 광선들은, 태양광 등이 객체로부터 반사된 광선들일 수 있다. 도 2는 이미징 장치의 예시적인 단면도로서 설명의 편의를 위해 렌즈 어레이(210)는 일축을 따라 3개의 렌즈 엘리먼트들을 포함하고, 센싱 어레이(220)는 10개의 센싱 소자들(S1 내지 S10)을 포함하는 것으로 도시되었으나, 이로 한정되는 것은 아니다.As shown in FIG. 2 , the
센싱 소자들(S1 내지 S10)은 복수의 렌즈 엘리먼트들을 통과한 광선들을 중첩하여 센싱할 수 있다. 센싱 소자(S1)는 지점들(X1 내지 X3)로부터 방사된 광선들이 중첩된 센싱 정보(예를 들어, 세기 값)를 생성할 수 있으며, 나머지 센싱 소자(S2 내지 S10)도 마찬가지로 중첩된 센싱 정보를 생성할 수 있다. 이미지 센서는 이러한 중첩된 센싱 정보를 복원할 수 있다.The sensing elements S1 to S10 may overlap and sense light rays passing through the plurality of lens elements. The sensing element S1 may generate sensing information (eg, intensity value) in which light rays emitted from the points X1 to X3 are superimposed, and the other sensing elements S2 to S10 also overlap the sensing information. can create The image sensor may restore such overlapped sensing information.
도 2에 도시된 센싱 소자들(S1 내지 S10)에 의해 생성되는 센싱 정보는, 하기 수학식 1에 따라, 지점들(230) 각각으로부터 입사되는 광선에 대응하는 원본 신호 정보(예를 들어, 세기 값)로 모델링될 수 있다.The sensing information generated by the sensing elements S1 to S10 shown in FIG. 2 is, according to
[수학식 1][Equation 1]
상술한 수학식 1에서, S는 개별 센싱 소자에 의해 센싱되는 센싱 정보(예를 들어, 검출된 세기 값)를 지시하는 행렬을 나타낼 수 있다. X는 개별 지점으로부터 센싱 소자들(S1 내지 S10)로 입사되는 광선에 대응하는 신호 값(예를 들어, 입사된 광선의 색상 세기 값)을 지시하는 행렬을 나타낼 수 있다. T는 변환 행렬로서 센싱 소자들(S1 내지 S10)에 의해 검출된 센싱 정보와 입사되는 빛에 대응하는 신호 정보 간의 관계를 나타낼 수 있다. 도 2에 도시된 구조에서 개별 지점들(X1 내지 X10)에 대응하는 광선들, 렌즈 엘리먼트들 및 센싱 소자들(S1 내지 S10)은 하기 수학식 2와 같이 모델링될 수 있다. 하기 수학식 2에서 개별 지점들(X1 내지 X10)은 이미지 센서로부터 무한 초점 위치(infinite focal point)에 배치된 것으로 모델링될 수 있다. 개별 지점들(X1 내지 X10)과 이미지 센서 간의 거리는 임계 거리보다 클 수 있다.In
[수학식 2][Equation 2]
상술한 수학식 2에서 설명의 편의를 위하여, 개별 지점들(X1 내지 X10) 각각에 대응하는 광선의 신호 정보(예를 들어, 광선 세기 값)를 X1 내지 X10으로 표시하였다. 또한, 센싱 소자들(S1 내지 S10)에서 검출된 센싱 정보(예를 들어, 센싱 세기 값)는 S1 내지 S10으로 표시하였다. 센싱 어레이(220)를 구성하는 센싱 소자들(S1 내지 S10)에 대응하는 센싱 정보와 개별 지점으로부터 입사되는 광선들(X1 내지 X10)에 대응하는 원본 신호 간의 관계(예를 들어, 상술한 변환 행렬)는 상술한 렌즈 엘리먼트와 센싱 소자 간의 배치, 렌즈 어레이(210)를 구성하는 렌즈 엘리먼트들의 개수, 센싱 어레이(220)를 구성하는 센싱 소자들(S1 내지 S10)의 개수 등에 기초하여 결정될 수 있다.For convenience of explanation in
상술한 수학식 2는 개별 지점들(X1 내지 X10)이 이미지 센서로부터 무한 초점 위치인 경우를 설명한 것으로서, 개별 지점들(X1 내지 X10)이 이미지 센서로부터 유한 초점 위치(finite focal point)에 위치하는 경우, 각 센싱 소자에서 수신되는 원본 신호는 피사체와 이미지 센서 간의 거리 및 이미지 센서의 기하 구조 등에 따라 달라질 수 있다.
이미징 장치는 상술한 바와 같이 획득된 다양한 센싱 정보를 통해 복수의 저해상도 입력 이미지들을 획득할 수 있고, 저해상도 입력 이미지들로부터 보다 고해상도의 출력 이미지를 복원할 수 있다. 아래 도 3에서는 복수의 저해상도 입력 이미지들을 재배열함으로써 단일 이미지를 생성하는 방법을 설명한다.The imaging apparatus may acquire a plurality of low-resolution input images through the various sensing information acquired as described above, and may reconstruct a higher-resolution output image from the low-resolution input images. 3 below describes a method of generating a single image by rearranging a plurality of low-resolution input images.
도 3은 일 실시예에 따른 센싱 소자의 수와 렌즈 엘리먼트의 수 간의 관계를 나타낸 도면이다.3 is a diagram illustrating a relationship between the number of sensing elements and the number of lens elements according to an exemplary embodiment.
상술한 바와 같이, 결상 광학 렌즈 및 센싱 어레이는 분수 정렬 구조로 배치될 수 있고, 도 3에서는 렌즈 엘리먼트들의 개수 L과 센싱 소자들의 개수 P 간의 비율 P/L이 10/3인 예시를 도시한다.As described above, the imaging optical lens and the sensing array may be arranged in a fractional arrangement, and FIG. 3 shows an example in which the ratio P/L between the number L of lens elements and the number P of sensing elements is 10/3.
상술한 렌즈 어레이 및 센싱 어레이의 기하 구조에 따라, 각 렌즈 엘리먼트가 커버하는 센싱 소자들은, 다른 렌즈 엘리먼트에 의해 커버되는 센싱 소자가 센싱하는 라이트 필드 정보와 동일하지 않은 라이트 필드 정보를 수신할 수 있다. 예를 들어, 제1 센싱 소자(S1)는 도 2에 도시된 구조에서 제1 지점(X1)의 제1 라이트 필드, 제2 지점(X2)의 제2 라이트 필드, 및 제3 지점(X3)의 제3 라이트 필드의 조합으로 된 라이트 필드 정보를 수신할 수 있다. 반면, 그에 인접한 제2 센싱 소자(S2)는 도 2에 도시된 구조에서 제4 라이트 필드, 제5 라이트 필드, 및 제6 라이트 필드의 조합으로 된 라이트 필드 정보를 수신할 수 있다. 이와 같이, 각 센싱 소자는 다른 센싱 소자에서 센싱되는 라이트 필드 정보와 다른 라이트 필드 정보를 수신할 수 있다.According to the above-described geometric structures of the lens array and the sensing array, sensing elements covered by each lens element may receive light field information that is not the same as light field information sensed by a sensing element covered by another lens element. . For example, in the structure shown in FIG. 2 , the first sensing element S1 includes a first light field at a first point X1, a second light field at a second point X2, and a third point X3. It is possible to receive light field information that is a combination of the third light field of . On the other hand, the second sensing element S2 adjacent thereto may receive light field information in a combination of the fourth light field, the fifth light field, and the sixth light field in the structure shown in FIG. 2 . In this way, each sensing element may receive light field information different from light field information sensed by other sensing elements.
이미징 장치 및/또는 이미지 센서는, 고해상도의 영상 복원을 위해, 촬영된 복수의 저해상도 이미지들에서 피사체 상의 동일 또는 인접한 지점을 나타내는 픽셀들의 이미지 내 픽셀 위치(pixel position)를 라이트 필드 정보 간의 상관성에 기초하여 재배열할 수 있다.The imaging device and/or the image sensor may determine, in order to restore a high-resolution image, a pixel position in an image of pixels representing the same or adjacent point on a subject in a plurality of captured low-resolution images based on a correlation between light field information can be rearranged.
참고로, 이미지가 컬러 이미지인 경우 색상계에 따른 색상 값들을 픽셀 값으로서 가질 수 있는데, 이미지 센서는 물리적인 한계로 인해 한 지점에서 동시에 3가지 색상을 센싱할 수 없다. 센싱 소자의 전단에 한가지 색상만 통과 가능한 컬러 필터가 배치되는 것이 일반적이어서 각 센싱 소자들은 자신의 위치에서 센싱 가능한 색상이 인접하게 위치된 센싱 소자의 색상과 다를 수 있다. 이미징 장치 및/또는 이미지 센서는 특정 위치의 센싱 소자(예를 들어, 청색 통과 필터가 전단에 배치된 센싱 소자)에 의해 센싱되지 않는 색상 값(예를 들어, 적색 색상 값)을 그 주변에 위치한 센싱 소자(예를 들어, 적색 통과 필터가 전단에 배치된 센싱 소자)에 의해 센싱된 색상 값을 이용하여 보간(interpolate)할 수 있다. 이미징 장치 및/또는 이미지 센서는 색상 채널 별로 보간을 수행함으로써 3개의 색상 채널 이미지를 획득할 수 있다. 다만, 앞서 설명한 색상 값 보간은 순전히 예시로서 설계에 따라 다른 방법이 수행될 수도 있다. 이미징 장치 및/또는 이미지 센서는 후술하는 픽셀 재배열을 색상 채널 별로 수행할 수 있다. 예를 들어, RGB 색상계에 있어서, 이미징 장치 및/또는 이미지 센서는 저해상도의 적색 채널 이미지들의 픽셀들을 재배열함으로써 고해상도의 적색 채널 이미지를 복원할 수 있다. 유사하게, 이미징 장치 및/또는 이미지 센서는 고해상도의 청색 채널 이미지 및 녹색 채널 이미지를 복원할 수 있다. 따라서, 이미징 장치 및/또는 이미지 센서는 고해상도의 컬러 이미지를 획득할 수 있다. 다만, 이로 한정하는 것은 아니고, 이미징 장치 및/또는 이미지 센서는 상술한 바와 같이 보간을 통해 획득된 3개의 채널 이미지들을 병합하여 저해상도의 컬러 이미지들을 획득하고, 저해상도의 컬러 이미지들의 픽셀들을 재배열함으로써 고해상도의 컬러 이미지를 복원할 수도 있다.For reference, if the image is a color image, it may have color values according to the color system as pixel values, but the image sensor cannot sense three colors at the same time at one point due to a physical limitation. Since a color filter that allows only one color to pass through is generally disposed at the front end of the sensing element, a color that can be sensed at a location of each sensing element may be different from that of an adjacent sensing element. The imaging device and/or the image sensor may display a color value (eg, a red color value) that is not sensed by a sensing element at a specific location (eg, a sensing element having a blue pass filter disposed at the front end) located in the vicinity thereof. Interpolation may be performed using a color value sensed by a sensing element (eg, a sensing element having a red pass filter disposed at the front end). The imaging device and/or the image sensor may acquire three color channel images by performing interpolation for each color channel. However, the color value interpolation described above is purely an example, and other methods may be performed according to design. The imaging device and/or the image sensor may perform pixel rearrangement, which will be described later, for each color channel. For example, in the RGB color system, the imaging device and/or the image sensor may reconstruct a high-resolution red channel image by rearranging pixels of the low-resolution red channel images. Similarly, the imaging device and/or image sensor may reconstruct a high-resolution blue channel image and a green channel image. Accordingly, the imaging device and/or the image sensor may acquire a high-resolution color image. However, the present invention is not limited thereto, and the imaging device and/or image sensor acquires low-resolution color images by merging three channel images obtained through interpolation as described above, and rearranges pixels of the low-resolution color images. It is also possible to restore high-resolution color images.
이미징 장치 및/또는 이미지 센서는, 유사한 라이트 필드 정보를 수신하는 센싱 소자들에 대응하는 픽셀들의 위치를 서로 인접하게 재배열함으로써, 고해상도 이미지의 픽셀 정보를 구성할 수 있다. 앞서 설명한 바와 같이 각 센싱 소자는 복수의 라이트 필드들이 중첩된 정보를 수신할 수 있다. 두 센싱 소자들에서 센싱된 정보가 동일한 라이트 필드를 많이 포함할수록, 두 정보 간의 상관성이 높을 수 있다. 픽셀 위치의 재배열은 해당 픽셀이 촬영된 깊이를 고려하여 수행될 수 있다. 예를 들어, 픽셀이 촬영된 깊이는 임의의 깊이 값으로 설정되거나, 스테레오 이미지 매칭에 의해 추정되거나, 깊이 센서에 의해 측정될 수 있다. 다른 예를 들어, 픽셀이 촬영된 깊이에 대한 측정 및/또는 추정 없이도 피사체가 촬영된 깊이를 고려하여 픽셀 위치를 재배열하도록 설계된 뉴럴 네트워크에 의해 픽셀 위치의 재배열이 수행될 수도 있다. 이러한 픽셀 위치의 재배열은 픽셀 셔플(pixel shuffle)이라고 나타낼 수 있다. 예시적으로 여러 저해상도 입력 이미지들로부터 단일 고해상도 출력 이미지를 출력하도록 설계된 뉴럴 네트워크가 픽셀 위치들을 재배열하는데 사용될 수 있다. 뉴럴 네트워크는 다양한 깊이의 피사체를 촬영한 트레이닝 데이터 셋트에 기초하여 트레이닝될 수 있다.The imaging device and/or the image sensor may configure pixel information of a high-resolution image by rearranging positions of pixels corresponding to sensing elements that receive similar light field information to be adjacent to each other. As described above, each sensing element may receive information in which a plurality of light fields are overlapped. The more the information sensed by the two sensing elements includes the same light field, the higher the correlation between the two pieces of information. The rearrangement of pixel positions may be performed in consideration of the depth at which the corresponding pixel is photographed. For example, the depth at which the pixel is photographed may be set to an arbitrary depth value, estimated by stereo image matching, or measured by a depth sensor. As another example, the rearrangement of the pixel position may be performed by a neural network designed to rearrange the pixel position in consideration of the depth at which the object is captured without measuring and/or estimating the depth at which the pixel is captured. This rearrangement of pixel positions may be referred to as pixel shuffle. Illustratively, a neural network designed to output a single high-resolution output image from several low-resolution input images may be used to rearrange pixel positions. The neural network may be trained based on a training data set obtained by photographing subjects of various depths.
이미지 센서는 광선을 반사하는 지점들이 이미지 센서로부터 임계 거리(threshold distance)보다 먼 무한 초점 위치에 배치된 것을 가정하고, 각 센싱 소자에서 센싱될 라이트 필드 정보를 결정할 수 있다. 이미지 센서는 피사체 상에서 공간적으로 서로 인접한 지점들에서 방출되는 라이트 필드를 수신한 센싱 소자에 의해 출력된 출력 값을 갖는 픽셀들의 픽셀 위치들이 인접하도록 픽셀 위치들을 재배열할 수 있다.The image sensor may determine light field information to be sensed by each sensing element, assuming that points that reflect light rays are disposed at an infinity focus position that is farther than a threshold distance from the image sensor. The image sensor may rearrange the pixel positions so that the pixel positions of pixels having output values output by the sensing element receiving the light field emitted from points spatially adjacent to each other on the subject are adjacent to each other.
참고로, 도 2에서 개별 지점들(X1 내지 X10)은 무한 초점 거리에서 서로 공간적으로 인접한 순서대로 도시된 것일 수 있다. 제1 지점(X1)은 제2 지점(X2)과 인접할 수 있고, 제2 지점(X2)은 제1 지점(X1) 및 제3 지점(X3)과 인접할 수 있다. For reference, the individual points X1 to X10 in FIG. 2 may be illustrated in order of being spatially adjacent to each other at an infinite focal length. The first point X1 may be adjacent to the second point X2 , and the second point X2 may be adjacent to the first point X1 and the third point X3 .
재배열되기 이전의 센싱 소자들(311) 중 제1 센싱 소자(S1)에서 센싱된 라이트 필드 정보 및 제8 센싱 소자(S8)에서 센싱된 라이트 필드 정보는 둘 다 제2 지점(X2) 및 제3 지점(X3)에 대응하는 라이트 필드를 포함할 수 있다. 따라서, 제1 센싱 소자(S1) 및 제8 센싱 소자(S8)는 서로 유사한 라이트 필드 정보를 수신할 수 있다. 상술한 수학식 2를 서로 유사한 라이트 필드 정보에 대응하는 픽셀들이 인접하도록 재배열하면, 아래 수학식 3과 같이 나타낼 수 있다.Both the light field information sensed by the first sensing element S1 and the light field information sensed by the eighth sensing element S8 among the sensing
[수학식 3][Equation 3]
상술한 수학식 3에 따라 재배열된 센싱 소자들(312)은 도 3과 같이 도시될 수 있다. 제1 센싱 소자(S1)는 제1 렌즈에 의해 커버되고, 제8 센싱 소자(S8)는 제3 렌즈에 의해 커버되며, 제5 센싱 소자(S5)는 제2 렌즈에 의해 커버될 수 있다. 각 센싱 소자에서 센싱된 센싱 정보는 이미지를 구성하는 픽셀에 대응하므로, 서로 다른 렌즈를 통과한 광선들에 대응하는 센싱 정보들이 인접하도록, 이미지 센서 및/또는 이미징 장치는 픽셀들을 재배열할 수 있다. 재배열된 이미지(325)는 개별 렌즈에 의해 촬영되는 저해상도 이미지들(321, 322, 323, 324)에서 유사한 라이트 필드 정보를 수신한 센싱 소자들에 의한 센싱 값들을 갖는 픽셀들의 픽셀 위치들이 인접하게 배치된 이미지일 수 있다.The
도 4는 일 실시예에 따른 이미징 장치에서 멀티 렌즈 어레이 구조에 따른 초점 거리 감소를 설명한다.4 illustrates a reduction in a focal length according to a multi-lens array structure in an imaging apparatus according to an exemplary embodiment.
이미징 장치의 부피는 렌즈 엘리먼트의 초점 거리(focal length)에 의하여 결정될 수 있다. 렌즈 엘리먼트에 의하여 굴절된 빛을 수집하기 위하여 이미지 센서가 렌즈 엘리먼트의 초점 거리에 대응하는 거리만큼 렌즈 엘리먼트로부터 이격되어 배치되어야 하기 때문이다. 렌즈 엘리먼트의 초점 거리는 이미징 장치(100)의 시야각과 렌즈 엘리먼트의 사이즈에 의하여 결정된다. 시야각이 고정될 경우 렌즈 엘리먼트의 사이즈에 비례하여 초점 거리가 길어지고, 일정한 시야각 범위의 이미지를 촬영하기 위해서는, 센싱 어레이의 사이즈가 증가함에 따라 렌즈 엘리먼트의 사이즈가 증가되어야 한다.The volume of the imaging device may be determined by the focal length of the lens element. This is because the image sensor must be disposed to be spaced apart from the lens element by a distance corresponding to the focal length of the lens element in order to collect the light refracted by the lens element. The focal length of the lens element is determined by the viewing angle of the
전술한 바에 의하면, 시야각 및 이미지의 해상도를 유지하면서 이미지의 감도를 증가시키려면, 이미지 센서의 부피가 증가된다. 이미지의 해상도를 유지하면서 이미지의 감도를 증가시키려면, 센싱 어레이에 포함된 센싱 소자들의 수를 유지하면서 각 센싱 소자의 사이즈를 증가시켜야 하므로 센싱 어레이의 사이즈가 증가된다. 시야각을 유지하려면, 센싱 어레이의 사이즈가 증가함에 따라 렌즈 엘리먼트의 사이즈가 증가하며 렌즈 엘리먼트의 초점 거리가 길어지므로, 이미지 센서의 부피가 증가된다.As described above, in order to increase the sensitivity of the image while maintaining the viewing angle and the resolution of the image, the volume of the image sensor is increased. In order to increase the sensitivity of the image while maintaining the resolution of the image, the size of each sensing element must be increased while maintaining the number of sensing elements included in the sensing array, so that the size of the sensing array is increased. In order to maintain the viewing angle, as the size of the sensing array increases, the size of the lens element increases and the focal length of the lens element increases, thereby increasing the volume of the image sensor.
렌즈 어레이에 포함된 렌즈 엘리먼트들 각각의 사이즈를 감소시킬수록, 다시 말해 렌즈 어레이 상에서 동일한 넓이에 포함되는 렌즈들의 수를 증가시킬수록, 렌즈 엘리먼트의 초점 거리는 작아질 수 있어, 이미징 장치의 두께가 감소된 박형 카메라(thin camera)가 구현될 수 있다. 도 4에 도시된 바와 같이 단일 렌즈(410)인 경우의 초점 거리 f에 비해, 멀티 렌즈(420)인 경우의 초점 거리 f'이 감소될 수 있다. 예를 들어, 단일 렌즈(410) 대신 2Х2개의 멀티 렌즈(420)가 사용되는 경우, 초점 거리 f'=f/2가 될 수 있다.As the size of each of the lens elements included in the lens array is reduced, that is, as the number of lenses included in the same area on the lens array is increased, the focal length of the lens element may become smaller, so that the thickness of the imaging device is reduced. A thin camera may be implemented. As shown in FIG. 4 , compared to the focal length f in the case of the
다만, 멀티 렌즈(420)에서는 개별 렌즈에 빛이 입사되는 면적 S'이 단일 렌즈(410)에 빛이 입사되는 면적 S보다 작을 수 있다. 예를 들어, 2Х2개의 멀티 렌즈(420)의 입사 면적 S'=S/4일 수 있다. 또한, 개별 센싱 소자(예를 들어, 도 4의 S2)에 입사되는 광선들의 각도 범위에 대응하는 입사 입체각(solid angle) Ω은 초점 거리 감소로 인해 증가할 수 있다. 예를 들어, 멀티 렌즈(420)의 개별 센싱 소자에 대응하는 입사 입체각 Ω'=4 Ω일 수 있다. 도 5에서는 입사 입체각 증가에 따른 블러 커널을 설명한다.However, in the
도 5는 일 실시예에 따른 이미징 장치에서 멀티 렌즈 어레이 구조에 따른 블러 커널을 설명한다.5 illustrates a blur kernel according to a multi-lens array structure in an imaging apparatus according to an embodiment.
멀티 렌즈 어레이(510) 구조에서 각 렌즈의 시야각(FoV, Field of View)이 동일하게 설계될 경우, 도 4에서 상술한 바와 같이 동일 면적 대비 렌즈의 개수가 증가할 수록 초점 거리가 감소하면서 입사 입체각이 증가할 수 있다. 입사 입체각이 증가할 수록 센싱 소자에서 중첩되는 신호가 증가할 수 있고, 신호가 중첩됨에 따라 센싱 소자에 의해 센싱되는 정보가 블러(Blur)해질 수 있다. 예를 들어, 단일 렌즈로 된 이미징 장치에 있어서 FoV가 100도이고, 이미지 센서(520)의 센싱 소자 개수가 100개라면, 각 센싱 소자의 FoV는 1도이다. 동일한 면적에서 렌즈 개수가 2개면, 해당 이미지 센서(520)에서 각 렌즈에 의해 커버되는 센싱 소자의 개수는 50개가 된다. 따라서, 각 센싱 소자의 FoV는 2도가 된다. 동일한 면적에서 렌즈 개수가 50개면, 해당 이미지 센서(520)에서 각 렌즈에 의해 커버되는 센싱 소자의 개수는 2개가 되고, 각 센싱 소자별 FoV는 50도가 된다. 개별 센싱 소자에서 센싱 가능한 FoV가 증가할수록 더 많은 라이트 필드 정보가 중첩되므로, 센싱 정보의 블러 정도(blur level)도 증가하게 된다.When the field of view (FoV) of each lens in the structure of the
블러 커널(blur kernel)은 개별 센싱 소자에서 라이트 필드 정보의 중첩으로 인해 발생하는 블러가 모델링된 커널로서, 블러 모델 또는 블러 필터라고도 나타낼 수 있다. 멀티 렌즈 어레이(510)를 통해 내지 의 라이트 필드 정보가 렌즈 구경 S 만큼 집광되고, 집광된 라이트 필드 정보가 제i 센싱 소자에서 센싱될 수 있다. 는 센싱 소자의 최외곽 지점에서 집광되는 광선 다발을 나타내고, 는 해당 센싱 소자의 반대편 최외곽 지점에서 집광되는 광선 다발을 나타낼 수 있다. 여기서 i는 1 이상 n이하의 정수이고, n은 이미지 센서(520)에 포함된 센싱 소자들의 총 개수일 수 있다. 집광된 광선 다발의 신호 세기는 하기 수학식 4 및 수학식 5와 같이 나타낼 수 있다.The blur kernel is a kernel in which blur generated due to overlap of light field information in individual sensing devices is modeled, and may also be referred to as a blur model or a blur filter. Through the
[수학식 4][Equation 4]
[수학식 5][Equation 5]
상술한 수학식 4에서 xa는 a방향을 향하는 광선들이 집광된 세기를 나타낼 수 있고, 수학식 5에서 xb는 b방향을 향하는 광선들이 집광된 세기를 나타낼 수 있다.In Equation 4, x a may represent the concentration of light rays oriented in the a direction, and in Equation 5, x b may represent the concentration of light rays oriented in the b direction.
제i 센싱 소자는 FoV(Ω) 내의 모든 라이트 필드 정보를 누적한 세기 값을 센싱할 수 있다. 제i 센싱 소자의 시야각 내 라이트 필드 정보가 누적된 세기 값이 이산적으로(discretely) 근사화(approximate)되면, 하기 수학식 6과 같이 나타낼 수 있다.The ith sensing element may sense an intensity value accumulating all light field information in FoV(Ω). When the intensity value of the accumulated light field information within the viewing angle of the i-th sensing element is discretely approximated, it can be expressed as Equation 6 below.
[수학식 6][Equation 6]
상술한 수학식 6에서 s[i]는 제i 센싱 소자에서 센싱되는 세기 값을 나타낼 수 있다. 멀티 렌즈 어레이(510)를 포함하는 결상 광학계로 구성되는 이미징 장치에서, 이미지의 블러 커널은 각 센싱 소자의 FoV내 라이트 필드 정보가 동일한 크기(예를 들어, 1)로 중첩되는 것으로 모델링될 수 있다. 제i 센싱 소자에서 센싱되는 센싱 정보 s[i]는 원본 라이트 필드 정보 xΩ[i]와 균일 블러 커널(Uniform Blur kernel) h[i]의 컨볼루션 관계로 하기 수학식 7과 같이 모델링될 수 있다.In Equation 6, s[i] may represent an intensity value sensed by the i-th sensing element. In an imaging device configured with an imaging optical system including a
[수학식 7][Equation 7]
상술한 수학식 7에서 h[i]는 블러 커널, t[i]는 노이즈 성분을 나타낼 수 있다. 상술한 수학식 7을 푸리에 변환하면, 아래 수학식 8과 같이 컨볼루션 연산이 곱셈으로 치환될 수 있다.In
[수학식 8][Equation 8]
상술한 수학식 8에서 XΩ(f)는 원본 신호의 주파수 정보, H(f)는 블러 커널의 주파수 응답 특성, T(f)는 노이즈의 주파수 정보를 나타낼 수 있다. 상술한 수학식 8로부터, 복원의 대상인 원본 신호의 주파수 정보 XΩ(f)는 하기 수학식 9와 같이 계산될 수 있다.In Equation 8, X Ω (f) may represent frequency information of an original signal, H(f) may represent a frequency response characteristic of a blur kernel, and T(f) may represent frequency information of noise. From Equation 8 described above, frequency information X Ω (f) of the original signal to be restored can be calculated as Equation 9 below.
[수학식 9][Equation 9]
상술한 수학식 9에 대해 푸리에 역변환(Inverse Fourier Transform)이 적용되면, 디블러된 xΩ[i]이 획득될 수 있다.When an inverse Fourier transform is applied to Equation 9 above, deblurred x Ω [i] may be obtained.
다만, 상술한 수학식 9에서 노이즈 성분인 T(f)는 통계적인 확률 분포로 모델링되더라도 미지의(Unknown) 성분이므로, T(f))/H(f)으로 인한 오차가 발생할 수 있다. 도 5에 도시된 바와 같이 공간 도메인(Spatial Domain)에서의 균일 블러 커널 h[i]로 인해 노이즈 성분이 증폭될 수 있다. 균일 블러 커널 h[i]이 주파수 변환된 주파수 응답 특성 H(f)는 제로 크로싱 포인트들(590)을 포함할 수 있으며, 주파수 응답 특성 H(f)의 역수에서는 이러한 제로 크로싱 포인트들(590)로 인해 임펄스 성분들이 발생할 수 있다. 임펄스 성분들이 노이즈 성분과 곱해지므로, 디블러(Deblur) 과정에서 노이즈가 크게 증폭될 수 있다.However, since T(f), which is a noise component in Equation 9, is an unknown component even if it is modeled with a statistical probability distribution, an error may occur due to T(f))/H(f). As shown in FIG. 5 , a noise component may be amplified due to the uniform blur kernel h[i] in the spatial domain. The frequency response characteristic H(f) in which the uniform blur kernel h[i] is frequency-converted may include zero crossing points 590, and in the reciprocal of the frequency response characteristic H(f), these zero crossing points 590 As a result, impulse components may be generated. Since the impulse components are multiplied by the noise component, noise may be greatly amplified during the deblur process.
도 6은 일 실시예에 따른 마스크 어레이를 포함하는 이미징 장치의 블러 커널을 설명한다.6 illustrates a blur kernel of an imaging device including a mask array according to an exemplary embodiment.
이미징 장치의 블러 커널 h'[i]은 노이즈 성분이 억제되도록 설계될 수 있다. 예를 들어, 블러 커널 h'[i]은 주파수 도메인의 주파수 응답 특성 H'(f)에서 제로 크로싱 포인트들(690)이 최소화되도록 설계될 수 있다.The blur kernel h'[i] of the imaging device may be designed such that a noise component is suppressed. For example, the blur kernel h'[i] may be designed such that the zero crossing points 690 are minimized in the frequency response characteristic H'(f) of the frequency domain.
마스크 어레이는 결상 렌즈 어레이와 센싱 소자 사이에 배치되어, 일부 방향의 빛을 차단하는 마스크 엘리먼트를 포함할 수 있다. 예를 들어, 마스크 어레이는 멀티 렌즈 어레이를 통과한 빛 중 일부 방향의 빛을 차단하고, 다른 방향의 빛을 선택적으로 통과시킴으로써, 도 6에 도시된 바와 같은 블러 커널 h'[i]을 형성할 수 있다.The mask array may include a mask element disposed between the imaging lens array and the sensing element to block light in some directions. For example, the mask array blocks light in some directions among the light passing through the multi-lens array and selectively passes light in other directions to form a blur kernel h'[i] as shown in FIG. can
도 7은 일 실시예에 따른 마스크 어레이가 배치된 이미징 장치의 단면도를 도시한다.7 is a cross-sectional view of an imaging device in which a mask array is disposed according to an embodiment.
이미징 장치는 결상 렌즈 어레이(710) 및 이미지 센서(720)를 포함할 수 있다. 결상 렌즈 어레이(710)는 외부로부터 수신되는 빛을 전달하는 결상 광학 렌즈들을 포함할 수 있으며, 도 1에서 상술한 형태로 배치될 수 있다. 결상 광학 렌즈는 결상 광학계(image forming optical system)를 형성할 수 있다.The imaging device may include an
결상 광학계는 센싱 어레이(721)로의 결상(imaging)을 수행하는 광학계로서, 광학 특성은 결상 렌즈 어레이(710)의 초점 거리, 크기, 형상 및 구조와 함께 결상 렌즈 어레이(710)와 센싱 어레이(721) 간의 기하 관계(geometrical relationship) 등에 의해 결정될 수 있다. 참고로, 결상 광학계는 개별 결상 광학 렌즈를 통과한 빛이 다른 결상 광학 렌즈에 의해 커버되는 다른 센싱 영역으로 도달하는 것을 방지하는 차단부(711)를 더 포함할 수 있다. 또한, 결상 광학계는 결상 광학 렌즈로 빛을 전달하는 개구부(aperture)(미도시됨)를 더 포함할 수 있다.The imaging optical system is an optical system that performs imaging to the
센싱 어레이(721)는 외부로부터 수신되는 빛을 센싱하는 복수의 센싱 소자들을 포함할 수 있다. 센싱 소자들 각각은 복수 방향들의 빛을 수신할 수 있으며, 한 방향을 따라 이미징 장치에 입사되는 빛 다발(light bundle)은 결상 광학 렌즈에 의해 해당 방향의 광선(ray)으로 집광될 수 있다. 임의의 센싱 영역에 속하는 센싱 소자는, 해당 센싱 영역을 커버하는 결상 광학 렌즈에 의해 집광된 복수의 방향들 각각에 대응하는 광선을 수신할 수 있다. 도 7에서는 결상 광학 렌즈를 통과하여 센싱 소자를 향하는 제1 방향의 광선(791) 및 제2 방향의 광선(792)을 예로 들어 설명한다.The
앞서 설명한 바와 같이, 결상 광학계는 멀티 렌즈 구조의 결상 렌즈 어레이(710)를 포함하므로, 센싱 어레이(721)의 개별 센싱 소자는 여러 방향에서 수신되는 빛을 중첩하여 센싱할 수 있다. 다시 말해, 센싱 어레이(721)에 결상하는(imaging) 빛의 중첩은 도 6에 도시된 블러 커널과 같이 모델링될 수 있다.As described above, since the imaging optical system includes the
마스크 어레이(724)는 복수의 마스크 엘리먼트들을 포함하고, 센싱 어레이(721) 상에 배치될 수 있다. 마스크 엘리먼트는 센싱 어레이(721)의 센싱 소자가 배치되는 위치 위에 배치될 수 있고, 해당 위치를 향하는 빛의 일부 또는 전부를 흡수하여 차단할 수 있다. 마스크 어레이(724)는 도 5에 도시된 블러 커널에 대응하는 결상 광학계를 도 6에 도시된 블러 커널 h'[i]에 대응하는 광학계로 수정할 수 있다. 마스크 어레이(724)는 결상 광학 렌즈를 통과한 빛을 코딩(code)하여 센싱 어레이(721)로 전달하는 것으로 해석될 수도 있으며, 코디드 마스크 어레이(724)(coded mask array)라고도 나타낼 수 있다. 마스크 어레이(724)는 센싱 어레이와 접촉하는 위치 또는 센싱 어레이 내부에 배치될 수 있다. 어느 위치에 배치되든지 마스크 어레이(724)와 센싱 소자(예를 들어, 포토 다이오드(721a 내지 721e))의 간격은 없는 것이 바람직하지만 제조 공정의 한계로 인해 대략 1μm 이내의 이격이 존재할 수 있다.The
복수의 마스크 엘리먼트들은 블러 커널의 주파수 응답 특성의 제로 크로싱이 최소화되는 패턴으로 배치될 수 있다. 예시적으로, 결상 광학 렌즈를 통과한 제1 광선(791)은 마스크 엘리먼트들 사이를 통해 센싱 소자로 입사할 수 있다. 제2 광선(792)은 마스크 엘리먼트에 입사되어 흡수될 수 있다. 제2 광선(792)은 도 6에서 설명한 블러 커널의 주파수 응답 특성에서 제로 크로싱을 유발하는 광선일 수 있다. 따라서, 마스크 어레이(724)는 제로 크로싱을 유발하는 방향의 광선들을 차단할 수 있다. The plurality of mask elements may be arranged in a pattern in which zero crossing of the frequency response characteristic of the blur kernel is minimized. For example, the
이미징 장치 및/또는 이미지 센서(720)는 마스크 어레이(724)를 통해 선택적으로 필터링된 방향의 라이트 필드 정보를 중첩하여 센싱할 수 있다. 따라서, 마스크 어레이(724)를 포함하는 이미징 장치 및/또는 이미지 센서(720)는 감소된 노이즈로 이미지를 복원할 수 있다. 마스크 어레이(724)에 의한 광량 손실로 인한 노이즈는 소폭 증가하는 반면, 마스크 어레이(724)로 인해 수정되는 블러 커널에 의한 노이즈 억제 효과가 대폭 증가할 수 있다. 결과적으로 마스크 어레이(724)의 마스킹 패턴에 의해 이미지 복원 화질이 향상될 수 있다.The imaging device and/or the
복수의 마스크 엘리먼트들은 마스킹 패턴을 따라 형성 및/또는 배치될 수 있다. 마스킹 패턴은 센싱 소자 단위 또는 센싱 소자 그룹 단위로 반복될 수 있다. 제1 센싱 소자(721a) 상에 배치되는 제1 마스킹 패턴, 제2 센싱 소자(721b) 상에 배치되는 제2 마스킹 패턴, 제3 센싱 소자(721c) 상에 배치되는 제3 마스킹 패턴, 제4 센싱 소자(721d) 상에 배치되는 제4 마스킹 패턴, 및 제5 센싱 소자(721e) 상에 배치되는 제5 마스킹 패턴은 모두 동일할 수 있다.The plurality of mask elements may be formed and/or disposed along the masking pattern. The masking pattern may be repeated in units of sensing elements or groups of sensing elements. A first masking pattern disposed on the
마스크 어레이(724)에 대한 마스킹 패턴의 설계는 아래 도 8에서 설명한다.The design of the masking pattern for the
도 8은 일 실시예에 따른 마스크 어레이의 마스킹 패턴을 설계하는 방법을 설명한다.8 illustrates a method of designing a masking pattern of a mask array according to an exemplary embodiment.
복수의 마스크 엘리먼트들은 필터의 주파수 응답 특성에 기초하여 결정된 비용 함수(cost function)가 최소화되는 패턴으로 형성될 수 있다. 마스크 어레이에서 개별 센싱 소자 단위 또는 개별 센싱 소자 그룹 단위 별로 배치되는 마스킹 패턴은, 블러 커널의 주파수 응답 특성의 역수인 1/H(f)의 유클리디언 놈(Euclidean Norm)이 최소화되는 패턴으로 결정될 수 있다.The plurality of mask elements may be formed in a pattern in which a cost function determined based on a frequency response characteristic of the filter is minimized. The masking pattern arranged for each individual sensing element unit or individual sensing element group unit in the mask array is determined as a pattern in which the Euclidean norm of 1/H(f), which is the reciprocal of the frequency response characteristic of the blur kernel, is minimized. can
우선, 단계(810)에서 마스크 어레이의 목표 개구율(target aperture ratio)이 설정될 수 있다. 개구율은 마스킹 패턴에 대응하는 패턴 영역으로 입사된 빛 대비 투과되는 빛의 비율로서, 예시적으로 패턴 영역의 면적 대비 개방된(open) 영역의 면적 비를 나타낼 수 있다. 패턴 영역은, 마스크 어레이에서 센싱 소자 또는 센싱 소자 그룹에 대응하는 영역을 나타낼 수 있다. 개구율은, 예를 들어 10% 내지 90%, 또는 30% 내지 70%의 비율로 설정될 수 있다. 바람직하게는 개구율이 40% 내지 60%의 비율로 설정될 수 있다. First, in
단계(820)에서 설정된 개구율에 따른 마스킹 패턴이 생성될 수 있다. 마스크 어레이는 개별 센싱 소자에 대응하는 패턴 영역으로 분할될 수 있고, 패턴 영역은 복수의 칸들(spaces)로 분할될 수 있다. 개별 칸은 마스크 엘리먼트가 형성될 수 있는 단위 영역을 정의할 수 있다. 마스크 엘리먼트가 형성된 칸은 닫힌 칸(closed space), 마스크 엘리먼트가 형성되지 않은 칸은 열린 칸(open space)이라고 나타낼 수 있다. 다시 말해, 마스크 어레이에서 닫힌 칸은 빛의 전체 또는 일부 광량을 흡수하고, 열린 칸은 빛을 통과시킬 수 있다. 상술한 단계(810)에서 설정된 목표 개구율에 따라 열린 칸 및 닫힌 칸이 조합된 마스킹 패턴들이 생성될 수 있다. 패턴 영역이 N×N개의 칸들을 포함하고, 목표 개구율이 50%이면, N2/2 개의 마스킹 패턴들이 생성될 수 있다. 도 10에서 후술하겠으나, 닫힌 칸은 투과율 별로 구분될 수도 있다.A masking pattern according to the aperture ratio set in
단계(820)에서는 설명의 편의를 위해 전체 조합을 생성하는 예시를 설명하였으나, 이로 한정되는 것은 아니다. 다른 예를 들어, 사전에 정의된 패턴이 조합되거나, 주어진 조합들 내에서 패턴 간 스왑(Swap), 토글(Toggle)에 의해 탐색하고자 하는 마스킹 패턴이 생성될 수 있다. 예를 들어, 패턴이 대칭(Symmetry)이라는 조건이 추가되면, 반복되는 영역에 대해서만 패턴이 탐색될 수 있고, 생성된 패턴은 대칭해서 사용될 수 있다.In
이어서 단계(830)에서 생성된 마스킹 패턴 별 비용 함수 값이 산출될 수 있다. 앞서 도 5 및 도 6에서 상술한 블러 커널의 주파수 응답 특성의 역수에 기초한 비용 함수가 사용될 수 있다. 마스킹 패턴을 따라 형성된 마스크 엘리먼트들로 인해 결상 광학계의 블러 커널이 수정되고, 수정된 블러 커널의 주파수 응답 특성 H'(f)이 산출될 수 있다. 수정된 블러 커널의 주파수 응답 특성의 역수 1/H'(f)에 기초한 비용 함수는 주파수 응답 특성을 나타내는 함수의 역수의 유클리디언 놈(Euclidean norm), 역수의 분산(variance), 및/또는 함수의 유클리디언 놈의 역수에 기초하여 결정될 수 있다. 예시적으로 아래 수학식 10과 같은 비용 함수가 사용될 수 있다.Subsequently, a cost function value for each masking pattern generated in
[수학식 10][Equation 10]
상술한 수학식 10에서 은 주파수 응답 특성 H'(f)의 역수의 유클리디언 놈을 나타낼 수 있다. 인자에 의해 제로 크로싱 포인트가 최소화될 수 있다. 은 주파수 응답 특성 H'(f)의 유클리디언 놈의 역수를 나타낼 수 있다. 에 의해 H'(f)의 크기가 0이 되지 않도록 설계될 수 있다. 은 주파수 응답 특성 H'(f)의 역수의 분산을 나타낼 수 있다. 1/H'(f) 이 주파수 공간에서 분산(Variation)이 최소화되도록 설계될 수 있다. 수학식 10의 비용 E는 상술한 개별 비용 인자들의 가중 평균 값으로서, α, β, 및 γ는 가중치를 나타낼 수 있다.In Equation 10 above, may represent the Euclidean norm of the reciprocal of the frequency response characteristic H'(f). The zero crossing point can be minimized by the factor. may represent the reciprocal of the Euclidean norm of the frequency response characteristic H'(f). It can be designed so that the size of H'(f) does not become 0 by . may represent the variance of the reciprocal of the frequency response characteristic H'(f). 1/H'(f) may be designed to minimize variance in this frequency space. The cost E in Equation 10 is a weighted average value of the above-described individual cost factors, and α, β, and γ may represent weights.
단계(840)에서 이러한 비용 함수 값이 최소화되는 마스킹 패턴이 결정될 수 있다. 주어진 조건 내에서 닫힌 칸 및 열린 칸의 조합들에 대한 마스킹 패턴별 비용 함수 값이 산출되고, 비용 함수에 의해 노이즈 증폭이 최소화되는 마스킹 패턴이 결정될 수 있다. 이미지 센서는 탐색된 마스킹 패턴이 반복 배치되는 마스크 어레이를 포함할 수 있다.In
도 9 및 도 10은 일 실시예에 따른 마스크 어레이의 예시적인 형상을 도시한다.9 and 10 show exemplary shapes of a mask array according to an embodiment.
도 9는 마스크 어레이(924)의 개별 칸별로 빛의 투과 상태가 바이너리 상태(binary state)로 구분되는 예시를 설명한다. 다시 말해, 도 9에서 열린 칸(991)은 해당 칸에 입사되는 모든 빛을 통과시키고, 닫힌 칸(992)은 해당 칸에 입사되는 모든 빛을 흡수할 수 있다.9 illustrates an example in which a light transmission state is divided into a binary state for each individual cell of the
마스크 어레이(924)는, 복수의 그룹 영역들로 분할(segment)될 수 있다. 그룹 영역(924a)은 마스크 어레이(924)에서의 영역으로서, 인접한 센싱 어레이(921)의 하나 또는 복수의 센싱 소자들을 커버하는 영역을 나타낼 수 있다. 도 9에서는 마스크 어레이(924)의 그룹 영역(924a)이 1개의 센싱 소자를 커버하는 예시를 설명하지만, 도 11에서 후술하는 바와 같이 마스크 어레이(924)의 그룹 영역(924a)은 한 픽셀을 표현하기 위해 그룹핑된 복수의 센싱 소자들을 포함하는 센싱 소자 그룹을 커버할 수도 있다. 그룹 영역(924a)의 마스킹 패턴(990)은 반복될 수 있다. 다시 말해, 마스크 어레이(924)의 복수의 그룹 영역들 각각은 모두 동일한 마스킹 패턴(990)을 가질 수 있다.The
개별 센싱 소자에 대응하는 마스크 어레이(924)의 패턴 영역은 개구 영역(aperture region) 및 마스킹 영역(masked region)을 포함할 수 있다. 개구 영역은 해당 영역의 전체 면적 대비 개구율(aperture ratio)에 대응하는 면적을 차지할 수 있고, 마스킹 영역은 나머지 면적을 차지할 수 있다. 예시적으로 도 9에 도시된 마스킹 패턴(990)은 50%의 목표 개구율로 설계된 패턴일 수 있다. 마스킹 패턴(990)은 총 7Х7=49개의 칸들로 분류되고, 24개의 닫힌 칸(992)들 및 25개의 열린 칸(991)들을 포함할 수 있다. A pattern region of the
또한, 마스킹 패턴(990)은 전체 면적 대비 개구율 뿐만 아니라, 부분 영역(995)의 개구율도 보장할 수 있다. 부분 영역(995) 각각에서 개구 파트(aperture part)가 차지하는 면적은, 설정된 개구율에 대응하는 면적 이상일 수 있다. 도 9에서 마스킹 패턴(990)의 부분 영역(995)은 총 4Х4=16개의 칸들을 포함하고, 8개의 닫힌 칸(992)들 및 8개의 열린 칸(991)들을 포함하므로, 개구율이 50%일 수 있다. 또한, 4Х4=16개의 칸들로 구성되는 부분 영역이 마스킹 패턴(990)의 다른 위치로 이동되어도, 개구율은 50%일 수 있다. 다시 말해, 마스킹 패턴(990)은 목표 개구율을 가지는 영역들이 고르게 분포되도록 설계될 수 있다.In addition, the
아울러, 개별 마스킹 패턴(990)에 대응하는 영역은, 결상 광학계의 결상 광학 렌즈들의 개수 이상의 칸들을 포함할 수 있다. 앞서 도 5에서 설명한 바와 같이, 센싱 소자에 의해 센싱되는 정보는 멀티 렌즈 어레이의 렌즈 개수에 비례하여 블러될 수 있다. 렌즈 개수에 비례한 블러 정도(blur level)를 상쇄하여 이미지를 고해상도로 복원하기 위해, 패턴 영역은 렌즈 개수에 대응하는 칸들을 포함하여 디블러 기능을 제공할 수 있다. 도 9의 렌즈 어레이(910)가 7Х7=49개의 결상 광학 렌즈들을 포함하는 경우, 마스킹 패턴(990)은 적어도 7Х7=49개의 칸들을 포함할 수 있다. 렌즈 어레이(910)를 통과하여 센싱 어레이(921)를 향하는 정보는 1/49로 블러될 수 있고, 마스킹 패턴(990)은 이에 대응하는 49배의 디블러 능력(deblurring capacity)을 제공할 수 있다. In addition, the region corresponding to the
도 10은 마스크 어레이의 개별 마스크 엘리먼트가 2개 이상의 투과 레벨들(levels) 중 하나를 갖는 예시를 설명한다. 마스크 엘리먼트는 도달한 빛의 일부를 차단 및/또는 흡수할 수 있으며, 투과 레벨은 입사하는 빛을 투과시키는 정도(level) 및/또는 비율을 나타낼 수 있다. 마스크 엘리먼트는 앞서 설명한 마스킹 패턴에 기초하여 마스크 어레이의 평면을 따라 형성 및/또는 배치될 수 있다. 10 illustrates an example in which an individual mask element of a mask array has one of two or more levels of transmission. The mask element may block and/or absorb some of the arriving light, and the transmission level may indicate a level and/or a rate at which the incident light is transmitted. The mask element may be formed and/or disposed along the plane of the mask array based on the above-described masking pattern.
개별 마스크 엘리먼트는 복수의 영역들(regions)로 분할될 수 있으며, 개별 마스크 엘리먼트의 투과율은, 복수의 영역들 중 열린 영역 및 닫힌 영역의 비율에 따라 결정될 수 있다. 도 10은 5개의 투과 레벨들로 설계된 마스킹 패턴(1000)을 설명한다. 각 마스크 엘리먼트는 동일한 크기로 분할된 4개의 영역들로 구성될 수 있다. 마스크 엘리먼트가 형성되지 않은 칸(1010)은 제1 투과 레벨(예를 들어, 100% 투과)을 가질 수 있다. 제1 마스크 엘리먼트(1021)는 제2 투과 레벨(예를 들어, 75% 투과)을 가질 수 있고, 제1 마스크 엘리먼트(1021)의 영역들 중 1개 영역만 닫힌 영역일 수 있다. 제2 마스크 엘리먼트(1022)은 제3 투과 레벨(예를 들어, 50% 투과)을 가질 수 있고, 절반(예를 들어, 2개 영역)만 닫힌 영역일 수 있다. 제3 마스크 엘리먼트(1023)은 제4 투과 레벨(예를 들어, 25% 투과)을 가질 수 있고, 3개의 영역이 닫힌 영역일 수 있다. 제4 마스크 엘리먼트(1024)은 제5 투과 레벨(예를 들어, 0% 투과)을 가질 수 있고, 모든 영역이 닫힌 영역일 수 있다. 이처럼 열린 영역과 닫힌 영역의 개수 또는 면적에 따라 결정되는 개구율은 영역에 입사되는 빛의 광량 대비 투과되는 광량으로 해석될 수 있다.The individual mask element may be divided into a plurality of regions, and transmittance of the individual mask element may be determined according to a ratio of an open region and a closed region among the plurality of regions. 10 illustrates a
도 11은 일 실시예에 따른 이미지 센서의 센싱 소자 그룹별 마스킹 패턴 배치를 설명하는 도면이다.11 is a view for explaining arrangement of a masking pattern for each sensing element group of an image sensor according to an exemplary embodiment.
도 9에서는 마스크 어레이의 각 그룹 영역이 단일 센싱 소자를 커버하는 예시를 설명하였고, 도 11은 마스크 어레이(1140)의 각 그룹 영역(1141)이 복수의 센싱 소자들(1121a)을 포함하는 센싱 소자 그룹(1121)을 커버하는 예시를 도시한다. 도 11에 도시된 예시에서 이미지 픽셀의 픽셀 값은 센싱 소자 그룹(1121)(예를 들어, 도 11의 2Х2개의 센싱 소자들(1121a))에 의해 센싱된 값들에 기초하여 결정될 수 있다. 마스크 어레이(1140)는 복수의 마스킹 패턴들을 포함하는데, 도 9에서는 센싱 소자당 하나의 마스킹 패턴이 배치되었으나, 도 11에서는 센싱 소자 그룹(1121)당 하나의 마스킹 패턴(1190)이 배치될 수 있다. 마스크 어레이(1140)의 마스킹 패턴은 모두 동일한 형상의 패턴일 수 있다.9 illustrates an example in which each group region of the mask array covers a single sensing element, and FIG. 11 shows a sensing element in which each
도 12a 내지 도 12b는 일 실시예에 따른 마스크 어레이의 배치를 설명한다.12A to 12B illustrate an arrangement of a mask array according to an exemplary embodiment.
마스크 어레이는 카메라용 센서에서 특정 방향의 빛을 차단 및/또는 중첩시킬 수 있는 다양한 위치에 배치될 수 있다. 도 12a에 도시된 마스크 어레이(1240a)는, 집광 렌즈 어레이(1230) 및 센싱 어레이(1210) 사이, 색상 필터(1220) 상에 배치될 수 있다. 도 12b에 도시된 마스크 어레이(1240b)는 색상 필터(1220)와 센싱 어레이(1210) 사이에 배치될 수 있다. 앞서 설명한 바와 같이 마스크 어레이(1240b)와 센싱 어레이(1210)는 1μm 이내로 이격될 수 있다.The mask array may be disposed in various positions capable of blocking and/or superimposing light in a specific direction in the sensor for the camera. The mask array 1240a illustrated in FIG. 12A may be disposed on the
도 13은 일 실시예에 따른 이미징 장치의 구성을 도시한 블록도이다.13 is a block diagram illustrating a configuration of an imaging apparatus according to an exemplary embodiment.
이미징 장치(1300)는 렌즈 어레이(1310) 및 이미지 센서를 포함할 수 있다.The
렌즈 어레이(1310)는 외부로부터 수신되는 빛을 전달하는 결상 광학 렌즈들을 포함할 수 있다.The
이미지 센서는 렌즈 어레이(1310)를 통과한 빛을 센싱하는 센서를 나타낼 수 있다. 이미지 센서는 마스크 어레이(1324), 센싱 어레이(1321), 및 프로세서(1330)를 포함할 수 있다. 마스크 어레이(1324) 및 센싱 어레이(1321)는 도 1 내지 도 12b에서 상술하였으므로, 설명을 생략한다.The image sensor may indicate a sensor that senses light that has passed through the
프로세서(1330)는 센싱 소자들에 의해 센싱되는 센싱 정보에 기초하여 이미지를 복원할 수 있다. 이미지 센서의 프로세서(1330)는 이미지 신호 프로세서(ISP, Image Signal Processor)라고도 나타낼 수 있다. 프로세서(1330)는, 센싱 정보를 주파수 도메인으로 변환하여 주파수 정보를 생성하고, 주파수 정보를 마스크 어레이(1324)의 마스킹 패턴에 대응하는 블러 커널(blur kernel)의 주파수 변환 결과로 나누어(divide) 디블러된(deblurred) 주파수 정보를 생성할 수 있다. 프로세서(1330)는 디블러된 주파수 정보를 시간 도메인으로 역변환함으로써 고해상도 이미지를 복원할 수 있다. 센싱 정보는 이미지 복원 뿐만 아니라, 피사체에 대한 깊이 추정, 포커스 재조정, 동적 범위 촬영(dynamic range imaging) 및 저조도 환경에서 고감도 영상 촬영 등에 활용될 수 있다.The
도 14는 일 실시예에 따른 전자 단말의 구성을 도시한 블록도이다.14 is a block diagram illustrating a configuration of an electronic terminal according to an embodiment.
전자 단말(1400)은 이미징 모듈(1410) 및 프로세서(1420)를 포함할 수 있다.The
이미징 모듈(1410)은 렌즈 어레이(1411) 및 이미지 센서를 포함하고, 이미지 센서는 마스크 어레이(1412) 및 센싱 어레이(1413)를 포함할 수 있다. 도 13에서는 프로세서(1330)가 이미지 센서에 포함되는 것으로 설명하였으나, 도 14의 실시예에서는 독립적으로 위치하는 것으로 설명한다. 렌즈 어레이(1411), 이미지 센서, 및 프로세서(1420)에 대해서는 상술하였으므로, 자세한 설명을 생략한다. 도 14에 도시된 프로세서(1420)는 어플리케이션 프로세서(1420)(AP, Application Processor)일 수 있다.The
도 15 및 도 16은 일 실시예에 따른 이미지 센서가 구현되는 기기의 예시를 도시하는 도면이다.15 and 16 are diagrams illustrating examples of a device in which an image sensor is implemented according to an embodiment.
이미지 센서 및/또는 이미징 장치는 다양한 기술 분야에 적용될 수 있다. 복수의 렌즈들로 구성되는 렌즈 어레이 및 복수의 센싱 소자들로 구성되는 센서가 비교적 짧은 초점 거리로 이격되도록 설계될 수 있기 때문에 이미지 장치는 고화질 촬영을 가능하게 하는, 센서의 크기가 크면서도, 두께가 작은 초박형 카메라(ultra thin camera)로 구현될 수 있다. The image sensor and/or imaging device may be applied to various technical fields. Since a lens array composed of a plurality of lenses and a sensor composed of a plurality of sensing elements can be designed to be spaced apart by a relatively short focal length, the imaging device has a large size and thickness, which enables high-quality imaging. can be implemented as an ultra-thin camera.
이미지 센서 및/또는 이미징 장치는, 모바일 단말에 탑재될 수 있다. 모바일 단말은 임의의 위치에 고정되지 않고 이동 가능한(movable) 단말로서, 예를 들어, 스마트폰, 태블릿, 폴더블(foldable) 스마트폰 등과 같은 휴대 기기(portable device), 인공지능 스피커, 및 차량(vehicle) 등을 포함할 수 있다. The image sensor and/or imaging device may be mounted on the mobile terminal. A mobile terminal is a movable terminal that is not fixed to an arbitrary position, and is, for example, a portable device such as a smartphone, a tablet, a foldable smartphone, an artificial intelligence speaker, and a vehicle ( vehicle) and the like.
도 15에 도시된 바와 같이, 이미징 모듈(1510)은 스마트폰의 전면 카메라 또는 후면 카메라에 적용될 수 있다. 이미징 모듈(1510)은, 대형 풀 프레임 센서(Full Frame Sensor)와 멀티 렌즈 어레이(Multi Lens Array)가 결합된 구조로 휴대폰 카메라에 적용될 수 있다. As shown in FIG. 15 , the
또한, 이미징 모듈(1510)은 박형 구조 또는 커브드(Curved) 구조로 차량에 구현될 수도 있다. 도 16에 도시된 바와 같이, 차량(1600)에 곡선을 가지는 전면 카메라 또는 후면 카메라로서 이미징 장치(1610)가 구현될 수 있다. 이 뿐만 아니라 이미징 장치(1610)는 DSLR 카메라, 드론(Drone), CCTV, 웹캠(Webcam)용 카메라, 360도 촬영 카메라, 영화 및 방송을 위한 카메라, VR/AR 카메라, 유연하거나 연장될 수 있는 카메라(Flexible/Stretchable Camera), 곤충 눈 카메라, 컨택트 렌즈 타입(Contact lens type) 카메라 등과 같은 분야에도 적용될 수 있다. 더 나아가, 이미징 장치는 촬영된 다수의 프레임 정보를 이용하여 해상도를 증가하는 멀티 프레임 고해상도 이미지 복원(Multi-frame Super Resolution image restoration)에도 적용될 수 있다.Also, the
이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPA(field programmable array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 운영 체제 상에서 수행되는 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The device described above may be implemented as a hardware component, a software component, and/or a combination of the hardware component and the software component. For example, the devices and components described in the embodiments may include a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable array (FPA), a programmable logic unit (PLU). ), a microprocessor, or any other device capable of executing and responding to instructions, may be implemented using a general purpose computer or special purpose computer. The processing device may execute an operating system (OS) and software applications running on the operating system. The processing device may also access, store, manipulate, process, and generate data in response to execution of the software. For convenience of understanding, although one processing device is sometimes described as being used, one of ordinary skill in the art will recognize that the processing device includes a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that can include For example, the processing device may include a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as parallel processors.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.Software may include a computer program, code, instructions, or a combination thereof, which configures the processing device to operate as desired or independently or collectively configures the processing device to operate as desired. can command The software and/or data may be any kind of machine, component, physical device, virtual equipment, computer storage medium or device, to be interpreted by or to provide instructions or data to the processing device. , or may be permanently or temporarily embody in a transmitted signal wave. The software may be distributed over networked computer systems, and stored or executed in a distributed manner. Software and data may be stored in a computer-readable recording medium.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like, alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the embodiment, or may be known and available to those skilled in the art of computer software. Examples of the computer-readable recording medium include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic such as floppy disks. - includes magneto-optical media, and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as software modules to perform the operations of the embodiments, and vice versa.
이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다. As described above, although the embodiments have been described with reference to the limited drawings, those skilled in the art may apply various technical modifications and variations based on the above. For example, the described techniques are performed in an order different from the described method, the described components of the system, structure, apparatus, circuit, etc. are combined or combined in a different form than the described method, or other components or equivalents Appropriate results can be achieved even if substituted or substituted by
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.
Claims (23)
결상 광학 렌즈들을 통과한 빛 중 일부 방향의 빛을 차단하는 복수의 마스크 엘리먼트들을 포함하고, 상기 일부 방향과 다른 방향의 빛을 통과시키는 마스크 어레이; 및
상기 결상 광학 렌즈들 및 상기 마스크 어레이를 통과한 빛을 센싱하는 복수의 센싱 소자들을 포함하는 센싱 어레이
를 포함하는 이미지 센서.In the image sensor,
a mask array comprising a plurality of mask elements blocking light in a partial direction among the light passing through the imaging optical lenses, and passing light in a direction different from the partial direction; and
A sensing array including a plurality of sensing elements for sensing the light passing through the imaging optical lenses and the mask array
An image sensor comprising a.
상기 센싱 어레이 상에 배치되어, 각 센싱 소자로 입사되는 빛에서 일부 파장 대역을 필터링하는 색상 필터
를 더 포함하고,
상기 마스크 어레이는,
상기 색상 필터와 상기 센싱 어레이 사이에 배치되는,
이미지 센서.According to claim 1,
A color filter disposed on the sensing array to filter some wavelength bands from light incident on each sensing element
further comprising,
The mask array is
disposed between the color filter and the sensing array,
image sensor.
상기 센싱 어레이 상에 배치되어, 각 센싱 소자로 빛을 전달하는 집광 렌즈 어레이
를 더 포함하고,
상기 마스크 어레이는,
상기 집광 렌즈 어레이와 상기 센싱 어레이 사이에 배치되는,
이미지 센서.According to claim 1,
A condensing lens array disposed on the sensing array to transmit light to each sensing element
further comprising,
The mask array is
disposed between the condensing lens array and the sensing array,
image sensor.
상기 마스크 어레이와 상기 센싱 소자는,
1μm 이내로 이격된,
이미지 센서.According to claim 1,
The mask array and the sensing element,
spaced within 1 μm,
image sensor.
상기 마스크 어레이와 상기 센싱 소자는,
서로 접촉하는,
이미지 센서.According to claim 1,
The mask array and the sensing element,
touching each other,
image sensor.
상기 마스크 어레이에서 개별 센싱 소자에 대응하는 영역은,
해당 영역의 전체 면적 대비 개구율(aperture ratio)에 대응하는 면적을 차지하는 개구 영역(aperture region); 및
해당 영역에서 상기 복수의 마스크 엘리먼트들이 배치되는 나머지 면적을 차지하는 마스킹 영역(masked region)
을 포함하는 이미지 센서.According to claim 1,
Regions corresponding to individual sensing elements in the mask array,
an aperture region occupying an area corresponding to an aperture ratio to a total area of the corresponding area; and
A masked region occupying the remaining area in which the plurality of mask elements are disposed in the corresponding region
An image sensor comprising a.
상기 개구율은,
40% 이상 60%이하의 비율인,
이미지 센서.7. The method of claim 6,
The aperture ratio is
A ratio of 40% or more and 60% or less,
image sensor.
상기 마스크 어레이의 부분 영역 각각에서 개구 파트(aperture part)가 차지하는 면적은, 설정된 개구율에 대응하는 면적 이상인,
이미지 센서.According to claim 1,
An area occupied by an aperture part in each partial area of the mask array is equal to or greater than an area corresponding to a set aperture ratio;
image sensor.
상기 마스크 어레이는,
복수의 센싱 소자 그룹들에 대응하는 복수의 그룹 영역들로 분할(segment)되고,
상기 마스크 어레이에서 상기 복수의 그룹 영역의 각각은,
한 픽셀을 표현하기 위해 그룹핑된 복수의 센싱 소자들을 포함하는 센싱 소자 그룹을 커버하는,
이미지 센서.According to claim 1,
The mask array is
is segmented into a plurality of group regions corresponding to a plurality of sensing element groups,
Each of the plurality of group regions in the mask array,
Covering a sensing element group including a plurality of sensing elements grouped to represent one pixel,
image sensor.
상기 마스크 어레이에서 그룹 영역의 마스킹 패턴이 반복되는,
이미지 센서.10. The method of claim 9,
In the mask array, the masking pattern of the group area is repeated,
image sensor.
상기 마스크 어레이의 상기 복수의 그룹 영역들의 각각은 모두 동일한 마스킹 패턴을 갖는,
이미지 센서.10. The method of claim 9,
each of the plurality of group regions of the mask array all have the same masking pattern,
image sensor.
상기 마스크 어레이에서 개별 마스킹 패턴에 대응하는 영역은,
결상 광학계의 결상 광학 렌즈들의 개수 이상의 칸들을 포함하는,
이미지 센서.According to claim 1,
Regions corresponding to individual masking patterns in the mask array,
Containing more than the number of the imaging optical lenses of the imaging optical system,
image sensor.
복수의 마스크 엘리먼트들은,
2개 이상의 투과 레벨들(levels) 중 하나를 갖는,
이미지 센서.According to claim 1,
A plurality of mask elements,
having one of two or more transmission levels;
image sensor.
복수의 마스크 엘리먼트들의 각각은,
복수의 영역들로 분할되고,
각 마스크 엘리먼트의 투과율은,
상기 복수의 영역들 중 열린 영역 및 닫힌 영역의 비율에 따라 결정되는,
이미지 센서.According to claim 1,
Each of the plurality of mask elements,
divided into a plurality of areas,
The transmittance of each mask element is
determined according to a ratio of an open area and a closed area among the plurality of areas,
image sensor.
상기 복수의 센싱 소자들에 의해 센싱되는 센싱 정보에 기초하여 이미지를 복원하는 프로세서
를 더 포함하는 이미지 센서.According to claim 1,
A processor for reconstructing an image based on sensing information sensed by the plurality of sensing elements
An image sensor further comprising a.
상기 프로세서는,
상기 센싱 정보를 주파수 도메인으로 변환하여 주파수 정보를 생성하고, 상기 주파수 정보를 상기 마스크 어레이의 마스킹 패턴에 대응하는 블러 커널(blur kernel)의 주파수 변환 결과로 나누어(divide) 디블러된(deblurred) 주파수 정보를 생성하며, 상기 디블러된 주파수 정보를 시간 도메인으로 역변환함으로써 고해상도 이미지를 복원하는,
이미지 센서.16. The method of claim 15,
The processor is
Frequency information is generated by converting the sensed information into a frequency domain, and the frequency information is divided by a frequency conversion result of a blur kernel corresponding to a masking pattern of the mask array to a deblurred frequency generating information and reconstructing a high-resolution image by inversely transforming the deblurred frequency information into a time domain,
image sensor.
상기 마스크 어레이는 복수의 마스킹 패턴들을 포함하고,
각 마스킹 패턴은,
상기 센싱 어레이에서 둘 이상의 센싱 소자를 포함하는 센싱 소자 그룹을 커버하는,
이미지 센서.According to claim 1,
The mask array includes a plurality of masking patterns,
Each masking pattern is
Covering a sensing element group including two or more sensing elements in the sensing array,
image sensor.
외부로부터 수신되는 빛을 전달하는 결상 광학 렌즈들을 포함하는 결상 렌즈 어레이;
상기 결상 렌즈 어레이를 통과한 빛을 센싱하는 복수의 센싱 소자들을 포함하는 센싱 어레이; 및
복수의 마스크 엘리먼트들을 포함하고, 상기 결상 렌즈 어레이와 상기 센싱 어레이 사이에 배치되는 마스크 어레이
를 포함하는 카메라 장치.In the camera device,
an imaging lens array including imaging optical lenses that transmit light received from the outside;
a sensing array including a plurality of sensing elements for sensing the light passing through the imaging lens array; and
A mask array including a plurality of mask elements and disposed between the imaging lens array and the sensing array
A camera device comprising a.
상기 마스크 어레이는,
상기 복수의 센싱 소자들 상에서 상기 센싱 어레이에 접촉되는 위치 및 상기 센싱 어레이 내부 위치 중 하나에 배치되는,
카메라 장치.19. The method of claim 18,
The mask array is
disposed on one of a position in contact with the sensing array and a position inside the sensing array on the plurality of sensing elements,
camera device.
상기 마스크 어레이에서 개별 센싱 소자에 대응하는 영역은,
해당 영역의 전체 면적 대비 개구율에 대응하는 면적을 차지하는 개구 영역; 및
해당 영역에서 상기 복수의 마스크 엘리먼트들이 배치되는 나머지 면적을 차지하는 마스킹 영역
을 포함하는 카메라 장치.19. The method of claim 18,
Regions corresponding to individual sensing elements in the mask array,
an opening region occupying an area corresponding to an opening ratio with respect to the total area of the corresponding region; and
A masking area occupying the remaining area in which the plurality of mask elements are disposed in the corresponding area
A camera device comprising a.
상기 마스크 어레이에서 부분 영역의 각각에서 개구 파트가 차지하는 면적은, 설정된 개구율에 대응하는 면적 이상인,
카메라 장치.19. The method of claim 18,
An area occupied by an opening part in each of the partial regions in the mask array is equal to or greater than an area corresponding to a set opening ratio;
camera device.
상기 마스크 어레이에서 그룹 영역의 마스킹 패턴이 반복되는,
카메라 장치.19. The method of claim 18,
In the mask array, the masking pattern of the group area is repeated,
camera device.
상기 복수의 센싱 소자들에 의해 센싱되는 센싱 정보를 주파수 도메인으로 변환하여 주파수 정보를 생성하고, 상기 주파수 정보를 상기 마스크 어레이의 마스킹 패턴에 대응하는 블러 커널의 주파수 변환 결과로 나누어(divide) 디블러된 주파수 정보를 생성하며, 상기 디블러된 주파수 정보를 시간 도메인으로 역변환함으로써 고해상도 이미지를 복원하는 프로세서
를 더 포함하는 카메라 장치.
19. The method of claim 18,
The sensing information sensed by the plurality of sensing elements is converted into a frequency domain to generate frequency information, and the frequency information is divided by a frequency conversion result of a blur kernel corresponding to the masking pattern of the mask array to deblur. A processor that generates high-resolution frequency information and restores a high-resolution image by inversely transforming the deblurred frequency information into a time domain.
A camera device further comprising a.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US17/239,268 US11595575B2 (en) | 2020-05-11 | 2021-04-23 | Image sensor |
CN202110471788.4A CN113645422A (en) | 2020-05-11 | 2021-04-29 | Image sensor with a plurality of pixels |
EP21172002.4A EP3910385A1 (en) | 2020-05-11 | 2021-05-04 | Image sensor |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200055588 | 2020-05-11 | ||
KR20200055588 | 2020-05-11 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20210137886A true KR20210137886A (en) | 2021-11-18 |
Family
ID=78717146
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200143664A KR20210137886A (en) | 2020-05-11 | 2020-10-30 | Image sensor |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20210137886A (en) |
-
2020
- 2020-10-30 KR KR1020200143664A patent/KR20210137886A/en active Search and Examination
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7101646B2 (en) | Image restoration method and equipment | |
US9681057B2 (en) | Exposure timing manipulation in a multi-lens camera | |
US9473700B2 (en) | Camera systems and methods for gigapixel computational imaging | |
US10154216B2 (en) | Image capturing apparatus, image capturing method, and storage medium using compressive sensing | |
US9872012B2 (en) | Method and apparatus for image capturing and simultaneous depth extraction | |
US11375092B2 (en) | Image sensor and image sensing method | |
KR102565277B1 (en) | Device and method to restore image | |
EP2380345A1 (en) | Improving the depth of field in an imaging system | |
JP2024147721A (en) | Image sensor and image detection method | |
EP3842843A1 (en) | Imaging device and image sensing method | |
EP3910385A1 (en) | Image sensor | |
KR102644944B1 (en) | Image sensor and method to sense image | |
KR102614908B1 (en) | Device and method to restore image | |
EP4346199A1 (en) | Imaging method and device for autofocusing | |
KR20210137886A (en) | Image sensor | |
US10868957B2 (en) | Apparatus and method for processing image to reconstruct image | |
US11988849B2 (en) | Imaging device and method | |
Ahuja et al. | Design of large field-of-view high-resolution miniaturized imaging system | |
EP4009091A2 (en) | Lens assembly and electronic device including the same | |
KR20220080249A (en) | Method and apparatus for processing restore image | |
Konnik et al. | Using spatially varying pixels exposure technique for increasing accuracy of the optical-digital pattern recognition correlator | |
KR20130106525A (en) | Device for processing image and method thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination |