KR20210137886A - Image sensor - Google Patents

Image sensor Download PDF

Info

Publication number
KR20210137886A
KR20210137886A KR1020200143664A KR20200143664A KR20210137886A KR 20210137886 A KR20210137886 A KR 20210137886A KR 1020200143664 A KR1020200143664 A KR 1020200143664A KR 20200143664 A KR20200143664 A KR 20200143664A KR 20210137886 A KR20210137886 A KR 20210137886A
Authority
KR
South Korea
Prior art keywords
sensing
array
mask
image sensor
elements
Prior art date
Application number
KR1020200143664A
Other languages
Korean (ko)
Inventor
조양호
강덕영
김건우
남동경
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to US17/239,268 priority Critical patent/US11595575B2/en
Priority to CN202110471788.4A priority patent/CN113645422A/en
Priority to EP21172002.4A priority patent/EP3910385A1/en
Publication of KR20210137886A publication Critical patent/KR20210137886A/en

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B11/00Filters or other obturators specially adapted for photographic purposes
    • G03B11/04Hoods or caps for eliminating unwanted light from lenses, viewfinders or focusing aids
    • G03B11/043Protective lens closures or lens caps built into cameras
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/02Bodies
    • G03B17/12Bodies with means for supporting objectives, supplementary lenses, filters, masks, or turrets

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Studio Devices (AREA)
  • Solid State Image Pick-Up Elements (AREA)

Abstract

An imaging device may encode light passing through an imaging optical lens disposed in a multi-lens array, transmit it to a sensing element, and restore an image based on information sensed by the sensing element. The imaging device includes: a mask array comprising a plurality of mask elements blocking light in a partial direction among light passing through the imaging optical lenses, and passing the light in a direction different from the partial direction; and the plurality of sensing elements for sensing the light passing through the imaging optical lenses and the mask array.

Description

이미지 센서{IMAGE SENSOR}image sensor {IMAGE SENSOR}

이하, 이미지를 센싱하는 기술이 제공된다.Hereinafter, a technique for sensing an image is provided.

광학 기술 및 영상 처리 기술의 발달로 인해, 멀티미디어 컨텐츠, 보안 및 인식 등 광범위한 분야에 촬영 장치가 활용되고 있다. 예를 들어, 촬영 장치는 모바일 기기, 카메라, 차량 및 컴퓨터 등에 탑재되어, 영상을 촬영하거나, 객체를 인식하거나, 기기를 제어하기 위한 데이터를 획득할 수 있다. 촬영 장치의 부피는 렌즈의 사이즈, 렌즈의 초점 거리(focal length) 및 센서의 사이즈 등에 의해 결정될 수 있다. 렌즈의 사이즈가 감소할 경우, 렌즈의 초점 거리가 줄어들 수 있어, 촬영 장치의 부피를 감소시키기 위해, 소형 렌즈들로 구성된 멀티 렌즈가 이용될 수 있다.Due to the development of optical technology and image processing technology, a photographing device is being used in a wide range of fields such as multimedia content, security, and recognition. For example, the photographing device may be mounted on a mobile device, a camera, a vehicle, a computer, or the like to capture an image, recognize an object, or acquire data for controlling the device. The volume of the photographing apparatus may be determined by the size of the lens, the focal length of the lens, the size of the sensor, and the like. When the size of the lens is reduced, the focal length of the lens may be reduced, and in order to reduce the volume of the photographing apparatus, a multi-lens composed of small lenses may be used.

일 실시예에 따르면 이미지 센서는, 결상 광학 렌즈들을 통과한 빛 중 일부 방향의 빛을 차단하는 복수의 마스크 엘리먼트들을 포함하고, 상기 일부 방향과 다른 방향의 빛을 통과시키는 마스크 어레이; 및 상기 결상 광학 렌즈들 및 상기 마스크 어레이를 통과한 빛을 센싱하는 복수의 센싱 소자들을 포함하는 센싱 어레이를 포함할 수 있다.According to an exemplary embodiment, the image sensor includes: a mask array including a plurality of mask elements blocking light in a partial direction among light passing through the imaging optical lenses, and passing light in a direction different from the partial direction; and a sensing array including a plurality of sensing elements sensing the light passing through the imaging optical lenses and the mask array.

이미지 센서는 상기 센싱 어레이 상에 배치되어, 각 센싱 소자로 입사되는 빛에서 일부 파장 대역을 필터링하는 색상 필터를 더 포함하고, 상기 마스크 어레이는, 상기 색상 필터와 상기 센싱 어레이 사이에 배치될 수 있다.The image sensor may be disposed on the sensing array and further include a color filter configured to filter a partial wavelength band from light incident on each sensing element, and the mask array may be disposed between the color filter and the sensing array. .

이미지 센서는 상기 센싱 어레이 상에 배치되어, 각 센싱 소자로 빛을 전달하는 집광 렌즈 어레이를 더 포함하고, 상기 마스크 어레이는, 상기 집광 렌즈 어레이와 상기 센싱 어레이 사이에 배치될 수 있다.The image sensor may further include a converging lens array disposed on the sensing array to transmit light to each sensing element, and the mask array may be disposed between the converging lens array and the sensing array.

상기 마스크 어레이와 상기 센싱 소자는, 1μm 이내로 이격될 수 있다.The mask array and the sensing element may be spaced apart within 1 μm.

상기 마스크 어레이와 상기 센싱 소자는, 서로 접촉할 수 있다.The mask array and the sensing element may contact each other.

상기 마스크 어레이에서 개별 센싱 소자에 대응하는 영역은, 해당 영역의 전체 면적 대비 개구율(aperture ratio)에 대응하는 면적을 차지하는 개구 영역(aperture region); 및 해당 영역에서 상기 복수의 마스크 엘리먼트들이 배치되는 나머지 면적을 차지하는 마스킹 영역(masked region)을 포함할 수 있다.The region corresponding to the individual sensing element in the mask array may include an aperture region occupying an area corresponding to an aperture ratio to a total area of the corresponding region; and a masked region occupying the remaining area in which the plurality of mask elements are disposed in the corresponding region.

상기 개구율은, 40% 이상 60%이하의 비율일 수 있다.The aperture ratio may be 40% or more and 60% or less.

상기 마스크 어레이의 부분 영역 각각에서 개구 파트(aperture part)가 차지하는 면적은, 설정된 개구율에 대응하는 면적 이상일 수 있다.An area occupied by an aperture part in each partial area of the mask array may be greater than or equal to an area corresponding to a set aperture ratio.

상기 마스크 어레이는, 복수의 센싱 소자 그룹들에 대응하는 복수의 그룹 영역들로 분할(segment)되고, 상기 마스크 어레이에서 상기 복수의 그룹 영역의 각각은, 한 픽셀을 표현하기 위해 그룹핑된 복수의 센싱 소자들을 포함하는 센싱 소자 그룹을 커버할 수 있다.The mask array is segmented into a plurality of group regions corresponding to a plurality of sensing device groups, and each of the plurality of group regions in the mask array includes a plurality of sensing groups grouped to represent one pixel. A sensing element group including elements may be covered.

상기 마스크 어레이에서 그룹 영역의 마스킹 패턴이 반복될 수 있다.In the mask array, the masking pattern of the group region may be repeated.

상기 마스크 어레이의 상기 복수의 그룹 영역들의 각각은 모두 동일한 마스킹 패턴을 가질 수 있다.Each of the plurality of group regions of the mask array may have the same masking pattern.

상기 마스크 어레이에서 개별 마스킹 패턴에 대응하는 영역은, 결상 광학계의 결상 광학 렌즈들의 개수 이상의 칸들을 포함할 수 있다.The region corresponding to the individual masking pattern in the mask array may include more than the number of imaging optical lenses of the imaging optical system.

복수의 마스크 엘리먼트들은, 2개 이상의 투과 레벨들(levels) 중 하나를 가질 수 있다.The plurality of mask elements may have one of two or more transmission levels.

복수의 마스크 엘리먼트들의 각각은, 복수의 영역들로 분할되고, 각 마스크 엘리먼트의 투과율은, 상기 복수의 영역들 중 열린 영역 및 닫힌 영역의 비율에 따라 결정될 수 있다.Each of the plurality of mask elements may be divided into a plurality of regions, and transmittance of each mask element may be determined according to a ratio of an open region and a closed region among the plurality of regions.

이미지 센서는 상기 복수의 센싱 소자들에 의해 센싱되는 센싱 정보에 기초하여 이미지를 복원하는 프로세서를 더 포함할 수 있다.The image sensor may further include a processor for reconstructing an image based on sensing information sensed by the plurality of sensing elements.

상기 프로세서는, 상기 센싱 정보를 주파수 도메인으로 변환하여 주파수 정보를 생성하고, 상기 주파수 정보를 상기 마스크 어레이의 마스킹 패턴에 대응하는 블러 커널(blur kernel)의 주파수 변환 결과로 나누어(divide) 디블러된(deblurred) 주파수 정보를 생성하며, 상기 디블러된 주파수 정보를 시간 도메인으로 역변환함으로써 고해상도 이미지를 복원할 수 있다.The processor converts the sensed information into a frequency domain to generate frequency information, divides the frequency information by a frequency conversion result of a blur kernel corresponding to the masking pattern of the mask array, and deblurs. A high-resolution image may be reconstructed by generating (deblurred) frequency information and inversely transforming the deblurred frequency information into a time domain.

상기 마스크 어레이는 복수의 마스킹 패턴들을 포함하고, 각 마스킹 패턴은, 상기 센싱 어레이에서 둘 이상의 센싱 소자를 포함하는 센싱 소자 그룹을 커버할 수 있다.The mask array may include a plurality of masking patterns, and each masking pattern may cover a sensing element group including two or more sensing elements in the sensing array.

일 실시예에 따른 카메라 장치는, 외부로부터 수신되는 빛을 전달하는 결상 광학 렌즈들을 포함하는 결상 렌즈 어레이; 상기 결상 렌즈 어레이를 통과한 빛을 센싱하는 복수의 센싱 소자들을 포함하는 센싱 어레이; 및 복수의 마스크 엘리먼트들을 포함하고, 상기 결상 렌즈 어레이와 상기 센싱 어레이 사이에 배치되는 마스크 어레이를 포함할 수 있다.A camera device according to an embodiment includes: an imaging lens array including optical imaging lenses that transmit light received from the outside; a sensing array including a plurality of sensing elements for sensing the light passing through the imaging lens array; and a mask array including a plurality of mask elements and disposed between the imaging lens array and the sensing array.

상기 마스크 어레이는, 상기 복수의 센싱 소자들 상에서 상기 센싱 어레이에 접촉되는 위치 및 상기 센싱 어레이 내부 위치 중 하나에 배치될 수 있다.The mask array may be disposed on one of a position in contact with the sensing array and a position inside the sensing array on the plurality of sensing elements.

상기 마스크 어레이에서 개별 센싱 소자에 대응하는 영역은, 해당 영역의 전체 면적 대비 개구율에 대응하는 면적을 차지하는 개구 영역; 및 해당 영역에서 상기 복수의 마스크 엘리먼트들이 배치되는 나머지 면적을 차지하는 마스킹 영역을 포함할 수 있다.In the mask array, the region corresponding to the individual sensing element may include: an opening region occupying an area corresponding to an opening ratio to a total area of the corresponding region; and a masking region occupying the remaining area in which the plurality of mask elements are disposed in the corresponding region.

상기 마스크 어레이에서 부분 영역의 각각에서 개구 파트가 차지하는 면적은, 설정된 개구율에 대응하는 면적 이상일 수 있다.An area occupied by an opening part in each of the partial regions in the mask array may be equal to or greater than an area corresponding to a set opening ratio.

상기 마스크 어레이에서 그룹 영역의 마스킹 패턴이 반복될 수 있다.In the mask array, the masking pattern of the group region may be repeated.

카메라 장치는 상기 복수의 센싱 소자들에 의해 센싱되는 센싱 정보를 주파수 도메인으로 변환하여 주파수 정보를 생성하고, 상기 주파수 정보를 상기 마스크 어레이의 마스킹 패턴에 대응하는 블러 커널의 주파수 변환 결과로 나누어(divide) 디블러된 주파수 정보를 생성하며, 상기 디블러된 주파수 정보를 시간 도메인으로 역변환함으로써 고해상도 이미지를 복원하는 프로세서를 더 포함할 수 있다.The camera device converts the sensing information sensed by the plurality of sensing elements into a frequency domain to generate frequency information, and divides the frequency information by a frequency conversion result of a blur kernel corresponding to the masking pattern of the mask array. ) may further include a processor for generating deblurred frequency information and reconstructing a high-resolution image by inversely transforming the deblurred frequency information into a time domain.

도 1a 및 도 1b는 일 실시예에 따른 이미징 장치의 구조를 도시한다.
도 2는 일 실시예에 따른 센싱 소자가 렌즈 엘리먼트를 통해 광선을 수신하는 모습을 도시한 도면이다.
도 3은 일 실시예에 따른 센싱 소자의 수와 렌즈 엘리먼트의 수 간의 관계를 나타낸 도면이다.
도 4는 일 실시예에 따른 이미징 장치에서 멀티 렌즈 어레이 구조에 따른 초점 거리 감소를 설명한다.
도 5는 일 실시예에 따른 이미징 장치에서 멀티 렌즈 어레이 구조에 따른 블러 커널을 설명한다.
도 6은 일 실시예에 따른 마스크 어레이를 포함하는 이미징 장치의 블러 커널을 설명한다.
도 7은 일 실시예에 따른 마스크 어레이가 배치된 이미징 장치의 단면도를 도시한다.
도 8은 일 실시예에 따른 마스크 어레이에 대한 마스킹 패턴의 설계를 설명한다.
도 9 및 도 10은 일 실시예에 따른 마스크 어레이의 예시적인 형상을 도시한다.
도 11은 일 실시예에 따른 이미지 센서의 센싱 소자 그룹 별 마스킹 패턴 배치를 설명하는 도면이다.
도 12a 내지 도 12b는 일 실시예에 따른 마스크 어레이의 배치를 설명한다.
도 13은 일 실시예에 따른 이미징 장치의 구성을 도시한 블록도이다.
도 14는 일 실시예에 따른 전자 단말의 구성을 도시한 블록도이다.
도 15 및 도 16은 일 실시예에 따른 이미지 센서가 구현되는 기기의 예시를 도시하는 도면이다.
1A and 1B show the structure of an imaging device according to an embodiment.
2 is a diagram illustrating a state in which a sensing element according to an embodiment receives a light beam through a lens element.
3 is a diagram illustrating a relationship between the number of sensing elements and the number of lens elements according to an exemplary embodiment.
4 illustrates a reduction in a focal length according to a multi-lens array structure in an imaging apparatus according to an exemplary embodiment.
5 illustrates a blur kernel according to a multi-lens array structure in an imaging apparatus according to an embodiment.
6 illustrates a blur kernel of an imaging device including a mask array according to an exemplary embodiment.
7 is a cross-sectional view of an imaging device in which a mask array is disposed according to an embodiment.
8 illustrates a design of a masking pattern for a mask array according to an exemplary embodiment.
9 and 10 show exemplary shapes of a mask array according to an embodiment.
11 is a view for explaining arrangement of a masking pattern for each sensing element group of an image sensor according to an exemplary embodiment.
12A to 12B illustrate an arrangement of a mask array according to an exemplary embodiment.
13 is a block diagram illustrating a configuration of an imaging apparatus according to an exemplary embodiment.
14 is a block diagram illustrating a configuration of an electronic terminal according to an embodiment.
15 and 16 are diagrams illustrating examples of a device in which an image sensor is implemented according to an embodiment.

이하, 실시예들을 첨부된 도면을 참조하여 상세하게 설명한다. 그러나, 특허출원의 범위가 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 아래 설명하는 실시예들은 실시 형태에 대해 한정하려는 것이 아니며, 이들에 대한 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. However, the scope of the patent application is not limited or limited by these examples. It should be understood that the embodiments described below are not intended to limit the embodiments, and include all modifications, equivalents or substitutes thereto.

실시예에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 실시형태를 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수 개의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성 요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Terms used in the examples are used only to describe specific examples, and are not intended to limit the embodiments. The singular expression includes the plural expression unless the context clearly dictates otherwise. In this specification, terms such as "comprise" or "have" are intended to designate that a feature, number, step, operation, component, part, or combination thereof described in the specification exists, but one or more other features It should be understood that this does not preclude the existence or addition of numbers, steps, operations, components, parts, or combinations thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which the embodiment belongs. Terms such as those defined in a commonly used dictionary should be interpreted as having a meaning consistent with the meaning in the context of the related art, and should not be interpreted in an ideal or excessively formal meaning unless explicitly defined in the present application. does not

또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조 부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 실시예의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.In addition, in the description with reference to the accompanying drawings, the same components are assigned the same reference numerals regardless of the reference numerals, and the overlapping description thereof will be omitted. In the description of the embodiment, if it is determined that a detailed description of a related known technology may unnecessarily obscure the gist of the embodiment, the detailed description thereof will be omitted.

도 1a 및 도 1b는 일 실시예에 따른 이미징 장치의 구조를 도시한다. 도 1a는 이미징 장치의 사시도이고, 도 1b는 이미징 장치의 단면도이다.1A and 1B show the structure of an imaging device according to an embodiment. 1A is a perspective view of an imaging device, and FIG. 1B is a cross-sectional view of the imaging device.

이미징 장치(100)는 렌즈 어레이(110) 및 이미지 센서(120)를 포함한다. 렌즈 어레이(110)는 렌즈 엘리먼트들을 포함하고, 이미지 센서(120)는 광학 센싱 소자들(optical sensing elements)을 포함한다. 렌즈 엘리먼트들은 렌즈 어레이(110)의 평면을 따라 배치될 수 있고, 광학 센싱 소자들은 이미지 센서(120)에서 센싱 어레이(121)의 평면을 따라 배치될 수 있다. 렌즈 어레이(110)의 평면은 센싱 어레이(121)의 평면과 평행하게 배치될 수 있다. 렌즈 어레이(110)는 결상(imaging)을 위한 멀티 렌즈 어레이(MLA, multi lens array)로서, 결상 렌즈 어레이라고도 나타낼 수 있다.The imaging apparatus 100 includes a lens array 110 and an image sensor 120 . The lens array 110 includes lens elements, and the image sensor 120 includes optical sensing elements. The lens elements may be disposed along the plane of the lens array 110 , and the optical sensing elements may be disposed along the plane of the sensing array 121 in the image sensor 120 . A plane of the lens array 110 may be disposed parallel to a plane of the sensing array 121 . The lens array 110 is a multi-lens array (MLA) for imaging, and may also be referred to as an imaging lens array.

본 명세서에서 광학 센싱 소자(이하, '센싱 소자')는 해당 소자로 입사되는 빛에 기초한 광학 정보를 센싱하는 소자로서, 입사된 빛의 세기를 지시하는 값을 출력할 수 있다. 광학 센싱 소자는, 예를 들어, CMOS(complementary metal oxide semiconductor), CCD(Charge-Coupled Device), 및 포토 다이오드(photo diode) 등을 포함할 수 있다.In the present specification, an optical sensing element (hereinafter, 'sensing element') is an element that senses optical information based on light incident on the element, and may output a value indicating the intensity of the incident light. The optical sensing device may include, for example, a complementary metal oxide semiconductor (CMOS), a charge-coupled device (CCD), and a photo diode.

본 명세서에서 픽쳐 엘리먼트(picture element)(이하, 픽셀(pixel))는 이미지를 구성하는 기본 단위 정보로서, 픽셀 위치에 대응하는 피사체 상의 물리적 위치로부터 반사된 빛이 센싱 소자에 의해 센싱된 광학 정보를 나타낼 수 있다. 픽셀 위치는 이미지 내에서 픽셀의 위치로서 화소 좌표계를 따르고, 물리적 위치는 월드 좌표계를 따를 수 있다.In the present specification, a picture element (hereinafter, a pixel) is basic unit information constituting an image, and light reflected from a physical location on a subject corresponding to the pixel location provides optical information sensed by the sensing element. can indicate A pixel location is the location of a pixel in an image, which may follow a pixel coordinate system, and a physical location may follow a world coordinate system.

참고로, 컬러 이미지를 구성하는 픽셀은 한 픽셀 위치에 대해 복수의 색상 값들(예를 들어, RGB 색상계인 경우, 적색 값, 녹색 값, 및 청색 값)을 가진다. 디스플레이 분야에서 디스플레이를 구성하는 단위 픽셀은 한 픽셀 위치의 색상 값들을 표현하기 위해 복수의 색상들에 관한 서브 픽셀들(예를 들어, RGB 색상계인 경우 적색 서브 픽셀, 녹색 서브 픽셀, 및 청색 서브 픽셀)을 포함할 수 있다. 이와 달리, 이미지 센서 분야에서는 픽셀이 색상 별 서브 픽셀로 구분되지 않고, 한 색상 값을 센싱하는 센싱 소자(예를 들어, 컬러 필터가 전단에 배치된 포토 다이오드)를 지칭하는 것이 일반적이다. 또한, 이미지 센서 분야에서는 픽셀이 한 센싱 소자와 그 센싱 소자에 의해 센싱된 값을 지칭하는 것으로 혼용되어 사용되기도 한다. 다만, 본 명세서에서는 명확한 설명을 위해 픽셀은 이미지를 구성하는 기본 단위 정보이고, 센싱 소자는 피사체로부터 수신되는 빛에 응답하여 해당 픽셀의 픽셀 값을 출력하는 하드웨어 소자인 것으로 그 의미를 구별한다.For reference, a pixel constituting a color image has a plurality of color values (eg, a red value, a green value, and a blue value in the case of an RGB color system) for one pixel position. In the display field, a unit pixel constituting a display is sub-pixels related to a plurality of colors (eg, in the case of an RGB color system, a red sub-pixel, a green sub-pixel, and a blue sub-pixel) in order to express color values of one pixel position. ) may be included. Contrary to this, in the image sensor field, it is common to refer to a sensing element (eg, a photodiode having a color filter disposed at the front end) that senses one color value instead of dividing the pixel into sub-pixels for each color. Also, in the image sensor field, a pixel is used interchangeably to refer to a sensing element and a value sensed by the sensing element. However, in the present specification, for clarity, a pixel is basic unit information constituting an image, and a sensing element is a hardware element that outputs a pixel value of a corresponding pixel in response to light received from a subject.

본 명세서에서는 각 픽셀이 단일 센싱 소자로 표현되는 예시를 주로 설명하나, 이로 한정하는 것은 아니고 한 픽셀이 복수의 센싱 소자들로 표현될 수도 있다. 한 픽셀을 표현하기 위해 그룹핑된 복수의 센싱 소자들을 센싱 소자 그룹이라고 나타낼 수 있다. 한 센싱 소자에 의해 센싱 가능한 광량에는 한계가 있는데, 한 픽셀을 복수의 센싱 소자들에 의해 센싱된 값을 이용하여 표현함으로써 감도가 개선될 수 있다. 후술하는 도 11은 한 픽셀 값이 4개의 센싱 소자들을 포함하는 센싱 소자 그룹에 의해 센싱되는 예시를 설명한다.In this specification, an example in which each pixel is expressed as a single sensing element is mainly described, but the present disclosure is not limited thereto, and one pixel may be expressed as a plurality of sensing elements. A plurality of sensing elements grouped to represent one pixel may be referred to as a sensing element group. There is a limit to the amount of light that can be sensed by one sensing element, and sensitivity may be improved by expressing one pixel using values sensed by a plurality of sensing elements. 11, which will be described later, describes an example in which one pixel value is sensed by a sensing element group including four sensing elements.

이미지 센서(120)는 센싱 어레이(121), 광학 필터(optical filter)(122), 및 집광 렌즈 어레이(condensing lens array)(123)를 포함할 수 있다. 다만, 이로 한정하는 것은 아니고, 광학 필터(122) 대신, 집광 렌즈 어레이(123)의 개별 집광 마이크로 렌즈(condensing micro lens)(123a)가 미리 정한 파장 대역을 통과시키고 나머지 파장 대역을 차단하는 광학 특성을 가지게 구성될 수도 있다.The image sensor 120 may include a sensing array 121 , an optical filter 122 , and a condensing lens array 123 . However, the present invention is not limited thereto, and instead of the optical filter 122 , an individual condensing micro lens 123a of the condensing lens array 123 passes a predetermined wavelength band and blocks the remaining wavelength band. It may be configured to have

집광 렌즈 어레이(123)는 렌즈 어레이(110)를 통과한 빛을 센싱 어레이(121)로 집광(concentrate)하기 위한 복수의 집광 마이크로 렌즈들을 포함할 수 있다. 예를 들어, 집광 렌즈 어레이(123)는 센싱 어레이(121)에 포함된 센싱 소자들의 개수와 동일한 개수의 집광 마이크로 렌즈들을 포함할 수 있다. 복수의 집광 마이크로 렌즈들은 결상 광학 렌즈 및 센싱 어레이(121) 사이에 배치되어, 결상 광학 렌즈를 통과한 빛을 각 집광 마이크로 렌즈(123a)에 대응하는 센싱 소자(121a)로 집광하여 전달할 수 있다. 예를 들어, 도 1b에 도시된 바와 같이, 센싱 어레이(121)의 각 센싱 소자(121a) 상에 집광 마이크로 렌즈(123a)가 배치되어, 아래에 배치된 센싱 소자(121a)로 빛을 집광할 수 있다. 또한, 도 1b에 도시된 바와 같이, 색상 필터(122a)가 각 집광 마이크로 렌즈(123a) 및 센싱 소자(121a) 사이에 배치될 수도 있다.The condensing lens array 123 may include a plurality of condensing microlenses for concentrating the light passing through the lens array 110 to the sensing array 121 . For example, the condensing lens array 123 may include the same number of condensing microlenses as the number of sensing elements included in the sensing array 121 . The plurality of condensing microlenses may be disposed between the imaging optical lens and the sensing array 121 to condense and transmit light passing through the imaging optical lens to the sensing element 121a corresponding to each condensing microlens 123a. For example, as shown in FIG. 1B , a condensing microlens 123a is disposed on each sensing element 121a of the sensing array 121 to condense light to the sensing element 121a disposed below. can In addition, as shown in FIG. 1B , a color filter 122a may be disposed between each condensing microlens 123a and the sensing element 121a.

광학 필터(122)는 미리 정한 파장 대역을 통과시키고 나머지 파장 대역을 차단하는 광학 특성을 가지는 필터일 수 있다. 예를 들어, 광학 필터(122)는 필터 평면을 따라 배치되는 복수의 색상 필터들을 포함하는 색상 필터 어레이(CFA, color filter array)로 구현될 수 있다. 각 색상 필터(122a)는 임의의 색상에 대응하는 파장 대역의 빛을 통과시키고 나머지 대역의 빛을 차단하는 필터일 수 있다. 예를 들어, 색상 필터(122a)로서 적색 통과 필터, 녹색 통과 필터, 및 청색 통과 필터가 있을 수 있다. 적색 통과 필터는 적색에 대응하는 파장 대역의 빛을 통과시키고, 나머지 대역의 빛을 차단할 수 있다. 녹색 통과 필터는 녹색에 대응하는 파장 대역의 빛을 통과시키고 나머지 대역의 빛을 차단할 수 있다. 청색 통과 필터는 청색에 대응하는 파장 대역의 빛을 통과시키고 나머지 대역의 빛을 차단할 수 있다. 색상 필터 어레이에서 개별적으로 색상 광들을 통과시키는 색상 필터들은 필터 평면을 따라 베이어 패턴(Bayer pattern) 또는 다른 패턴으로 배치될 수 있다. 광학 필터(122)는 또한 가시광선 대역을 통과시키고 적외선 대역을 차단하는 적외선 차단 필터일 수도 있다.The optical filter 122 may be a filter having an optical characteristic of passing a predetermined wavelength band and blocking the remaining wavelength band. For example, the optical filter 122 may be implemented as a color filter array (CFA) including a plurality of color filters disposed along a filter plane. Each color filter 122a may be a filter that passes light of a wavelength band corresponding to an arbitrary color and blocks light of the remaining band. For example, as the color filter 122a, there may be a red pass filter, a green pass filter, and a blue pass filter. The red pass filter may pass light of a wavelength band corresponding to red and block light of the remaining band. The green pass filter may pass light of a wavelength band corresponding to green and block light of the remaining band. The blue pass filter may pass light of a wavelength band corresponding to blue and block light of the remaining band. The color filters that individually pass color lights in the color filter array may be arranged in a Bayer pattern or other pattern along the filter plane. The optical filter 122 may also be an infrared cut filter that passes the visible light band and blocks the infrared band.

이미지 센서(120)에 의하여 촬영 및 복원되는 이미지의 품질은 센싱 어레이(121)에 포함된 센싱 소자들의 수, 및 센싱 소자(121a)에 입사되는 광량에 의하여 결정될 수 있다. 예를 들어, 이미지의 해상도는 센싱 어레이(121)에 포함된 센싱 소자들의 수에 의하여, 이미지의 감도는 센싱 소자(121a)에 입사되는 광량에 의하여 결정될 수 있고, 입사되는 광량은 센싱 소자(121a)의 사이즈에 기초하여 결정될 수 있다. 센싱 소자(121a)의 사이즈가 클수록 입사되는 광량은 증가할 수 있고, 센싱 어레이(121)의 동적 범위(dynamic range)가 증가할 수 있다. 따라서, 센싱 어레이(121)에 포함된 센싱 소자들의 수가 증가함에 따라 이미지 센서(120)는 고해상도 이미지를 촬영할 수 있고, 센싱 소자(121a)의 사이즈가 증가함에 따라 이미지 센서(120)는 저조도에서 고감도 이미지 촬영에 유리하게 작동할 수 있다.The quality of the image captured and restored by the image sensor 120 may be determined by the number of sensing elements included in the sensing array 121 and the amount of light incident on the sensing element 121a. For example, the resolution of the image may be determined by the number of sensing elements included in the sensing array 121 , the sensitivity of the image may be determined by the amount of light incident on the sensing element 121a, and the amount of incident light may be determined by the sensing element 121a. ) may be determined based on the size of As the size of the sensing element 121a increases, the amount of incident light may increase, and the dynamic range of the sensing array 121 may increase. Accordingly, as the number of sensing elements included in the sensing array 121 increases, the image sensor 120 may capture a high-resolution image, and as the size of the sensing element 121a increases, the image sensor 120 becomes highly sensitive in low light. It can work advantageously for image taking.

렌즈 어레이(110)의 개별 렌즈 엘리먼트(111)는 자신의 렌즈 크기(lens size)에 대응하는 센싱 어레이(121)의 일정 센싱 영역(129)을 커버할 수 있다. 센싱 어레이(121)에서 렌즈 엘리먼트(111)에 의해 커버되는 센싱 영역(129)은, 해당 렌즈 엘리먼트(111)의 렌즈 크기에 따라 결정될 수 있다. 센싱 영역(129)은, 일정한 시야각 범위의 광선들이 해당 렌즈 엘리먼트(111)를 통과한 후 도달하는 센싱 어레이(121) 상의 영역을 나타낼 수 있다. 센싱 영역(129)의 크기는 센싱 영역(129)의 중심으로부터 최외곽 지점까지의 거리 또는 대각 길이로 표현될 수 있다. 다시 말해, 센싱 영역(129)에 포함된 센싱 소자들에는 해당 개별 렌즈 엘리먼트(111)를 통과한 빛이 입사될 수 있다. The individual lens elements 111 of the lens array 110 may cover a certain sensing area 129 of the sensing array 121 corresponding to its own lens size. The sensing area 129 covered by the lens element 111 in the sensing array 121 may be determined according to the lens size of the corresponding lens element 111 . The sensing region 129 may indicate a region on the sensing array 121 in which light rays of a certain viewing angle range reach after passing through the corresponding lens element 111 . The size of the sensing region 129 may be expressed as a distance or a diagonal length from the center of the sensing region 129 to an outermost point. In other words, the light passing through the respective lens element 111 may be incident to the sensing elements included in the sensing region 129 .

센싱 어레이(121)의 센싱 소자들 각각은 렌즈 어레이(110)의 렌즈들을 통과한 광선에 기초하여 센싱 정보를 생성할 수 있다. 예를 들어, 센싱 소자(121a)는 렌즈 엘리먼트(111)를 통해 수신된 빛의 세기 값을 센싱 정보로서 센싱할 수 있다. 이미징 장치(100)는 센싱 어레이(121)에 의해 출력된 센싱 정보에 기초하여, 이미징 장치(100)의 시야에 포함된 지점들에 관한 원본 신호(original signal)에 대응하는 세기 정보를 결정하고, 결정된 세기 정보에 기초하여 촬영 이미지를 복원할 수 있다.Each of the sensing elements of the sensing array 121 may generate sensing information based on light rays passing through the lenses of the lens array 110 . For example, the sensing element 121a may sense an intensity value of light received through the lens element 111 as sensing information. The imaging device 100 determines intensity information corresponding to an original signal with respect to points included in the field of view of the imaging device 100 based on the sensing information output by the sensing array 121, The captured image may be restored based on the determined intensity information.

또한, 센싱 소자(121a)는 색상 필터(122a)를 통과한 빛을 센싱함으로써 원하는 색상에 대응하는 색상 세기 값을 센싱 정보로 생성할 수 있다. 센싱 어레이(121)를 구성하는 복수의 센싱 소자들 각각은 공간적으로 인접한 인접 센싱 소자와 다른 색상을 센싱하도록 배치될 수 있다. Also, the sensing element 121a may generate a color intensity value corresponding to a desired color as sensing information by sensing the light passing through the color filter 122a. Each of the plurality of sensing elements constituting the sensing array 121 may be arranged to sense a color different from that of a spatially adjacent adjacent sensing element.

센싱 정보의 다양성이 충분히 확보되어, 이미징 장치(100)의 시야에 포함된 지점들에 대응하는 원본 신호 정보와 센싱 정보 사이에 완전 랭크(full rank) 관계가 형성될 때, 센싱 어레이(121)의 최대 해상도에 대응하는 촬영 이미지가 도출될 수 있다. 센싱 정보의 다양성은 렌즈 어레이(110)에 포함된 렌즈들의 수 및 센싱 어레이(121)에 포함된 센싱 소자들의 수와 같은 이미징 장치(100)의 파라미터들에 기초하여 확보될 수 있다. When the diversity of the sensing information is sufficiently secured and a full rank relationship is formed between the sensing information and the original signal information corresponding to points included in the field of view of the imaging apparatus 100, the sensing array 121 A photographed image corresponding to the maximum resolution may be derived. The diversity of sensing information may be secured based on parameters of the imaging apparatus 100 such as the number of lenses included in the lens array 110 and the number of sensing elements included in the sensing array 121 .

결상을 위한 멀티 렌즈 어레이 구조에서, 결상 광학 렌즈 및 센싱 어레이(121)는 분수 정렬 구조(fractional alignment structure)로 배치될 수 있다. 예를 들어, 분수 정렬 구조는 개별 렌즈 엘리먼트(111)에 의해 커버되는 센싱 영역(129)이 비정수개(non-integer)의 센싱 소자들을 포함하는 구조를 나타낼 수 있다.In the multi-lens array structure for imaging, the imaging optical lens and the sensing array 121 may be arranged in a fractional alignment structure. For example, the fractional alignment structure may indicate a structure in which the sensing region 129 covered by the individual lens element 111 includes a non-integer number of sensing elements.

렌즈 어레이(110)에 포함된 렌즈 엘리먼트들이 동일한 렌즈 크기를 가지는 경우, 렌즈 어레이(110)에 포함된 렌즈 엘리먼트들의 수와 센싱 어레이(121)에 포함된 센싱 소자들의 수는 서로 소(relatively prime) 관계일 수 있다. 렌즈 어레이(110)의 일축에 해당하는 렌즈 엘리먼트들의 개수 L 및 센싱 어레이(121)의 일축에 해당하는 센싱 소자들의 개수 P 간의 비율 P/L은 실수(real number)로 결정될 수 있다. 렌즈 엘리먼트들 각각은 P/L에 대응하는 오프셋과 동일한 개수의 센싱 소자들을 커버할 수 있다. 참고로, 도 1a에 도시된 센싱 영역(129)은 예시적으로 세로 축을 따라 7/3=2.3개, 가로 축을 따라 11/3=3.67개의 센싱 소자들을 포함할 수 있다. 더 나아가, 렌즈 엘리먼트(111)는 복수의 비정수개의 집광 마이크로 렌즈들을 커버할 수 있다. 따라서 이미지 센서(120)에서 집광 마이크로 렌즈들의 개수는 센싱 어레이(121)의 센싱 소자들의 개수와 동일하고, 렌즈 어레이(110)의 렌즈 엘리먼트들(예를 들어, 결상 광학 렌즈들)의 개수는 집광 마이크로 렌즈들의 개수보다 작을 수 있다.When the lens elements included in the lens array 110 have the same lens size, the number of lens elements included in the lens array 110 and the number of sensing elements included in the sensing array 121 are relatively prime. could be a relationship. A ratio P/L between the number L of lens elements corresponding to one axis of the lens array 110 and the number P of sensing elements corresponding to one axis of the sensing array 121 may be determined as a real number. Each of the lens elements may cover a number of sensing elements equal to an offset corresponding to P/L. For reference, the sensing region 129 illustrated in FIG. 1A may include 7/3 = 2.3 sensing elements along the vertical axis and 11/3 = 3.67 sensing elements along the horizontal axis. Furthermore, the lens element 111 may cover a plurality of non-integer condensing microlenses. Accordingly, the number of converging microlenses in the image sensor 120 is the same as the number of sensing elements of the sensing array 121 , and the number of lens elements (eg, imaging optical lenses) of the lens array 110 is It may be smaller than the number of microlenses.

상술한 바와 같은 분수 정렬 구조를 통해, 이미징 장치(100)는, 각 렌즈 엘리먼트(111)의 광학 중심 축(OCA, optical center axis)이 센싱 어레이(121)에 대해 서로 조금씩(slightly) 다른 배치를 가질 수 있다. 다시 말해, 렌즈 엘리먼트(111)는 센싱 소자(121a)에 대해 엇갈려서(eccentric) 배치될 수 있다. 따라서, 렌즈 어레이(110)의 각 렌즈 엘리먼트(111)는 서로 다른 라이트 필드(LF, light field) 정보를 수신한다. 분수 정렬 구조에 의해 수신되는 라이트 필드 정보는 하기 도 2에서 설명한다.Through the fractional alignment structure as described above, the imaging device 100, the optical center axis (OCA) of each lens element 111 is slightly different from each other with respect to the sensing array 121 (slightly) arrangement can have In other words, the lens elements 111 may be disposed to be eccentric with respect to the sensing element 121a. Accordingly, each lens element 111 of the lens array 110 receives different light field (LF) information. The light field information received by the fractional alignment structure will be described with reference to FIG. 2 below.

도 2는 일 실시예에 따른 센싱 소자가 렌즈 엘리먼트를 통해 광선을 수신하는 모습을 도시한 도면이다.2 is a diagram illustrating a state in which a sensing element according to an embodiment receives a light beam through a lens element.

라이트 필드는 임의의 타겟 지점으로부터 방출될 수 있고, 피사체(subject) 상의 임의의 지점에서 반사된 광선들의 방향 및 세기를 나타내는 필드(field)를 나타낼 수 있다. 라이트 필드 정보는, 복수의 라이트 필드가 조합된 정보를 나타낼 수 있다. 각 렌즈 엘리먼트의 주 광선(chief ray)의 방향(direction)도 달라지게 되므로, 각 센싱 영역이 서로 다른 라이트 필드 정보를 수신하게 되는 바, 이미징 장치는 광학적으로 보다 많은 센싱 정보를 획득할 수 있다.The light field may be emitted from any target point and may represent a field representing the direction and intensity of light rays reflected at any point on the subject. The light field information may indicate information in which a plurality of light fields are combined. Since the direction of a chief ray of each lens element is also changed, each sensing region receives different light field information, so that the imaging apparatus may optically acquire more sensing information.

도 2에 도시된 바와 같이 센싱 어레이(220)는 개별 지점들(points)(230)(X1 내지 X10)에 대응하는 광선들을 수신하고 검출할 수 있다. 개별 지점들(230) 각각으로부터 방출된 복수의 광선들이 라이트 필드를 형성할 수 있다. 제1 지점(X1)으로부터 방출된 광선들은 제1 라이트 필드를 형성할 수 있고, 제1 센싱 소자(S1), 제4 센싱 소자(S4), 및 제7 센싱 소자(S7)로 입사할 수 있다. 나머지 지점들(X2 내지 X10) 각각으로부터 방출된 광선들도 각각 그에 대응하는 라이트 필드를 형성할 수 있다. 개별 지점들(230)은 임의의 객체(예를 들어, 피사체) 상의 지점들일 수 있다. 개별 지점들(230)로부터 방출되는 광선들은, 태양광 등이 객체로부터 반사된 광선들일 수 있다. 도 2는 이미징 장치의 예시적인 단면도로서 설명의 편의를 위해 렌즈 어레이(210)는 일축을 따라 3개의 렌즈 엘리먼트들을 포함하고, 센싱 어레이(220)는 10개의 센싱 소자들(S1 내지 S10)을 포함하는 것으로 도시되었으나, 이로 한정되는 것은 아니다.As shown in FIG. 2 , the sensing array 220 may receive and detect light rays corresponding to individual points 230 (X1 to X10). A plurality of rays emitted from each of the individual points 230 may form a light field. Light rays emitted from the first point X1 may form a first light field, and may be incident on the first sensing element S1 , the fourth sensing element S4 , and the seventh sensing element S7 . . Light rays emitted from each of the remaining points X2 to X10 may also form a corresponding light field. The individual points 230 may be points on an arbitrary object (eg, a subject). The rays emitted from the individual points 230 may be rays reflected from an object, such as sunlight. 2 is an exemplary cross-sectional view of an imaging device. For convenience of description, the lens array 210 includes three lens elements along one axis, and the sensing array 220 includes ten sensing elements S1 to S10. Although shown to be, it is not limited thereto.

센싱 소자들(S1 내지 S10)은 복수의 렌즈 엘리먼트들을 통과한 광선들을 중첩하여 센싱할 수 있다. 센싱 소자(S1)는 지점들(X1 내지 X3)로부터 방사된 광선들이 중첩된 센싱 정보(예를 들어, 세기 값)를 생성할 수 있으며, 나머지 센싱 소자(S2 내지 S10)도 마찬가지로 중첩된 센싱 정보를 생성할 수 있다. 이미지 센서는 이러한 중첩된 센싱 정보를 복원할 수 있다.The sensing elements S1 to S10 may overlap and sense light rays passing through the plurality of lens elements. The sensing element S1 may generate sensing information (eg, intensity value) in which light rays emitted from the points X1 to X3 are superimposed, and the other sensing elements S2 to S10 also overlap the sensing information. can create The image sensor may restore such overlapped sensing information.

도 2에 도시된 센싱 소자들(S1 내지 S10)에 의해 생성되는 센싱 정보는, 하기 수학식 1에 따라, 지점들(230) 각각으로부터 입사되는 광선에 대응하는 원본 신호 정보(예를 들어, 세기 값)로 모델링될 수 있다.The sensing information generated by the sensing elements S1 to S10 shown in FIG. 2 is, according to Equation 1 below, original signal information (eg, intensity) corresponding to light rays incident from each of the points 230 . value) can be modeled.

[수학식 1][Equation 1]

Figure pat00001
Figure pat00001

상술한 수학식 1에서, S는 개별 센싱 소자에 의해 센싱되는 센싱 정보(예를 들어, 검출된 세기 값)를 지시하는 행렬을 나타낼 수 있다. X는 개별 지점으로부터 센싱 소자들(S1 내지 S10)로 입사되는 광선에 대응하는 신호 값(예를 들어, 입사된 광선의 색상 세기 값)을 지시하는 행렬을 나타낼 수 있다. T는 변환 행렬로서 센싱 소자들(S1 내지 S10)에 의해 검출된 센싱 정보와 입사되는 빛에 대응하는 신호 정보 간의 관계를 나타낼 수 있다. 도 2에 도시된 구조에서 개별 지점들(X1 내지 X10)에 대응하는 광선들, 렌즈 엘리먼트들 및 센싱 소자들(S1 내지 S10)은 하기 수학식 2와 같이 모델링될 수 있다. 하기 수학식 2에서 개별 지점들(X1 내지 X10)은 이미지 센서로부터 무한 초점 위치(infinite focal point)에 배치된 것으로 모델링될 수 있다. 개별 지점들(X1 내지 X10)과 이미지 센서 간의 거리는 임계 거리보다 클 수 있다.In Equation 1, S may represent a matrix indicating sensing information (eg, a detected intensity value) sensed by an individual sensing element. X may represent a matrix indicating a signal value (eg, a color intensity value of the incident light beam) corresponding to a light beam incident from an individual point to the sensing elements S1 to S10 . T is a transformation matrix and may represent a relationship between sensing information detected by the sensing elements S1 to S10 and signal information corresponding to incident light. Light rays, lens elements, and sensing elements S1 to S10 corresponding to the individual points X1 to X10 in the structure shown in FIG. 2 may be modeled as in Equation 2 below. In Equation 2 below, the individual points X1 to X10 may be modeled as being disposed at an infinite focal point from the image sensor. The distance between the individual points X1 to X10 and the image sensor may be greater than a threshold distance.

[수학식 2][Equation 2]

Figure pat00002
Figure pat00002

상술한 수학식 2에서 설명의 편의를 위하여, 개별 지점들(X1 내지 X10) 각각에 대응하는 광선의 신호 정보(예를 들어, 광선 세기 값)를 X1 내지 X10으로 표시하였다. 또한, 센싱 소자들(S1 내지 S10)에서 검출된 센싱 정보(예를 들어, 센싱 세기 값)는 S1 내지 S10으로 표시하였다. 센싱 어레이(220)를 구성하는 센싱 소자들(S1 내지 S10)에 대응하는 센싱 정보와 개별 지점으로부터 입사되는 광선들(X1 내지 X10)에 대응하는 원본 신호 간의 관계(예를 들어, 상술한 변환 행렬)는 상술한 렌즈 엘리먼트와 센싱 소자 간의 배치, 렌즈 어레이(210)를 구성하는 렌즈 엘리먼트들의 개수, 센싱 어레이(220)를 구성하는 센싱 소자들(S1 내지 S10)의 개수 등에 기초하여 결정될 수 있다.For convenience of explanation in Equation 2, signal information (eg, light intensity values) of light rays corresponding to each of the individual points X1 to X10 is expressed as X1 to X10. In addition, sensing information (eg, a sensing intensity value) detected by the sensing elements S1 to S10 is indicated by S1 to S10. The relationship between the sensing information corresponding to the sensing elements S1 to S10 constituting the sensing array 220 and the original signal corresponding to the rays X1 to X10 incident from individual points (eg, the transformation matrix described above) ) may be determined based on the arrangement between the above-described lens element and the sensing element, the number of lens elements constituting the lens array 210 , the number of sensing elements S1 to S10 constituting the sensing array 220 , and the like.

상술한 수학식 2는 개별 지점들(X1 내지 X10)이 이미지 센서로부터 무한 초점 위치인 경우를 설명한 것으로서, 개별 지점들(X1 내지 X10)이 이미지 센서로부터 유한 초점 위치(finite focal point)에 위치하는 경우, 각 센싱 소자에서 수신되는 원본 신호는 피사체와 이미지 센서 간의 거리 및 이미지 센서의 기하 구조 등에 따라 달라질 수 있다.Equation 2 described above describes the case where the individual points X1 to X10 are infinity-focused from the image sensor, and the individual points X1 to X10 are located at finite focal points from the image sensor. In this case, the original signal received by each sensing element may vary depending on the distance between the subject and the image sensor and the geometry of the image sensor.

이미징 장치는 상술한 바와 같이 획득된 다양한 센싱 정보를 통해 복수의 저해상도 입력 이미지들을 획득할 수 있고, 저해상도 입력 이미지들로부터 보다 고해상도의 출력 이미지를 복원할 수 있다. 아래 도 3에서는 복수의 저해상도 입력 이미지들을 재배열함으로써 단일 이미지를 생성하는 방법을 설명한다.The imaging apparatus may acquire a plurality of low-resolution input images through the various sensing information acquired as described above, and may reconstruct a higher-resolution output image from the low-resolution input images. 3 below describes a method of generating a single image by rearranging a plurality of low-resolution input images.

도 3은 일 실시예에 따른 센싱 소자의 수와 렌즈 엘리먼트의 수 간의 관계를 나타낸 도면이다.3 is a diagram illustrating a relationship between the number of sensing elements and the number of lens elements according to an exemplary embodiment.

상술한 바와 같이, 결상 광학 렌즈 및 센싱 어레이는 분수 정렬 구조로 배치될 수 있고, 도 3에서는 렌즈 엘리먼트들의 개수 L과 센싱 소자들의 개수 P 간의 비율 P/L이 10/3인 예시를 도시한다.As described above, the imaging optical lens and the sensing array may be arranged in a fractional arrangement, and FIG. 3 shows an example in which the ratio P/L between the number L of lens elements and the number P of sensing elements is 10/3.

상술한 렌즈 어레이 및 센싱 어레이의 기하 구조에 따라, 각 렌즈 엘리먼트가 커버하는 센싱 소자들은, 다른 렌즈 엘리먼트에 의해 커버되는 센싱 소자가 센싱하는 라이트 필드 정보와 동일하지 않은 라이트 필드 정보를 수신할 수 있다. 예를 들어, 제1 센싱 소자(S1)는 도 2에 도시된 구조에서 제1 지점(X1)의 제1 라이트 필드, 제2 지점(X2)의 제2 라이트 필드, 및 제3 지점(X3)의 제3 라이트 필드의 조합으로 된 라이트 필드 정보를 수신할 수 있다. 반면, 그에 인접한 제2 센싱 소자(S2)는 도 2에 도시된 구조에서 제4 라이트 필드, 제5 라이트 필드, 및 제6 라이트 필드의 조합으로 된 라이트 필드 정보를 수신할 수 있다. 이와 같이, 각 센싱 소자는 다른 센싱 소자에서 센싱되는 라이트 필드 정보와 다른 라이트 필드 정보를 수신할 수 있다.According to the above-described geometric structures of the lens array and the sensing array, sensing elements covered by each lens element may receive light field information that is not the same as light field information sensed by a sensing element covered by another lens element. . For example, in the structure shown in FIG. 2 , the first sensing element S1 includes a first light field at a first point X1, a second light field at a second point X2, and a third point X3. It is possible to receive light field information that is a combination of the third light field of . On the other hand, the second sensing element S2 adjacent thereto may receive light field information in a combination of the fourth light field, the fifth light field, and the sixth light field in the structure shown in FIG. 2 . In this way, each sensing element may receive light field information different from light field information sensed by other sensing elements.

이미징 장치 및/또는 이미지 센서는, 고해상도의 영상 복원을 위해, 촬영된 복수의 저해상도 이미지들에서 피사체 상의 동일 또는 인접한 지점을 나타내는 픽셀들의 이미지 내 픽셀 위치(pixel position)를 라이트 필드 정보 간의 상관성에 기초하여 재배열할 수 있다.The imaging device and/or the image sensor may determine, in order to restore a high-resolution image, a pixel position in an image of pixels representing the same or adjacent point on a subject in a plurality of captured low-resolution images based on a correlation between light field information can be rearranged.

참고로, 이미지가 컬러 이미지인 경우 색상계에 따른 색상 값들을 픽셀 값으로서 가질 수 있는데, 이미지 센서는 물리적인 한계로 인해 한 지점에서 동시에 3가지 색상을 센싱할 수 없다. 센싱 소자의 전단에 한가지 색상만 통과 가능한 컬러 필터가 배치되는 것이 일반적이어서 각 센싱 소자들은 자신의 위치에서 센싱 가능한 색상이 인접하게 위치된 센싱 소자의 색상과 다를 수 있다. 이미징 장치 및/또는 이미지 센서는 특정 위치의 센싱 소자(예를 들어, 청색 통과 필터가 전단에 배치된 센싱 소자)에 의해 센싱되지 않는 색상 값(예를 들어, 적색 색상 값)을 그 주변에 위치한 센싱 소자(예를 들어, 적색 통과 필터가 전단에 배치된 센싱 소자)에 의해 센싱된 색상 값을 이용하여 보간(interpolate)할 수 있다. 이미징 장치 및/또는 이미지 센서는 색상 채널 별로 보간을 수행함으로써 3개의 색상 채널 이미지를 획득할 수 있다. 다만, 앞서 설명한 색상 값 보간은 순전히 예시로서 설계에 따라 다른 방법이 수행될 수도 있다. 이미징 장치 및/또는 이미지 센서는 후술하는 픽셀 재배열을 색상 채널 별로 수행할 수 있다. 예를 들어, RGB 색상계에 있어서, 이미징 장치 및/또는 이미지 센서는 저해상도의 적색 채널 이미지들의 픽셀들을 재배열함으로써 고해상도의 적색 채널 이미지를 복원할 수 있다. 유사하게, 이미징 장치 및/또는 이미지 센서는 고해상도의 청색 채널 이미지 및 녹색 채널 이미지를 복원할 수 있다. 따라서, 이미징 장치 및/또는 이미지 센서는 고해상도의 컬러 이미지를 획득할 수 있다. 다만, 이로 한정하는 것은 아니고, 이미징 장치 및/또는 이미지 센서는 상술한 바와 같이 보간을 통해 획득된 3개의 채널 이미지들을 병합하여 저해상도의 컬러 이미지들을 획득하고, 저해상도의 컬러 이미지들의 픽셀들을 재배열함으로써 고해상도의 컬러 이미지를 복원할 수도 있다.For reference, if the image is a color image, it may have color values according to the color system as pixel values, but the image sensor cannot sense three colors at the same time at one point due to a physical limitation. Since a color filter that allows only one color to pass through is generally disposed at the front end of the sensing element, a color that can be sensed at a location of each sensing element may be different from that of an adjacent sensing element. The imaging device and/or the image sensor may display a color value (eg, a red color value) that is not sensed by a sensing element at a specific location (eg, a sensing element having a blue pass filter disposed at the front end) located in the vicinity thereof. Interpolation may be performed using a color value sensed by a sensing element (eg, a sensing element having a red pass filter disposed at the front end). The imaging device and/or the image sensor may acquire three color channel images by performing interpolation for each color channel. However, the color value interpolation described above is purely an example, and other methods may be performed according to design. The imaging device and/or the image sensor may perform pixel rearrangement, which will be described later, for each color channel. For example, in the RGB color system, the imaging device and/or the image sensor may reconstruct a high-resolution red channel image by rearranging pixels of the low-resolution red channel images. Similarly, the imaging device and/or image sensor may reconstruct a high-resolution blue channel image and a green channel image. Accordingly, the imaging device and/or the image sensor may acquire a high-resolution color image. However, the present invention is not limited thereto, and the imaging device and/or image sensor acquires low-resolution color images by merging three channel images obtained through interpolation as described above, and rearranges pixels of the low-resolution color images. It is also possible to restore high-resolution color images.

이미징 장치 및/또는 이미지 센서는, 유사한 라이트 필드 정보를 수신하는 센싱 소자들에 대응하는 픽셀들의 위치를 서로 인접하게 재배열함으로써, 고해상도 이미지의 픽셀 정보를 구성할 수 있다. 앞서 설명한 바와 같이 각 센싱 소자는 복수의 라이트 필드들이 중첩된 정보를 수신할 수 있다. 두 센싱 소자들에서 센싱된 정보가 동일한 라이트 필드를 많이 포함할수록, 두 정보 간의 상관성이 높을 수 있다. 픽셀 위치의 재배열은 해당 픽셀이 촬영된 깊이를 고려하여 수행될 수 있다. 예를 들어, 픽셀이 촬영된 깊이는 임의의 깊이 값으로 설정되거나, 스테레오 이미지 매칭에 의해 추정되거나, 깊이 센서에 의해 측정될 수 있다. 다른 예를 들어, 픽셀이 촬영된 깊이에 대한 측정 및/또는 추정 없이도 피사체가 촬영된 깊이를 고려하여 픽셀 위치를 재배열하도록 설계된 뉴럴 네트워크에 의해 픽셀 위치의 재배열이 수행될 수도 있다. 이러한 픽셀 위치의 재배열은 픽셀 셔플(pixel shuffle)이라고 나타낼 수 있다. 예시적으로 여러 저해상도 입력 이미지들로부터 단일 고해상도 출력 이미지를 출력하도록 설계된 뉴럴 네트워크가 픽셀 위치들을 재배열하는데 사용될 수 있다. 뉴럴 네트워크는 다양한 깊이의 피사체를 촬영한 트레이닝 데이터 셋트에 기초하여 트레이닝될 수 있다.The imaging device and/or the image sensor may configure pixel information of a high-resolution image by rearranging positions of pixels corresponding to sensing elements that receive similar light field information to be adjacent to each other. As described above, each sensing element may receive information in which a plurality of light fields are overlapped. The more the information sensed by the two sensing elements includes the same light field, the higher the correlation between the two pieces of information. The rearrangement of pixel positions may be performed in consideration of the depth at which the corresponding pixel is photographed. For example, the depth at which the pixel is photographed may be set to an arbitrary depth value, estimated by stereo image matching, or measured by a depth sensor. As another example, the rearrangement of the pixel position may be performed by a neural network designed to rearrange the pixel position in consideration of the depth at which the object is captured without measuring and/or estimating the depth at which the pixel is captured. This rearrangement of pixel positions may be referred to as pixel shuffle. Illustratively, a neural network designed to output a single high-resolution output image from several low-resolution input images may be used to rearrange pixel positions. The neural network may be trained based on a training data set obtained by photographing subjects of various depths.

이미지 센서는 광선을 반사하는 지점들이 이미지 센서로부터 임계 거리(threshold distance)보다 먼 무한 초점 위치에 배치된 것을 가정하고, 각 센싱 소자에서 센싱될 라이트 필드 정보를 결정할 수 있다. 이미지 센서는 피사체 상에서 공간적으로 서로 인접한 지점들에서 방출되는 라이트 필드를 수신한 센싱 소자에 의해 출력된 출력 값을 갖는 픽셀들의 픽셀 위치들이 인접하도록 픽셀 위치들을 재배열할 수 있다.The image sensor may determine light field information to be sensed by each sensing element, assuming that points that reflect light rays are disposed at an infinity focus position that is farther than a threshold distance from the image sensor. The image sensor may rearrange the pixel positions so that the pixel positions of pixels having output values output by the sensing element receiving the light field emitted from points spatially adjacent to each other on the subject are adjacent to each other.

참고로, 도 2에서 개별 지점들(X1 내지 X10)은 무한 초점 거리에서 서로 공간적으로 인접한 순서대로 도시된 것일 수 있다. 제1 지점(X1)은 제2 지점(X2)과 인접할 수 있고, 제2 지점(X2)은 제1 지점(X1) 및 제3 지점(X3)과 인접할 수 있다. For reference, the individual points X1 to X10 in FIG. 2 may be illustrated in order of being spatially adjacent to each other at an infinite focal length. The first point X1 may be adjacent to the second point X2 , and the second point X2 may be adjacent to the first point X1 and the third point X3 .

재배열되기 이전의 센싱 소자들(311) 중 제1 센싱 소자(S1)에서 센싱된 라이트 필드 정보 및 제8 센싱 소자(S8)에서 센싱된 라이트 필드 정보는 둘 다 제2 지점(X2) 및 제3 지점(X3)에 대응하는 라이트 필드를 포함할 수 있다. 따라서, 제1 센싱 소자(S1) 및 제8 센싱 소자(S8)는 서로 유사한 라이트 필드 정보를 수신할 수 있다. 상술한 수학식 2를 서로 유사한 라이트 필드 정보에 대응하는 픽셀들이 인접하도록 재배열하면, 아래 수학식 3과 같이 나타낼 수 있다.Both the light field information sensed by the first sensing element S1 and the light field information sensed by the eighth sensing element S8 among the sensing elements 311 before being rearranged are the second point X2 and the second point X2. A light field corresponding to three points X3 may be included. Accordingly, the first sensing element S1 and the eighth sensing element S8 may receive light field information similar to each other. When Equation 2 is rearranged so that pixels corresponding to light field information similar to each other are adjacent to each other, Equation 3 below can be expressed.

[수학식 3][Equation 3]

Figure pat00003
Figure pat00003

상술한 수학식 3에 따라 재배열된 센싱 소자들(312)은 도 3과 같이 도시될 수 있다. 제1 센싱 소자(S1)는 제1 렌즈에 의해 커버되고, 제8 센싱 소자(S8)는 제3 렌즈에 의해 커버되며, 제5 센싱 소자(S5)는 제2 렌즈에 의해 커버될 수 있다. 각 센싱 소자에서 센싱된 센싱 정보는 이미지를 구성하는 픽셀에 대응하므로, 서로 다른 렌즈를 통과한 광선들에 대응하는 센싱 정보들이 인접하도록, 이미지 센서 및/또는 이미징 장치는 픽셀들을 재배열할 수 있다. 재배열된 이미지(325)는 개별 렌즈에 의해 촬영되는 저해상도 이미지들(321, 322, 323, 324)에서 유사한 라이트 필드 정보를 수신한 센싱 소자들에 의한 센싱 값들을 갖는 픽셀들의 픽셀 위치들이 인접하게 배치된 이미지일 수 있다.The sensing elements 312 rearranged according to Equation 3 above may be illustrated as shown in FIG. 3 . The first sensing element S1 may be covered by the first lens, the eighth sensing element S8 may be covered by the third lens, and the fifth sensing element S5 may be covered by the second lens. Since sensing information sensed by each sensing element corresponds to a pixel constituting an image, the image sensor and/or imaging device may rearrange the pixels so that sensing information corresponding to rays passing through different lenses are adjacent to each other. . In the rearranged image 325, the pixel positions of pixels having values sensed by sensing elements that have received similar light field information in the low-resolution images 321, 322, 323, and 324 photographed by individual lenses are adjacent to each other. It may be a placed image.

도 4는 일 실시예에 따른 이미징 장치에서 멀티 렌즈 어레이 구조에 따른 초점 거리 감소를 설명한다.4 illustrates a reduction in a focal length according to a multi-lens array structure in an imaging apparatus according to an exemplary embodiment.

이미징 장치의 부피는 렌즈 엘리먼트의 초점 거리(focal length)에 의하여 결정될 수 있다. 렌즈 엘리먼트에 의하여 굴절된 빛을 수집하기 위하여 이미지 센서가 렌즈 엘리먼트의 초점 거리에 대응하는 거리만큼 렌즈 엘리먼트로부터 이격되어 배치되어야 하기 때문이다. 렌즈 엘리먼트의 초점 거리는 이미징 장치(100)의 시야각과 렌즈 엘리먼트의 사이즈에 의하여 결정된다. 시야각이 고정될 경우 렌즈 엘리먼트의 사이즈에 비례하여 초점 거리가 길어지고, 일정한 시야각 범위의 이미지를 촬영하기 위해서는, 센싱 어레이의 사이즈가 증가함에 따라 렌즈 엘리먼트의 사이즈가 증가되어야 한다.The volume of the imaging device may be determined by the focal length of the lens element. This is because the image sensor must be disposed to be spaced apart from the lens element by a distance corresponding to the focal length of the lens element in order to collect the light refracted by the lens element. The focal length of the lens element is determined by the viewing angle of the imaging apparatus 100 and the size of the lens element. When the viewing angle is fixed, the focal length is increased in proportion to the size of the lens element, and in order to take an image in a constant viewing angle range, the size of the lens element must be increased as the size of the sensing array increases.

전술한 바에 의하면, 시야각 및 이미지의 해상도를 유지하면서 이미지의 감도를 증가시키려면, 이미지 센서의 부피가 증가된다. 이미지의 해상도를 유지하면서 이미지의 감도를 증가시키려면, 센싱 어레이에 포함된 센싱 소자들의 수를 유지하면서 각 센싱 소자의 사이즈를 증가시켜야 하므로 센싱 어레이의 사이즈가 증가된다. 시야각을 유지하려면, 센싱 어레이의 사이즈가 증가함에 따라 렌즈 엘리먼트의 사이즈가 증가하며 렌즈 엘리먼트의 초점 거리가 길어지므로, 이미지 센서의 부피가 증가된다.As described above, in order to increase the sensitivity of the image while maintaining the viewing angle and the resolution of the image, the volume of the image sensor is increased. In order to increase the sensitivity of the image while maintaining the resolution of the image, the size of each sensing element must be increased while maintaining the number of sensing elements included in the sensing array, so that the size of the sensing array is increased. In order to maintain the viewing angle, as the size of the sensing array increases, the size of the lens element increases and the focal length of the lens element increases, thereby increasing the volume of the image sensor.

렌즈 어레이에 포함된 렌즈 엘리먼트들 각각의 사이즈를 감소시킬수록, 다시 말해 렌즈 어레이 상에서 동일한 넓이에 포함되는 렌즈들의 수를 증가시킬수록, 렌즈 엘리먼트의 초점 거리는 작아질 수 있어, 이미징 장치의 두께가 감소된 박형 카메라(thin camera)가 구현될 수 있다. 도 4에 도시된 바와 같이 단일 렌즈(410)인 경우의 초점 거리 f에 비해, 멀티 렌즈(420)인 경우의 초점 거리 f'이 감소될 수 있다. 예를 들어, 단일 렌즈(410) 대신 2Х2개의 멀티 렌즈(420)가 사용되는 경우, 초점 거리 f'=f/2가 될 수 있다.As the size of each of the lens elements included in the lens array is reduced, that is, as the number of lenses included in the same area on the lens array is increased, the focal length of the lens element may become smaller, so that the thickness of the imaging device is reduced. A thin camera may be implemented. As shown in FIG. 4 , compared to the focal length f in the case of the single lens 410 , the focal length f′ in the case of the multi-lens 420 may be reduced. For example, when 2Х2 multi-lenses 420 are used instead of the single lens 410, the focal length f'=f/2.

다만, 멀티 렌즈(420)에서는 개별 렌즈에 빛이 입사되는 면적 S'이 단일 렌즈(410)에 빛이 입사되는 면적 S보다 작을 수 있다. 예를 들어, 2Х2개의 멀티 렌즈(420)의 입사 면적 S'=S/4일 수 있다. 또한, 개별 센싱 소자(예를 들어, 도 4의 S2)에 입사되는 광선들의 각도 범위에 대응하는 입사 입체각(solid angle) Ω은 초점 거리 감소로 인해 증가할 수 있다. 예를 들어, 멀티 렌즈(420)의 개별 센싱 소자에 대응하는 입사 입체각 Ω'=4 Ω일 수 있다. 도 5에서는 입사 입체각 증가에 따른 블러 커널을 설명한다.However, in the multi-lens 420 , the area S' on which light is incident on the individual lenses may be smaller than the area S' on which the light is incident on the single lens 410 . For example, the incident area of the 2Х2 multi-lens 420 may be S'=S/4. Also, an incident solid angle Ω corresponding to an angular range of light rays incident on an individual sensing element (eg, S2 of FIG. 4 ) may increase due to a decrease in focal length. For example, the incident solid angle Ω′=4 Ω corresponding to the individual sensing elements of the multi-lens 420 may be. In FIG. 5 , a blur kernel according to an increase in the incident solid angle will be described.

도 5는 일 실시예에 따른 이미징 장치에서 멀티 렌즈 어레이 구조에 따른 블러 커널을 설명한다.5 illustrates a blur kernel according to a multi-lens array structure in an imaging apparatus according to an embodiment.

멀티 렌즈 어레이(510) 구조에서 각 렌즈의 시야각(FoV, Field of View)이 동일하게 설계될 경우, 도 4에서 상술한 바와 같이 동일 면적 대비 렌즈의 개수가 증가할 수록 초점 거리가 감소하면서 입사 입체각이 증가할 수 있다. 입사 입체각이 증가할 수록 센싱 소자에서 중첩되는 신호가 증가할 수 있고, 신호가 중첩됨에 따라 센싱 소자에 의해 센싱되는 정보가 블러(Blur)해질 수 있다. 예를 들어, 단일 렌즈로 된 이미징 장치에 있어서 FoV가 100도이고, 이미지 센서(520)의 센싱 소자 개수가 100개라면, 각 센싱 소자의 FoV는 1도이다. 동일한 면적에서 렌즈 개수가 2개면, 해당 이미지 센서(520)에서 각 렌즈에 의해 커버되는 센싱 소자의 개수는 50개가 된다. 따라서, 각 센싱 소자의 FoV는 2도가 된다. 동일한 면적에서 렌즈 개수가 50개면, 해당 이미지 센서(520)에서 각 렌즈에 의해 커버되는 센싱 소자의 개수는 2개가 되고, 각 센싱 소자별 FoV는 50도가 된다. 개별 센싱 소자에서 센싱 가능한 FoV가 증가할수록 더 많은 라이트 필드 정보가 중첩되므로, 센싱 정보의 블러 정도(blur level)도 증가하게 된다.When the field of view (FoV) of each lens in the structure of the multi-lens array 510 is designed to be the same, as described above in FIG. 4 , as the number of lenses increases relative to the same area, the focal length decreases and the incident solid angle This can increase. As the incident solid angle increases, signals overlapped by the sensing element may increase, and as the signals overlap, information sensed by the sensing element may be blurred. For example, in a single-lens imaging device, if FoV is 100 degrees and the number of sensing elements of the image sensor 520 is 100, FoV of each sensing element is 1 degree. If the number of lenses is two in the same area, the number of sensing elements covered by each lens in the corresponding image sensor 520 becomes 50. Accordingly, the FoV of each sensing element becomes 2 degrees. If the number of lenses is 50 in the same area, the number of sensing elements covered by each lens in the image sensor 520 becomes two, and the FoV of each sensing element becomes 50 degrees. As the FoV that can be sensed by an individual sensing element increases, more light field information overlaps, and thus the blur level of the sensing information also increases.

블러 커널(blur kernel)은 개별 센싱 소자에서 라이트 필드 정보의 중첩으로 인해 발생하는 블러가 모델링된 커널로서, 블러 모델 또는 블러 필터라고도 나타낼 수 있다. 멀티 렌즈 어레이(510)를 통해

Figure pat00004
내지
Figure pat00005
의 라이트 필드 정보가 렌즈 구경 S 만큼 집광되고, 집광된 라이트 필드 정보가 제i 센싱 소자에서 센싱될 수 있다.
Figure pat00006
는 센싱 소자의 최외곽 지점에서 집광되는 광선 다발을 나타내고,
Figure pat00007
는 해당 센싱 소자의 반대편 최외곽 지점에서 집광되는 광선 다발을 나타낼 수 있다. 여기서 i는 1 이상 n이하의 정수이고, n은 이미지 센서(520)에 포함된 센싱 소자들의 총 개수일 수 있다. 집광된 광선 다발의 신호 세기는 하기 수학식 4 및 수학식 5와 같이 나타낼 수 있다.The blur kernel is a kernel in which blur generated due to overlap of light field information in individual sensing devices is modeled, and may also be referred to as a blur model or a blur filter. Through the multi-lens array 510
Figure pat00004
inside
Figure pat00005
The light field information of may be condensed by the lens aperture S, and the condensed light field information may be sensed by the ith sensing element.
Figure pat00006
denotes a bundle of rays condensed at the outermost point of the sensing element,
Figure pat00007
may represent a bundle of light rays condensed at the outermost point opposite to the corresponding sensing element. Here, i is an integer greater than or equal to 1 and less than or equal to n, and n may be the total number of sensing elements included in the image sensor 520 . The signal intensity of the focused ray bundle can be expressed as Equations 4 and 5 below.

[수학식 4][Equation 4]

Figure pat00008
Figure pat00008

[수학식 5][Equation 5]

Figure pat00009
Figure pat00009

상술한 수학식 4에서 xa는 a방향을 향하는 광선들이 집광된 세기를 나타낼 수 있고, 수학식 5에서 xb는 b방향을 향하는 광선들이 집광된 세기를 나타낼 수 있다.In Equation 4, x a may represent the concentration of light rays oriented in the a direction, and in Equation 5, x b may represent the concentration of light rays oriented in the b direction.

제i 센싱 소자는 FoV(Ω) 내의 모든 라이트 필드 정보를 누적한 세기 값을 센싱할 수 있다. 제i 센싱 소자의 시야각 내 라이트 필드 정보가 누적된 세기 값이 이산적으로(discretely) 근사화(approximate)되면, 하기 수학식 6과 같이 나타낼 수 있다.The ith sensing element may sense an intensity value accumulating all light field information in FoV(Ω). When the intensity value of the accumulated light field information within the viewing angle of the i-th sensing element is discretely approximated, it can be expressed as Equation 6 below.

[수학식 6][Equation 6]

Figure pat00010
Figure pat00010

상술한 수학식 6에서 s[i]는 제i 센싱 소자에서 센싱되는 세기 값을 나타낼 수 있다. 멀티 렌즈 어레이(510)를 포함하는 결상 광학계로 구성되는 이미징 장치에서, 이미지의 블러 커널은 각 센싱 소자의 FoV내 라이트 필드 정보가 동일한 크기(예를 들어, 1)로 중첩되는 것으로 모델링될 수 있다. 제i 센싱 소자에서 센싱되는 센싱 정보 s[i]는 원본 라이트 필드 정보 xΩ[i]와 균일 블러 커널(Uniform Blur kernel) h[i]의 컨볼루션 관계로 하기 수학식 7과 같이 모델링될 수 있다.In Equation 6, s[i] may represent an intensity value sensed by the i-th sensing element. In an imaging device configured with an imaging optical system including a multi-lens array 510, the blur kernel of the image may be modeled as overlapping light field information in FoV of each sensing element with the same size (eg, 1). . The sensing information s[i] sensed by the i-th sensing element can be modeled as Equation 7 below as a convolution relationship between the original light field information x Ω [i] and the Uniform Blur kernel h[i]. have.

[수학식 7][Equation 7]

Figure pat00011
Figure pat00011

상술한 수학식 7에서 h[i]는 블러 커널, t[i]는 노이즈 성분을 나타낼 수 있다. 상술한 수학식 7을 푸리에 변환하면, 아래 수학식 8과 같이 컨볼루션 연산이 곱셈으로 치환될 수 있다.In Equation 7 described above, h[i] may represent a blur kernel, and t[i] may represent a noise component. When the above-described Equation 7 is Fourier transformed, the convolution operation can be replaced with multiplication as shown in Equation 8 below.

[수학식 8][Equation 8]

Figure pat00012
Figure pat00012

상술한 수학식 8에서 XΩ(f)는 원본 신호의 주파수 정보, H(f)는 블러 커널의 주파수 응답 특성, T(f)는 노이즈의 주파수 정보를 나타낼 수 있다. 상술한 수학식 8로부터, 복원의 대상인 원본 신호의 주파수 정보 XΩ(f)는 하기 수학식 9와 같이 계산될 수 있다.In Equation 8, X Ω (f) may represent frequency information of an original signal, H(f) may represent a frequency response characteristic of a blur kernel, and T(f) may represent frequency information of noise. From Equation 8 described above, frequency information X Ω (f) of the original signal to be restored can be calculated as Equation 9 below.

[수학식 9][Equation 9]

Figure pat00013
Figure pat00013

상술한 수학식 9에 대해 푸리에 역변환(Inverse Fourier Transform)이 적용되면, 디블러된 xΩ[i]이 획득될 수 있다.When an inverse Fourier transform is applied to Equation 9 above, deblurred x Ω [i] may be obtained.

다만, 상술한 수학식 9에서 노이즈 성분인 T(f)는 통계적인 확률 분포로 모델링되더라도 미지의(Unknown) 성분이므로, T(f))/H(f)으로 인한 오차가 발생할 수 있다. 도 5에 도시된 바와 같이 공간 도메인(Spatial Domain)에서의 균일 블러 커널 h[i]로 인해 노이즈 성분이 증폭될 수 있다. 균일 블러 커널 h[i]이 주파수 변환된 주파수 응답 특성 H(f)는 제로 크로싱 포인트들(590)을 포함할 수 있으며, 주파수 응답 특성 H(f)의 역수에서는 이러한 제로 크로싱 포인트들(590)로 인해 임펄스 성분들이 발생할 수 있다. 임펄스 성분들이 노이즈 성분과 곱해지므로, 디블러(Deblur) 과정에서 노이즈가 크게 증폭될 수 있다.However, since T(f), which is a noise component in Equation 9, is an unknown component even if it is modeled with a statistical probability distribution, an error may occur due to T(f))/H(f). As shown in FIG. 5 , a noise component may be amplified due to the uniform blur kernel h[i] in the spatial domain. The frequency response characteristic H(f) in which the uniform blur kernel h[i] is frequency-converted may include zero crossing points 590, and in the reciprocal of the frequency response characteristic H(f), these zero crossing points 590 As a result, impulse components may be generated. Since the impulse components are multiplied by the noise component, noise may be greatly amplified during the deblur process.

도 6은 일 실시예에 따른 마스크 어레이를 포함하는 이미징 장치의 블러 커널을 설명한다.6 illustrates a blur kernel of an imaging device including a mask array according to an exemplary embodiment.

이미징 장치의 블러 커널 h'[i]은 노이즈 성분이 억제되도록 설계될 수 있다. 예를 들어, 블러 커널 h'[i]은 주파수 도메인의 주파수 응답 특성 H'(f)에서 제로 크로싱 포인트들(690)이 최소화되도록 설계될 수 있다.The blur kernel h'[i] of the imaging device may be designed such that a noise component is suppressed. For example, the blur kernel h'[i] may be designed such that the zero crossing points 690 are minimized in the frequency response characteristic H'(f) of the frequency domain.

마스크 어레이는 결상 렌즈 어레이와 센싱 소자 사이에 배치되어, 일부 방향의 빛을 차단하는 마스크 엘리먼트를 포함할 수 있다. 예를 들어, 마스크 어레이는 멀티 렌즈 어레이를 통과한 빛 중 일부 방향의 빛을 차단하고, 다른 방향의 빛을 선택적으로 통과시킴으로써, 도 6에 도시된 바와 같은 블러 커널 h'[i]을 형성할 수 있다.The mask array may include a mask element disposed between the imaging lens array and the sensing element to block light in some directions. For example, the mask array blocks light in some directions among the light passing through the multi-lens array and selectively passes light in other directions to form a blur kernel h'[i] as shown in FIG. can

도 7은 일 실시예에 따른 마스크 어레이가 배치된 이미징 장치의 단면도를 도시한다.7 is a cross-sectional view of an imaging device in which a mask array is disposed according to an embodiment.

이미징 장치는 결상 렌즈 어레이(710) 및 이미지 센서(720)를 포함할 수 있다. 결상 렌즈 어레이(710)는 외부로부터 수신되는 빛을 전달하는 결상 광학 렌즈들을 포함할 수 있으며, 도 1에서 상술한 형태로 배치될 수 있다. 결상 광학 렌즈는 결상 광학계(image forming optical system)를 형성할 수 있다.The imaging device may include an imaging lens array 710 and an image sensor 720 . The imaging lens array 710 may include optical imaging lenses that transmit light received from the outside, and may be disposed in the form described above in FIG. 1 . The imaging optical lens may form an image forming optical system.

결상 광학계는 센싱 어레이(721)로의 결상(imaging)을 수행하는 광학계로서, 광학 특성은 결상 렌즈 어레이(710)의 초점 거리, 크기, 형상 및 구조와 함께 결상 렌즈 어레이(710)와 센싱 어레이(721) 간의 기하 관계(geometrical relationship) 등에 의해 결정될 수 있다. 참고로, 결상 광학계는 개별 결상 광학 렌즈를 통과한 빛이 다른 결상 광학 렌즈에 의해 커버되는 다른 센싱 영역으로 도달하는 것을 방지하는 차단부(711)를 더 포함할 수 있다. 또한, 결상 광학계는 결상 광학 렌즈로 빛을 전달하는 개구부(aperture)(미도시됨)를 더 포함할 수 있다.The imaging optical system is an optical system that performs imaging to the sensing array 721 , and the optical characteristics are the imaging lens array 710 and the sensing array 721 together with the focal length, size, shape and structure of the imaging lens array 710 . ) may be determined by a geometrical relationship between them. For reference, the imaging optical system may further include a blocking unit 711 that prevents light passing through individual imaging optical lenses from reaching other sensing regions covered by other imaging optical lenses. In addition, the imaging optical system may further include an aperture (not shown) for transmitting light to the imaging optical lens.

센싱 어레이(721)는 외부로부터 수신되는 빛을 센싱하는 복수의 센싱 소자들을 포함할 수 있다. 센싱 소자들 각각은 복수 방향들의 빛을 수신할 수 있으며, 한 방향을 따라 이미징 장치에 입사되는 빛 다발(light bundle)은 결상 광학 렌즈에 의해 해당 방향의 광선(ray)으로 집광될 수 있다. 임의의 센싱 영역에 속하는 센싱 소자는, 해당 센싱 영역을 커버하는 결상 광학 렌즈에 의해 집광된 복수의 방향들 각각에 대응하는 광선을 수신할 수 있다. 도 7에서는 결상 광학 렌즈를 통과하여 센싱 소자를 향하는 제1 방향의 광선(791) 및 제2 방향의 광선(792)을 예로 들어 설명한다.The sensing array 721 may include a plurality of sensing elements for sensing light received from the outside. Each of the sensing elements may receive light in a plurality of directions, and a light bundle incident on the imaging device along one direction may be condensed into light rays in the corresponding direction by an imaging optical lens. A sensing element belonging to an arbitrary sensing region may receive a light beam corresponding to each of a plurality of directions focused by an imaging optical lens covering the sensing region. In FIG. 7 , a light beam 791 in a first direction and a light beam 792 in a second direction passing through the imaging optical lens and directed toward the sensing element will be described as examples.

앞서 설명한 바와 같이, 결상 광학계는 멀티 렌즈 구조의 결상 렌즈 어레이(710)를 포함하므로, 센싱 어레이(721)의 개별 센싱 소자는 여러 방향에서 수신되는 빛을 중첩하여 센싱할 수 있다. 다시 말해, 센싱 어레이(721)에 결상하는(imaging) 빛의 중첩은 도 6에 도시된 블러 커널과 같이 모델링될 수 있다.As described above, since the imaging optical system includes the imaging lens array 710 having a multi-lens structure, individual sensing elements of the sensing array 721 may overlap and sense light received from various directions. In other words, the overlap of light imaging on the sensing array 721 may be modeled as the blur kernel shown in FIG. 6 .

마스크 어레이(724)는 복수의 마스크 엘리먼트들을 포함하고, 센싱 어레이(721) 상에 배치될 수 있다. 마스크 엘리먼트는 센싱 어레이(721)의 센싱 소자가 배치되는 위치 위에 배치될 수 있고, 해당 위치를 향하는 빛의 일부 또는 전부를 흡수하여 차단할 수 있다. 마스크 어레이(724)는 도 5에 도시된 블러 커널에 대응하는 결상 광학계를 도 6에 도시된 블러 커널 h'[i]에 대응하는 광학계로 수정할 수 있다. 마스크 어레이(724)는 결상 광학 렌즈를 통과한 빛을 코딩(code)하여 센싱 어레이(721)로 전달하는 것으로 해석될 수도 있으며, 코디드 마스크 어레이(724)(coded mask array)라고도 나타낼 수 있다. 마스크 어레이(724)는 센싱 어레이와 접촉하는 위치 또는 센싱 어레이 내부에 배치될 수 있다. 어느 위치에 배치되든지 마스크 어레이(724)와 센싱 소자(예를 들어, 포토 다이오드(721a 내지 721e))의 간격은 없는 것이 바람직하지만 제조 공정의 한계로 인해 대략 1μm 이내의 이격이 존재할 수 있다.The mask array 724 includes a plurality of mask elements and may be disposed on the sensing array 721 . The mask element may be disposed on a position where the sensing element of the sensing array 721 is disposed, and may absorb and block some or all of light directed to the corresponding position. The mask array 724 may correct the imaging optical system corresponding to the blur kernel shown in FIG. 5 to the optical system corresponding to the blur kernel h'[i] shown in FIG. 6 . The mask array 724 may be interpreted as coding light passing through the imaging optical lens and transmitting it to the sensing array 721 , and may also be referred to as a coded mask array 724 . The mask array 724 may be disposed in a position in contact with the sensing array or within the sensing array. It is preferable that there is no gap between the mask array 724 and the sensing element (for example, the photodiodes 721a to 721e) regardless of where they are disposed.

복수의 마스크 엘리먼트들은 블러 커널의 주파수 응답 특성의 제로 크로싱이 최소화되는 패턴으로 배치될 수 있다. 예시적으로, 결상 광학 렌즈를 통과한 제1 광선(791)은 마스크 엘리먼트들 사이를 통해 센싱 소자로 입사할 수 있다. 제2 광선(792)은 마스크 엘리먼트에 입사되어 흡수될 수 있다. 제2 광선(792)은 도 6에서 설명한 블러 커널의 주파수 응답 특성에서 제로 크로싱을 유발하는 광선일 수 있다. 따라서, 마스크 어레이(724)는 제로 크로싱을 유발하는 방향의 광선들을 차단할 수 있다. The plurality of mask elements may be arranged in a pattern in which zero crossing of the frequency response characteristic of the blur kernel is minimized. For example, the first ray 791 passing through the imaging optical lens may be incident on the sensing element through between the mask elements. The second ray 792 may be incident on the mask element and absorbed. The second ray 792 may be a ray that induces zero crossing in the frequency response characteristic of the blur kernel described with reference to FIG. 6 . Accordingly, the mask array 724 may block light rays in the direction causing the zero crossing.

이미징 장치 및/또는 이미지 센서(720)는 마스크 어레이(724)를 통해 선택적으로 필터링된 방향의 라이트 필드 정보를 중첩하여 센싱할 수 있다. 따라서, 마스크 어레이(724)를 포함하는 이미징 장치 및/또는 이미지 센서(720)는 감소된 노이즈로 이미지를 복원할 수 있다. 마스크 어레이(724)에 의한 광량 손실로 인한 노이즈는 소폭 증가하는 반면, 마스크 어레이(724)로 인해 수정되는 블러 커널에 의한 노이즈 억제 효과가 대폭 증가할 수 있다. 결과적으로 마스크 어레이(724)의 마스킹 패턴에 의해 이미지 복원 화질이 향상될 수 있다.The imaging device and/or the image sensor 720 may overlap and sense light field information in a direction selectively filtered through the mask array 724 . Accordingly, the imaging device including the mask array 724 and/or the image sensor 720 may reconstruct an image with reduced noise. While noise due to loss of light quantity by the mask array 724 slightly increases, the noise suppression effect by the blur kernel corrected by the mask array 724 may significantly increase. As a result, image restoration quality may be improved by the masking pattern of the mask array 724 .

복수의 마스크 엘리먼트들은 마스킹 패턴을 따라 형성 및/또는 배치될 수 있다. 마스킹 패턴은 센싱 소자 단위 또는 센싱 소자 그룹 단위로 반복될 수 있다. 제1 센싱 소자(721a) 상에 배치되는 제1 마스킹 패턴, 제2 센싱 소자(721b) 상에 배치되는 제2 마스킹 패턴, 제3 센싱 소자(721c) 상에 배치되는 제3 마스킹 패턴, 제4 센싱 소자(721d) 상에 배치되는 제4 마스킹 패턴, 및 제5 센싱 소자(721e) 상에 배치되는 제5 마스킹 패턴은 모두 동일할 수 있다.The plurality of mask elements may be formed and/or disposed along the masking pattern. The masking pattern may be repeated in units of sensing elements or groups of sensing elements. A first masking pattern disposed on the first sensing device 721a, a second masking pattern disposed on the second sensing device 721b, a third masking pattern disposed on the third sensing device 721c, and a fourth The fourth masking pattern disposed on the sensing device 721d and the fifth masking pattern disposed on the fifth sensing device 721e may be the same.

마스크 어레이(724)에 대한 마스킹 패턴의 설계는 아래 도 8에서 설명한다.The design of the masking pattern for the mask array 724 will be described with reference to FIG. 8 below.

도 8은 일 실시예에 따른 마스크 어레이의 마스킹 패턴을 설계하는 방법을 설명한다.8 illustrates a method of designing a masking pattern of a mask array according to an exemplary embodiment.

복수의 마스크 엘리먼트들은 필터의 주파수 응답 특성에 기초하여 결정된 비용 함수(cost function)가 최소화되는 패턴으로 형성될 수 있다. 마스크 어레이에서 개별 센싱 소자 단위 또는 개별 센싱 소자 그룹 단위 별로 배치되는 마스킹 패턴은, 블러 커널의 주파수 응답 특성의 역수인 1/H(f)의 유클리디언 놈(Euclidean Norm)이 최소화되는 패턴으로 결정될 수 있다.The plurality of mask elements may be formed in a pattern in which a cost function determined based on a frequency response characteristic of the filter is minimized. The masking pattern arranged for each individual sensing element unit or individual sensing element group unit in the mask array is determined as a pattern in which the Euclidean norm of 1/H(f), which is the reciprocal of the frequency response characteristic of the blur kernel, is minimized. can

우선, 단계(810)에서 마스크 어레이의 목표 개구율(target aperture ratio)이 설정될 수 있다. 개구율은 마스킹 패턴에 대응하는 패턴 영역으로 입사된 빛 대비 투과되는 빛의 비율로서, 예시적으로 패턴 영역의 면적 대비 개방된(open) 영역의 면적 비를 나타낼 수 있다. 패턴 영역은, 마스크 어레이에서 센싱 소자 또는 센싱 소자 그룹에 대응하는 영역을 나타낼 수 있다. 개구율은, 예를 들어 10% 내지 90%, 또는 30% 내지 70%의 비율로 설정될 수 있다. 바람직하게는 개구율이 40% 내지 60%의 비율로 설정될 수 있다. First, in step 810 , a target aperture ratio of the mask array may be set. The aperture ratio is a ratio of light incident to a pattern region corresponding to the masking pattern to light transmitted therethrough, and may represent, for example, an area ratio of an open region to an area of the pattern region. The pattern region may indicate a region corresponding to a sensing element or a sensing element group in the mask array. The aperture ratio may be set, for example, at a ratio of 10% to 90%, or 30% to 70%. Preferably, the aperture ratio may be set at a ratio of 40% to 60%.

단계(820)에서 설정된 개구율에 따른 마스킹 패턴이 생성될 수 있다. 마스크 어레이는 개별 센싱 소자에 대응하는 패턴 영역으로 분할될 수 있고, 패턴 영역은 복수의 칸들(spaces)로 분할될 수 있다. 개별 칸은 마스크 엘리먼트가 형성될 수 있는 단위 영역을 정의할 수 있다. 마스크 엘리먼트가 형성된 칸은 닫힌 칸(closed space), 마스크 엘리먼트가 형성되지 않은 칸은 열린 칸(open space)이라고 나타낼 수 있다. 다시 말해, 마스크 어레이에서 닫힌 칸은 빛의 전체 또는 일부 광량을 흡수하고, 열린 칸은 빛을 통과시킬 수 있다. 상술한 단계(810)에서 설정된 목표 개구율에 따라 열린 칸 및 닫힌 칸이 조합된 마스킹 패턴들이 생성될 수 있다. 패턴 영역이 N×N개의 칸들을 포함하고, 목표 개구율이 50%이면, N2/2 개의 마스킹 패턴들이 생성될 수 있다. 도 10에서 후술하겠으나, 닫힌 칸은 투과율 별로 구분될 수도 있다.A masking pattern according to the aperture ratio set in operation 820 may be generated. The mask array may be divided into pattern regions corresponding to individual sensing elements, and the pattern region may be divided into a plurality of spaces. Each cell may define a unit area in which a mask element may be formed. A cell in which the mask element is formed may be referred to as a closed space, and a cell in which the mask element is not formed may be referred to as an open space. In other words, in the mask array, a closed cell can absorb all or part of the amount of light, and an open cell can transmit light. Masking patterns in which open and closed cells are combined may be generated according to the target aperture ratio set in the above-described step 810 . When the pattern area includes N×N cells and the target aperture ratio is 50%, N 2 /2 masking patterns may be generated. As will be described later with reference to FIG. 10 , the closed cells may be classified according to transmittance.

단계(820)에서는 설명의 편의를 위해 전체 조합을 생성하는 예시를 설명하였으나, 이로 한정되는 것은 아니다. 다른 예를 들어, 사전에 정의된 패턴이 조합되거나, 주어진 조합들 내에서 패턴 간 스왑(Swap), 토글(Toggle)에 의해 탐색하고자 하는 마스킹 패턴이 생성될 수 있다. 예를 들어, 패턴이 대칭(Symmetry)이라는 조건이 추가되면, 반복되는 영역에 대해서만 패턴이 탐색될 수 있고, 생성된 패턴은 대칭해서 사용될 수 있다.In step 820, an example of generating the entire combination has been described for convenience of description, but is not limited thereto. For another example, predefined patterns may be combined, or a masking pattern to be searched for may be generated by Swap or Toggle between patterns within the given combinations. For example, if the condition that the pattern is symmetric is added, the pattern may be searched only for a repeated region, and the generated pattern may be used symmetrically.

이어서 단계(830)에서 생성된 마스킹 패턴 별 비용 함수 값이 산출될 수 있다. 앞서 도 5 및 도 6에서 상술한 블러 커널의 주파수 응답 특성의 역수에 기초한 비용 함수가 사용될 수 있다. 마스킹 패턴을 따라 형성된 마스크 엘리먼트들로 인해 결상 광학계의 블러 커널이 수정되고, 수정된 블러 커널의 주파수 응답 특성 H'(f)이 산출될 수 있다. 수정된 블러 커널의 주파수 응답 특성의 역수 1/H'(f)에 기초한 비용 함수는 주파수 응답 특성을 나타내는 함수의 역수의 유클리디언 놈(Euclidean norm), 역수의 분산(variance), 및/또는 함수의 유클리디언 놈의 역수에 기초하여 결정될 수 있다. 예시적으로 아래 수학식 10과 같은 비용 함수가 사용될 수 있다.Subsequently, a cost function value for each masking pattern generated in step 830 may be calculated. A cost function based on the reciprocal of the frequency response characteristic of the blur kernel described above with reference to FIGS. 5 and 6 may be used. Due to the mask elements formed along the masking pattern, the blur kernel of the imaging optical system may be modified, and a frequency response characteristic H'(f) of the modified blur kernel may be calculated. The cost function based on the reciprocal 1/H'(f) of the frequency response characteristic of the modified blur kernel is the Euclidean norm of the reciprocal of the function indicating the frequency response characteristic, the variance of the inverse, and/or It can be determined based on the reciprocal of the Euclidean norm of the function. For example, a cost function such as Equation 10 below may be used.

[수학식 10][Equation 10]

Figure pat00014
Figure pat00014

상술한 수학식 10에서

Figure pat00015
은 주파수 응답 특성 H'(f)의 역수의 유클리디언 놈을 나타낼 수 있다.
Figure pat00016
인자에 의해 제로 크로싱 포인트가 최소화될 수 있다.
Figure pat00017
은 주파수 응답 특성 H'(f)의 유클리디언 놈의 역수를 나타낼 수 있다.
Figure pat00018
에 의해 H'(f)의 크기가 0이 되지 않도록 설계될 수 있다.
Figure pat00019
은 주파수 응답 특성 H'(f)의 역수의 분산을 나타낼 수 있다. 1/H'(f) 이 주파수 공간에서 분산(Variation)이 최소화되도록 설계될 수 있다. 수학식 10의 비용 E는 상술한 개별 비용 인자들의 가중 평균 값으로서, α, β, 및 γ는 가중치를 나타낼 수 있다.In Equation 10 above,
Figure pat00015
may represent the Euclidean norm of the reciprocal of the frequency response characteristic H'(f).
Figure pat00016
The zero crossing point can be minimized by the factor.
Figure pat00017
may represent the reciprocal of the Euclidean norm of the frequency response characteristic H'(f).
Figure pat00018
It can be designed so that the size of H'(f) does not become 0 by .
Figure pat00019
may represent the variance of the reciprocal of the frequency response characteristic H'(f). 1/H'(f) may be designed to minimize variance in this frequency space. The cost E in Equation 10 is a weighted average value of the above-described individual cost factors, and α, β, and γ may represent weights.

단계(840)에서 이러한 비용 함수 값이 최소화되는 마스킹 패턴이 결정될 수 있다. 주어진 조건 내에서 닫힌 칸 및 열린 칸의 조합들에 대한 마스킹 패턴별 비용 함수 값이 산출되고, 비용 함수에 의해 노이즈 증폭이 최소화되는 마스킹 패턴이 결정될 수 있다. 이미지 센서는 탐색된 마스킹 패턴이 반복 배치되는 마스크 어레이를 포함할 수 있다.In step 840, a masking pattern that minimizes this cost function value may be determined. A cost function value for each masking pattern for combinations of closed and open cells within a given condition may be calculated, and a masking pattern in which noise amplification is minimized may be determined by the cost function. The image sensor may include a mask array in which the searched masking pattern is repeatedly disposed.

도 9 및 도 10은 일 실시예에 따른 마스크 어레이의 예시적인 형상을 도시한다.9 and 10 show exemplary shapes of a mask array according to an embodiment.

도 9는 마스크 어레이(924)의 개별 칸별로 빛의 투과 상태가 바이너리 상태(binary state)로 구분되는 예시를 설명한다. 다시 말해, 도 9에서 열린 칸(991)은 해당 칸에 입사되는 모든 빛을 통과시키고, 닫힌 칸(992)은 해당 칸에 입사되는 모든 빛을 흡수할 수 있다.9 illustrates an example in which a light transmission state is divided into a binary state for each individual cell of the mask array 924 . In other words, in FIG. 9 , the open cell 991 transmits all light incident on the corresponding cell, and the closed cell 992 absorbs all light incident on the corresponding cell.

마스크 어레이(924)는, 복수의 그룹 영역들로 분할(segment)될 수 있다. 그룹 영역(924a)은 마스크 어레이(924)에서의 영역으로서, 인접한 센싱 어레이(921)의 하나 또는 복수의 센싱 소자들을 커버하는 영역을 나타낼 수 있다. 도 9에서는 마스크 어레이(924)의 그룹 영역(924a)이 1개의 센싱 소자를 커버하는 예시를 설명하지만, 도 11에서 후술하는 바와 같이 마스크 어레이(924)의 그룹 영역(924a)은 한 픽셀을 표현하기 위해 그룹핑된 복수의 센싱 소자들을 포함하는 센싱 소자 그룹을 커버할 수도 있다. 그룹 영역(924a)의 마스킹 패턴(990)은 반복될 수 있다. 다시 말해, 마스크 어레이(924)의 복수의 그룹 영역들 각각은 모두 동일한 마스킹 패턴(990)을 가질 수 있다.The mask array 924 may be segmented into a plurality of group regions. The group region 924a is a region in the mask array 924 , and may indicate a region that covers one or a plurality of sensing elements of the adjacent sensing array 921 . 9 illustrates an example in which the group region 924a of the mask array 924 covers one sensing element, but as will be described later in FIG. 11 , the group region 924a of the mask array 924 represents one pixel. In order to do this, a sensing element group including a plurality of grouped sensing elements may be covered. The masking pattern 990 of the group region 924a may be repeated. In other words, each of the plurality of group regions of the mask array 924 may have the same masking pattern 990 .

개별 센싱 소자에 대응하는 마스크 어레이(924)의 패턴 영역은 개구 영역(aperture region) 및 마스킹 영역(masked region)을 포함할 수 있다. 개구 영역은 해당 영역의 전체 면적 대비 개구율(aperture ratio)에 대응하는 면적을 차지할 수 있고, 마스킹 영역은 나머지 면적을 차지할 수 있다. 예시적으로 도 9에 도시된 마스킹 패턴(990)은 50%의 목표 개구율로 설계된 패턴일 수 있다. 마스킹 패턴(990)은 총 7Х7=49개의 칸들로 분류되고, 24개의 닫힌 칸(992)들 및 25개의 열린 칸(991)들을 포함할 수 있다. A pattern region of the mask array 924 corresponding to an individual sensing element may include an aperture region and a masked region. The opening area may occupy an area corresponding to an aperture ratio to the total area of the corresponding area, and the masking area may occupy the remaining area. For example, the masking pattern 990 illustrated in FIG. 9 may be a pattern designed with a target aperture ratio of 50%. The masking pattern 990 is classified into a total of 7Х7=49 cells, and may include 24 closed cells 992 and 25 open cells 991 .

또한, 마스킹 패턴(990)은 전체 면적 대비 개구율 뿐만 아니라, 부분 영역(995)의 개구율도 보장할 수 있다. 부분 영역(995) 각각에서 개구 파트(aperture part)가 차지하는 면적은, 설정된 개구율에 대응하는 면적 이상일 수 있다. 도 9에서 마스킹 패턴(990)의 부분 영역(995)은 총 4Х4=16개의 칸들을 포함하고, 8개의 닫힌 칸(992)들 및 8개의 열린 칸(991)들을 포함하므로, 개구율이 50%일 수 있다. 또한, 4Х4=16개의 칸들로 구성되는 부분 영역이 마스킹 패턴(990)의 다른 위치로 이동되어도, 개구율은 50%일 수 있다. 다시 말해, 마스킹 패턴(990)은 목표 개구율을 가지는 영역들이 고르게 분포되도록 설계될 수 있다.In addition, the masking pattern 990 may ensure an opening ratio of the partial region 995 as well as an opening ratio relative to the entire area. An area occupied by an aperture part in each of the partial regions 995 may be equal to or greater than an area corresponding to a set aperture ratio. In FIG. 9 , the partial region 995 of the masking pattern 990 includes a total of 4Х4=16 cells, and includes 8 closed cells 992 and 8 open cells 991 , so that the aperture ratio is 50%. can Also, even if the partial region composed of 4Х4=16 cells is moved to another position of the masking pattern 990, the aperture ratio may be 50%. In other words, the masking pattern 990 may be designed such that regions having a target aperture ratio are evenly distributed.

아울러, 개별 마스킹 패턴(990)에 대응하는 영역은, 결상 광학계의 결상 광학 렌즈들의 개수 이상의 칸들을 포함할 수 있다. 앞서 도 5에서 설명한 바와 같이, 센싱 소자에 의해 센싱되는 정보는 멀티 렌즈 어레이의 렌즈 개수에 비례하여 블러될 수 있다. 렌즈 개수에 비례한 블러 정도(blur level)를 상쇄하여 이미지를 고해상도로 복원하기 위해, 패턴 영역은 렌즈 개수에 대응하는 칸들을 포함하여 디블러 기능을 제공할 수 있다. 도 9의 렌즈 어레이(910)가 7Х7=49개의 결상 광학 렌즈들을 포함하는 경우, 마스킹 패턴(990)은 적어도 7Х7=49개의 칸들을 포함할 수 있다. 렌즈 어레이(910)를 통과하여 센싱 어레이(921)를 향하는 정보는 1/49로 블러될 수 있고, 마스킹 패턴(990)은 이에 대응하는 49배의 디블러 능력(deblurring capacity)을 제공할 수 있다. In addition, the region corresponding to the individual masking pattern 990 may include more than the number of imaging optical lenses of the imaging optical system. As described above with reference to FIG. 5 , information sensed by the sensing element may be blurred in proportion to the number of lenses of the multi-lens array. In order to restore an image with high resolution by offsetting a blur level proportional to the number of lenses, the pattern area may include cells corresponding to the number of lenses to provide a deblur function. When the lens array 910 of FIG. 9 includes 7Х7=49 imaging optical lenses, the masking pattern 990 may include at least 7Х7=49 cells. Information passing through the lens array 910 toward the sensing array 921 may be blurred by 1/49, and the masking pattern 990 may provide a corresponding 49 times deblurring capacity. .

도 10은 마스크 어레이의 개별 마스크 엘리먼트가 2개 이상의 투과 레벨들(levels) 중 하나를 갖는 예시를 설명한다. 마스크 엘리먼트는 도달한 빛의 일부를 차단 및/또는 흡수할 수 있으며, 투과 레벨은 입사하는 빛을 투과시키는 정도(level) 및/또는 비율을 나타낼 수 있다. 마스크 엘리먼트는 앞서 설명한 마스킹 패턴에 기초하여 마스크 어레이의 평면을 따라 형성 및/또는 배치될 수 있다. 10 illustrates an example in which an individual mask element of a mask array has one of two or more levels of transmission. The mask element may block and/or absorb some of the arriving light, and the transmission level may indicate a level and/or a rate at which the incident light is transmitted. The mask element may be formed and/or disposed along the plane of the mask array based on the above-described masking pattern.

개별 마스크 엘리먼트는 복수의 영역들(regions)로 분할될 수 있으며, 개별 마스크 엘리먼트의 투과율은, 복수의 영역들 중 열린 영역 및 닫힌 영역의 비율에 따라 결정될 수 있다. 도 10은 5개의 투과 레벨들로 설계된 마스킹 패턴(1000)을 설명한다. 각 마스크 엘리먼트는 동일한 크기로 분할된 4개의 영역들로 구성될 수 있다. 마스크 엘리먼트가 형성되지 않은 칸(1010)은 제1 투과 레벨(예를 들어, 100% 투과)을 가질 수 있다. 제1 마스크 엘리먼트(1021)는 제2 투과 레벨(예를 들어, 75% 투과)을 가질 수 있고, 제1 마스크 엘리먼트(1021)의 영역들 중 1개 영역만 닫힌 영역일 수 있다. 제2 마스크 엘리먼트(1022)은 제3 투과 레벨(예를 들어, 50% 투과)을 가질 수 있고, 절반(예를 들어, 2개 영역)만 닫힌 영역일 수 있다. 제3 마스크 엘리먼트(1023)은 제4 투과 레벨(예를 들어, 25% 투과)을 가질 수 있고, 3개의 영역이 닫힌 영역일 수 있다. 제4 마스크 엘리먼트(1024)은 제5 투과 레벨(예를 들어, 0% 투과)을 가질 수 있고, 모든 영역이 닫힌 영역일 수 있다. 이처럼 열린 영역과 닫힌 영역의 개수 또는 면적에 따라 결정되는 개구율은 영역에 입사되는 빛의 광량 대비 투과되는 광량으로 해석될 수 있다.The individual mask element may be divided into a plurality of regions, and transmittance of the individual mask element may be determined according to a ratio of an open region and a closed region among the plurality of regions. 10 illustrates a masking pattern 1000 designed with five transmission levels. Each mask element may be composed of four regions divided by the same size. The compartment 1010 in which the mask element is not formed may have a first transmission level (eg, 100% transmission). The first mask element 1021 may have a second transmission level (eg, 75% transmission), and only one of the regions of the first mask element 1021 may be a closed region. The second mask element 1022 may have a third transmission level (eg, 50% transmission) and may be only half (eg, two regions) closed regions. The third mask element 1023 may have a fourth level of transmission (eg, 25% transmission), and the three regions may be closed regions. The fourth mask element 1024 may have a fifth transmission level (eg, 0% transmission), and all regions may be closed regions. As such, the aperture ratio determined according to the number or area of the open and closed areas may be interpreted as the amount of transmitted light compared to the amount of light incident on the area.

도 11은 일 실시예에 따른 이미지 센서의 센싱 소자 그룹별 마스킹 패턴 배치를 설명하는 도면이다.11 is a view for explaining arrangement of a masking pattern for each sensing element group of an image sensor according to an exemplary embodiment.

도 9에서는 마스크 어레이의 각 그룹 영역이 단일 센싱 소자를 커버하는 예시를 설명하였고, 도 11은 마스크 어레이(1140)의 각 그룹 영역(1141)이 복수의 센싱 소자들(1121a)을 포함하는 센싱 소자 그룹(1121)을 커버하는 예시를 도시한다. 도 11에 도시된 예시에서 이미지 픽셀의 픽셀 값은 센싱 소자 그룹(1121)(예를 들어, 도 11의 2Х2개의 센싱 소자들(1121a))에 의해 센싱된 값들에 기초하여 결정될 수 있다. 마스크 어레이(1140)는 복수의 마스킹 패턴들을 포함하는데, 도 9에서는 센싱 소자당 하나의 마스킹 패턴이 배치되었으나, 도 11에서는 센싱 소자 그룹(1121)당 하나의 마스킹 패턴(1190)이 배치될 수 있다. 마스크 어레이(1140)의 마스킹 패턴은 모두 동일한 형상의 패턴일 수 있다.9 illustrates an example in which each group region of the mask array covers a single sensing element, and FIG. 11 shows a sensing element in which each group region 1141 of the mask array 1140 includes a plurality of sensing elements 1121a. An example of covering a group 1121 is shown. In the example illustrated in FIG. 11 , a pixel value of an image pixel may be determined based on values sensed by the sensing element group 1121 (eg, 2Х2 sensing elements 1121a of FIG. 11 ). The mask array 1140 includes a plurality of masking patterns. In FIG. 9 , one masking pattern is disposed per sensing device, but in FIG. 11 , one masking pattern 1190 per sensing device group 1121 may be disposed. . All of the masking patterns of the mask array 1140 may have the same shape.

도 12a 내지 도 12b는 일 실시예에 따른 마스크 어레이의 배치를 설명한다.12A to 12B illustrate an arrangement of a mask array according to an exemplary embodiment.

마스크 어레이는 카메라용 센서에서 특정 방향의 빛을 차단 및/또는 중첩시킬 수 있는 다양한 위치에 배치될 수 있다. 도 12a에 도시된 마스크 어레이(1240a)는, 집광 렌즈 어레이(1230) 및 센싱 어레이(1210) 사이, 색상 필터(1220) 상에 배치될 수 있다. 도 12b에 도시된 마스크 어레이(1240b)는 색상 필터(1220)와 센싱 어레이(1210) 사이에 배치될 수 있다. 앞서 설명한 바와 같이 마스크 어레이(1240b)와 센싱 어레이(1210)는 1μm 이내로 이격될 수 있다.The mask array may be disposed in various positions capable of blocking and/or superimposing light in a specific direction in the sensor for the camera. The mask array 1240a illustrated in FIG. 12A may be disposed on the color filter 1220 between the condensing lens array 1230 and the sensing array 1210 . The mask array 1240b illustrated in FIG. 12B may be disposed between the color filter 1220 and the sensing array 1210 . As described above, the mask array 1240b and the sensing array 1210 may be spaced apart from each other within 1 μm.

도 13은 일 실시예에 따른 이미징 장치의 구성을 도시한 블록도이다.13 is a block diagram illustrating a configuration of an imaging apparatus according to an exemplary embodiment.

이미징 장치(1300)는 렌즈 어레이(1310) 및 이미지 센서를 포함할 수 있다.The imaging device 1300 may include a lens array 1310 and an image sensor.

렌즈 어레이(1310)는 외부로부터 수신되는 빛을 전달하는 결상 광학 렌즈들을 포함할 수 있다.The lens array 1310 may include imaging optical lenses that transmit light received from the outside.

이미지 센서는 렌즈 어레이(1310)를 통과한 빛을 센싱하는 센서를 나타낼 수 있다. 이미지 센서는 마스크 어레이(1324), 센싱 어레이(1321), 및 프로세서(1330)를 포함할 수 있다. 마스크 어레이(1324) 및 센싱 어레이(1321)는 도 1 내지 도 12b에서 상술하였으므로, 설명을 생략한다.The image sensor may indicate a sensor that senses light that has passed through the lens array 1310 . The image sensor may include a mask array 1324 , a sensing array 1321 , and a processor 1330 . Since the mask array 1324 and the sensing array 1321 have been described above with reference to FIGS. 1 to 12B , descriptions thereof will be omitted.

프로세서(1330)는 센싱 소자들에 의해 센싱되는 센싱 정보에 기초하여 이미지를 복원할 수 있다. 이미지 센서의 프로세서(1330)는 이미지 신호 프로세서(ISP, Image Signal Processor)라고도 나타낼 수 있다. 프로세서(1330)는, 센싱 정보를 주파수 도메인으로 변환하여 주파수 정보를 생성하고, 주파수 정보를 마스크 어레이(1324)의 마스킹 패턴에 대응하는 블러 커널(blur kernel)의 주파수 변환 결과로 나누어(divide) 디블러된(deblurred) 주파수 정보를 생성할 수 있다. 프로세서(1330)는 디블러된 주파수 정보를 시간 도메인으로 역변환함으로써 고해상도 이미지를 복원할 수 있다. 센싱 정보는 이미지 복원 뿐만 아니라, 피사체에 대한 깊이 추정, 포커스 재조정, 동적 범위 촬영(dynamic range imaging) 및 저조도 환경에서 고감도 영상 촬영 등에 활용될 수 있다.The processor 1330 may reconstruct an image based on sensing information sensed by the sensing elements. The processor 1330 of the image sensor may also be referred to as an image signal processor (ISP). The processor 1330 converts the sensed information into a frequency domain to generate frequency information, and divides the frequency information by a frequency conversion result of a blur kernel corresponding to the masking pattern of the mask array 1324. Blurred frequency information may be generated. The processor 1330 may reconstruct a high-resolution image by inversely transforming the deblurred frequency information into a time domain. The sensing information may be utilized for not only image restoration, but also depth estimation of a subject, refocusing, dynamic range imaging, and high-sensitivity imaging in a low-light environment.

도 14는 일 실시예에 따른 전자 단말의 구성을 도시한 블록도이다.14 is a block diagram illustrating a configuration of an electronic terminal according to an embodiment.

전자 단말(1400)은 이미징 모듈(1410) 및 프로세서(1420)를 포함할 수 있다.The electronic terminal 1400 may include an imaging module 1410 and a processor 1420 .

이미징 모듈(1410)은 렌즈 어레이(1411) 및 이미지 센서를 포함하고, 이미지 센서는 마스크 어레이(1412) 및 센싱 어레이(1413)를 포함할 수 있다. 도 13에서는 프로세서(1330)가 이미지 센서에 포함되는 것으로 설명하였으나, 도 14의 실시예에서는 독립적으로 위치하는 것으로 설명한다. 렌즈 어레이(1411), 이미지 센서, 및 프로세서(1420)에 대해서는 상술하였으므로, 자세한 설명을 생략한다. 도 14에 도시된 프로세서(1420)는 어플리케이션 프로세서(1420)(AP, Application Processor)일 수 있다.The imaging module 1410 may include a lens array 1411 and an image sensor, and the image sensor may include a mask array 1412 and a sensing array 1413 . In FIG. 13 , the processor 1330 is described as being included in the image sensor, but in the embodiment of FIG. 14 , it is described as being independently positioned. Since the lens array 1411 , the image sensor, and the processor 1420 have been described above, a detailed description thereof will be omitted. The processor 1420 illustrated in FIG. 14 may be an application processor 1420 (AP).

도 15 및 도 16은 일 실시예에 따른 이미지 센서가 구현되는 기기의 예시를 도시하는 도면이다.15 and 16 are diagrams illustrating examples of a device in which an image sensor is implemented according to an embodiment.

이미지 센서 및/또는 이미징 장치는 다양한 기술 분야에 적용될 수 있다. 복수의 렌즈들로 구성되는 렌즈 어레이 및 복수의 센싱 소자들로 구성되는 센서가 비교적 짧은 초점 거리로 이격되도록 설계될 수 있기 때문에 이미지 장치는 고화질 촬영을 가능하게 하는, 센서의 크기가 크면서도, 두께가 작은 초박형 카메라(ultra thin camera)로 구현될 수 있다. The image sensor and/or imaging device may be applied to various technical fields. Since a lens array composed of a plurality of lenses and a sensor composed of a plurality of sensing elements can be designed to be spaced apart by a relatively short focal length, the imaging device has a large size and thickness, which enables high-quality imaging. can be implemented as an ultra-thin camera.

이미지 센서 및/또는 이미징 장치는, 모바일 단말에 탑재될 수 있다. 모바일 단말은 임의의 위치에 고정되지 않고 이동 가능한(movable) 단말로서, 예를 들어, 스마트폰, 태블릿, 폴더블(foldable) 스마트폰 등과 같은 휴대 기기(portable device), 인공지능 스피커, 및 차량(vehicle) 등을 포함할 수 있다. The image sensor and/or imaging device may be mounted on the mobile terminal. A mobile terminal is a movable terminal that is not fixed to an arbitrary position, and is, for example, a portable device such as a smartphone, a tablet, a foldable smartphone, an artificial intelligence speaker, and a vehicle ( vehicle) and the like.

도 15에 도시된 바와 같이, 이미징 모듈(1510)은 스마트폰의 전면 카메라 또는 후면 카메라에 적용될 수 있다. 이미징 모듈(1510)은, 대형 풀 프레임 센서(Full Frame Sensor)와 멀티 렌즈 어레이(Multi Lens Array)가 결합된 구조로 휴대폰 카메라에 적용될 수 있다. As shown in FIG. 15 , the imaging module 1510 may be applied to a front camera or a rear camera of a smartphone. The imaging module 1510 has a structure in which a large full-frame sensor and a multi-lens array are combined, and may be applied to a mobile phone camera.

또한, 이미징 모듈(1510)은 박형 구조 또는 커브드(Curved) 구조로 차량에 구현될 수도 있다. 도 16에 도시된 바와 같이, 차량(1600)에 곡선을 가지는 전면 카메라 또는 후면 카메라로서 이미징 장치(1610)가 구현될 수 있다. 이 뿐만 아니라 이미징 장치(1610)는 DSLR 카메라, 드론(Drone), CCTV, 웹캠(Webcam)용 카메라, 360도 촬영 카메라, 영화 및 방송을 위한 카메라, VR/AR 카메라, 유연하거나 연장될 수 있는 카메라(Flexible/Stretchable Camera), 곤충 눈 카메라, 컨택트 렌즈 타입(Contact lens type) 카메라 등과 같은 분야에도 적용될 수 있다. 더 나아가, 이미징 장치는 촬영된 다수의 프레임 정보를 이용하여 해상도를 증가하는 멀티 프레임 고해상도 이미지 복원(Multi-frame Super Resolution image restoration)에도 적용될 수 있다.Also, the imaging module 1510 may be implemented in a vehicle with a thin structure or a curved structure. As shown in FIG. 16 , the imaging device 1610 may be implemented as a front camera or a rear camera having a curve in the vehicle 1600 . In addition to this, the imaging device 1610 includes a DSLR camera, a drone, a CCTV camera, a camera for a webcam, a 360 degree camera, a camera for film and broadcasting, a VR/AR camera, a flexible or extendable camera It can also be applied to fields such as (Flexible/Stretchable Camera), insect eye camera, and contact lens type camera. Furthermore, the imaging apparatus may be applied to a multi-frame super resolution image restoration in which resolution is increased by using information about a plurality of captured frames.

이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPA(field programmable array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 운영 체제 상에서 수행되는 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The device described above may be implemented as a hardware component, a software component, and/or a combination of the hardware component and the software component. For example, the devices and components described in the embodiments may include a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable array (FPA), a programmable logic unit (PLU). ), a microprocessor, or any other device capable of executing and responding to instructions, may be implemented using a general purpose computer or special purpose computer. The processing device may execute an operating system (OS) and software applications running on the operating system. The processing device may also access, store, manipulate, process, and generate data in response to execution of the software. For convenience of understanding, although one processing device is sometimes described as being used, one of ordinary skill in the art will recognize that the processing device includes a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that can include For example, the processing device may include a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as parallel processors.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.Software may include a computer program, code, instructions, or a combination thereof, which configures the processing device to operate as desired or independently or collectively configures the processing device to operate as desired. can command The software and/or data may be any kind of machine, component, physical device, virtual equipment, computer storage medium or device, to be interpreted by or to provide instructions or data to the processing device. , or may be permanently or temporarily embody in a transmitted signal wave. The software may be distributed over networked computer systems, and stored or executed in a distributed manner. Software and data may be stored in a computer-readable recording medium.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like, alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the embodiment, or may be known and available to those skilled in the art of computer software. Examples of the computer-readable recording medium include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic such as floppy disks. - includes magneto-optical media, and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as software modules to perform the operations of the embodiments, and vice versa.

이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다.  예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.  As described above, although the embodiments have been described with reference to the limited drawings, those skilled in the art may apply various technical modifications and variations based on the above. For example, the described techniques are performed in an order different from the described method, the described components of the system, structure, apparatus, circuit, etc. are combined or combined in a different form than the described method, or other components or equivalents Appropriate results can be achieved even if substituted or substituted by

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.

Claims (23)

이미지 센서에 있어서,
결상 광학 렌즈들을 통과한 빛 중 일부 방향의 빛을 차단하는 복수의 마스크 엘리먼트들을 포함하고, 상기 일부 방향과 다른 방향의 빛을 통과시키는 마스크 어레이; 및
상기 결상 광학 렌즈들 및 상기 마스크 어레이를 통과한 빛을 센싱하는 복수의 센싱 소자들을 포함하는 센싱 어레이
를 포함하는 이미지 센서.
In the image sensor,
a mask array comprising a plurality of mask elements blocking light in a partial direction among the light passing through the imaging optical lenses, and passing light in a direction different from the partial direction; and
A sensing array including a plurality of sensing elements for sensing the light passing through the imaging optical lenses and the mask array
An image sensor comprising a.
제1항에 있어서,
상기 센싱 어레이 상에 배치되어, 각 센싱 소자로 입사되는 빛에서 일부 파장 대역을 필터링하는 색상 필터
를 더 포함하고,
상기 마스크 어레이는,
상기 색상 필터와 상기 센싱 어레이 사이에 배치되는,
이미지 센서.
According to claim 1,
A color filter disposed on the sensing array to filter some wavelength bands from light incident on each sensing element
further comprising,
The mask array is
disposed between the color filter and the sensing array,
image sensor.
제1항에 있어서,
상기 센싱 어레이 상에 배치되어, 각 센싱 소자로 빛을 전달하는 집광 렌즈 어레이
를 더 포함하고,
상기 마스크 어레이는,
상기 집광 렌즈 어레이와 상기 센싱 어레이 사이에 배치되는,
이미지 센서.
According to claim 1,
A condensing lens array disposed on the sensing array to transmit light to each sensing element
further comprising,
The mask array is
disposed between the condensing lens array and the sensing array,
image sensor.
제1항에 있어서,
상기 마스크 어레이와 상기 센싱 소자는,
1μm 이내로 이격된,
이미지 센서.
According to claim 1,
The mask array and the sensing element,
spaced within 1 μm,
image sensor.
제1항에 있어서,
상기 마스크 어레이와 상기 센싱 소자는,
서로 접촉하는,
이미지 센서.
According to claim 1,
The mask array and the sensing element,
touching each other,
image sensor.
제1항에 있어서,
상기 마스크 어레이에서 개별 센싱 소자에 대응하는 영역은,
해당 영역의 전체 면적 대비 개구율(aperture ratio)에 대응하는 면적을 차지하는 개구 영역(aperture region); 및
해당 영역에서 상기 복수의 마스크 엘리먼트들이 배치되는 나머지 면적을 차지하는 마스킹 영역(masked region)
을 포함하는 이미지 센서.
According to claim 1,
Regions corresponding to individual sensing elements in the mask array,
an aperture region occupying an area corresponding to an aperture ratio to a total area of the corresponding area; and
A masked region occupying the remaining area in which the plurality of mask elements are disposed in the corresponding region
An image sensor comprising a.
제6항에 있어서,
상기 개구율은,
40% 이상 60%이하의 비율인,
이미지 센서.
7. The method of claim 6,
The aperture ratio is
A ratio of 40% or more and 60% or less,
image sensor.
제1항에 있어서,
상기 마스크 어레이의 부분 영역 각각에서 개구 파트(aperture part)가 차지하는 면적은, 설정된 개구율에 대응하는 면적 이상인,
이미지 센서.
According to claim 1,
An area occupied by an aperture part in each partial area of the mask array is equal to or greater than an area corresponding to a set aperture ratio;
image sensor.
제1항에 있어서,
상기 마스크 어레이는,
복수의 센싱 소자 그룹들에 대응하는 복수의 그룹 영역들로 분할(segment)되고,
상기 마스크 어레이에서 상기 복수의 그룹 영역의 각각은,
한 픽셀을 표현하기 위해 그룹핑된 복수의 센싱 소자들을 포함하는 센싱 소자 그룹을 커버하는,
이미지 센서.
According to claim 1,
The mask array is
is segmented into a plurality of group regions corresponding to a plurality of sensing element groups,
Each of the plurality of group regions in the mask array,
Covering a sensing element group including a plurality of sensing elements grouped to represent one pixel,
image sensor.
제9항에 있어서,
상기 마스크 어레이에서 그룹 영역의 마스킹 패턴이 반복되는,
이미지 센서.
10. The method of claim 9,
In the mask array, the masking pattern of the group area is repeated,
image sensor.
제9항에 있어서,
상기 마스크 어레이의 상기 복수의 그룹 영역들의 각각은 모두 동일한 마스킹 패턴을 갖는,
이미지 센서.
10. The method of claim 9,
each of the plurality of group regions of the mask array all have the same masking pattern,
image sensor.
제1항에 있어서,
상기 마스크 어레이에서 개별 마스킹 패턴에 대응하는 영역은,
결상 광학계의 결상 광학 렌즈들의 개수 이상의 칸들을 포함하는,
이미지 센서.
According to claim 1,
Regions corresponding to individual masking patterns in the mask array,
Containing more than the number of the imaging optical lenses of the imaging optical system,
image sensor.
제1항에 있어서,
복수의 마스크 엘리먼트들은,
2개 이상의 투과 레벨들(levels) 중 하나를 갖는,
이미지 센서.
According to claim 1,
A plurality of mask elements,
having one of two or more transmission levels;
image sensor.
제1항에 있어서,
복수의 마스크 엘리먼트들의 각각은,
복수의 영역들로 분할되고,
각 마스크 엘리먼트의 투과율은,
상기 복수의 영역들 중 열린 영역 및 닫힌 영역의 비율에 따라 결정되는,
이미지 센서.
According to claim 1,
Each of the plurality of mask elements,
divided into a plurality of areas,
The transmittance of each mask element is
determined according to a ratio of an open area and a closed area among the plurality of areas,
image sensor.
제1항에 있어서,
상기 복수의 센싱 소자들에 의해 센싱되는 센싱 정보에 기초하여 이미지를 복원하는 프로세서
를 더 포함하는 이미지 센서.
According to claim 1,
A processor for reconstructing an image based on sensing information sensed by the plurality of sensing elements
An image sensor further comprising a.
제15항에 있어서,
상기 프로세서는,
상기 센싱 정보를 주파수 도메인으로 변환하여 주파수 정보를 생성하고, 상기 주파수 정보를 상기 마스크 어레이의 마스킹 패턴에 대응하는 블러 커널(blur kernel)의 주파수 변환 결과로 나누어(divide) 디블러된(deblurred) 주파수 정보를 생성하며, 상기 디블러된 주파수 정보를 시간 도메인으로 역변환함으로써 고해상도 이미지를 복원하는,
이미지 센서.
16. The method of claim 15,
The processor is
Frequency information is generated by converting the sensed information into a frequency domain, and the frequency information is divided by a frequency conversion result of a blur kernel corresponding to a masking pattern of the mask array to a deblurred frequency generating information and reconstructing a high-resolution image by inversely transforming the deblurred frequency information into a time domain,
image sensor.
제1항에 있어서,
상기 마스크 어레이는 복수의 마스킹 패턴들을 포함하고,
각 마스킹 패턴은,
상기 센싱 어레이에서 둘 이상의 센싱 소자를 포함하는 센싱 소자 그룹을 커버하는,
이미지 센서.
According to claim 1,
The mask array includes a plurality of masking patterns,
Each masking pattern is
Covering a sensing element group including two or more sensing elements in the sensing array,
image sensor.
카메라 장치에 있어서,
외부로부터 수신되는 빛을 전달하는 결상 광학 렌즈들을 포함하는 결상 렌즈 어레이;
상기 결상 렌즈 어레이를 통과한 빛을 센싱하는 복수의 센싱 소자들을 포함하는 센싱 어레이; 및
복수의 마스크 엘리먼트들을 포함하고, 상기 결상 렌즈 어레이와 상기 센싱 어레이 사이에 배치되는 마스크 어레이
를 포함하는 카메라 장치.
In the camera device,
an imaging lens array including imaging optical lenses that transmit light received from the outside;
a sensing array including a plurality of sensing elements for sensing the light passing through the imaging lens array; and
A mask array including a plurality of mask elements and disposed between the imaging lens array and the sensing array
A camera device comprising a.
제18항에 있어서,
상기 마스크 어레이는,
상기 복수의 센싱 소자들 상에서 상기 센싱 어레이에 접촉되는 위치 및 상기 센싱 어레이 내부 위치 중 하나에 배치되는,
카메라 장치.
19. The method of claim 18,
The mask array is
disposed on one of a position in contact with the sensing array and a position inside the sensing array on the plurality of sensing elements,
camera device.
제18항에 있어서,
상기 마스크 어레이에서 개별 센싱 소자에 대응하는 영역은,
해당 영역의 전체 면적 대비 개구율에 대응하는 면적을 차지하는 개구 영역; 및
해당 영역에서 상기 복수의 마스크 엘리먼트들이 배치되는 나머지 면적을 차지하는 마스킹 영역
을 포함하는 카메라 장치.
19. The method of claim 18,
Regions corresponding to individual sensing elements in the mask array,
an opening region occupying an area corresponding to an opening ratio with respect to the total area of the corresponding region; and
A masking area occupying the remaining area in which the plurality of mask elements are disposed in the corresponding area
A camera device comprising a.
제18항에 있어서,
상기 마스크 어레이에서 부분 영역의 각각에서 개구 파트가 차지하는 면적은, 설정된 개구율에 대응하는 면적 이상인,
카메라 장치.
19. The method of claim 18,
An area occupied by an opening part in each of the partial regions in the mask array is equal to or greater than an area corresponding to a set opening ratio;
camera device.
제18항에 있어서,
상기 마스크 어레이에서 그룹 영역의 마스킹 패턴이 반복되는,
카메라 장치.
19. The method of claim 18,
In the mask array, the masking pattern of the group area is repeated,
camera device.
제18항에 있어서,
상기 복수의 센싱 소자들에 의해 센싱되는 센싱 정보를 주파수 도메인으로 변환하여 주파수 정보를 생성하고, 상기 주파수 정보를 상기 마스크 어레이의 마스킹 패턴에 대응하는 블러 커널의 주파수 변환 결과로 나누어(divide) 디블러된 주파수 정보를 생성하며, 상기 디블러된 주파수 정보를 시간 도메인으로 역변환함으로써 고해상도 이미지를 복원하는 프로세서
를 더 포함하는 카메라 장치.
19. The method of claim 18,
The sensing information sensed by the plurality of sensing elements is converted into a frequency domain to generate frequency information, and the frequency information is divided by a frequency conversion result of a blur kernel corresponding to the masking pattern of the mask array to deblur. A processor that generates high-resolution frequency information and restores a high-resolution image by inversely transforming the deblurred frequency information into a time domain.
A camera device further comprising a.
KR1020200143664A 2020-05-11 2020-10-30 Image sensor KR20210137886A (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US17/239,268 US11595575B2 (en) 2020-05-11 2021-04-23 Image sensor
CN202110471788.4A CN113645422A (en) 2020-05-11 2021-04-29 Image sensor with a plurality of pixels
EP21172002.4A EP3910385A1 (en) 2020-05-11 2021-05-04 Image sensor

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020200055588 2020-05-11
KR20200055588 2020-05-11

Publications (1)

Publication Number Publication Date
KR20210137886A true KR20210137886A (en) 2021-11-18

Family

ID=78717146

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200143664A KR20210137886A (en) 2020-05-11 2020-10-30 Image sensor

Country Status (1)

Country Link
KR (1) KR20210137886A (en)

Similar Documents

Publication Publication Date Title
JP7101646B2 (en) Image restoration method and equipment
US9681057B2 (en) Exposure timing manipulation in a multi-lens camera
US9473700B2 (en) Camera systems and methods for gigapixel computational imaging
US10154216B2 (en) Image capturing apparatus, image capturing method, and storage medium using compressive sensing
US9872012B2 (en) Method and apparatus for image capturing and simultaneous depth extraction
US11375092B2 (en) Image sensor and image sensing method
KR102565277B1 (en) Device and method to restore image
EP2380345A1 (en) Improving the depth of field in an imaging system
JP2024147721A (en) Image sensor and image detection method
EP3842843A1 (en) Imaging device and image sensing method
EP3910385A1 (en) Image sensor
KR102644944B1 (en) Image sensor and method to sense image
KR102614908B1 (en) Device and method to restore image
EP4346199A1 (en) Imaging method and device for autofocusing
KR20210137886A (en) Image sensor
US10868957B2 (en) Apparatus and method for processing image to reconstruct image
US11988849B2 (en) Imaging device and method
Ahuja et al. Design of large field-of-view high-resolution miniaturized imaging system
EP4009091A2 (en) Lens assembly and electronic device including the same
KR20220080249A (en) Method and apparatus for processing restore image
Konnik et al. Using spatially varying pixels exposure technique for increasing accuracy of the optical-digital pattern recognition correlator
KR20130106525A (en) Device for processing image and method thereof

Legal Events

Date Code Title Description
A201 Request for examination