KR102151250B1 - Device and method for deriving object coordinate - Google Patents
Device and method for deriving object coordinate Download PDFInfo
- Publication number
- KR102151250B1 KR102151250B1 KR1020180160407A KR20180160407A KR102151250B1 KR 102151250 B1 KR102151250 B1 KR 102151250B1 KR 1020180160407 A KR1020180160407 A KR 1020180160407A KR 20180160407 A KR20180160407 A KR 20180160407A KR 102151250 B1 KR102151250 B1 KR 102151250B1
- Authority
- KR
- South Korea
- Prior art keywords
- coordinates
- camera
- image
- spatial
- coordinate
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/271—Image signal generators wherein the generated image signals comprise depth maps or disparity maps
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/207—Image signal generators using stereoscopic image cameras using a single 2D image sensor
- H04N13/236—Image signal generators using stereoscopic image cameras using a single 2D image sensor using varifocal lenses or mirrors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/243—Image signal generators using stereoscopic image cameras using three or more 2D image sensors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
- H04N23/611—Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/695—Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects
-
- H04N5/23219—
-
- H04N5/23299—
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Image Processing (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
객체 좌표 도출 장치는 복수의 카메라로부터 복수의 영상을 수신하는 영상 수신부, 복수의 카메라에 대응하는 카메라 파라미터를 도출하는 카메라 파라미터 도출부, 도출된 카메라 파라미터 및 복수의 영상을 이용하여 복수의 영상 중 기준 영상에 대한 깊이 영상을 생성하는 깊이 영상 생성부, 깊이 영상에 포함된 객체에 대한 공간 좌표를 도출하는 공간 좌표 도출부, 도출된 객체에 대한 공간 좌표에 기초하여 객체로부터 발생되는 음향에 대한 음향 좌표를 도출하는 음향 좌표 도출부를 포함할 수 있다. The object coordinate derivation apparatus includes an image receiving unit that receives a plurality of images from a plurality of cameras, a camera parameter derivation unit that derives camera parameters corresponding to the plurality of cameras, and a reference among a plurality of images using the derived camera parameters and a plurality of images. A depth image generator for generating a depth image for an image, a spatial coordinate deriving unit for deriving spatial coordinates for an object included in the depth image, and acoustic coordinates for sound generated from an object based on the spatial coordinates for the derived object It may include an acoustic coordinate derivation unit for deriving.
Description
본 발명은 객체 좌표를 도출하는 장치 및 방법에 관한 것이다. The present invention relates to an apparatus and method for deriving object coordinates.
입체 음향(3차원 음향)은 방향감, 거리감 및 공간감 등이 적용된 입체적인 현장감을 갖는 음향을 의미한다. Three-dimensional sound (three-dimensional sound) refers to a sound that has a three-dimensional sense of realism to which a sense of direction, distance, and space are applied.
최근 입체음향 기술은 음원이나 청취자가 움직이면 음원과 청취자 간의 상대적인 위치가 변하므로, 이러한 상호작용을 반영할 수 있는 대화형(Interactive) 3차원 음향 기술로 발전하고 있다. Recently, 3D sound technology is developing into an interactive 3D sound technology that can reflect such interactions because the relative position between the sound source and the listener changes when the sound source or the listener moves.
이러한, 3차원 음향 기술은 최신 음향 미들웨어가 개발됨에 따라 더욱 편리하게 구현할 수 있게 되었다. 하지만, 3차원 사운드를 구현하기 위해서는 음원과 청취자 각각에 대한 3차원 좌표를 수동적으로 설정해야 한다. 또한, 실시간으로 불규칙하게 변하는 동적 음원(또는 청취자)의 경우에는 3차원 좌표의 설정이 매우 어렵다. Such 3D sound technology can be implemented more conveniently as the latest sound middleware is developed. However, in order to implement a 3D sound, 3D coordinates for each of the sound source and the listener must be manually set. In addition, it is very difficult to set 3D coordinates in the case of a dynamic sound source (or listener) that changes irregularly in real time.
본 발명은 전술한 종래 기술의 문제점을 해결하기 위한 것으로서, 복수의 카메라에 대응하는 카메라 파라미터 및 복수의 카메라로부터 수신된 복수의 영상을 이용하여 기준 영상에 대한 깊이 영상을 생성하고자 한다. 또한, 본 발명은 깊이 영상에 포함된 객체에 대한 공간 좌표에 기초하여 객체로부터 발생되는 음향에 대한 음향 좌표를 도출하고자 한다. 다만, 본 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다. The present invention is to solve the problems of the prior art described above, and it is intended to generate a depth image for a reference image using camera parameters corresponding to a plurality of cameras and a plurality of images received from a plurality of cameras. In addition, the present invention is to derive acoustic coordinates for sounds generated from objects based on spatial coordinates for objects included in the depth image. However, the technical problem to be achieved by the present embodiment is not limited to the technical problems as described above, and other technical problems may exist.
상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본 발명의 제 1 측면에 따른 객체 좌표 도출 장치는 복수의 카메라로부터 복수의 영상을 수신하는 영상 수신부; 상기 복수의 카메라에 대응하는 카메라 파라미터를 도출하는 카메라 파라미터 도출부; 상기 도출된 카메라 파라미터 및 상기 복수의 영상을 이용하여 상기 복수의 영상 중 기준 영상에 대한 깊이 영상을 생성하는 깊이 영상 생성부; 상기 깊이 영상에 포함된 객체에 대한 공간 좌표를 도출하는 공간 좌표 도출부; 상기 도출된 객체에 대한 공간 좌표에 기초하여 상기 객체로부터 발생되는 음향에 대한 음향 좌표를 도출하는 음향 좌표 도출부를 포함할 수 있다. As a technical means for achieving the above technical problem, the object coordinate derivation apparatus according to the first aspect of the present invention includes an image receiving unit for receiving a plurality of images from a plurality of cameras; A camera parameter derivation unit for deriving camera parameters corresponding to the plurality of cameras; A depth image generator for generating a depth image for a reference image among the plurality of images by using the derived camera parameter and the plurality of images; A spatial coordinate derivation unit for deriving spatial coordinates for an object included in the depth image; It may include an acoustic coordinate derivation unit that derives acoustic coordinates for sound generated from the object based on the spatial coordinates of the derived object.
본 발명의 제 2 측면에 따른 객체 좌표 도출 장치에서 객체의 좌표를 도출하는 방법은 복수의 카메라로부터 복수의 영상을 수신하는 단계; 상기 복수의 카메라에 대응하는 카메라 파라미터를 도출하는 단계; 상기 도출된 카메라 파라미터 및 상기 복수의 영상을 이용하여 상기 복수의 영상 중 기준 영상에 대한 깊이 영상을 생성하는 단계; 상기 깊이 영상에 포함된 객체에 대한 공간 좌표를 도출하는 단계; 및 상기 도출된 객체에 대한 공간 좌표에 기초하여 상기 객체로부터 발생되는 음향에 대한 음향 좌표를 도출하는 단계를 포함할 수 있다. A method of deriving coordinates of an object in an apparatus for deriving coordinates of an object according to a second aspect of the present invention includes: receiving a plurality of images from a plurality of cameras; Deriving camera parameters corresponding to the plurality of cameras; Generating a depth image for a reference image among the plurality of images by using the derived camera parameter and the plurality of images; Deriving spatial coordinates for the object included in the depth image; And deriving acoustic coordinates for sound generated from the object based on the derived spatial coordinates for the object.
상술한 과제 해결 수단은 단지 예시적인 것으로서, 본 발명을 제한하려는 의도로 해석되지 않아야 한다. 상술한 예시적인 실시예 외에도, 도면 및 발명의 상세한 설명에 기재된 추가적인 실시예가 존재할 수 있다.The above-described problem solving means are merely exemplary and should not be construed as limiting the present invention. In addition to the above-described exemplary embodiments, there may be additional embodiments described in the drawings and detailed description of the invention.
전술한 본 발명의 과제 해결 수단 중 어느 하나에 의하면, 본 발명은 복수의 카메라에 대응하는 카메라 파라미터 및 복수의 카메라로부터 수신된 복수의 영상을 이용하여 기준 영상에 대한 깊이 영상을 생성할 수 있다. 또한, 본 발명은 깊이 영상에 포함된 객체에 대한 공간 좌표에 기초하여 객체로부터 발생되는 음향에 대한 음향 좌표를 도출할 수 있다. 이를 통해, 본 발명은 다시점 영상과 입체 음향이 결합된 3차원 미디어 컨텐츠를 제공할 수 있다. 또한, 본 발명은 깊이 영상의 정보들을 입체 음향의 입력 정보(음향 좌표)에 연계함으로써 종래의 문제점(좌표를 수동적으로 취득해야하는 문제점)을 해결할 수 있다. 또한, 본 발명은 종래의 입체 음향 표출에 있어 불규칙하게 변하는 동적 객체의 좌표 설정에 대한 문제점을 해결할 수 있다. 또한, 본 발명은 종래의 수동적인 좌표 취득 및 표출 과정이 자동화되어 좌표 취득에 대한 작업 시간과 인력을 줄일 수 있고, 더욱 정밀한 결과를 얻을 수 있다. According to any one of the above-described problem solving means of the present invention, the present invention can generate a depth image for a reference image using camera parameters corresponding to a plurality of cameras and a plurality of images received from the plurality of cameras. In addition, the present invention may derive acoustic coordinates for sounds generated from objects based on spatial coordinates for objects included in the depth image. Through this, the present invention can provide 3D media content in which a multi-view image and a 3D sound are combined. In addition, the present invention can solve a conventional problem (a problem in which coordinates must be acquired manually) by linking information of a depth image to input information (acoustic coordinates) of a stereophonic sound. In addition, the present invention can solve the problem of setting coordinates of a dynamic object that changes irregularly in the conventional stereoscopic sound expression. In addition, according to the present invention, the conventional manual coordinate acquisition and expression process is automated, so that the working time and manpower for the coordinate acquisition can be reduced, and more precise results can be obtained.
도 1은 본 발명의 일 실시예에 따른, 객체 좌표 도출 장치의 블록도이다.
도 2a 내지 2d는 본 발명의 일 실시예에 따른, 객체 좌표를 도출하는 방법을 설명하기 위한 도면이다.
도 3은 본 발명의 일 실시예에 따른, 객체 좌표 도출 방법을 나타낸 흐름도다. 1 is a block diagram of an apparatus for deriving object coordinates according to an embodiment of the present invention.
2A to 2D are diagrams for explaining a method of deriving object coordinates according to an embodiment of the present invention.
3 is a flowchart illustrating a method of deriving object coordinates according to an embodiment of the present invention.
아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those of ordinary skill in the art can easily implement the present invention. However, the present invention may be implemented in various different forms and is not limited to the embodiments described herein. In the drawings, parts irrelevant to the description are omitted in order to clearly describe the present invention, and similar reference numerals are assigned to similar parts throughout the specification.
명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. Throughout the specification, when a part is said to be "connected" to another part, this includes not only "directly connected" but also "electrically connected" with another element interposed therebetween. . In addition, when a part "includes" a certain component, it means that other components may be further included rather than excluding other components unless specifically stated to the contrary.
본 명세서에 있어서 '부(部)'란, 하드웨어에 의해 실현되는 유닛(unit), 소프트웨어에 의해 실현되는 유닛, 양방을 이용하여 실현되는 유닛을 포함한다. 또한, 1 개의 유닛이 2 개 이상의 하드웨어를 이용하여 실현되어도 되고, 2 개 이상의 유닛이 1 개의 하드웨어에 의해 실현되어도 된다. In the present specification, the term "unit" includes a unit realized by hardware, a unit realized by software, and a unit realized using both. Further, one unit may be realized using two or more hardware, or two or more units may be realized using one hardware.
본 명세서에 있어서 단말 또는 디바이스가 수행하는 것으로 기술된 동작이나 기능 중 일부는 해당 단말 또는 디바이스와 연결된 서버에서 대신 수행될 수도 있다. 이와 마찬가지로, 서버가 수행하는 것으로 기술된 동작이나 기능 중 일부도 해당 서버와 연결된 단말 또는 디바이스에서 수행될 수도 있다. In the present specification, some of the operations or functions described as being performed by the terminal or device may be performed instead by a server connected to the terminal or device. Likewise, some of the operations or functions described as being performed by the server may also be performed by a terminal or device connected to the server.
이하, 첨부된 구성도 또는 처리 흐름도를 참고하여, 본 발명의 실시를 위한 구체적인 내용을 설명하도록 한다. Hereinafter, with reference to the accompanying configuration diagram or processing flow chart, specific details for the implementation of the present invention will be described.
도 1은 본 발명의 일 실시예에 따른, 객체 좌표 도출 장치(10)의 블록도이다. 1 is a block diagram of an object
도 1을 참조하면, 객체 좌표 도출 장치(10)는 영상 수신부(100), 카메라 파라미터 도출부(110), 깊이 영상 생성부(120), 공간 좌표 도출부(130), 음향 좌표 도출부(140), 청취자 좌표 설정부(150) 및 청취자 방향 벡터 설정부(160)를 포함할 수 있다. 다만, 도 1에 도시된 객체 좌표 도출 장치(10)는 본 발명의 하나의 구현 예에 불과하며, 도 1에 도시된 구성요소들을 기초로 하여 여러 가지 변형이 가능하다. 이하에서는 도 2a 내지 도 2d와 함께 도 1을 설명하기로 한다. Referring to FIG. 1, the object
영상 수신부(100)는 복수의 카메라로부터 복수의 영상을 수신할 수 있다. 예를 들면, 도 2a를 참조하면, 영상 수신부(100)는 객체를 중심으로 인워드(Inward) 방향으로 객체를 향해 배치된 복수의 카메라로부터 각 카메라가 촬영된 복수의 영상을 수신할 수 있다. 여기서, 복수의 카메라 각각은 카메라 간의 간격과 촬영 각도가 기설정된 값으로 동일하게 설정된 상태로 객체를 촬영한다. The
카메라 파라미터 도출부(110)는 복수의 카메라에 대응하는 카메라 파라미터를 도출할 수 있다. 여기서, 카메라 파라미터는 카메라 내부 파라미터 및 카메라 외부 파라미터를 포함할 수 있다. 카메라 내부 파라미터 및 카메라 외부 파라미터는 깊이 영상을 생성하는데 필요한 값으로, 카메라의 내부 및 외부 상태를 나타내는 값을 나타낸다. The camera
카메라 내부 파라미터는 카메라 렌즈의 초점 거리, 카메라 렌즈의 중심점, 이미지 센서에 대한 비대칭계수 및 카메라 렌즈에 대한 왜곡 계수를 포함할 수 있다. 여기서, 카메라 렌즈의 초점 거리(f, focal length)는 카메라 렌즈의 중심과 카메라에 설치된 이미지 센서와의 거리를 의미하고, 카메라 렌즈의 중심점(c, principal point)은 카메라의 핀홀에서 이미지 센서에 내린 수선의 발을 의미한다. 이미지 센서에 대한 비대칭 계수(α, skew coefficient)는 이미지 센서의 셀(cell) 배열에 대한 y축의 기울어진 정도를 의미하고, 카메라 렌즈에 대한 왜곡 계수(p, distortion coefficient)는 카메라 렌즈의 왜곡 정도를 나타낸 것이다. The camera internal parameters may include a focal length of a camera lens, a center point of a camera lens, an asymmetry coefficient for an image sensor, and a distortion coefficient for a camera lens. Here, the focal length (f, focal length) of the camera lens means the distance between the center of the camera lens and the image sensor installed in the camera, and the central point (c, principal point) of the camera lens is the distance from the pinhole of the camera to the image sensor. It means the feet of the repair. The skew coefficient (α, skew coefficient) for the image sensor means the degree of inclination of the y-axis for the cell arrangement of the image sensor, and the distortion coefficient (p) for the camera lens is the degree of distortion of the camera lens. Is shown.
예를 들면, 도 2b를 참조하면 공간 좌표에서 지정한 제 1 점(X, Y, Z)(201)와 해당 제 1 점이 이미지로 투영되었을 때의 영상 좌표(x, y)(203) 간의 관계는 카메라 내부 파라미터(205) 및 카메라 외부 파라미터(207)로부터 도출될 수 있다.For example, referring to FIG. 2B, the relationship between the first point (X, Y, Z) 201 specified in spatial coordinates and the image coordinates (x, y) 203 when the first point is projected into an image is It can be derived from the camera
카메라 외부 파라미터는 카메라 위치에 대응하는 카메라 좌표와 공간 좌표 간의 회전 변환 행렬 및 이동 변환 행렬을 포함할 수 있다. The external parameters of the camera may include a rotation transformation matrix and a movement transformation matrix between camera coordinates and spatial coordinates corresponding to the camera position.
깊이 영상 생성부(120)는 복수의 카메라에 대응하는 카메라 파라미터 및 복수의 영상을 이용하여 복수의 영상 중 기준 영상에 대한 깊이 영상을 생성할 수 있다. The
예를 들면, 도 2c를 참조하면, 카메라 파라미터 도출부(110)는 제 1 시점 영상(왼쪽 시점 영상), 제 2 시점 영상(가운데 시점 영상, 209) 및 제 3 시점 영상(오른쪽 시점 영상)을 포함하는 복수의 영상에 대하여 제 1 시점 영상의 카메라 내부 및 외부 파라미터, 제 2 시점 영상의 카메라 내부 및 외부 파라미터, 제 3 시점 영상의 카메라 내부 및 외부 파라미터를 도출할 수 있다. For example, referring to FIG. 2C, the camera
깊이 영상 생성부(120)는 복수의 영상 중 제 2 시점 영상(209)을 기준 영상으로 설정하고, 나머지 제 1 시점 영상 및 제 3 시점 영상을 참고 영상으로 설정한 후, 각 시점 영상의 카메라 내부 및 외부 파라미터와, 복수의 영상을 깊이 영상 생성 프로그램(211)에 입력하여 복수의 영상에 대한 전처리를 수행할 수 있다. The
깊이 영상 생성부(120)는 복수의 영상 각각에 포함된 객체에 대하여 객체별로 이미지를 분할하여 이미지 세그멘테이션을 수행할 수 있다. The
깊이 영상 생성부(120)는 임의의 크기를 갖는 블록 이미지를 탐색하여 두 이미지 간의 동일한 블록을 탐색하여 블록 매칭을 수행하고, 그래프 컷을 적용하여 기준 영상에 대한 깊이 영상(213)을 생성할 수 있다. The
깊이 영상 생성부(120)는 생성된 깊이 영상(213)으로부터 깊이 영상(213)의 깊이 정보를 측정할 수 있다. The
잠시, 도 2d를 참조하여, 영상 좌표계, 카메라 좌표계 및 공간 좌표계에 대하여 설명하기로 한다. For a moment, an image coordinate system, a camera coordinate system, and a spatial coordinate system will be described with reference to FIG. 2D.
도 2d를 참조하면, 영상 좌표계(215)는 디스플레이 장치를 통해 표시되는 2차원 이미지에 대한 좌표계를 의미한다. 영상 좌표계(215)는 이미지의 왼쪽 상단 모서리를 원점으로 하면, 오른쪽 방향을 x 축 증가 방향으로 하고, 아래쪽 방향을 y 축 증가 방향으로 한다. 이 때, 영상 좌표계(215)의 단위는 픽셀 단위이다.Referring to FIG. 2D, the image coordinate
카메라 좌표계(217)는 카메라를 기준점으로 한 좌표계로서 카메라의 초점(즉, 카메라 렌즈의 중심)을 원점으로 하면, 카메라의 정면 광학축 방향을 Z 축, 카메라의 아래쪽 방향을 Y 축, 오른쪽 방향을 X 축으로 설정할 수 있다. 이 때, 카메라 좌표의 단위는 공간 좌표와 동일하게 미터 또는 센티미터로 설정될 수 있다. The camera coordinate
공간 좌표계(219)는 3차원 공간에 대한 좌표계로서, 공간 내 물체의 위치를 표현할 때 기준으로 삼는 좌표계이다. 공간 좌표(219)는 사용자가 임의로 기준을 잡아서 사용할 수 있는 좌표계로, 예를 들면, 사용자의 안방 한쪽 모서리를 원점으로 잡으면, 한쪽 벽면 방향을 X 축, 다른 쪽 벽면 방향을 Y 축, 천장을 바라보는 방향을 Z 축으로 잡을 수 있다. 이 때, 공간 좌표의 단위는 미터 또는 센티미터로 설정될 수 있다. The spatial coordinate
다시 도 1로 돌아오면, 공간 좌표 도출부(130)는 깊이 영상에 포함된 객체에 대한 공간 좌표를 도출할 수 있다. Returning to FIG. 1 again, the spatial coordinate
공간 좌표 도출부(130)는 깊이 영상으로부터 객체를 추출하고, 추출된 객체에 대한 무게 중심을 계산할 수 있다. 예를 들면, 공간 좌표 도출부(130)는 깊이 영상의 복수의 프레임에 영상 이진화를 적용하여 객체와 배경을 분리할 수 있다. 이후, 공간 좌표 도출부(130)는 분리된 객체의 모든 픽셀 수를 이용하여 객체에 대한 무게 중심을 계산할 수 있다. The spatial coordinate
공간 좌표 도출부(130)는 복수의 영상이 디스플레이를 통해 표시되는 경우, 계산된 객체에 대한 무게 중심에 기초하여 디스플레이에 표시된 영상 내의 객체가 위치하는 영상 좌표를 도출할 수 있다. 예를 들면, 도 2d를 참조하면, 공간 좌표 도출부(130)는 객체에 대한 무게 중심에 기초하여 영상 좌표계(215) 상에서 객체가 위치하는 영상 좌표(P = (x, y))(221)를 구할 수 있다.When a plurality of images are displayed through the display, the spatial coordinate
공간 좌표 도출부(130)는 깊이 영상에 기초하여 도출된 객체의 영상 좌표에 대한 객체의 깊이 화소 값을 계산할 수 있다. The spatial coordinate
공간 좌표 도출부(130)는 객체의 깊이 화소 값 및 깊이 영상으로부터 도출된 카메라 좌표 상에서 깊이 정보에 기초하여 카메라 좌표 상에서 객체에 대한 좌표값을 계산할 수 있다. 예를 들면, 도 2d를 참조하면, 공간 좌표 도출부(130)는 객체가 위치하는 영상 좌표(P = (x, y))(221) 상에서 객체의 깊이 화소 값()을 계산한 후, [수학식 1]에 객체의 깊이 화소 값() 및 깊이 영상의 깊이 값(, )을 대입하여 카메라 좌표 중 객체에 대한 좌표값()(223)을 계산할 수 있다. The spatial coordinate
[수학식 1][Equation 1]
공간 좌표 도출부(130)는 객체의 영상 좌표, 카메라 내부 파라미터 및 카메라 좌표 상에서 객체에 대한 좌표값에 기초하여 객체에 대한 카메라 좌표를 도출할 수 있다. 예를 들면, 도 2d를 참조하면, 공간 좌표 도출부(130)는 객체가 위치하는 영상 좌표(P = (x, y))(221), 카메라 렌즈의 초점 거리(f), 카메라 렌즈의 중심점(c) 및 카메라 좌표 중 객체에 대한 Z 방향에 대응하는 좌표값()(223)을 [수학식 2]에 대입하여 객체에 대한 카메라 좌표(=())를 도출할 수 있다. The spatial coordinate
[수학식 2][Equation 2]
공간 좌표 도출부(130)는 객체에 대한 카메라 좌표 및 카메라 외부 파라미터에 기초하여 객체에 대한 공간 좌표를 도출할 수 있다. 예를 들면, 도 2d를 참조하면, 공간 좌표 도출부(130)는 객체에 대한 카메라 좌표(=()), 카메라 좌표와 공간 좌표 간의 회전 변환 행렬(R) 및 이동 변환 행렬(T)을 [수학식 3]에 대입하여 객체에 대한 공간 좌표(= (X, Y, Z))(225)를 도출할 수 있다. The spatial coordinate
[수학식 3][Equation 3]
음향 좌표 도출부(140)는 도출된 객체에 대한 공간 좌표에 기초하여 복수의 영상의 각 객체로부터 발생되는 음향에 대한 음향 좌표를 도출할 수 있다. The acoustic coordinate
음향에 대한 음향 좌표 및 청취자의 공간 좌표 및 방향 벡터를 설정함으로써 3차원 입체 음향을 구현할 수 있다. 여기서, 음향 좌표는 공간 내 음원이 표출되는 지점을 3차원 좌표계로 나타낸 것이고, 청취자의 공간 좌표는 공간 내 청취자가 위치하는 곳을 3차원 좌표계로 나타낸 것이다. By setting the acoustic coordinates for the sound and the spatial coordinates and direction vectors of the listener, it is possible to implement a 3D stereoscopic sound. Here, the acoustic coordinates represent a point at which a sound source in space is expressed in a three-dimensional coordinate system, and the spatial coordinates of a listener indicate a location in the space where the listener is located in a three-dimensional coordinate system.
구체적으로, 청취자 좌표 설정부(150)는 복수의 카메라 중 어느 하나의 카메라에 대한 공간 좌표를 청취자 좌표로 설정할 수 있다. Specifically, the listener coordinate setting
청취자 방향 벡터 설정부(160)는 어느 하나의 카메라에 대한 방향 벡터를 공간 좌표에 대한 벡터로 변환하여 청취자 방향 벡터로 설정할 수 있다. 여기서, 청취자 방향 벡터는 공간 내에서 청취자가 바라보는 방향을 의미한다. 청취자 방향 벡터에는 업(up) 벡터 및 포워드(forward) 벡터를 포함하고, 업 벡터와 포워드 벡터는 서로 직각 관계에 있다. 예를 들면, 업 벡터가 {0, 1, 0}이라면, 포워드 벡터는 {0, 0, 1}이 되고, 청취자는 Y 축 증가 방향으로 서 있는 상태에서 Z 축 증가 방향을 바라보게 된다. 청취자의 포워드 벡터는 카메라 좌표 상의 Z 축 방향의 기본 벡터를 공간 좌표 상의 벡터로 변환함으로써 도출될 수 있다. The listener direction
한편, 당업자라면, 영상 수신부(100), 카메라 파라미터 도출부(110), 깊이 영상 생성부(120), 공간 좌표 도출부(130), 음향 좌표 도출부(140), 청취자 좌표 설정부(150) 및 청취자 방향 벡터 설정부(160) 각각이 분리되어 구현되거나, 이 중 하나 이상이 통합되어 구현될 수 있음을 충분히 이해할 것이다. Meanwhile, for those skilled in the art, the
도 3은 본 발명의 일 실시예에 따른, 객체 좌표 도출 방법을 나타낸 흐름도다. 3 is a flowchart illustrating a method of deriving object coordinates according to an embodiment of the present invention.
도 3을 참조하면, 단계 S301에서 객체 좌표 도출 장치(10)는 복수의 카메라로부터 복수의 영상을 수신할 수 있다. Referring to FIG. 3, in step S301, the
단계 S303에서 객체 좌표 도출 장치(10)는 복수의 카메라에 대응하는 카메라 파라미터를 도출할 수 있다. In step S303, the object coordinate
단계 S305에서 객체 좌표 도출 장치(10)는 도출된 카메라 파라미터 및 복수의 영상을 이용하여 복수의 영상 중 기준 영상에 대한 깊이 영상을 생성할 수 있다. In step S305, the
단계 S307에서 객체 좌표 도출 장치(10)는 깊이 영상에 포함된 객체에 대한 공간 좌표를 도출할 수 있다. In step S307, the object coordinate
단계 S309에서 객체 좌표 도출 장치(10)는 도출된 객체에 대한 공간 좌표에 기초하여 객체로부터 발생되는 음향에 대한 음향 좌표를 도출할 수 있다. In operation S309, the
상술한 설명에서, 단계 S301 내지 S309는 본 발명의 구현예에 따라서, 추가적인 단계들로 더 분할되거나, 더 적은 단계들로 조합될 수 있다. 또한, 일부 단계는 필요에 따라 생략될 수도 있고, 단계 간의 순서가 변경될 수도 있다. In the above description, steps S301 to S309 may be further divided into additional steps or combined into fewer steps, according to an embodiment of the present invention. In addition, some steps may be omitted as necessary, and the order between steps may be changed.
본 발명의 일 실시예는 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행 가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다. An embodiment of the present invention may also be implemented in the form of a recording medium including instructions executable by a computer, such as a program module executed by a computer. Computer-readable media can be any available media that can be accessed by a computer, and includes both volatile and nonvolatile media, removable and non-removable media. Further, the computer-readable medium may include all computer storage media. Computer storage media includes both volatile and nonvolatile, removable and non-removable media implemented in any method or technology for storage of information such as computer readable instructions, data structures, program modules or other data.
전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다. The above description of the present invention is for illustrative purposes only, and those of ordinary skill in the art to which the present invention pertains can understand that it is possible to easily transform it into other specific forms without changing the technical spirit or essential features of the present invention. will be. Therefore, it should be understood that the embodiments described above are illustrative in all respects and not limiting. For example, each component described as a single type may be implemented in a distributed manner, and similarly, components described as being distributed may also be implemented in a combined form.
본 발명의 범위는 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다. The scope of the present invention is indicated by the claims to be described later rather than the detailed description, and all changes or modified forms derived from the meaning and scope of the claims and their equivalent concepts should be interpreted as being included in the scope of the present invention. .
10: 객체 좌표 도출 장치
100: 영상 수신부
110: 카메라 파라미터 도출부
120: 깊이 영상 생성부
130: 공간 좌표 도출부
140: 음향 좌표 도출부
150: 청취자 좌표 설정부
160: 청취자 방향 벡터 설정부10: object coordinate derivation device
100: video receiver
110: camera parameter derivation unit
120: depth image generator
130: spatial coordinate derivation unit
140: acoustic coordinate derivation unit
150: listener coordinate setting unit
160: listener direction vector setting unit
Claims (10)
복수의 카메라로부터 복수의 영상을 수신하는 영상 수신부;
상기 복수의 카메라에 대응하는 카메라 파라미터를 도출하는 카메라 파라미터 도출부;
상기 도출된 카메라 파라미터 및 상기 복수의 영상을 이용하여 상기 복수의 영상 중 기준 영상에 대한 깊이 영상을 생성하는 깊이 영상 생성부;
상기 깊이 영상에 포함된 객체에 대한 공간 좌표를 도출하는 공간 좌표 도출부;
상기 도출된 객체에 대한 공간 좌표에 기초하여 상기 객체로부터 발생되는 음향에 대한 음향 좌표를 도출하는 음향 좌표 도출부
를 포함하되,
상기 공간 좌표 도출부는
상기 깊이 영상으로부터 상기 객체를 추출하고,
상기 추출된 객체에 대한 무게 중심을 계산하고,
상기 복수의 영상이 디스플레이를 통해 표시되는 경우, 상기 계산된 객체에 대한 무게 중심에 기초하여 상기 디스플레이에 표시된 영상 내의 상기 객체가 위치하는 영상 좌표를 도출하되,
상기 복수의 카메라 중 어느 하나의 카메라에 대한 공간 좌표를 청취자의 청취자 좌표로 설정하는 청취자 좌표 설정부; 및
상기 어느 하나의 카메라에 대한 방향 벡터를 상기 공간 좌표에 대한 벡터로 변환하여 상기 청취자의 청취자 방향 벡터로 설정하는 청취자 방향 벡터 설정부를 더 포함하고,
상기 도출된 음향 좌표, 상기 청취자의 청취자 좌표 및 청취자 방향 벡터에 기초하여 3차원 입체 음향이 구현되는 것인, 객체 좌표 도출 장치.
In the object coordinate derivation device,
An image receiver configured to receive a plurality of images from a plurality of cameras;
A camera parameter derivation unit for deriving camera parameters corresponding to the plurality of cameras;
A depth image generator for generating a depth image for a reference image among the plurality of images by using the derived camera parameter and the plurality of images;
A spatial coordinate derivation unit for deriving spatial coordinates for an object included in the depth image;
An acoustic coordinate derivation unit that derives acoustic coordinates for the sound generated from the object based on the spatial coordinates of the derived object
Including,
The spatial coordinate derivation unit
Extracting the object from the depth image,
Calculate the center of gravity for the extracted object,
When the plurality of images are displayed through a display, an image coordinate at which the object is located in the image displayed on the display is derived based on the calculated center of gravity of the object,
A listener coordinate setting unit configured to set spatial coordinates of any one of the plurality of cameras as the listener's coordinates; And
Further comprising a listener direction vector setting unit for converting the direction vector for any one of the cameras into a vector for the spatial coordinates and setting it as the listener direction vector of the listener,
The object coordinate derivation apparatus for implementing a three-dimensional stereophonic sound based on the derived acoustic coordinates, the listener's coordinates, and the listener direction vector.
상기 카메라 파라미터는 카메라 내부 파라미터 및 카메라 외부 파라미터를 포함하고,
상기 카메라 내부 파라미터는 카메라 렌즈의 초점 거리, 상기 카메라 렌즈의 중심점, 이미지 센서에 대한 비대칭계수 및 상기 카메라 렌즈에 대한 왜곡 계수를 포함하고,
상기 카메라 외부 파라미터는 카메라 위치에 대응하는 카메라 좌표와 공간 좌표 간의 회전 변환 행렬 및 이동 변환 행렬을 포함하는 것인, 객체 좌표 도출 장치.
The method of claim 1,
The camera parameters include camera internal parameters and camera external parameters,
The camera internal parameters include a focal length of the camera lens, a center point of the camera lens, an asymmetry coefficient for an image sensor, and a distortion coefficient for the camera lens,
The camera external parameter includes a rotation transformation matrix and a movement transformation matrix between camera coordinates and spatial coordinates corresponding to the camera position.
상기 공간 좌표 도출부는
상기 깊이 영상에 기초하여 상기 도출된 영상 좌표에 대한 상기 객체의 깊이 화소 값을 계산하는 것인, 객체 좌표 도출 장치.
The method of claim 1,
The spatial coordinate derivation unit
To calculate a depth pixel value of the object with respect to the derived image coordinate based on the depth image.
상기 공간 좌표 도출부는
상기 객체의 깊이 화소 값 및 상기 깊이 영상으로부터 도출된 카메라 좌표 상에서의 깊이 정보에 기초하여 상기 카메라 좌표 상에서 상기 객체에 대한 좌표값을 계산하는 것인, 객체 좌표 도출 장치.
The method of claim 4,
The spatial coordinate derivation unit
An object coordinate derivation apparatus for calculating a coordinate value for the object on the camera coordinates based on the depth pixel value of the object and depth information on the camera coordinates derived from the depth image.
상기 공간 좌표 도출부는
상기 영상 좌표, 카메라 내부 파라미터 및 상기 카메라 좌표 상에서 상기 객체에 대한 좌표값에 기초하여 상기 객체에 대한 카메라 좌표를 도출하는 것인, 객체 좌표 도출 장치.
The method of claim 5,
The spatial coordinate derivation unit
The object coordinate derivation apparatus for deriving camera coordinates for the object based on the image coordinates, camera internal parameters, and coordinate values for the object on the camera coordinates.
상기 공간 좌표 도출부는
상기 객체에 대한 카메라 좌표 및 카메라 외부 파라미터에 기초하여 상기 객체에 대한 공간 좌표를 도출하는 것인, 객체 좌표 도출 장치.
The method of claim 6,
The spatial coordinate derivation unit
The object coordinate derivation apparatus for deriving the spatial coordinates for the object based on the camera coordinates for the object and a camera external parameter.
복수의 카메라로부터 복수의 영상을 수신하는 단계;
상기 복수의 카메라에 대응하는 카메라 파라미터를 도출하는 단계;
상기 도출된 카메라 파라미터 및 상기 복수의 영상을 이용하여 상기 복수의 영상 중 기준 영상에 대한 깊이 영상을 생성하는 단계;
상기 깊이 영상에 포함된 객체에 대한 공간 좌표를 도출하는 단계; 및
상기 도출된 객체에 대한 공간 좌표에 기초하여 상기 객체로부터 발생되는 음향에 대한 음향 좌표를 도출하는 단계
를 포함하되,
상기 객체에 대한 공간 좌표를 도출하는 단계는
상기 깊이 영상으로부터 상기 객체를 추출하는 단계;
상기 추출된 객체에 대한 무게 중심을 계산하는 단계 및
상기 복수의 영상이 디스플레이를 통해 표시되는 경우, 상기 계산된 객체에 대한 무게 중심에 기초하여 상기 디스플레이에 표시된 영상 내의 상기 객체가 위치하는 영상 좌표를 도출하는 단계를 포함하고,
상기 복수의 카메라 중 어느 하나의 카메라에 대한 공간 좌표를 청취자의 청취자 좌표로 설정하는 단계; 및
상기 어느 하나의 카메라에 대한 방향 벡터를 상기 공간 좌표에 대한 벡터로 변환하여 상기 청취자의 청취자 방향 벡터로 설정하는 단계를 더 포함하고,
상기 도출된 음향 좌표, 상기 청취자의 청취자 좌표 및 상기 청취자 방향 벡터에 기초하여 3차원 입체 음향이 구현되는 것인, 객체 좌표 도출 방법.In the method of deriving the coordinates of the object in the object coordinate derivation device,
Receiving a plurality of images from a plurality of cameras;
Deriving camera parameters corresponding to the plurality of cameras;
Generating a depth image for a reference image among the plurality of images by using the derived camera parameter and the plurality of images;
Deriving spatial coordinates for the object included in the depth image; And
Deriving acoustic coordinates for sound generated from the object based on spatial coordinates for the derived object
Including,
The step of deriving spatial coordinates for the object is
Extracting the object from the depth image;
Calculating a center of gravity for the extracted object, and
When the plurality of images are displayed through a display, deriving image coordinates at which the object is located in the image displayed on the display based on the calculated center of gravity of the object,
Setting spatial coordinates of any one of the plurality of cameras as the listener's coordinates; And
The step of converting the direction vector for any one of the cameras into a vector for the spatial coordinates and setting it as the listener direction vector of the listener,
3D stereoscopic sound is implemented based on the derived acoustic coordinates, the listener's coordinates of the listener, and the listener direction vector.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180160407A KR102151250B1 (en) | 2018-12-12 | 2018-12-12 | Device and method for deriving object coordinate |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180160407A KR102151250B1 (en) | 2018-12-12 | 2018-12-12 | Device and method for deriving object coordinate |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20200072346A KR20200072346A (en) | 2020-06-22 |
KR102151250B1 true KR102151250B1 (en) | 2020-09-02 |
Family
ID=71142229
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020180160407A KR102151250B1 (en) | 2018-12-12 | 2018-12-12 | Device and method for deriving object coordinate |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102151250B1 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100695174B1 (en) | 2006-03-28 | 2007-03-14 | 삼성전자주식회사 | Method and apparatus for tracking listener's head position for virtual acoustics |
KR101358430B1 (en) * | 2012-06-25 | 2014-02-05 | 인텔렉추얼디스커버리 주식회사 | Method and system for generating depth image |
JP2014175996A (en) * | 2013-03-12 | 2014-09-22 | Oki Electric Ind Co Ltd | Parameter estimation device, parameter estimation program, equipment determination system and equipment determination program |
KR101564378B1 (en) * | 2015-04-27 | 2015-10-29 | 엘아이지넥스원 주식회사 | Method for estimating distance to target using camera image |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102529120B1 (en) * | 2016-07-15 | 2023-05-08 | 삼성전자주식회사 | Method and device for acquiring image and recordimg medium thereof |
KR102388361B1 (en) | 2016-08-12 | 2022-04-20 | 주식회사 에스큐그리고 | 3d moving image playing method, 3d sound reproducing method, 3d moving image playing system and 3d sound reproducing system |
-
2018
- 2018-12-12 KR KR1020180160407A patent/KR102151250B1/en active IP Right Grant
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100695174B1 (en) | 2006-03-28 | 2007-03-14 | 삼성전자주식회사 | Method and apparatus for tracking listener's head position for virtual acoustics |
KR101358430B1 (en) * | 2012-06-25 | 2014-02-05 | 인텔렉추얼디스커버리 주식회사 | Method and system for generating depth image |
JP2014175996A (en) * | 2013-03-12 | 2014-09-22 | Oki Electric Ind Co Ltd | Parameter estimation device, parameter estimation program, equipment determination system and equipment determination program |
KR101564378B1 (en) * | 2015-04-27 | 2015-10-29 | 엘아이지넥스원 주식회사 | Method for estimating distance to target using camera image |
Also Published As
Publication number | Publication date |
---|---|
KR20200072346A (en) | 2020-06-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110264509B (en) | Method, apparatus, and storage medium for determining pose of image capturing device | |
US10609282B2 (en) | Wide-area image acquiring method and apparatus | |
US9846960B2 (en) | Automated camera array calibration | |
JP5260705B2 (en) | 3D augmented reality provider | |
KR101518531B1 (en) | System and method for measuring potential eyestrain of stereoscopic motion pictures | |
US20120242795A1 (en) | Digital 3d camera using periodic illumination | |
KR102049456B1 (en) | Method and apparatus for formating light field image | |
JPWO2012056686A1 (en) | 3D image interpolation apparatus, 3D imaging apparatus, and 3D image interpolation method | |
US20140118353A1 (en) | Image processing apparatus and method | |
JP5035195B2 (en) | Image generating apparatus and program | |
US9697581B2 (en) | Image processing apparatus and image processing method | |
JP5809607B2 (en) | Image processing apparatus, image processing method, and image processing program | |
JP2015213299A (en) | Image processing system and image processing method | |
JP2022046260A5 (en) | Image processing device, image processing method, recording medium and program | |
JP2016504828A (en) | Method and system for capturing 3D images using a single camera | |
CN109978945B (en) | Augmented reality information processing method and device | |
JP2019029721A (en) | Image processing apparatus, image processing method, and program | |
KR101208767B1 (en) | Stereoscopic image generation method, device and system using circular projection and recording medium for the same | |
CN107659772B (en) | 3D image generation method and device and electronic equipment | |
JP2016114445A (en) | Three-dimensional position calculation device, program for the same, and cg composition apparatus | |
JP4998422B2 (en) | Image generating apparatus, method, communication system, and program | |
KR102151250B1 (en) | Device and method for deriving object coordinate | |
JP6405539B2 (en) | Label information processing apparatus for multi-viewpoint image and label information processing method | |
KR20110025083A (en) | Apparatus and method for displaying 3d image in 3d image system | |
KR20120013769A (en) | Method and apparatus for processing image |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
AMND | Amendment | ||
E601 | Decision to refuse application | ||
X091 | Application refused [patent] | ||
AMND | Amendment | ||
E902 | Notification of reason for refusal | ||
AMND | Amendment | ||
X701 | Decision to grant (after re-examination) | ||
GRNT | Written decision to grant |