KR102724897B1 - System for providing augmented realty - Google Patents
System for providing augmented realty Download PDFInfo
- Publication number
- KR102724897B1 KR102724897B1 KR1020170017636A KR20170017636A KR102724897B1 KR 102724897 B1 KR102724897 B1 KR 102724897B1 KR 1020170017636 A KR1020170017636 A KR 1020170017636A KR 20170017636 A KR20170017636 A KR 20170017636A KR 102724897 B1 KR102724897 B1 KR 102724897B1
- Authority
- KR
- South Korea
- Prior art keywords
- augmented reality
- modules
- distance information
- shooting
- photographing
- Prior art date
Links
- 230000003190 augmentative effect Effects 0.000 title claims abstract description 57
- 238000001514 detection method Methods 0.000 claims description 9
- 238000010586 diagram Methods 0.000 description 4
- 238000000034 method Methods 0.000 description 3
- 230000004308 accommodation Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0132—Head-up displays characterised by optical features comprising binocular systems
- G02B2027/0134—Head-up displays characterised by optical features comprising binocular systems of stereoscopic type
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
Abstract
본 발명의 일 실시예에 따른 증강 현실 제공 시스템은 본체의 길이 방향으로 이격되어 배치되는 적어도 두 개의 촬영 모듈을 포함하는 모바일 기기, 및 상기 모바일 기기가 탑재되고, 상기 적어도 두 개의 촬영 모듈 각각과 임계 거리 이격되어 배치되는 적어도 두 개의 촬영 모듈을 포함하는 헤드 마운트 디스플레이 기기를 포함할 수 있다. An augmented reality providing system according to one embodiment of the present invention may include a mobile device including at least two photographing modules arranged to be spaced apart in the longitudinal direction of a main body, and a head mounted display device mounted on the mobile device and including at least two photographing modules arranged to be spaced apart from each of the at least two photographing modules by a critical distance.
Description
본 발명은 증강 현실 제공 시스템에 관한 것이다. The present invention relates to an augmented reality providing system.
증강 현실이란, 가상 현실의 한 분야로 실제 환경에 가상 사물이나 정보를 합성하여 원래의 환경에 존재하는 사물처럼 보이도록 하는 컴퓨터 그래픽 기법이다.Augmented reality is a branch of virtual reality that uses computer graphics techniques to synthesize virtual objects or information into the real environment to make them appear as if they were in the original environment.
증강 현실 기술은 인간과 컴퓨터 사이의 상호작용에 관한 기술로서, 증강 현실 기술을 이용하면, 현실 세계의 장면에 가상 물체를 겹쳐 보여주어 시뮬레이션할 수 있다. 사용자는 증강 현실 시스템을 통해 객관적인 물리 세계에서 경험했던 직접적인 현실감을 느낄 수 있고, 공간, 시간 및 기타 객관적 제약을 뛰어 넘어, 현실 세계에서 경험할 수 없는 체험을 할 수 있다. 최근, 증강 현실 기술의 비약적인 발전으로, 응용 범위가 점점 더 넓어지고 있으며, 콘텐츠 디스플레이 방식도 매우 다양화 되고 있다.Augmented reality technology is a technology for interaction between humans and computers. Using augmented reality technology, it is possible to simulate real-world scenes by superimposing virtual objects on them. Through the augmented reality system, users can feel the direct sense of reality they experienced in the objective physical world, and can experience things that cannot be experienced in the real world by overcoming space, time, and other objective constraints. Recently, with the rapid development of augmented reality technology, the application range is becoming increasingly wider, and the content display method is also becoming very diverse.
본 발명의 과제는 입체적인 증강 현실을 구현할 수 있는 증강 현실 제공 시스템을 제공하는 것이다. The task of the present invention is to provide an augmented reality providing system capable of implementing three-dimensional augmented reality.
본 발명의 일 실시예에 따른 증강 현실 제공 시스템은 본체의 길이 방향으로 이격되어 배치되는 적어도 두 개의 촬영 모듈을 포함하는 모바일 기기, 및 상기 모바일 기기가 탑재되고, 상기 적어도 두 개의 촬영 모듈 각각과 임계 거리 이격되어 배치되는 적어도 두 개의 촬영 모듈을 포함하는 헤드 마운트 디스플레이 기기를 포함할 수 있다. An augmented reality providing system according to one embodiment of the present invention may include a mobile device including at least two photographing modules arranged to be spaced apart in the longitudinal direction of a main body, and a head mounted display device mounted on the mobile device and including at least two photographing modules arranged to be spaced apart from each of the at least two photographing modules by a critical distance.
본 발명의 일 실시예에 따르면, 대상체와 좌안 및 우안의 거리 정보에 따라 증강 현실 이미지를 보정하여, 입체적이고 현실감 있는 증강 현실을 제공할 수 있다. According to one embodiment of the present invention, an augmented reality image can be corrected according to distance information between a target object and the left and right eyes, thereby providing a three-dimensional and realistic augmented reality.
도 1은 본 발명의 일 실시예에 따른 증강 현실 제공 시스템을 나타내는 예시도이다.
도 2는 본 발명의 일 실시예에 따른 증강 현실 제공 시스템을 나타내는 블록도이다. FIG. 1 is an exemplary diagram showing an augmented reality providing system according to one embodiment of the present invention.
FIG. 2 is a block diagram showing an augmented reality providing system according to one embodiment of the present invention.
후술하는 본 발명에 대한 상세한 설명은, 본 발명이 실시될 수 있는 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이들 실시예는 당업자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다. 본 발명의 다양한 실시예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일 실시예에 관련하여 본 발명의 정신 및 범위를 벗어나지 않으면서 다른 실시예로 구현될 수 있다. 또한, 각각의 개시된 실시예 내의 개별 구성요소의 위치 또는 배치는 본 발명의 정신 및 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 취하려는 것이 아니며, 본 발명의 범위는, 적절하게 설명된다면, 그 청구항들이 주장하는 것과 균등한 모든 범위와 더불어 첨부된 청구항에 의해서만 한정된다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 기능을 지칭한다.The detailed description of the present invention set forth below refers to the accompanying drawings which illustrate specific embodiments in which the invention may be practiced. These embodiments are described in sufficient detail to enable those skilled in the art to practice the invention. It should be understood that the various embodiments of the present invention, while different from one another, are not necessarily mutually exclusive. For example, specific shapes, structures, and features described herein may be implemented in other embodiments without departing from the spirit and scope of the invention. It should also be understood that the positions or arrangements of individual components within each disclosed embodiment may be changed without departing from the spirit and scope of the invention. Accordingly, the following detailed description is not intended to be limiting, and the scope of the invention is defined only by the appended claims, along with the full scope of equivalents to which such claims are entitled, if any. Like reference numerals in the drawings designate the same or similar functionality throughout the several aspects.
이하에서는, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있도록 하기 위하여, 본 발명의 실시예들에 관하여 첨부된 도면을 참조하여 상세히 설명하기로 한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the attached drawings so that a person having ordinary skill in the art to which the present invention pertains can easily practice the present invention.
도 1은 본 발명의 일 실시예에 따른 증강 현실 제공 시스템을 나타내는 예시도이다. FIG. 1 is an exemplary diagram showing an augmented reality providing system according to one embodiment of the present invention.
본 발명의 일 실시예에 따른 증강 현실 제공 시스템은 모바일 기기(110) 및 모바일 기기(110)가 탑재되는 헤드 마운트 디스플레이(HMD: Head mounted Display) 기기(120)를 포함할 수 있다.An augmented reality providing system according to one embodiment of the present invention may include a mobile device (110) and a head mounted display (HMD) device (120) equipped with the mobile device (110).
모바일 기기(110)는 본체의 전면에 마련되어, 증강 현실 이미지를 제공하는 디스플레이부 및 본체의 후면에 마련되어, 대상체를 포함하는 실제 장면을 촬영하는 적어도 두 개의 촬영 모듈(111, 112)를 포함할 수 있다. A mobile device (110) may include a display unit provided on the front of the main body to provide an augmented reality image and at least two shooting modules (111, 112) provided on the rear of the main body to capture an actual scene including a target object.
적어도 두 개의 촬영 모듈(111, 112)은 제1 촬영 모듈(111) 및 제2 촬영 모듈(112)을 포함할 수 있고, 제1 촬영 모듈(111) 및 제2 촬영 모듈(112) 각각은 서로 다른 시각에서 대상체를 포함하는 실제 장면을 촬영할 수 있다. 제1 촬영 모듈(111)은 좌안에 대응될 수 있고, 제2 촬영 모듈(112)은 우안에 대응될 수 있으며, 제1 촬영 모듈(111)에서 생성되는 이미지는 로우 좌안 이미지 및 제2 촬영 모듈(112)에서 생성되는 이미지는 로우 우안 이미지로 지칭될 수 있다. At least two shooting modules (111, 112) may include a first shooting module (111) and a second shooting module (112), and each of the first shooting module (111) and the second shooting module (112) may capture a real scene including a subject from different viewpoints. The first shooting module (111) may correspond to the left eye, and the second shooting module (112) may correspond to the right eye, and an image generated from the first shooting module (111) may be referred to as a low left-eye image, and an image generated from the second shooting module (112) may be referred to as a low right-eye image.
제1 촬영 모듈(111) 및 제2 촬영 모듈(112)은 본체의 길이 방향으로 기준 거리 이상 이격되어 배치될 수 있고, 제1 촬영 모듈(111) 및 제2 촬영 모듈(112) 각각으로부터 생성되는 이미지로부터 증강 현실 이미지가 생성될 수 있다. The first shooting module (111) and the second shooting module (112) can be arranged to be spaced apart from each other by a reference distance in the longitudinal direction of the main body, and an augmented reality image can be generated from images generated from each of the first shooting module (111) and the second shooting module (112).
일 예로, 제1 촬영 모듈(111) 및 제2 촬영 모듈(112) 각각은 1200만 화소 이상의 고해상도 카메라를 포함할 수 있고, RGB(Red/Green/Blue) 형태의 픽셀을 포함할 수 있다. For example, each of the first shooting module (111) and the second shooting module (112) may include a high-resolution camera of 12 million pixels or more and may include pixels in the form of RGB (Red/Green/Blue).
HMD(Head mounted Display) 기기(120)는 안경처럼 머리에 쓰고 대형 영상을 즐길 수 있는 영상표시 장치로써, 사용자의 눈앞에 직접 영상을 출력함으로써 직접적인 현실감을 제공할 수 있다. HMD 기기(120)는 수용 공간을 포함할 수 있고, 수용 공간을 통하여, 모바일 기기(110)는 HMD 기기(120)에 탑재될 수 있다. The HMD (Head mounted Display) device (120) is an image display device that can be worn on the head like glasses and allows the user to enjoy large images, and can provide a direct sense of reality by outputting images directly in front of the user's eyes. The HMD device (120) can include an accommodation space, and a mobile device (110) can be mounted on the HMD device (120) through the accommodation space.
HMD 기기(120)는 모바일 기기(110)의 디스플레이부에서 제공되는 증강 현실 이미지를 사용자에게 제공하는 적어도 두 개의 렌즈를 포함할 수 있다. 적어도 두 개의 렌즈는 3차원 렌즈를 포함할 수 있고, 증강 현실 이미지는 3차원 렌즈를 통하여 3차원 이미지로 변환되어, 사용자에게 제공될 수 있다. 적어도 두 개의 이미지 렌즈 중 하나는 좌안 3차원 이미지를 제공할 수 있고, 다른 하나는 우안 3차원 이미지를 제공할 수 있다. The HMD device (120) may include at least two lenses that provide an augmented reality image provided on the display unit of the mobile device (110) to the user. The at least two lenses may include three-dimensional lenses, and the augmented reality image may be converted into a three-dimensional image through the three-dimensional lenses and provided to the user. One of the at least two image lenses may provide a left-eye three-dimensional image, and the other may provide a right-eye three-dimensional image.
HMD 기기(120)는 모바일 기기(110)를 탑재하기 위한 수용 공간의 외측에 각각 마련되는 적어도 두 개의 촬영 모듈(121, 122)을 포함할 수 있다. The HMD device (120) may include at least two photographing modules (121, 122) each provided on the outside of a receiving space for mounting a mobile device (110).
적어도 두 개의 촬영 모듈(121, 122)은 제3 촬영 모듈(121) 및 제4 촬영 모듈(122)을 포함할 수 있다. At least two shooting modules (121, 122) may include a third shooting module (121) and a fourth shooting module (122).
제3 촬영 모듈(121) 및 제4 촬영 모듈(122) 각각은 제1 촬영 모듈(111) 및 제2 촬영 모듈(112) 각각과 대응될 수 있다. 대응되는 한 쌍의 촬영 모듈은 모바일 기기(110)의 길이 방향을 기준으로 임계 거리 이격되어 배치될 수 있고, 일 예로, 임계 거리는 65mm일 수 있다. Each of the third shooting module (121) and the fourth shooting module (122) may correspond to each of the first shooting module (111) and the second shooting module (112). The corresponding pair of shooting modules may be arranged at a critical distance apart from each other based on the longitudinal direction of the mobile device (110), and for example, the critical distance may be 65 mm.
대응되는 한 쌍의 촬영 모듈 각각에서 생성되는 이미지로부터 대상체와 좌안 및 우안의 거리 정보가 생성될 수 있다. Distance information of the target object and the left and right eyes can be generated from images generated from each of the corresponding pair of shooting modules.
도 1을 참조하면, 모바일 기기(110)의 제1 촬영 모듈(111)과 HMD 기기(120)의 제3 촬영 모듈(121)이 서로 대응될 수 있고, 모바일 기기(110)의 제2 촬영 모듈(112)과 HMD 기기(120)의 제4 촬영 모듈(122)이 서로 대응될 수 있다. Referring to FIG. 1, the first shooting module (111) of the mobile device (110) and the third shooting module (121) of the HMD device (120) may correspond to each other, and the second shooting module (112) of the mobile device (110) and the fourth shooting module (122) of the HMD device (120) may correspond to each other.
대응되는 한 쌍의 제1 촬영 모듈(111)과 제3 촬영 모듈(121)에서 생성되는 이미지로부터 좌안에 해당하는 제1 촬영 모듈(111)과 대상체의 거리 정보가 생성될 수 있고, 대응되는 한 쌍의 제2 촬영 모듈(112)과 제4 촬영 모듈(122)에서 생성되는 이미지로부터 우안에 해당하는 제2 촬영 모듈(112)과 대상체의 거리 정보가 생성될 수 있다. Distance information between the first photographing module (111) corresponding to the left eye and the target object can be generated from images generated from a corresponding pair of first photographing modules (111) and third photographing modules (121), and distance information between the second photographing module (112) corresponding to the right eye and the target object can be generated from images generated from a corresponding pair of second photographing modules (112) and fourth photographing modules (122).
일 예로, HMD 기기(120)에 마련되는 제3 촬영 모듈(121) 및 제4 촬영 모듈(122) 각각은 VGA(Video Graphic array) 카메라를 포함할 수 있고, BW(Black/White) 형태의 픽셀을 포함할 수 있다. For example, each of the third shooting module (121) and the fourth shooting module (122) provided in the HMD device (120) may include a VGA (Video Graphic array) camera and may include pixels in the BW (Black/White) format.
HMD 기기(120)는 모바일 기기(110)와 전기적으로 연결되는 연결 포트를 포함할 수 있다. HMD 기기(120)의 포트는 수용 공간의 일측에 마련되어, 수용 공간에 HMD 기기가 탑재되는 경우, 모바일 기기(110)와 결합할 수 있다. HMD 기기(120)는 다양한 기종의 모바일 기기(110)와 결합하기 위하여, 연결 포트와 모바일 기기(110)를 중재하는 어댑터를 추가적으로 포함할 수 있다. 어댑터는 연결 포트에 탈착 가능할 수 있다. The HMD device (120) may include a connection port electrically connected to the mobile device (110). The port of the HMD device (120) is provided at one side of the receiving space, so that when the HMD device is mounted in the receiving space, it can be coupled with the mobile device (110). In order to be coupled with various types of mobile devices (110), the HMD device (120) may additionally include an adapter that mediates the connection port and the mobile device (110). The adapter may be detachably attached to the connection port.
도 2는 본 발명의 일 실시예에 따른 증강 현실 제공 시스템을 나타내는 블록도이다. FIG. 2 is a block diagram showing an augmented reality providing system according to one embodiment of the present invention.
본 발명의 일 실시예에 따른 증강 현실 제공 시스템(200)은 촬영부(210), 검출부(220), 거리 정보 생성부(230), 이미지 처리부(240), 및 디스플레이부(250)를 포함할 수 있다. 도 2의 촬영부(210) 중 제1 촬영 모듈(211) 및 제2 촬영 모듈(212)은 도 1의 모바일 기기(110)에 마련될 수 있고, 제3 촬영 모듈(213) 및 제4 촬영 모듈(214)은 도 1의 HMD 기기(120)에 마련될 수 있다. 또한, 검출부(220), 거리 정보 생성부(230), 이미지 처리부(240) 및 디스플레이부(250)는 도 1의 모바일 기기(110)의 프로세서, 호스트 등에 의해 구현될 수 있다. An augmented reality providing system (200) according to one embodiment of the present invention may include a photographing unit (210), a detection unit (220), a distance information generating unit (230), an image processing unit (240), and a display unit (250). Among the photographing unit (210) of FIG. 2, the first photographing module (211) and the second photographing module (212) may be provided in the mobile device (110) of FIG. 1, and the third photographing module (213) and the fourth photographing module (214) may be provided in the HMD device (120) of FIG. 1. In addition, the detection unit (220), the distance information generating unit (230), the image processing unit (240), and the display unit (250) may be implemented by a processor, a host, etc. of the mobile device (110) of FIG. 1.
촬영부(210)는 서로 이격되어 배치되는 복수의 촬영 모듈을 포함할 수 있고, 복수의 촬영 모듈은 대상체를 포함하는 실제 장면을 촬영할 수 있다. 촬영부(210)의 복수의 촬영 모듈은 대상체를 포함하는 실제 장면을 촬영하여 복수의 이미지를 생성할 수 있다. The photographing unit (210) may include a plurality of photographing modules arranged spaced apart from each other, and the plurality of photographing modules may photograph an actual scene including a subject. The plurality of photographing modules of the photographing unit (210) may photograph an actual scene including a subject to generate a plurality of images.
촬영부(210)는 제1 내지 제4 촬영 모듈(211, 212, 213, 214)를 포함할 수 있다. 도 2의 제1 내지 제4 촬영 모듈(211, 212, 213, 214) 각각은 도 1의 제1 내지 제4 촬영 모듈(111, 112, 121, 122)에 대응될 수 있다. 제1 촬영 모듈(211)은 좌안에 대응될 수 있고, 제2 촬영 모듈(212)은 우안에 대응될 수 있으며, 제1 촬영 모듈(211)에서 생성되는 이미지는 로우 좌안 이미지 및 제2 촬영 모듈(212)에서 생성되는 이미지는 로우 우안 이미지로 지칭될 수 있다. The shooting unit (210) may include first to fourth shooting modules (211, 212, 213, 214). Each of the first to fourth shooting modules (211, 212, 213, 214) of FIG. 2 may correspond to the first to fourth shooting modules (111, 112, 121, 122) of FIG. 1. The first shooting module (211) may correspond to the left eye, the second shooting module (212) may correspond to the right eye, and the image generated from the first shooting module (211) may be referred to as a low left-eye image, and the image generated from the second shooting module (212) may be referred to as a low right-eye image.
검출부(220)는 촬영부(210) 중 일부 촬영 모듈에서 생성되는 이미지로부터 대상체를 검출할 수 있다. 검출부(220)는 제1 촬영 모듈(211) 및 제2 촬영 모듈(212) 각각에서 생성되는 로우 좌안 이미지 및 로우 우안 이미지로부터 대상체를 검출하고, 검출된 대상체의 상태 정보를 획득할 수 있다. 제1 촬영 모듈(211) 및 제2 촬영 모듈(212)은 스테레오 카메라 방식으로 구현되어, 대상체 검출이 용이할 수 있다. 대상체의 상태 정보는 대상체의 위치, 형태 및 움직임 중 적어도 하나를 포함할 수 있다. The detection unit (220) can detect a target object from images generated from some of the shooting modules of the shooting unit (210). The detection unit (220) can detect a target object from low left-eye images and low right-eye images generated from each of the first shooting module (211) and the second shooting module (212), and obtain status information of the detected target object. The first shooting module (211) and the second shooting module (212) are implemented in a stereo camera manner, so that target detection can be facilitated. The status information of the target object can include at least one of the position, shape, and movement of the target object.
거리 정보 생성부(230)는 촬영부(210)에서 생성되는 이미지로부터 거리 정보를 검출할 수 있다. 거리 정보는 제1 거리 정보 및 제2 거리 정보를 포함할 수 있다. The distance information generation unit (230) can detect distance information from an image generated by the photographing unit (210). The distance information can include first distance information and second distance information.
거리 정보 생성부(230)는 복수의 촬영 모듈 중 좌측에 마련되는 제1 촬영 모듈(211) 및 제3 촬영 모듈(213)에서 생성되는 이미지로부터 제1 거리 정보를 생성할 수 있고, 일 예로, 제1 거리 정보는 대상체와 좌안의 거리 정보에 대응할 수 있다. 또한, 거리 정보 생성부(230)는 복수의 촬영 모듈 중 우측에 마련되는 제2 촬영 모듈(212) 및 제4 촬영 모듈(214)에서 생성되는 이미지로부터 제2 거리 정보를 생성할 수 있고, 일 예로, 제2 거리 정보는 대상체와 우안의 거리 정보에 대응할 수 있다. The distance information generation unit (230) can generate first distance information from images generated from the first shooting module (211) and the third shooting module (213) provided on the left side among the plurality of shooting modules, and as an example, the first distance information can correspond to distance information between the target object and the left eye. In addition, the distance information generation unit (230) can generate second distance information from images generated from the second shooting module (212) and the fourth shooting module (214) provided on the right side among the plurality of shooting modules, and as an example, the second distance information can correspond to distance information between the target object and the right eye.
이미지 처리부(240)는 촬영부(210)에서 생성되는 이미지, 검출부(220)에서 생성되는 대상체의 상태 정보, 거리 정보 생성부(230)에서 생성되는 거리 정보로부터 좌안 및 우안 증강 현실 이미지를 생성할 수 있다. The image processing unit (240) can generate left-eye and right-eye augmented reality images from the image generated from the photographing unit (210), the state information of the target generated from the detection unit (220), and the distance information generated from the distance information generating unit (230).
이미지 처리부(240)는 검출부(220)로부터 전달되는 대상체의 상태 정보에 따라 제1 촬영 모듈(211) 및 제2 촬영 모듈(212)에서 촬영된 실제 이미지에 대응되는 가상 이미지의 상태 정보를 산출할 수 있다. 가상 이미지는 증강 현실 제공 프로그램에 의해 사전적으로 프로그래밍 될 수 있다. The image processing unit (240) can calculate status information of a virtual image corresponding to an actual image captured by the first shooting module (211) and the second shooting module (212) based on the status information of the target object transmitted from the detection unit (220). The virtual image can be pre-programmed by an augmented reality providing program.
이미지 처리부(240)는 산출되는 가상 이미지의 상태 정보에 따라, 가상 이미지와 제1 촬영 모듈(211) 및 제2 촬영 모듈(212)에서 촬영된 실제 이미지를 합성한 증강 현실 이미지를 생성할 수 있다. 이미지 처리부(240)는 대상체 및 가상 이미지 중 적어도 하나의 상태 정보에 기초하여, 대상체에 대응하는 투명 모형을 생성하고, 가상 이미지와 대상체 사이의 가림 효과를 발생시키기 위하여, 투명 모형을 대상체에 오버랩함으로써, 증강 현실 이미지를 생성할 수 있다. 또한, 이미지 처리부(240)는 생성되는 증강 현실 이미지를 렌더링할 수 있다. 여기서, 렌더링은 증강 현실 이미지를 대상체 및 가상 이미지 중 적어도 하나의 상태 정보를 고려하여, 3차원 이미지로 변경하는 과정으로 이해될 수 있다. The image processing unit (240) can generate an augmented reality image by synthesizing the virtual image and the actual images captured by the first shooting module (211) and the second shooting module (212) according to the status information of the generated virtual image. The image processing unit (240) can generate a transparent model corresponding to the object based on the status information of at least one of the object and the virtual image, and can generate an augmented reality image by overlapping the transparent model with the object to generate a covering effect between the virtual image and the object. In addition, the image processing unit (240) can render the generated augmented reality image. Here, the rendering can be understood as a process of changing the augmented reality image into a three-dimensional image by considering the status information of at least one of the object and the virtual image.
이미지 처리부(240)는 거리 정보 생성부(230)에서 생성되는 거리 정보를 이용하여 증강 현실 이미지를 좌안 증강 현실 이미지 및 우안 증강 현실 이미지로 보정할 수 있다. The image processing unit (240) can correct the augmented reality image into a left-eye augmented reality image and a right-eye augmented reality image using the distance information generated by the distance information generating unit (230).
이미지 처리부(240)는 좌안 거리 정보를 이용하여, 증강 현실 이미지를 좌안 증강 현실 이미지로 보정할 수 있고, 우안 거리 정보를 이용하여 증강 현실 이미지를 우안 증강 현실 이미지로 보정할 수 있다. 이미지 처리부(240)는 좌안 거리 정보 및 우안 정보를 이용하여, 증강 현실 이미지를 보정함으로써, 실감나는 3차원 이미지를 제공할 수 있다. The image processing unit (240) can correct the augmented reality image into a left-eye augmented reality image using the left-eye distance information, and can correct the augmented reality image into a right-eye augmented reality image using the right-eye distance information. The image processing unit (240) can provide a realistic three-dimensional image by correcting the augmented reality image using the left-eye distance information and the right-eye information.
디스플레이부(250)는 이미지 처리부(240)에서 생성된 좌안 및 우안 증강 현실 이미지를 디스플레이할 수 있다. 디스플레이부(250)는 적어도 두 개의 디스플레이 영역을 포함할 수 있다. 일 예로, 적어도 두 개의 디스플레이 영역은 제1 디스플레이 영역(251) 및 제2 디스플레이 영역(252)을 포함할 수 있고, 제1 디스플레이 영역(251) 및 제2 디스플레이 영역(252) 각각은 좌안 및 우안 증강 현실 이미지를 디스플레이할 수 있다. The display unit (250) can display left-eye and right-eye augmented reality images generated by the image processing unit (240). The display unit (250) can include at least two display areas. For example, the at least two display areas can include a first display area (251) and a second display area (252), and each of the first display area (251) and the second display area (252) can display left-eye and right-eye augmented reality images.
이상에서 본 발명이 구체적인 구성요소 등과 같은 특정 사항들과 한정된 실시예 및 도면에 의해 설명되었으나, 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐, 본 발명이 상기 실시예들에 한정되는 것은 아니며, 본 발명이 속하는 기술분야에서 통상적인 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형을 꾀할 수 있다.Although the present invention has been described above with specific details such as specific components and limited examples and drawings, these have been provided only to help a more general understanding of the present invention, and the present invention is not limited to the above examples, and those with common knowledge in the technical field to which the present invention belongs can make various modifications and variations from this description.
따라서, 본 발명의 사상은 상기 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등하게 또는 등가적으로 변형된 모든 것들은 본 발명의 사상의 범주에 속한다고 할 것이다.Therefore, the idea of the present invention should not be limited to the embodiments described above, and not only the claims described below but also all modifications equivalent to or equivalent to the claims are included in the scope of the idea of the present invention.
100: 증강 현실 제공 시스템
110: 모바일 기기
111: 제1 촬영 모듈
112: 제2 촬영 모듈
120: 헤드 마운트 디스플레이 기기
121: 제3 촬영 모듈
122: 제4 촬영 모듈
200: 증강 현실 제공 시스템
210: 촬영부
211: 제1 촬영 모듈
212: 제2촬영 모듈
213: 제3촬영 모듈
213: 제4촬영 모듈
220: 검출부
230: 거리 정보 생성부
240; 이미지 처리부
250: 디스플레이부100: Augmented Reality Delivery System
110: Mobile devices
111: 1st shooting module
112: 2nd shooting module
120: Head-mounted display device
121: Third Shooting Module
122: 4th shooting module
200: Augmented Reality Delivery System
210: Filming Department
211: 1st shooting module
212: Second shooting module
213: Third Shooting Module
213: 4th shooting module
220: Detection Unit
230: Distance information generation unit
240; Image Processing Unit
250: Display section
Claims (9)
상기 모바일 기기가 탑재되고, 상기 적어도 두 개의 촬영 모듈 각각과 임계 거리 이격되어 배치되는 적어도 두 개의 촬영 모듈을 포함하는 헤드 마운트 디스플레이 기기; 를 포함하는 증강 현실 제공 시스템.
A mobile device comprising at least two photographing modules spaced apart in the longitudinal direction of the body; and
An augmented reality providing system comprising: a head mounted display device having the mobile device mounted thereon and including at least two photographing modules positioned at a critical distance apart from each of the at least two photographing modules;
상기 모바일 기기의 적어도 두 개의 촬영 모듈에서 촬영되는 이미지로부터 증강 현실 이미지를 생성하는 증강 현실 제공 시스템.
In the first paragraph,
An augmented reality providing system that generates an augmented reality image from images captured by at least two shooting modules of the mobile device.
상기 모바일 기기의 적어도 두 개의 촬영 모듈 중 어느 하나는 상기 헤드 마운트 디스플레이 기기의 적어도 두 개의 촬영 모듈 중 어느 하나와 대응되고,
상기 대응되는 한 쌍의 촬영 모듈에서 촬영되는 이미지로부터 거리 정보를 생성하여, 상기 증강 현실 이미지를 보정하는 증강 현실 제공 시스템.
In the second paragraph,
Any one of at least two photographing modules of the mobile device corresponds to any one of at least two photographing modules of the head mounted display device,
An augmented reality providing system that corrects the augmented reality image by generating distance information from images captured by the corresponding pair of shooting modules.
상기 대응되는 한 쌍의 촬영 모듈은 상기 모바일 기기의 길이 방향으로 임계 거리 이격되는 증강 현실 제공 시스템.
In the third paragraph,
An augmented reality providing system wherein the pair of corresponding photographing modules are spaced apart from each other by a critical distance in the longitudinal direction of the mobile device.
상기 대응되는 어느 한 쌍의 촬영 모듈에서 촬영되는 이미지로부터 좌안 거리 정보를 생성하고, 다른 한 쌍의 촬영 모듈에서 촬영되는 이미지로부터 우안 거리 정보를 생성하는 증강 현실 제공 시스템.
In the third paragraph,
An augmented reality providing system that generates left eye distance information from images captured by one of the corresponding pair of shooting modules and generates right eye distance information from images captured by the other pair of shooting modules.
상기 좌안 거리 정보 및 우안 거리 정보를 이용하여, 상기 증강 현실 이미지를 좌안 증강 현실 이미지 및 우안 증강 현실 이미지로 보정하는 증강 현실 제공 시스템.
In paragraph 5,
An augmented reality providing system that corrects the augmented reality image into a left-eye augmented reality image and a right-eye augmented reality image using the left-eye distance information and the right-eye distance information.
상기 제1 및 제2 촬영 모듈에서 촬영되는 이미지로부터 대상체를 검출하고, 검출된 대상체의 상태 정보를 획득하는 검출부;
상기 제1 내지 제4 촬영 모듈에서 촬영되는 이미지로부터 좌안 거리 정보 및 우안 거리 정보를 생성하는 거리 정보 생성부; 및
상기 대상체의 상태 정보에 따라 증강 현실 이미지를 생성하고, 상기 좌안 거리 정보 및 우안 거리 정보를 이용하여 상기 증강 현실 이미지를 보정하는 이미지 처리부; 를 포함하고,
상기 제1 내지 제4 촬영 모듈 중 일부는 모바일 기기에 마련되고, 다른 일부는 상기 모바일 기기가 탑재되는 헤드 마운트 디스플레이 기기에 마련되는 증강 현실 제공 시스템.
A photographing unit including first to fourth photographing modules for photographing a target object;
A detection unit that detects an object from images captured by the first and second shooting modules and obtains status information of the detected object;
A distance information generation unit that generates left-eye distance information and right-eye distance information from images captured by the first to fourth shooting modules; and
An image processing unit that generates an augmented reality image according to the state information of the object and corrects the augmented reality image using the left eye distance information and the right eye distance information;
An augmented reality providing system, wherein some of the first to fourth photographing modules are provided in a mobile device, and others are provided in a head mounted display device equipped with the mobile device.
상기 제1 및 제2 촬영 모듈은 모바일 기기에 마련되고, 상기 제3 및 제4 촬영 모듈은 헤드 마운트 디스플레이 기기에 마련되는 증강 현실 제공 시스템.
In Article 7,
An augmented reality providing system, wherein the first and second shooting modules are provided in a mobile device, and the third and fourth shooting modules are provided in a head mounted display device.
상기 좌안 거리 정보는 복수의 촬영 모듈 중 좌측에 배치되는 제1 및 3 촬영 모듈에서 촬영되는 이미지로부터 생성되고, 상기 우안 거리 정보는 복수의 촬영 모듈 중 우측에 배치되는 제2 및 제4 촬영 모듈에서 촬영되는 이미지로부터 생성되는 증강 현실 제공 시스템. In Article 8,
An augmented reality providing system in which the left eye distance information is generated from images captured by the first and third shooting modules arranged on the left among a plurality of shooting modules, and the right eye distance information is generated from images captured by the second and fourth shooting modules arranged on the right among a plurality of shooting modules.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170017636A KR102724897B1 (en) | 2017-02-08 | System for providing augmented realty |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170017636A KR102724897B1 (en) | 2017-02-08 | System for providing augmented realty |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20180092187A KR20180092187A (en) | 2018-08-17 |
KR102724897B1 true KR102724897B1 (en) | 2024-11-01 |
Family
ID=
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20230324684A1 (en) | Head-mounted display for virtual and mixed reality with inside-out positional, user body and environment tracking | |
US11010911B1 (en) | Multi-channel depth estimation using census transforms | |
US11010958B2 (en) | Method and system for generating an image of a subject in a scene | |
KR102214827B1 (en) | Method and apparatus for providing augmented reality | |
JP6511386B2 (en) | INFORMATION PROCESSING APPARATUS AND IMAGE GENERATION METHOD | |
US20160371884A1 (en) | Complementary augmented reality | |
JP5996814B1 (en) | Method and program for providing image of virtual space to head mounted display | |
US20110306413A1 (en) | Entertainment device and entertainment methods | |
US11184597B2 (en) | Information processing device, image generation method, and head-mounted display | |
RU2016141397A (en) | Stereo view | |
JP2019517012A5 (en) | ||
WO2019041614A1 (en) | Head-mounted immersive virtual reality display device and immersive virtual reality display method | |
TWI788739B (en) | 3D display device, 3D image display method | |
JP7148634B2 (en) | head mounted display device | |
CN106168855B (en) | Portable MR glasses, mobile phone and MR glasses system | |
JP6687751B2 (en) | Image display system, image display device, control method thereof, and program | |
AU2018390994B2 (en) | Camera projection technique system and method | |
US20170257614A1 (en) | Three-dimensional auto-focusing display method and system thereof | |
CN110060349B (en) | Method for expanding field angle of augmented reality head-mounted display equipment | |
KR102724897B1 (en) | System for providing augmented realty | |
CN111630848A (en) | Image processing apparatus, image processing method, program, and projection system | |
KR20180092187A (en) | System for providing augmented realty | |
US20240078743A1 (en) | Stereo Depth Markers | |
CN103285585A (en) | Motion sensing fencing interaction device based on internet framework | |
WO2023181634A1 (en) | Information processing device, information processing method, and recording medium |