KR20170001223A - Information extracting system, information extracting apparatus, information extracting method of thereof and non-transitory computer readable medium - Google Patents
Information extracting system, information extracting apparatus, information extracting method of thereof and non-transitory computer readable medium Download PDFInfo
- Publication number
- KR20170001223A KR20170001223A KR1020150090906A KR20150090906A KR20170001223A KR 20170001223 A KR20170001223 A KR 20170001223A KR 1020150090906 A KR1020150090906 A KR 1020150090906A KR 20150090906 A KR20150090906 A KR 20150090906A KR 20170001223 A KR20170001223 A KR 20170001223A
- Authority
- KR
- South Korea
- Prior art keywords
- information
- image
- single images
- position information
- integrated image
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/166—Detection; Localisation; Normalisation using acquisition arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/80—Information retrieval; Database structures therefor; File system structures therefor of semi-structured data, e.g. markup language structured data such as SGML, XML or HTML
- G06F16/84—Mapping; Conversion
-
- G06K9/00362—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/60—Editing figures and text; Combining figures or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
- G06V10/147—Details of sensors, e.g. sensor lenses
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B13/00—Burglar, theft or intruder alarms
- G08B13/18—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
- G08B13/189—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
- G08B13/194—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
- G08B13/196—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
- G08B13/19602—Image analysis to detect motion of the intruder, e.g. by frame subtraction
- G08B13/19608—Tracking movement of a target, e.g. by detecting an object predefined as a target, using target direction and or velocity to predict its new position
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B13/00—Burglar, theft or intruder alarms
- G08B13/18—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
- G08B13/189—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
- G08B13/194—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
- G08B13/196—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
- G08B13/19639—Details of the system layout
- G08B13/19645—Multiple cameras, each having view on one of a plurality of scenes, e.g. multiple cameras for multi-room surveillance or for tracking an object by view hand-over
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B13/00—Burglar, theft or intruder alarms
- G08B13/18—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
- G08B13/189—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
- G08B13/194—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
- G08B13/196—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
- G08B13/19654—Details concerning communication with a camera
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B13/00—Burglar, theft or intruder alarms
- G08B13/18—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
- G08B13/189—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
- G08B13/194—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
- G08B13/196—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
- G08B13/19665—Details related to the storage of video surveillance data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/16—Image acquisition using multiple overlapping images; Image stitching
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Vascular Medicine (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
- Studio Devices (AREA)
- Computer Vision & Pattern Recognition (AREA)
Abstract
Description
본 발명은 정보 추출 시스템, 정보 추출 장치, 그의 정보 추출 방법 및 비일시적 컴퓨터 판독가능 기록매체에 관한 것으로, 더욱 상세하게는, 복수의 영상으로부터 오브젝트를 인식하고 오브젝트의 정보를 추출하는 정보 추출 시스템, 정보 추출 장치, 그의 정보 추출 방법 및 비일시적 컴퓨터 판독가능 기록매체에 관한 것이다.The present invention relates to an information extracting system, an information extracting apparatus, an information extracting method thereof, and a non-transitory computer readable recording medium, and more particularly to an information extracting system for recognizing an object from a plurality of images and extracting object information, An information extracting apparatus, an information extracting method thereof, and a non-transitory computer readable recording medium.
최근 카메라 영상으로부터 인식 영역에 존재하는 사람의 정보를 추출하여 이용하는 기술에 대한 관심이 증가하고 있다. 예를 들어, 이러한 기술은 디지털 사이니지(digital signage)에 적용되어 사용자에게 특화된 광고가 재생되도록 하거나, 보안 시스템에 적용되어 이상 징후를 감지할 수 있도록 한다.Recently, there is an increasing interest in a technique for extracting and using information of a person existing in a recognition area from a camera image. For example, this technology can be applied to digital signage to allow a user to reproduce a specific advertisement, or to be applied to a security system to detect anomalous indications.
단일 카메라의 영상을 사용하는 경우에는 넓은 인식 영역을 구현하기 위하여 광각 카메라가 주로 이용되었다. 하지만, 광각 카메라를 이용할 경우, 광각 보정 과정에서 영상 왜곡 현상이 발생하게 된다. 영상의 주변부로 갈수록 왜곡이 심해지기 때문에, 단일 카메라의 영상을 사용하는 방법은 인식 성능이 떨어진다는 문제점이 존재한다.When a single camera image is used, a wide angle camera is mainly used to realize a wide recognition area. However, when a wide angle camera is used, image distortion occurs in the wide angle correction process. There is a problem that the method of using a single camera image has a low recognition performance because the distortion becomes worse as it goes to the peripheral portion of the image.
복수의 카메라의 영상을 사용하더라도 카메라 영상들 간에 겹쳐지는 부분이 존재하지 않는다면, 카메라의 배치 관계에 따른 매칭 알고리즘이 영향을 미치게 된다. 카메라를 설치한 후 카메라 간의 위치 관계를 이용하여, 한 영상에 존재하던 사람이 사라지고 일정 시간 내에 다른 영상에 나타나면 동일한 사람이라고 판단하는 방식을 사용하기 때문에, 카메라의 설치 및 조건에 따라 누적 사람 수의 카운트(count) 성능이 떨어지는 문제점이 존재한다. 또한, 사용성에도 많은 제약이 발생한다는 문제점이 존재한다.Even if images of a plurality of cameras are used, if there is no overlapping part between camera images, a matching algorithm according to the arrangement relationship of the cameras affects them. Since the method of determining the same person is used when the person existing in one image disappears and the other person appears in another image after the camera is installed after using the positional relationship between the cameras, There is a problem that the count performance is degraded. Further, there is a problem that many usability is also restricted.
복수의 카메라의 영상들 간에 겹쳐지는 부분이 존재하는 경우에, 하나의 영상으로 합성한 후 사용자 정보를 추출하는 방법과, 개별 영상에서 사용자 정보를 추출한 후 카메라 간의 상대적인 위치 관계를 이용하여 동일 인물인지를 판단하는 방법이 각각 존재하였다.There is a method of extracting user information after synthesizing into one image and extracting user information from individual images and then using the relative positional relationship between cameras to extract the same person Respectively.
하나의 합성된 영상을 사용하는 경우에는, 인식된 사람을 추적하거나 검출된 사람의 수를 카운트 하는 것이 비교적 용이하다는 장점이 있다. 하지만, 복수의 카메라에서 수신한 영상을 하나의 영상으로 합성하는 과정에서 이미지의 왜곡 현상이 발생된다. 이로 인하여, 학습 기반의 인식기의 인식 성능이 저하된다. 따라서, 초기에 사람의 위치를 감지하거나, 감지된 사람의 정보를 추출하는 경우에 성능이 떨어지는 문제점이 존재한다.In the case of using a synthesized image, it is relatively easy to track a recognized person or to count the number of persons detected. However, in the process of combining images received from a plurality of cameras into one image, image distortion occurs. This degrades the recognition performance of the learning-based recognizer. Therefore, there is a problem that performance is deteriorated when detecting the position of a person at the beginning or extracting information of a person who is sensed.
개별 영상을 이용하는 경우에는, 왜곡되지 않은 카메라 영상을 이용하기 때문에 학습 기반의 인식기를 사용하더라도 인식 성능이 저하되지 않는 장점이 있다. 하지만, 개별 영상을 이용하는 방법은, 개별 엔진에서 검출된 사람에 대하여 동일 인물인지를 판단하고, 검출된 사람의 정보를 통합하여 하나의 인식기에서 검출된 결과로 변환하는 모듈이 필요하다. 또한, 개별 영상이 겹치는 부분에 많은 사람이 존재하거나, 개별 영상이 겹치는 부분에서 사람이 빠른 속도로 움직일 경우, 동일 인물인지를 판단하는 과정에서 오류 발생률이 현저히 높아지는 문제점이 존재한다.In the case of using an individual image, since the camera image which is not distorted is used, recognition performance is not deteriorated even if a learning-based recognizer is used. However, there is a need for a method of using an individual image to determine whether the person detected by the individual engine is the same person, and to convert the information of the detected person into a result detected by one recognizer. In addition, there is a problem that the rate of occurrence of errors is remarkably increased in the process of determining whether a person is the same person when a person is present at a portion where the individual images overlap or when a person moves at a high speed at a portion where the individual images overlap.
본 발명은 상술한 문제점을 해결하기 위한 것으로, 본 발명의 목적은 넓은 인식 범위를 위하여 다중 카메라의 영상을 이용할 때, 인식 성능의 저하를 최소화하면서도 안정적으로 오브젝트 정보를 추출할 수 있는 정보 추출 시스템, 정보 추출 장치 및 정보 추출 방법을 제공하고자 하는데 있다.An object of the present invention is to provide an information extraction system capable of reliably extracting object information while minimizing deterioration of recognition performance when images of multiple cameras are used for a wide recognition range, An information extracting apparatus, and an information extracting method.
상술한 목적을 달성하기 위한 본 발명의 일 실시 예에 따른 정보 추출 시스템은, 복수의 촬영 장치, 상기 복수의 촬영 장치에서 각각의 촬영 장치를 통해 촬영된 영상에 포함된 오브젝트의 정보를 추출하는 정보 추출 장치 및 상기 정보 추출 장치로부터 상기 오브젝트의 특성 정보를 수신하고 저장하는 서버를 포함하고, 상기 정보 추출 장치는, 상기 복수의 촬영 장치로부터 수신한 복수의 단일 영상을 통합하여 통합 영상을 생성하고, 상기 복수의 단일 영상 각각에 포함된 상기 오브젝트를 검출하고, 상기 검출된 오브젝트 각각에 대한 특성 정보를 추출하고, 상기 검출된 오브젝트의 위치를 상기 통합 영상에서 추적하며, 상기 추출된 특성 정보와 추적된 위치 정보를 이용하여 각 오브젝트의 오브젝트 정보를 생성한다.According to an aspect of the present invention, there is provided an information extracting system including a plurality of photographing apparatuses, information extracting means for extracting information of an object included in an image photographed by each photographing apparatus in the plurality of photographing apparatuses, And a server for receiving and storing the characteristic information of the object from the information extracting device and the information extracting device, wherein the information extracting device is configured to combine a plurality of single images received from the plurality of photographing devices to generate an integrated image, The method includes detecting the object included in each of the plurality of single images, extracting characteristic information for each of the detected objects, tracking the position of the detected object in the integrated image, And object information of each object is generated using the position information.
한편, 상술한 목적을 달성하기 위한 본 발명의 다른 실시 예에 따른 정보 추출 장치는, 복수의 단일 영상을 수신하는 통신부, 상기 수신된 복수의 단일 영상을 통합하여 통합 영상을 생성하는 영상 통합부, 상기 복수의 단일 영상 각각에 포함된 오브젝트를 검출하고, 상기 검출된 오브젝트 각각에 대한 특성 정보를 추출하는 오브젝트 검출부, 상기 검출된 오브젝트의 위치를 상기 통합 영상에서 추적하는 오브젝트 추적부 및 상기 추출된 특성 정보와 추적된 위치 정보를 이용하여 각 오브젝트의 오브젝트 정보를 생성하는 정보 생성부를 포함한다.According to another aspect of the present invention, there is provided an information extraction apparatus including a communication unit for receiving a plurality of single images, an image integration unit for combining the plurality of single images to generate an integrated image, An object detecting unit for detecting an object included in each of the plurality of single images and extracting characteristic information for each of the detected objects, an object tracking unit for tracking the position of the detected object in the integrated image, And an information generating unit for generating object information of each object using the information and the tracked position information.
그리고, 상기 영상 통합부는, 상기 복수의 단일 영상의 픽셀 위치와 상기 통합 영상에서의 픽셀 위치의 대응 관계를 저장하는 매핑 테이블을 생성할 수 있다.The image integrating unit may generate a mapping table that stores a correspondence relationship between the pixel positions of the plurality of single images and the pixel positions in the combined image.
또한, 상기 매핑 테이블은, 상기 오브젝트의 픽셀이 분포하는 영역을 사각형의 픽셀 영역으로 변환하여, 상기 복수의 단일 영상에서의 픽셀 영역과 상기 통합 영상에서의 픽셀 영역의 대응 관계를 저장할 수 있다.In addition, the mapping table may convert a region in which the pixels of the object are distributed to a rectangular pixel region, and store the corresponding relationship between the pixel region in the plurality of single images and the pixel region in the combined image.
그리고, 상기 오브젝트 추적부는, 상기 복수의 단일 영상에서 검출된 오브젝트의 위치 정보를 상기 매핑 테이블을 이용하여 상기 통합 영상에서의 위치 정보로 변환하고, 상기 변환된 위치 정보를 이용하여 상기 오브젝트를 추적할 수 있다.The object tracking unit may convert position information of the object detected in the plurality of single images into position information in the integrated image using the mapping table, and track the object using the converted position information .
또한, 상기 오브젝트 검출부는, 상기 추적하는 오브젝트의 상기 통합 영상에서의 위치 정보 및 상기 매핑 테이블을 이용하여, 상기 복수의 단일 영상에서의 현재 위치 정보를 검출하고, 상기 오브젝트 추적부는, 상기 검출된 상기 복수의 단일 영상에서의 현재 위치 및 상기 매핑 테이블을 이용하여, 상기 통합 영상에서의 위치 정보를 보정할 수 있다.The object detecting unit may detect current position information in the plurality of single images using the position information and the mapping table in the integrated image of the object to be tracked, The position information in the integrated image can be corrected using the current position in the plurality of single images and the mapping table.
그리고, 상기 오브젝트 추적부는, 기설정된 주기마다 상기 통합 영상에서의 위치 정보를 보정할 수 있다.The object tracking unit may correct the positional information in the integrated image every predetermined period.
또한, 상기 오브젝트 검출부는, 상기 통합 영상에서 추적된 오브젝트의 위치 정보를 상기 매핑 테이블을 이용하여 상기 복수의 단일 영상에서의 위치 정보로 변환하고, 상기 변환된 위치 정보를 이용하여 상기 오브젝트의 특성 정보를 추출할 수 있다.The object detection unit may convert position information of the object tracked in the integrated image into position information in the plurality of single images using the mapping table, Can be extracted.
그리고, 상기 특성 정보는, 상기 오브젝트의 시선 방향, 나이, 성별, 인종, 감정 중 적어도 하나를 포함할 수 있다.The characteristic information may include at least one of a gaze direction, an age, a gender, race, and emotion of the object.
또한, 상기 통신부는, 기설정된 주기마다 상기 생성된 오브젝트 정보를 외부 장치로 송신할 수 있다.In addition, the communication unit may transmit the generated object information to the external device every predetermined period.
한편, 상술한 목적을 달성하기 위한 본 발명의 또 다른 실시 예에 따른 정보 추출 장치의 정보 추출 방법은, 복수의 단일 영상을 수신하는 단계, 상기 수신된 복수의 단일 영상을 통합하여 통합 영상을 생성하는 단계, 상기 복수의 단일 영상 각각에 포함된 오브젝트를 검출하는 단계, 상기 검출된 오브젝트의 위치를 상기 통합 영상에서 추적하는 단계, 상기 검출된 오브젝트 각각에 대한 특성 정보를 상기 복수의 단일 영상에서 추출하는 단계 및 상기 추출된 특성 정보와 추적된 위치 정보를 이용하여 각 오브젝트의 오브젝트 정보를 생성하는 단계를 포함한다.According to another aspect of the present invention, there is provided an information extracting method of an information extracting apparatus, comprising: receiving a plurality of single images; combining the plurality of single images to generate an integrated image; The method comprising the steps of: detecting an object included in each of the plurality of single images; tracking the position of the detected object in the integrated image; extracting characteristic information on the detected object from the plurality of single images; And generating object information of each object using the extracted characteristic information and the tracked position information.
그리고, 상기 복수의 단일 영상의 픽셀 위치와 상기 통합 영상에서의 픽셀 위치의 대응 관계를 저장하는 매핑 테이블을 생성하는 단계를 더 포함할 수 있다.The method may further include generating a mapping table storing a correspondence relationship between pixel positions of the plurality of single images and pixel positions of the combined image.
또한, 상기 매핑 테이블은, 상기 오브젝트의 픽셀이 분포하는 영역을 사각형의 픽셀 영역으로 변환하여, 상기 복수의 단일 영상에서의 픽셀 영역과 상기 통합 영상에서의 픽셀 영역의 대응 관계를 저장할 수 있다.In addition, the mapping table may convert a region in which the pixels of the object are distributed to a rectangular pixel region, and store the corresponding relationship between the pixel region in the plurality of single images and the pixel region in the combined image.
그리고, 상기 추적하는 단계는, 상기 복수의 단일 영상에서 검출된 오브젝트의 위치 정보를 상기 매핑 테이블을 이용하여 상기 통합 영상에서의 위치 정보로 변환하는 단계 및 상기 변환된 위치 정보를 이용하여 상기 오브젝트를 추적하는 단계를 포함할 수 있다.The step of tracking may further include the steps of converting position information of an object detected in the plurality of single images into position information in the integrated image using the mapping table, And tracing.
또한, 상기 추적하는 오브젝트의 상기 통합 영상에서의 위치 정보 및 상기 매핑 테이블을 이용하여, 상기 복수의 단일 영상에서의 현재 위치 정보를 검출하는 단계 및 상기 검출된 상기 복수의 단일 영상에서의 현재 위치 및 상기 매핑 테이블을 이용하여, 상기 통합 영상에서의 위치 정보를 보정하는 단계를 더 포함할 수 있다.Detecting current position information in the plurality of single images using the position information in the integrated image of the tracked object and the mapping table; and detecting a current position in the plurality of single images, And the step of correcting the position information in the integrated image using the mapping table.
그리고, 상기 보정하는 단계는, 기설정된 주기마다 상기 통합 영상에서의 위치 정보를 보정할 수 있다.And, the correcting step may correct the positional information in the integrated image every predetermined period.
또한, 상기 추출하는 단계는, 상기 통합 영상에서 추적된 오브젝트의 위치 정보를 상기 매핑 테이블을 이용하여 상기 복수의 단일 영상에서의 위치 정보로 변환하는 단계 및 상기 변환된 위치 정보를 이용하여 상기 오브젝트의 특성 정보를 추출하는 단계를 포함할 수 있다.The extracting may include converting the position information of the object tracked in the integrated image into position information of the plurality of single images using the mapping table, And extracting the characteristic information.
그리고, 상기 특성 정보는, 상기 오브젝트의 시선 방향, 나이, 성별, 인종, 감정 중 적어도 하나를 포함할 수 있다.The characteristic information may include at least one of a gaze direction, an age, a gender, race, and emotion of the object.
또한, 기설정된 주기마다 상기 생성된 오브젝트 정보를 외부 장치로 송신하는 단계를 더 포함할 수 있다.The method may further include transmitting the generated object information to an external device at predetermined intervals.
한편, 상술한 목적을 달성하기 위한 본 발명의 다른 실시 예에 따른, 정보 추출 장치의 정보 추출 방법을 실행하기 위한 프로그램을 포함하는 비일시적 컴퓨터 판독가능 기록매체는, 복수의 단일 영상을 수신하는 단계, 상기 수신된 복수의 단일 영상을 통합하여 통합 영상을 생성하는 단계, 상기 복수의 단일 영상 각각에 포함된 오브젝트를 검출하는 단계, 상기 검출된 오브젝트의 위치를 상기 통합 영상에서 추적하는 단계, 상기 검출된 오브젝트 각각에 대한 특성 정보를 상기 복수의 단일 영상에서 추출하는 단계 및 상기 추출된 특성 정보와 추적된 위치 정보를 이용하여 각 오브젝트의 오브젝트 정보를 생성하는 단계를 포함하는 정보 추출 장치의 정보 추출 방법을 포함한다.According to another aspect of the present invention, there is provided a non-transitory computer readable recording medium including a program for executing an information extracting method of an information extracting apparatus, Generating an integrated image by combining the received plurality of single images, detecting an object included in each of the plurality of single images, tracking the position of the detected object in the integrated image, Extracting characteristic information for each object from the plurality of single images and generating object information of each object using the extracted characteristic information and the tracked position information, .
상술한 다양한 실시 예에 의하여, 복수의 영상이 겹쳐지는 부분에서 오브젝트가 빠르게 움직이는 경우 또는 복수의 영상이 겹쳐지는 부분에 오브젝트가 많이 존재하는 경우에도 안정적으로 오브젝트를 추적하는 것이 가능하다.According to the above-described various embodiments, it is possible to trace an object stably even when the object moves fast at a portion where a plurality of images overlap, or when a large number of objects exist at a portion where a plurality of images overlap.
도 1은 본 발명의 일 실시 예에 따른 정보 추출 시스템을 도시한 도면,
도 2는 본 발명의 일 실시 예에 따른 정보 추출 장치의 구성을 설명하기 위한 개략적인 블럭도,
도 3은 본 발명의 일 실시 예에 따른 정보 추출 장치의 구성을 설명하기 위한 상세한 블럭도,
도 4는 촬영된 영상이 서로 겹쳐지도록 복수의 촬영 장치를 배치하기 위한 수식을 설명하기 위한 도면,
도 5는 본 발명의 일 실시 예에 따른 정보 추출 장치의 동작을 설명하기 위한 도면,
도 6은 단일 영상과 통합 영상의 픽셀 대응 관계를 설명하기 위한 도면,
도 7a 및 7b는 본 발명의 다양한 실시 예에 따른 매핑 테이블을 설명하기 위한 도면,
도 8은 단일 영상에서 신규 오브젝트를 검출하는 동작을 설명하기 위한 도면,
도 9는 통합 영상에서 추적 중인 오브젝트의 위치 정보를 단일 영상에서의 위치 정보를 이용하여 보정하는 동작을 설명하기 위한 도면,
도 10은 오브젝트의 특성 정보를 추출하는 동작을 설명하기 위한 도면, 그리고,
도 11은 본 발명의 일 실시 예에 따른 정보 추출 장치의 정보 추출 방법을 설명하기 위한 흐름도이다.1 illustrates an information extraction system according to an embodiment of the present invention,
FIG. 2 is a schematic block diagram for explaining a configuration of an information extracting apparatus according to an embodiment of the present invention;
3 is a detailed block diagram illustrating a configuration of an information extraction apparatus according to an embodiment of the present invention,
4 is a view for explaining a formula for arranging a plurality of photographing apparatuses so that photographed images overlap each other;
5 is a view for explaining the operation of the information extracting apparatus according to an embodiment of the present invention,
6 is a diagram for explaining a pixel correspondence relationship between a single image and an integrated image,
7A and 7B are diagrams for explaining a mapping table according to various embodiments of the present invention;
8 is a diagram for explaining an operation of detecting a new object in a single image,
9 is a view for explaining an operation of correcting position information of an object being tracked in an integrated image using position information in a single image,
10 is a diagram for explaining an operation of extracting characteristic information of an object,
11 is a flowchart illustrating an information extraction method of an information extraction apparatus according to an embodiment of the present invention.
이하에서는 본 발명의 바람직한 실시 예가 첨부된 도면을 참조하여 상세히 설명한다. 본 발명을 설명함에 있어서, 관련된 공지 기능 혹은 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단된 경우 그 상세한 설명은 생략한다. 그리고 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the following description of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear. The following terms are defined in consideration of the functions of the present invention, and may vary depending on users, operators, customs, and the like. Therefore, the definition should be based on the contents throughout this specification.
도 1은 본 발명의 일 실시 예에 따른, 정보 추출 시스템(1000)을 도시한 도면이다. 도 1에 도시된 바와 같이, 정보 추출 시스템(1000)은 정보 추출 장치(100), 복수의 촬영 장치(200) 및 서버(300)를 포함한다.1 is a diagram illustrating an
정보 추출 장치(100)는 복수의 촬영 장치(200)에서 촬영된 영상에 포함된 오브젝트의 정보를 추출한다. 정보 추출 장치(100)는 복수의 단일 영상 각각을 이용하여 각 단일 영상에 포함된 오브젝트를 검출한다. 또한, 정보 추출 장치(100)는 단일 영상을 이용하여 검출된 오브젝트 각각에 대한 특성 정보를 추출한다. 영상 병합에 따른 영상 왜곡이 없는 단일 영상을 이용하기 때문에, 정보 추출 장치(100)는 오브젝트 검출 및 오브젝트의 특성 정보 추출 성능을 높일 수 있다.The
정보 추출 장치(100)는 복수의 촬영 장치로부터 수신한 복수의 단일 영상을 통합하여 통합 영상을 생성한다. 정보 추출 장치(100)는 복수의 단일 영상에서 검출된 오브젝트의 위치를 통합 영상에서 추적한다. 통합 영상에서 오브젝트를 추적함으로써, 정보 추출 장치(100)는 오브젝트 카운팅 등에서 발생하는 오류를 줄일 수 있다.The
복수의 단일 영상과 통합 영상의 픽셀 간의 대응 관계를 이용하여, 오브젝트의 검출, 추적, 특성 추출 과정을 각 과정에 적합한 영상에서 수행함으로써, 정보 추출 장치(100)는 복수의 단일 영상만을 이용하는 방식과 통합 영상만을 이용하는 방식의 장점만을 모두 취할 수 있다.By performing detection, tracking, and characteristic extraction of an object on an image suitable for each process using the correspondence relationship between the plurality of single images and the pixels of the integrated image, the
정보 추출 장치(100)의 구체적인 구성에 대해서는 이하 도 2 및 3을 이용하여 다시 설명하기로 한다.The specific configuration of the
복수의 촬영 장치(200)는 촬영된 영상이 서로 겹쳐지도록 배치된다. 통합 영상을 생성하기 위해서는 복수의 단일 영상에 겹쳐지게 촬영된 부분이 존재하여야 한다. 예를 들어, 도 4에 도시된 바와 같이 2개의 촬영 장치를 배치할 수 있다. 도 4에서 단일 촬영 장치의 화각(FoV)은 β이며, 2개의 촬영 장치는 서로 엇갈리게 바라보도록 배치되어 있다. 확장된 인식 영역은 2 개의 촬영 장치의 중간 지점을 기준으로 한 유효 화각(Effective FoV)은 γ이다. 또한, 최소 인식 거리는 Zmin, 최대 인식 거리는 Zmax로 표현되어 있다.A plurality of photographing
정보 추출 시스템(1000)에서 지원해야 하는 인식 영역(γ, Zmin, Zmax)이 결정되면, 복수의 촬영 장치(200)가 서로 마주보도록 기울여야 하는 각도(∠tilt)가 결정된다. 결정된 기울여야 하는 각도(∠tilt)는 수학식 1과 같이 표현될 수 있다.When the recognition area (?, Z min , Z max ) to be supported by the
여기서, ∠tilt는 복수의 촬영 장치(200)가 서로 마주보도록 기울여야 하는 각도이다. 그리고, α는 하나의 촬영 장치(200-1)가 다른 촬영 장치(200-2)의 정면으로 최소 인식 거리 Zmin 만큼 떨어진 위치를 촬영하기 위하여, 복수의 촬영 장치(200)가 배치된 수평선으로부터 기울어진 각도이다. α는 아래의 수학식 2와 같이 표현될 수 있다.Here, ∠tilt is an angle at which a plurality of photographing
수학식 2에서, Zmin은 최소 인식 거리를 나타내고, d0, d1은 복수의 촬영 장치(200-1, 200-2) 각각이 복수의 촬영 장치(200)의 유효 화각(γ)을 결정하는 지점과 떨어진 거리를 의미한다. 예를 들어, 복수의 촬영 장치(200)의 중간 지점에 위치하면 d0, d1은 같은 값을 갖는다.In the formula (2), Z min represents the minimum recognition distance, and d 0 and d 1 are the number of images captured by each of the plurality of photographing apparatuses 200-1 and 200-2 to determine the effective view angle γ of the plurality of photographing
d0는 최소 인식 거리 Zmin과 유효 화각 γ를 이용하여 아래의 수학식 3과 같이 표현할 수 있다.d 0 can be expressed as Equation (3) below using the minimum recognition distance Z min and the effective angle of view γ.
또한, α0 는 tilt angle이 0 일 때의 α값으로, 아래의 수학식 4과 같이 표현될 수 있다.Further, alpha 0 is an alpha value when the tilt angle is 0, and can be expressed as Equation (4) below.
수학식 4에서의 β는 단일 촬영 장치의 화각(FoV)을 의미한다.In Equation (4),? Represents the angle of view (FoV) of the single photographing device.
한편, 수학식 1은 수학식 2 및 수학식 4를 이용하여 수학식 5와 같은 형태로 표현될 수도 있다.Equation (1) may be expressed by Equation (5) using Equations (2) and (4).
도 1에서는 복수의 촬영 장치(200)가 별도의 CCTV와 같은 카메라로 구현되는 것으로 도시되었으나, 이는 일 실시 예에 불과할 뿐, 디지털 사이니지(digital signage)에 부착된 카메라 등 다양한 형태로 구현될 수 있다. 또한, 정보 추출 장치(100)와 단일 장치로 구현될 수도 있다.In FIG. 1, a plurality of photographing
서버(300)는 정보 처리 장치(100)로부터 오브젝트의 특성 정보 및 위치 정보를 수신하고 저장한다. 서버(300)는 수신된 오브젝트 정보를 이용하여 영상을 촬영한 지역을 지나는 사람들에게 적합한 정보를 생성할 수 있다. 서버(300)는 영상을 촬영한 지역에 위치하는 디스플레이 장치(예를 들어, 대형 TV, 디지털 사이니지 등)에 생성된 정보를 전송할 수 있다. 다른 실시 예로, 정보 추출 장치(100) 자체에 디스플레이부가 존재하는 경우, 정보 추출 장치(100) 자체에서 적합한 정보를 생성하여 디스플레이 할 수 도 있다.The
상술한 바와 같은 정보 추출 시스템(1000)을 통하여, 넓은 인식 영역을 가지면서도 정확하게 오브젝트를 검출하고, 추적하며, 오브젝트의 정보를 추출할 수 있다.Through the
도 2는 본 발명의 일 실시 예에 따른 정보 추출 장치(100)의 구성을 개략적으로 도시한 블록도이다. 도 2를 참조할 때, 정보 추출 장치(100)는 통신부(110), 영상 통합부(120), 오브젝트 검출부(130), 오브젝트 추적부(140) 및 정보 생성부(150)를 포함한다.2 is a block diagram schematically showing a configuration of an
통신부(110)는 외부 장치와 송수신하는 기능을 수행한다. 예를 들어, 통신부(110)는 복수의 단일 영상을 수신할 수 있다. 또한, 통신부(110)는 추출된 오브젝트의 정보를 외부로 송신할 수 있다. 통신부(110)는 사용자가 요청한 때 또는 기설정된 주기마다 외부로 오브젝트의 정보를 송신한다.The
영상 통합부(image stitching unit, 120)는 수신된 복수의 단일 영상을 통합하여 통합 영상을 생성한다. 영상 통합부(120)는 복수의 단일 영상의 픽셀과 통합 영상에서의 픽셀 위치의 대응 관계를 저장하는 매핑 테이블을 생성할 수 있다. 매핑 테이블에 저장된 위치 대응 관계 정보를 통하여, 각각의 단일 영상 및 통합 영상에서 처리된 내용이 서로에게 전달될 수 있다.An
오브젝트 검출부(object detection unit, 130)는 복수의 단일 영상에 포함된 오브젝트를 검출한다. 오브젝트 검출부(130)는 개별 단일 영상에서 오브젝트가 존재하는지 판단한다. 만일, 오브젝트가 존재할 경우, 오브젝트 검출부(130)는 오브젝트의 위치 정보를 매핑 테이블을 이용하여 통합 영상에서의 위치 정보로 변환한다. 그리고, 변환된 위치 정보를 오브젝트 추적부(140)로 전달한다.An object detection unit (130) detects an object included in a plurality of single images. The
또한, 오브젝트 검출부(130)는 단일 영상을 이용하여 오브젝트 각각에 대한 특성 정보(feature information)를 추출한다. 예를 들어, 오브젝트 검출부(130)에 포함된 특성 정보 추출 기능을 별도의 칩에서 수행하는 것도 가능하다. 오브젝트 검출부(130)에서 수행되는 기능들은 통합 영상보다는 단일 영상을 이용하여 수행되는 것이 적합하다.In addition, the
오브젝트 추적부(object tracking unit, 140)는 검출된 오브젝트의 위치를 통합 영상에서 추적한다. 오브젝트 추적부(140)는 연산량을 줄이기 위하여 패턴 매칭(pattern matching) 알고리즘 또는 광흐름 검출기(optical flow detector)를 사용하여, 통합 영상에서의 오브젝트의 위치를 추적할 수 있다. 추적 과정에서 발생하는 누적 오차를 제거하기 위하여, 오브젝트 추적부(140)는 기설정된 주기마다 단일 영상을 이용하여 위치 정보를 보정할 수 있다.The
정보 생성부(150)는 추출된 오브젝트 특성 정보, 추적된 위치 정보 등을 이용하여 각 검출된 오브젝트의 오브젝트 정보를 생성한다. 예를 들어, 오브젝트 정보는 오브젝트의 시선 방향, 나이, 성별, 인종, 감정, 집중 시간(attention time), 인식 영역에 머무는 시간(dwell time) 중 적어도 하나를 포함할 수 있다.The
도 3은 본 발명의 일 실시 예에 따른 정보 추출 장치(100)의 구성을 상세히 설명하기 위한 블럭도이다. 도 3을 참조하면, 정보 추출 장치(100)는 통신부(110), 영상 통합부(120), 오브젝트 검출부(130), 오브젝트 추출부(140), 정보 생성부(150), 저장부(160), 조작 입력부(170), 디스플레이부(180) 및 제어부(190)를 포함할 수 있다.3 is a block diagram for explaining the configuration of the
통신부(110)는 외부 장치와 송수신하는 기능을 수행한다. 통신부(120)는 무선 또는 유선 통신 모듈로 구성되어 디스플레이 장치(200)와 무선 또는 유선 통신 기능을 수행한다. 구체적으로, 통신부(110)는 복수의 단일 영상을 수신하고, 추출된 오브젝트의 정보를 송신할 수 있다.The
통신부(110)는 유선 통신 방식으로 HDMI(High Definition Multimedia Interface), LVDS(Low Voltage Differential Signaling), LAN(Local Area Network) 등을 이용할 수 있다. 또한, 통신부(110)는 무선 통신 방식으로 NFC(Near Field Communication), 무선 LAN(Wireless LAN), IR(InfraRed) 통신, Zigbee 통신, WiFi, 블루투스(Bluetooth) 등 다양한 방식을 이용할 수 있다. 상술한 바와 같이 통신부(110)가 이용할 수 있는 다양한 무선 및 유선 통신 방법을 설명하였지만, 상기 기술된 통신 방식으로 한정되는 것은 아니다.The
영상 통합부(image stitching unit, 120)는 수신된 복수의 단일 영상을 통합하여 통합 영상을 생성한다. 영상 통합부(120)에서 통합 영상을 생성하기 위해서는 복수의 단일 영상에 겹쳐진 부분이 존재하여야 한다. 겹쳐진 부분의 비율은 특정 비율로 한정되지 않는다. 예를 들어, 영상 통합부(120)는 25 ~ 30%의 영역이 겹쳐진 복수의 단일 영상을 이용하여 통합 영상을 생성할 수 있다.An
영상 통합부(120)는 복수의 단일 영상의 픽셀과 통합 영상에서의 픽셀 위치의 대응 관계를 저장하는 매핑 테이블을 생성할 수 있다. 매핑 테이블에 저장된 위치 대응 관계 정보를 통하여, 각각의 단일 영상 및 통합 영상에서 처리된 내용이 서로에게 전달될 수 있다. 매핑 테이블을 생성함으로써, 영상 통합부(120)는 보다 적은 연산량을 이용하여 다음 입력 영상 프레임에 대한 통합 영상을 생성할 수 있다.The
영상 통합부(120)는 매핑 테이블을 생성할 때, 개별 픽셀들의 좌표 값 또는 인덱스 값의 대응 관계를 저장할 수도 있으나, 픽셀들의 분포 영역을 사각형 영역으로 변환하여 매핑 테이블을 생성할 수도 있다. 사각형 영역으로 변환된 정보를 이용하는 경우, 다른 영상에서의 위치 정보로 변환할 때 비교해야 하는 데이터 수가 줄어들게 되는 효과가 있다.When generating the mapping table, the
영상 통합부(120)에서는 매핑 테이블 생성에 실패할 경우, 정상적인 통합 영상이 생성될 때까지 매핑 테이블 생성 과정을 반복한다. 매핑 테이블의 생성이 성공된 후, 다음 입력 영상 프레임부터 오브젝트를 검출, 추적, 특성 추출하는 과정이 시작된다.If the mapping
오브젝트 검출부(object detection unit, 130)는 복수의 단일 영상에 포함된 오브젝트를 검출한다. 오브젝트 검출부(130)는 개별 단일 영상에서 오브젝트가 존재하는지 판단한다. 만일, 오브젝트가 존재할 경우, 오브젝트 검출부(130)는 오브젝트의 위치 정보를 매핑 테이블을 이용하여 통합 영상에서의 위치 정보로 변환한다. 그리고, 변환된 위치 정보를 오브젝트 추적부(140)로 전달한다.An object detection unit (130) detects an object included in a plurality of single images. The
오브젝트 검출부(130)는 추적하는 오브젝트의 통합 영상에서의 위치 정보를 매핑 테이블을 이용하여 단일 영상에서의 위치 정보로 변환한다. 이를 통해, 오브젝트 검출부(130)는 추적하는 오브젝트의 단일 영상에서의 현재 위치를 알 수 있다. 오브젝트 검출부(130)는 오브젝트의 단일 영상에서의 현재 위치를 오브젝트 추적부(140)에 전송하여 통합 영상에서의 오브젝트의 위치 정보를 보정할 수 있다.The
또한, 오브젝트 검출부(130)는 단일 영상을 이용하여 오브젝트 각각에 대한 특성 정보(feature information)를 추출한다.In addition, the
오브젝트 추적부(object tracking unit, 140)는 검출된 오브젝트의 위치를 통합 영상에서 추적한다. 오브젝트 추적부(140)는 패턴 매칭 등의 다양한 방법을 이용하여 통합 영상에서의 오브젝트의 위치를 추적할 수 있다.The
오브젝트 추적부(140)는 단일 영상에서 검출된 오브젝트의 위치 정보를 매핑 테이블을 이용하여 통합 영상에서의 위치 정보로 변환한다. 그리고, 오브젝트 추적부(140)는 변환된 위치 정보를 이용하여 통합 영상에서 오브젝트를 추적한다.The
통합 영상에서 오브젝트를 추적할 경우, 오브젝트의 수를 정확히 카운트 할 수 있으며, 복수의 단일 영상에서 동일한 오브젝트인지를 판단하기 위한 연산 과정을 생략할 수 있는 장점이 있다.When an object is tracked in an integrated image, the number of objects can be accurately counted, and an arithmetic operation for determining whether the object is the same in a plurality of single images can be omitted.
오브젝트 추적부(140)는 기설정된 주기마다 단일 영상을 이용하여 위치 정보를 보정할 수 있다. 오브젝트 검출부(130)에서 파악한 단일 영상에서의 오브젝트의 현재 위치 정보를 매핑 테이블을 이용하여 변환하여, 오브젝트 추적부(140)는 통합 영상에서의 오브젝트의 현재 위치 정보를 알 수 있다. 이를 통해, 오브젝트 추적부(140)는 추적 과정에서 발생하는 누적 오차를 제거할 수 있다. 다른 예로, 오브젝트 추적부(140)는 추적하는 오브젝트의 매칭 스코어가 기설정된 값 이하로 내려가면 위치 정보를 보정하기 위한 동작을 수행할 수 있다. 오브젝트의 매칭 스코어는 추적 중인 오브젝트의 패턴의 동일성을 영상 프레임마다 비교한 값을 말한다. 예를 들어, 오브젝트 추적부(140)는 프레임마다 추적 중인 오브젝트가 위치한 픽셀들의 correlation 값을 계산하여 매칭 스코어를 구할 수 있다.The
정보 생성부(150)는 추출된 오브젝트 특성 정보, 추적된 위치 정보 등을 이용하여 각 검출된 오브젝트의 오브젝트 정보를 생성한다. 예를 들어, 오브젝트 정보는 오브젝트의 시선 방향, 나이, 성별, 인종, 감정, 집중 시간(attention time), 인식 영역에 머무는 시간(dwell time) 중 적어도 하나를 포함할 수 있다. The
정보 생성부(150)는 각각의 오브젝트의 정보를 일정 주기로 취합하여 통합 정보를 생성할 수 있다. 생성된 통합 정보는 통신부(110)를 통하여 외부로 전송될 수 있다. 예를 들어, 생성된 오브젝트 정보를 이용하여, 정보 추출 장치(100)는 인식 영역에 어떠한 광고나 정보를 제공하는 것이 적합한지를 판단할 수 있을 것이다. 다른 예로, 정보 추출 장치(100) 자체에서 적합성 판단을 하지 않고, 외부 장치가 오브젝트 정보를 수신하여 적합성 판단을 할 수도 있을 것이다.The
저장부(160)는 정보 추출 장치(100)의 동작에 필요한 각종 프로그램 및 데이터 등을 저장한다. 예를 들어, 저장부(160)에 저장된 매핑 테이블을 이용하여, 정보 추출 장치(100)는 복수의 단일 영상에서의 위치와 통합 영상에서의 위치 간의 대응 관계를 알 수 있다. 또한, 저장부(160)에는 RAM(random access memory)과 ROM(read-only memory)이 포함될 수 있다. 관련 분야에 잘 알려져 있듯이, ROM은 단방향(uni-directionally)으로 CPU에 데이터와 명령을 전송하는 역할을 하고, RAM은 일반적으로 양방향(bi-directional)으로 데이터와 명령을 전송하는데 사용된다.The
조작 입력부(170)는 정보 추출 장치(100)가 사용자와 명령 등을 주고 받을 수 있도록 한다. 예를 들어, 키패드, 터치 스크린, 리모트 컨트롤러, 마우스 등이 이에 해당될 수 있다. 터치 스크린과 같이 디스플레이가 필요한 장치로 구현될 경우에 조작 입력부(170)는 디스플레이부(180)와 결합되어 구현될 수 있다. 예를 들어, 조작 입력부(170)는 오브젝트의 정보를 외부로 전송하도록 하거나, 추적 중인 오브젝트의 위치 정보를 보정하도록 하는 사용자 명령을 수신할 수 있다.The operation input unit 170 allows the
디스플레이부(180)는 추출된 오브젝트 정보를 표시할 수 있다. 또한, 디스플레이부(180)는 수신된 복수의 단일 영상이나 통합 영상을 표시할 수 있다. 예를 들어, 인식 영역 근방에 디스플레이부(180)를 구비한 정보 추출 장치가 배치되는 경우에, 추출된 오브젝트 정보를 분석하여 선정된 광고 화면 등이 디스플레이부(180)에 표시될 수 있다. 본 발명의 일 실시 예에 따른 정보 추출 장치(100)에서 디스플레이부(180)는 반드시 구현되어야 하는 것은 아니다. The display unit 180 can display the extracted object information. In addition, the display unit 180 may display a plurality of received single images or integrated images. For example, when the information extracting apparatus having the display unit 180 is disposed near the recognition area, the selected advertisement screen and the like can be displayed on the display unit 180 by analyzing the extracted object information. The display unit 180 in the
디스플레이부(180)는 다양한 디스플레이 패널로 설계될 수 있다. 즉, 디스플레이부(180)는 액정 디스플레이(Liquid Crystal Display, LCD), 유기 발광 디스플레이(Organic Light-Emitting Diode, OLED), 전자종이(E-paper)(E-paper), 플라스마 디스플레이(Plasma Display Panel, PDP), VFD(Vacuum Fluorescnet Display), FED(Field Emission Display), ELD(Electro Luminescence Display) 등 다양한 디스플레이 기술로 구현될 수 있다. 디스플레이 패널은 주로 발광형으로 이루어지나, 반사형 디스플레이를 배제하는 것은 아니다. 또한, 디스플레이부(180)는 플렉서블 디스플레이(flexible display), 투명 디스플레이(transparent display) 등으로 구현할 수도 있을 것이다. The display unit 180 may be designed with various display panels. That is, the display unit 180 may be a liquid crystal display (LCD), an organic light-emitting diode (OLED), an electronic paper (E-paper), a plasma display panel (PDP), a Vacuum Fluorescent Display (VFD), a Field Emission Display (FED), and an Electro Luminescence Display (ELD). The display panel is mainly made of a light emitting type, but does not exclude a reflective type display. In addition, the display unit 180 may be implemented as a flexible display, a transparent display, or the like.
제어부(190)는 정보 추출 장치(100)의 전반적인 구성을 제어한다. 제어부(190)는 CPU(Central Processing Unit) 및 정보 추출 장치(100)를 제어하기 위한 모듈 및 데이터를 저장하는 ROM(Read Only Memory) 및 RAM(Random Access Memory)을 포함할 수 있다.The
예를 들어, 제어부(190)는 외부 장치로 오브젝트 정보를 송신하는 타이밍, 통합 영상에서 위치 정보를 보정하는 타이밍 등을 클락 신호를 생성하여 제어할 수 있다. 다른 예로, 제어부(190)는 정보 추출 장치(100)의 구성 요소 간에 오브젝트의 위치 정보, 매칭 테이블 정보 등을 전송하는 중계 기능을 수행할 수 있다.For example, the
이하에서는 도 5 내지 도 10을 참조하여, 정보 추출 장치(100)의 동작을 보다 구체적으로 설명하기로 한다.Hereinafter, the operation of the
도 5는 본 발명의 일 실시 예에 따른 정보 추출 장치(100)의 동작을 설명하기 위한 도면이다. 도 5를 참조하여, 정보 추출 장치(100)의 구성 요소 간에 전달되는 정보를 중심으로 설명하기로 한다.5 is a diagram for explaining the operation of the
우선, 외부의 제1 촬영 장치 및 제2 촬영 장치로부터 수신한 제1 단일 영상(Image_Cam 1) 및 제2 단일 영상(Image_Cam 2)이 영상 통합부(120)에 전달된다. 영상 통합부(120)에서는 수신한 복수의 단일 영상을 통합하여 통합 영상(Image_stitched)을 생성한다.First, a first single image (Image_Cam 1) and a second single image (Image_Cam 2) received from an external first image capturing apparatus and a second image capturing apparatus are transmitted to the
통합 영상이 생성된 경우, 영상 통합부(120)는 각각의 단일 영상의 픽셀이 통합된 영상의 어떤 픽셀에 대응되는지, 통합된 영상의 픽셀이 각각의 단일 영상의 어떤 픽셀에 대응되는지를 알 수 있다. 이러한 정보는 각각의 매핑 테이블로 저장된다.When the integrated image is generated, the
예를 들어, 오브젝트 검출부(130)는 검출 동작과 특성 추출 동작을 별도의 모듈로 구성하여 수행할 수도 있다. 오브젝트 검출부(130)는 각각의 단일 영상을 이용하여 오브젝트가 존재하는지 판단한다. 오브젝트가 단일 영상에 포함되어 있는 경우, 오브젝트 검출부(130)는 오브젝트의 단일 영상에서의 위치를 매핑 테이블을 이용하여 통합 영상에서의 위치로 변환하여, 오브젝트 추적부(140)로 전달한다.For example, the
오브젝트 추적부(140)에서는 통합 영상을 이용하여 오브젝트의 위치를 추적한다. 기설정된 주기마다 오브젝트 검출부(130)에서 판단한 단일 영상에서의 오브젝트 위치를 이용하여, 오브젝트 추적부(140)는 통합 영상에서의 오브젝트의 위치를 보정할 수 있다. 이를 통해, 오브젝트 추적부(140)는 추적 과정에서 발생하는 누적 오차를 제거할 수 있다.The
오브젝트 추적부(140)는 추적된 오브젝트의 위치 정보를 오브젝트 검출부(130)로 전송할 수 있다. 오브젝트 검출부(130)는 각각의 단일 영상 및 추적된 오브젝트의 위치 정보를 이용하여 오브젝트의 특성 정보를 추출한다. 예를 들어, 오브젝트의 특성 정보는 오브젝트의 시선 방향, 나이, 성별, 인종, 감정, 집중 시간(attention time), 인식 영역에 머무는 시간(dwell time) 중 적어도 하나를 포함할 수 있다.The
추출된 오브젝트의 특성 정보 및 추적된 오브젝트의 위치 정보는 정보 생성부(150)로 취합된다. 정보 생성부(150)는 취합된 정보를 이용하여 오브젝트 정보를 생성한다. 정보 생성부(150)는 일정 주기마다 외부에 생성된 오브젝트 정보를 송신할 수 있다.The characteristic information of the extracted object and the position information of the tracked object are collected by the
도 6는 복수의 단일 영상을 통합하여 통합 영상을 만들 때, 대응되는 픽셀 위치를 이용하여 매핑 테이블을 구성하는 과정을 설명하는 도면이다.6 is a diagram illustrating a process of constructing a mapping table using a corresponding pixel position when a plurality of single images are combined to form an integrated image.
예를 들어, 도 6에 도시된 바와 같이, 제1 단일 영상에서의 픽셀 a는 통합 영상의 픽셀 c, d, e에 대응될 수 있다. 마찬가지로, 제1 단일 영상에서의 픽셀 b는 통합 영상의 픽셀 d, f에 대응될 수 있다. 픽셀들이 단일 영상과 통합 영상에서 반드시 1:1 매칭이 되는 것은 아니다. 이는 이미지 통합 과정에서는 픽셀들 간에 일반적으로 중복 연결(multiple connection) 관계가 발생하기 때문이다. 영상 통합부(120)는 이러한 매칭 관계를 매핑 테이블로 저장한다.For example, as shown in FIG. 6, the pixel a in the first single image may correspond to the pixels c, d, and e of the combined image. Similarly, the pixel b in the first single image may correspond to the pixel d, f of the combined image. Pixels are not necessarily 1: 1 matched in a single image and an integrated image. This is because in the image integration process, there is generally a multiple connection relationship between pixels. The
도 7a 및 7b는 매핑 테이블의 예를 도시한 도면이다. 예를 들어, 도 7a의 매핑 테이블에는 제1 단일 영상과 통합 영상에서의 픽셀의 매핑 관계가 저장되어 있다. 단일 영상의 픽셀이 통합 영상에서 어느 픽셀에 대응되는지가 나타나 있으며, 반대로 통합 영상에서의 픽셀이 단일 영상에서 어느 픽셀에 대응되는지 나타나 있다. 예를 들어, 제1 단일 영상의 픽셀 a는 통합 영상에서 픽셀 c, d, e와 대응됨을 알 수 있다. 또한, 통합 영상의 픽셀 d는 제1 단일 영상에서의 픽셀 a, b와 대응됨을 알 수 있다. 이와 같은 매핑 테이블을 통하여, 정보 추출 장치(100)는 이후의 영상 프레임을 통합할 때 필요한 연산량을 줄일 수 있다.7A and 7B are diagrams showing examples of the mapping table. For example, the mapping table of FIG. 7A stores mapping relationships of pixels in the first single image and the integrated image. It is shown which pixel in a single image corresponds to which pixel in the integrated image and which pixel in the single image corresponds to which pixel in the integrated image. For example, it can be seen that the pixel a of the first single image corresponds to the pixels c, d, and e in the integrated image. Also, it can be seen that the pixel d of the combined image corresponds to the pixels a and b of the first single image. Through such a mapping table, the
도 7b의 매핑 테이블은 매핑된 모든 픽셀들이 (x, y) 좌표 값 또는 인덱스 값을 일일이 저장하는 대신, 매핑된 픽셀들이 분포하는 영역을 하나의 사각형 영역으로 나타내어 저장한 것이다. 매핑된 픽셀들의 모든 정보를 기록해둘 경우, 메모리 사용량이 늘어나며, 대응되는 픽셀들을 체크할 때 연산량이 증가할 수 있기 때문에, 정보 추출 장치(100)는 도 7b와 같은 형식의 매핑 테이블을 이용할 수 있다.In the mapping table of FIG. 7B, instead of storing all (x, y) coordinate values or index values of all the mapped pixels, the area where the mapped pixels are distributed is represented as one rectangular area and stored. When all the information of the mapped pixels is recorded, the amount of memory usage is increased and the amount of computation can be increased when checking corresponding pixels. Therefore, the
도 8 내지 도 10은 오브젝트 검출부(130)의 동작을 보다 상세히 설명하기 위한 도면이다. 이하에서는 오브젝트가 사람인 경우를 예로 들어 설명하기로 한다. 8 to 10 are views for explaining the operation of the
도 8은 단일 영상에서 신규 오브젝트를 검출하는 동작을 도시하고 있다. 도 8을 참조하면, 오브젝트 검출부(130)는 단일 영상에 얼굴 인식기(FD, Face Detector)를 이용하여 얼굴의 위치를 검출한다. 검출된 얼굴의 위치는 단일 영상에서의 위치이기 때문에, 오브젝트 검출부(130)는 매핑 테이블을 이용하여 통합 영상에서의 위치로 변환한다. 그리고, 오브젝트 검출부(130)는 변환된 위치 정보를 오브젝트 추적부(140)로 전달한다.Fig. 8 shows an operation for detecting a new object in a single image. Referring to FIG. 8, the
도 9는 오브젝트 추적 과정에서 발생하는 오차를 보정하기 위한 동작을 도시하고 있다. 도 9를 참조하면, 오브젝트 검출부(130′)는 오브젝트 추적부(140)로부터 통합 영상에서의 얼굴 위치 정보를 수신한다. 오브젝트 검출부(130′)는 매핑 테이블을 이용하여 단일 영상에서의 위치 정보를 얻어낸다. 이후, 오브젝트 검출부(130′)는 단일 영상에서의 얼굴 위치 주변에 검색 영역(search range)을 설정하고, 단일 영상에서의 실제 얼굴 위치를 재차 알아낸다. 오브젝트 검출부(130′)는 재차 판단된 실제 얼굴 위치를 통합 영상에서의 위치 정보를 변환하여 오브젝트 추적부(140)로 전송한다. 이를 통해, 정보 추출 장치(100)는 오브젝트 추적 과정에서 발생한 오차를 보정할 수 있다.FIG. 9 shows an operation for correcting an error occurring in the object tracking process. Referring to FIG. 9, the object detecting unit 130 'receives face position information from the
도 10은 오브젝트 검출부(130″)에서 오브젝트의 특성 정보를 추출하는 동작의 일 예를 도시한 도면이다. 도 10을 참조하면, 오브젝트 검출부(130″)는 오브젝트 추적부(140)로부터 추적된 오브젝트의 통합 영상에서의 위치 정보를 수신한다. 오브젝트 검출부(130″)는 수신한 위치 정보를 매핑 테이블을 이용하여 단일 영상에서의 위치 정보로 변환한다. 오브젝트 검출부(130″)는 위치 정보 및 단일 영상을 이용하여 오브젝트의 위치를 정확히 파악하고, 오브젝트의 다양한 특성 정보를 추출한다.10 is a diagram showing an example of an operation of extracting the characteristic information of the object from the
다른 예로, 오브젝트 검출부(130″)는 오브젝트를 검출하는 단계에서 특성 정보를 함께 추출한 후, 오브젝트 추적부(140)를 통해서는 카운트 수를 정확히 하기 위한 추적 동작만을 수행할 수도 있다. 이러한 실시 예에서는, 오브젝트 특성 정보 추출을 위해, 오브젝트 추적 이후 통합 영상에서의 위치 정보를 수신할 필요성은 없다.As another example, the
상술한 바와 같은 다양한 실시 예에 따른 정보 추출 장치(100)를 통하여, 복수의 단일 영상이 겹쳐진 부분에 많은 사람이 존재하거나, 사람의 이동속도가 빠른 경우에도, 영상 왜곡의 영향을 받지 않고 오브젝트의 특성 정보를 정확히 추출할 수 있으며, 오브젝트를 추적하는 것을 실패할 확률을 줄일 수 있다.Through the
도 11은 본 발명의 일 실시 예에 따른 정보 추출 장치(100)의 정보 추출 방법을 설명하기 위한 흐름도이다.11 is a flowchart for explaining an information extracting method of the
도 11을 참조하면, 정보 추출 장치(100)는 우선 외부로부터 복수의 단일 영상을 수신한다(S1110). 그리고, 정보 추출 장치(100)는 수신된 복수의 영상을 통합하여 통합 영상을 생성한다(S1120). 정보 추출 장치(100)는 통합 영상을 생성하며, 복수의 단일 영상의 픽셀과 통합 영상에서의 픽셀의 대응 관계를 저장하는 매핑 테이블을 생성할 수 있다. 매핑 테이블은 각 픽셀의 좌표나 인덱스 정보를 대응시킨 것일 수도 있으나, 픽셀이 분포하는 영역을 사각형의 픽셀 영역으로 변환하여 대응 관계를 저장한 것일 수도 있다.Referring to FIG. 11, the
정보 추출 장치(100)는 복수의 단일 영상을 이용하여 오브젝트를 검출하고, 오브젝트의 특성 정보를 추출할 수 있다(S1130). 다른 실시 예에서, 정보 추출 장치(100)는 우선 복수의 단일 영상을 이용하여 오브젝트를 검출하고, 오브젝트의 추적 이후에 통합 영상에서의 위치 장보를 수신하여 단일 영상에서의 위치 정보로 변환하고, 변환된 위치 정보를 이용하여 오브젝트의 특성 정보를 추출할 수도 있다.The
정보 추출 장치(100)는 생성된 통합 영상을 이용하여 검출된 오브젝트를 추적할 수 있다(S1140). 구체적으로, 정보 추출 장치(100)는 복수의 단일 영상에서 검출된 오브젝트의 위치 정보를 매핑 테이블을 이용하여 통합 영상에서의 위치 정보로 변환한다. 그리고, 정보 추출 장치(100)는 변환된 위치 정보를 이용하여 오브젝트를 통합 영상에서 추적한다.The
또한, 정보 추출 장치(100)는 추적 중인 오브젝트의 통합 영상에서의 위치 정보를 보정할 수 있다. 위치 정보의 보정은 기설정된 주기마다 수행되거나, 추적 중인 오브젝트의 매핑 스코어가 기설정된 값 이하로 떨어질 경우에 수행될 수 있다.In addition, the
구체적으로, 정보 추출 장치(100)는 추적 중인 오브젝트의 통합 영상에서의 현재 위치 정보 및 매핑 테이블을 이용하여, 단일 영상에서의 위치 정보를 검출한다. 그리고, 정보 추출 장치(100)는 검출된 단일 영상에서의 위치를 중심으로 검색 영역을 설정하고, 정확한 현재 오브젝트의 위치를 판단한다. 정보 추출 장치(100)는 단일 영상에서 판단된 현재 오브젝트의 정확한 위치 정보 및 매핑 테이블을 이용하여, 통합 영상에서의 오브젝트의 위치를 보정한다.Specifically, the
정보 추출 장치(100)는 추출된 오브젝트의 특성 정보 및 추적된 위치 정보를 이용하여 오브젝트 정보를 생성한다(S1150). 예를 들어, 오브젝트의 특성 정보는 오브젝트의 시선 방향, 나이, 성별, 인종, 감정, 집중 시간(attention time), 인식 영역에 머무는 시간(dwell time) 중 적어도 하나일 수 있다. 정보 추출 장치(100)는 생성된 오브젝트 정보를 기설정된 주기마다 외부로 송신할 수 있다.The
이와 같은 정보 추출 방법을 통하여, 넓은 범위의 인식 영역을 지원할 수 있으면서도, 인식 성능의 저하를 최소화하고 안정적으로 오브젝트 정보를 추출할 수 있다.Through such an information extraction method, it is possible to support a wide range of recognition areas, and to reliably extract object information while minimizing deterioration of recognition performance.
또한, 상술한 바와 같은 다양한 실시 예에 따른 정보 추출 방법을 수행하기 위한 프로그램 코드는 다양한 유형의 기록 매체에 저장될 수 있다. 구체적으로는, RAM(Random Access Memory), 플레시메모리, ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electronically Erasable and Programmable ROM), 레지스터, 하드디스크, 리무버블 디스크, 메모리 카드, USB 메모리, CD-ROM 등과 같이, 단말기에서 판독 가능한 다양한 유형의 기록 매체에 저장되어 있을 수 있다.In addition, the program code for performing the information extraction method according to various embodiments as described above can be stored in various types of recording media. More specifically, it may be a random access memory (RAM), a flash memory, a ROM (Read Only Memory), an EPROM (Erasable Programmable ROM), an Electrically Erasable and Programmable ROM (EEPROM), a register, a hard disk, a removable disk, And may be stored in various types of recording media readable by a terminal, such as a memory, a CD-ROM, and the like.
이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안 될 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is clearly understood that the same is by way of illustration and example only and is not to be construed as limiting the scope of the invention as defined by the appended claims. It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the present invention.
1000: 정보 추출 시스템
100: 정보 추출 장치
110: 통신부
120: 영상 통합부
130: 오브젝트 검출부
140: 오브젝트 추적부
150: 정보 생성부
160: 저장부
170: 사용자 인터페이스부
180: 디스플레이부
190: 제어부
200: 촬영 장치
300: 서버1000: information extraction system 100: information extraction device
110: communication unit 120: image integration unit
130: Object detection unit 140: Object tracking unit
150: information generating unit 160:
170: user interface unit 180: display unit
190: control unit 200: photographing apparatus
300: server
Claims (20)
복수의 촬영 장치;
상기 복수의 촬영 장치에서 각각의 촬영 장치를 통해 촬영된 영상에 포함된 오브젝트의 정보를 추출하는 정보 추출 장치; 및
상기 정보 추출 장치로부터 상기 오브젝트의 특성 정보를 수신하고 저장하는 서버;를 포함하고,
상기 정보 추출 장치는,
상기 복수의 촬영 장치로부터 수신한 복수의 단일 영상을 통합하여 통합 영상을 생성하고, 상기 복수의 단일 영상 각각에 포함된 상기 오브젝트를 검출하고, 상기 검출된 오브젝트 각각에 대한 특성 정보를 추출하고, 상기 검출된 오브젝트의 위치를 상기 통합 영상에서 추적하며, 상기 추출된 특성 정보와 추적된 위치 정보를 이용하여 각 오브젝트의 오브젝트 정보를 생성하는 정보 추출 시스템.In an information extraction system,
A plurality of photographing apparatuses;
An information extracting device for extracting information of an object included in an image photographed by each photographing device in the plurality of photographing devices; And
And a server for receiving and storing characteristic information of the object from the information extraction device,
The information extracting apparatus comprises:
A plurality of single images received from the plurality of photographing apparatuses are combined to generate an integrated image, the object included in each of the plurality of single images is detected, the characteristic information for each of the detected objects is extracted, And the object information of each object is generated using the extracted characteristic information and the tracked position information.
복수의 단일 영상을 수신하는 통신부;
상기 수신된 복수의 단일 영상을 통합하여 통합 영상을 생성하는 영상 통합부;
상기 복수의 단일 영상 각각에 포함된 오브젝트를 검출하고, 상기 검출된 오브젝트 각각에 대한 특성 정보를 추출하는 오브젝트 검출부;
상기 검출된 오브젝트의 위치를 상기 통합 영상에서 추적하는 오브젝트 추적부; 및
상기 추출된 특성 정보와 추적된 위치 정보를 이용하여 각 오브젝트의 오브젝트 정보를 생성하는 정보 생성부;를 포함하는 정보 추출 장치.In the information extracting apparatus,
A communication unit for receiving a plurality of single images;
An image integrating unit for synthesizing the plurality of single images received to generate an integrated image;
An object detecting unit detecting an object included in each of the plurality of single images and extracting characteristic information about each of the detected objects;
An object tracking unit for tracking the position of the detected object in the integrated image; And
And an information generating unit for generating object information of each object using the extracted characteristic information and the tracked position information.
상기 영상 통합부는,
상기 복수의 단일 영상의 픽셀 위치와 상기 통합 영상에서의 픽셀 위치의 대응 관계를 저장하는 매핑 테이블을 생성하는 것을 특징으로 하는 정보 추출 장치.3. The method of claim 2,
The image integrating unit,
And generates a mapping table storing a correspondence relation between pixel positions of the plurality of single images and pixel positions of the combined image.
상기 매핑 테이블은,
상기 오브젝트의 픽셀이 분포하는 영역을 사각형의 픽셀 영역으로 변환하여, 상기 복수의 단일 영상에서의 픽셀 영역과 상기 통합 영상에서의 픽셀 영역의 대응 관계를 저장하는 것을 특징으로 하는 정보 추출 장치.The method of claim 3,
Wherein the mapping table comprises:
Wherein a region in which the pixels of the object are distributed is converted into a rectangular pixel region and a corresponding relationship between the pixel region in the plurality of single images and the pixel region in the combined image is stored.
상기 오브젝트 추적부는,
상기 복수의 단일 영상에서 검출된 오브젝트의 위치 정보를 상기 매핑 테이블을 이용하여 상기 통합 영상에서의 위치 정보로 변환하고, 상기 변환된 위치 정보를 이용하여 상기 오브젝트를 추적하는 것을 특징으로 하는 정보 추출 장치.The method of claim 3,
The object-
Converting the position information of the object detected in the plurality of single images into position information in the integrated image using the mapping table and tracking the object using the converted position information, .
상기 오브젝트 검출부는,
상기 추적하는 오브젝트의 상기 통합 영상에서의 위치 정보 및 상기 매핑 테이블을 이용하여, 상기 복수의 단일 영상에서의 현재 위치 정보를 검출하고,
상기 오브젝트 추적부는,
상기 검출된 상기 복수의 단일 영상에서의 현재 위치 및 상기 매핑 테이블을 이용하여, 상기 통합 영상에서의 위치 정보를 보정하는 것을 특징으로 하는 정보 추출 장치.The method of claim 3,
Wherein the object detection unit comprises:
Detecting current position information in the plurality of single images using the position information in the integrated image of the tracked object and the mapping table,
The object-
And corrects the position information in the integrated image using the detected current position in the plurality of single images and the mapping table.
상기 오브젝트 추적부는,
기설정된 주기마다 상기 통합 영상에서의 위치 정보를 보정하는 것을 특징으로 하는 정보 추출 장치.The method according to claim 6,
The object-
And corrects the position information in the integrated image every predetermined period.
상기 오브젝트 검출부는,
상기 통합 영상에서 추적된 오브젝트의 위치 정보를 상기 매핑 테이블을 이용하여 상기 복수의 단일 영상에서의 위치 정보로 변환하고, 상기 변환된 위치 정보를 이용하여 상기 오브젝트의 특성 정보를 추출하는 것을 특징으로 하는 정보 추출 장치.The method of claim 3,
Wherein the object detection unit comprises:
The position information of the object tracked in the integrated image is converted into position information in the plurality of single images using the mapping table and characteristic information of the object is extracted using the converted position information Information extraction device.
상기 특성 정보는,
상기 오브젝트의 시선 방향, 나이, 성별, 인종, 감정 중 적어도 하나를 포함하는 것을 특징으로 하는 정보 추출 장치.3. The method of claim 2,
The characteristic information may include,
Wherein the information includes at least one of a gaze direction, an age, sex, race, and emotion of the object.
상기 통신부는,
기설정된 주기마다 상기 생성된 오브젝트 정보를 외부 장치로 송신하는 것을 특징으로 하는 정보 추출 장치.3. The method of claim 2,
Wherein,
And transmits the generated object information to the external device every predetermined period.
복수의 단일 영상을 수신하는 단계;
상기 수신된 복수의 단일 영상을 통합하여 통합 영상을 생성하는 단계;
상기 복수의 단일 영상 각각에 포함된 오브젝트를 검출하는 단계;
상기 검출된 오브젝트의 위치를 상기 통합 영상에서 추적하는 단계;
상기 검출된 오브젝트 각각에 대한 특성 정보를 상기 복수의 단일 영상에서 추출하는 단계; 및
상기 추출된 특성 정보와 추적된 위치 정보를 이용하여 각 오브젝트의 오브젝트 정보를 생성하는 단계;를 포함하는 정보 추출 방법.In the information extraction method of the information extraction device,
Receiving a plurality of single images;
Integrating the received plurality of single images to generate an integrated image;
Detecting an object included in each of the plurality of single images;
Tracking the position of the detected object in the integrated image;
Extracting characteristic information about each of the detected objects from the plurality of single images; And
And generating object information of each object using the extracted characteristic information and tracked position information.
상기 복수의 단일 영상의 픽셀 위치와 상기 통합 영상에서의 픽셀 위치의 대응 관계를 저장하는 매핑 테이블을 생성하는 단계;를 더 포함하는 것을 특징으로 하는 정보 추출 방법.12. The method of claim 11,
And generating a mapping table storing a correspondence relationship between pixel positions of the plurality of single images and pixel positions of the combined image.
상기 매핑 테이블은,
상기 오브젝트의 픽셀이 분포하는 영역을 사각형의 픽셀 영역으로 변환하여, 상기 복수의 단일 영상에서의 픽셀 영역과 상기 통합 영상에서의 픽셀 영역의 대응 관계를 저장하는 것을 특징으로 하는 정보 추출 방법.13. The method of claim 12,
Wherein the mapping table comprises:
Wherein an area in which the pixels of the object are distributed is converted into a rectangular pixel area and a correspondence relation between the pixel area in the plurality of single images and the pixel area in the integrated image is stored.
상기 추적하는 단계는,
상기 복수의 단일 영상에서 검출된 오브젝트의 위치 정보를 상기 매핑 테이블을 이용하여 상기 통합 영상에서의 위치 정보로 변환하는 단계; 및
상기 변환된 위치 정보를 이용하여 상기 오브젝트를 추적하는 단계;를 포함하는 것을 특징으로 하는 정보 추출 방법.13. The method of claim 12,
Wherein the tracing comprises:
Converting position information of an object detected in the plurality of single images into position information in the integrated image using the mapping table; And
And tracking the object using the converted position information.
상기 추적하는 오브젝트의 상기 통합 영상에서의 위치 정보 및 상기 매핑 테이블을 이용하여, 상기 복수의 단일 영상에서의 현재 위치 정보를 검출하는 단계; 및
상기 검출된 상기 복수의 단일 영상에서의 현재 위치 및 상기 매핑 테이블을 이용하여, 상기 통합 영상에서의 위치 정보를 보정하는 단계;를 더 포함하는 것을 특징으로 하는 정보 추출 방법.13. The method of claim 12,
Detecting current position information in the plurality of single images using position information in the integrated image of the tracked object and the mapping table; And
And correcting the position information in the integrated image using the detected current positions of the plurality of single images and the mapping table.
상기 보정하는 단계는,
기설정된 주기마다 상기 통합 영상에서의 위치 정보를 보정하는 것을 특징으로 하는 정보 추출 방법.16. The method of claim 15,
Wherein the correcting comprises:
Wherein the position information in the integrated image is corrected every predetermined period.
상기 추출하는 단계는,
상기 통합 영상에서 추적된 오브젝트의 위치 정보를 상기 매핑 테이블을 이용하여 상기 복수의 단일 영상에서의 위치 정보로 변환하는 단계; 및
상기 변환된 위치 정보를 이용하여 상기 오브젝트의 특성 정보를 추출하는 단계;를 포함하는 것을 특징으로 하는 정보 추출 방법.13. The method of claim 12,
Wherein the extracting comprises:
Converting position information of the tracked object in the integrated image into positional information in the plurality of single images using the mapping table; And
And extracting characteristic information of the object using the converted position information.
상기 특성 정보는,
상기 오브젝트의 시선 방향, 나이, 성별, 인종, 감정 중 적어도 하나를 포함하는 것을 특징으로 하는 정보 추출 방법.12. The method of claim 11,
The characteristic information may include,
Wherein the information includes at least one of a gaze direction, an age, sex, race, and emotion of the object.
기설정된 주기마다 상기 생성된 오브젝트 정보를 외부 장치로 송신하는 단계;를 더 포함하는 것을 특징으로 하는 정보 추출 방법.12. The method of claim 11,
And transmitting the generated object information to an external device at predetermined intervals.
상기 정보 추출 장치의 정보 추출 방법은,
복수의 단일 영상을 수신하는 단계;
상기 수신된 복수의 단일 영상을 통합하여 통합 영상을 생성하는 단계;
상기 복수의 단일 영상 각각에 포함된 오브젝트를 검출하는 단계;
상기 검출된 오브젝트의 위치를 상기 통합 영상에서 추적하는 단계;
상기 검출된 오브젝트 각각에 대한 특성 정보를 상기 복수의 단일 영상에서 추출하는 단계; 및
상기 추출된 특성 정보와 추적된 위치 정보를 이용하여 각 오브젝트의 오브젝트 정보를 생성하는 단계;를 포함하는 비일시적 컴퓨터 판독가능 기록매체.A non-transitory computer readable recording medium including a program for executing an information extraction method of an information extraction apparatus,
The information extracting method of the information extracting apparatus,
Receiving a plurality of single images;
Integrating the received plurality of single images to generate an integrated image;
Detecting an object included in each of the plurality of single images;
Tracking the position of the detected object in the integrated image;
Extracting characteristic information about each of the detected objects from the plurality of single images; And
And generating object information of each object using the extracted characteristic information and tracked position information.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020150090906A KR20170001223A (en) | 2015-06-26 | 2015-06-26 | Information extracting system, information extracting apparatus, information extracting method of thereof and non-transitory computer readable medium |
EP16164100.6A EP3109794A1 (en) | 2015-06-26 | 2016-04-06 | System, apparatus, method, and computer readable storage medium for extracting information |
US15/131,800 US20160379079A1 (en) | 2015-06-26 | 2016-04-18 | System, apparatus, method, and computer readable storage medium for extracting information |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020150090906A KR20170001223A (en) | 2015-06-26 | 2015-06-26 | Information extracting system, information extracting apparatus, information extracting method of thereof and non-transitory computer readable medium |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20170001223A true KR20170001223A (en) | 2017-01-04 |
Family
ID=55699495
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020150090906A KR20170001223A (en) | 2015-06-26 | 2015-06-26 | Information extracting system, information extracting apparatus, information extracting method of thereof and non-transitory computer readable medium |
Country Status (3)
Country | Link |
---|---|
US (1) | US20160379079A1 (en) |
EP (1) | EP3109794A1 (en) |
KR (1) | KR20170001223A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190134916A (en) * | 2018-05-11 | 2019-12-05 | 초록소프트 주식회사 | Method and apparatus for collecting floating population data on realtime road image |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5955405B2 (en) * | 2012-11-07 | 2016-07-20 | 株式会社日立製作所 | System and program for managing managed system |
TWI657378B (en) * | 2017-09-22 | 2019-04-21 | 財團法人資訊工業策進會 | Method and system for object tracking in multiple non-linear distortion lenses |
US10915606B2 (en) | 2018-07-17 | 2021-02-09 | Grupiks Llc | Audiovisual media composition system and method |
US10545096B1 (en) | 2018-10-11 | 2020-01-28 | Nanotronics Imaging, Inc. | Marco inspection systems, apparatus and methods |
US10650279B1 (en) * | 2019-01-31 | 2020-05-12 | StradVision, Inc. | Learning method and learning device for heterogeneous sensor fusion by using merging network which learns non-maximum suppression |
US11593919B2 (en) | 2019-08-07 | 2023-02-28 | Nanotronics Imaging, Inc. | System, method and apparatus for macroscopic inspection of reflective specimens |
US10915992B1 (en) | 2019-08-07 | 2021-02-09 | Nanotronics Imaging, Inc. | System, method and apparatus for macroscopic inspection of reflective specimens |
US12051242B2 (en) * | 2021-10-28 | 2024-07-30 | Alarm.Com Incorporated | Scanning-based video analysis |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7782357B2 (en) * | 2002-06-21 | 2010-08-24 | Microsoft Corporation | Minimizing dead zones in panoramic images |
-
2015
- 2015-06-26 KR KR1020150090906A patent/KR20170001223A/en unknown
-
2016
- 2016-04-06 EP EP16164100.6A patent/EP3109794A1/en not_active Withdrawn
- 2016-04-18 US US15/131,800 patent/US20160379079A1/en not_active Abandoned
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190134916A (en) * | 2018-05-11 | 2019-12-05 | 초록소프트 주식회사 | Method and apparatus for collecting floating population data on realtime road image |
Also Published As
Publication number | Publication date |
---|---|
EP3109794A1 (en) | 2016-12-28 |
US20160379079A1 (en) | 2016-12-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR20170001223A (en) | Information extracting system, information extracting apparatus, information extracting method of thereof and non-transitory computer readable medium | |
US10592730B2 (en) | Person tracking system and person tracking method | |
US8169550B2 (en) | Cursor control method and apparatus | |
US9807300B2 (en) | Display apparatus for generating a background image and control method thereof | |
US8570403B2 (en) | Face image replacement system and method implemented by portable electronic device | |
US10083344B2 (en) | Facial recognition apparatus, recognition method and program therefor, and information device | |
JP2012103789A (en) | Object display device and object display method | |
KR20150055543A (en) | Gesture recognition device and gesture recognition device control method | |
US10571246B2 (en) | Imaging processing apparatus, distance measuring apparatus and processing system | |
CN106415442A (en) | Portable electronic equipment and method of controlling a portable electronic equipment | |
KR101307234B1 (en) | Parking management system based on object recognition | |
WO2015131589A1 (en) | Colour cast compensation device and display device | |
KR101189209B1 (en) | Position recognizing apparatus and methed therefor | |
US20190370591A1 (en) | Camera and image processing method of camera | |
US10554905B2 (en) | Image processing system, image processing method, and program | |
US10694115B2 (en) | Method, apparatus, and terminal for presenting panoramic visual content | |
JP2013228930A (en) | Subject area detection device, method and program for controlling the same, imaging device and display device | |
US9524423B2 (en) | Image recognition apparatus, control method, and program of the same | |
US20220004748A1 (en) | Video display method, device and system, and video camera | |
KR20200090403A (en) | Electronic apparatus and the control method thereof | |
JP5786900B2 (en) | Information display device and information display method | |
US11089295B2 (en) | Display apparatus, apparatus for proof of play, and method for proof of play of contents | |
JP2005303493A (en) | Obstacle-adaptive projection type display | |
JP6977823B2 (en) | Information processing equipment, control methods, and programs | |
RU2602829C2 (en) | Assessment of control criteria from remote control device with camera |