KR102510051B1 - Control method of electronic device to determine motion matching using by reference position for each time and joint - Google Patents

Control method of electronic device to determine motion matching using by reference position for each time and joint Download PDF

Info

Publication number
KR102510051B1
KR102510051B1 KR1020220091983A KR20220091983A KR102510051B1 KR 102510051 B1 KR102510051 B1 KR 102510051B1 KR 1020220091983 A KR1020220091983 A KR 1020220091983A KR 20220091983 A KR20220091983 A KR 20220091983A KR 102510051 B1 KR102510051 B1 KR 102510051B1
Authority
KR
South Korea
Prior art keywords
joint
electronic device
motion
time
point
Prior art date
Application number
KR1020220091983A
Other languages
Korean (ko)
Inventor
박치영
Original Assignee
주식회사 컴플렉시온
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 컴플렉시온 filed Critical 주식회사 컴플렉시온
Priority to KR1020220091983A priority Critical patent/KR102510051B1/en
Application granted granted Critical
Publication of KR102510051B1 publication Critical patent/KR102510051B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • General Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

The present invention relates to a control method of an electronic device that determines motion consistency by using time and reference positions for each joint The control method comprises the steps of: acquiring, by an electronic device, joint reference data in which a reference position range for each joint used to recognize a person's motion from an image is set for each of a plurality of first time sections of the image; identifying, by the electronic device, a plurality of jointed objects of a person from the image; matching, by the electronic device, a joint point to each of the identified plurality of joint objects; determining, by the electronic device, whether the point position of the joint point in a second time interval corresponding to any one 1-1 time interval among the plurality of first time intervals is included in a reference position range of the 1-1 time interval; and determining, by the electronic device, whether the motion of the person is the same as the motion indicated by the joint reference data based on the identification result.

Description

시간 및 관절 별 기준 위치를 이용하여 동작 일치를 판단하는 전자 장치의 제어 방법{CONTROL METHOD OF ELECTRONIC DEVICE TO DETERMINE MOTION MATCHING USING BY REFERENCE POSITION FOR EACH TIME AND JOINT}Electronic device control method for determining motion matching using time and reference position for each joint

본 발명은 시간 및 관절 별 기준 위치를 이용하여 동작 일치를 판단하는 전자 장치의 제어 방법에 관한 것으로, 상세하게는, 영상에 포함된 인물을 대상으로 각 관절을 식별하여 관절 포인트로 매칭시키고, 시간 및 관절 별 기준 위치가 관절 포인트에 대응되는지 여부에 따라, 사용자에게 제시된 동작과 사용자의 동작이 일치하는지 여부를 판단하는 기술이다.The present invention relates to a control method of an electronic device that determines motion matching using time and reference positions for each joint, and more particularly, identifies each joint of a person included in an image and matches it with a joint point, and a technique for determining whether a motion presented to the user and a motion of the user match according to whether the reference position for each joint corresponds to a joint point.

영상 정보 기반의 다양한 멀티미디어 시스템(multi-media system)이 발달하면서 영상이 포함하고 있는 정보를 이해하고 이를 다양한 분야에 응용할 수 있는 기술에 대한 수요가 급증하고 있다. 특히, 영상 내에 사람의 동작(gesture) 예를 들면 손 동작 등을 인식함으로써 보다 편리한 인터페이스 환경을 구축하는 데 많은 관심이 집중되고 있다.As various multi-media systems based on image information develop, demand for technologies that can understand information included in images and apply them to various fields is rapidly increasing. In particular, much attention has been focused on constructing a more convenient interface environment by recognizing human gestures, for example, hand gestures, in an image.

그런데, 종래에는, 영상 내 사람의 동작이 어느 동작인지를 사용자의 신체 구조에 특화된 기준점을 이용하여 판단하지 않음으로써, 실제 사용자가 동작을 정확하게 수행하였으나, 올바르게 사용자의 동작이 인식되지 않는 문제점이 있다.However, in the prior art, there is a problem in that the user's motion is not correctly recognized even though the actual user performed the motion accurately by not determining which motion the motion of the person in the image is using a reference point specialized for the user's body structure. .

이에 따라, 시간에 따른 영상의 변화에도 사용자의 신체 구조에 특화된 기준점을 실시간으로 변경하면서 사용자의 동작을 인식할 수 있는 기술이 요구되고 있다.Accordingly, there is a demand for a technology capable of recognizing a user's motion while changing a reference point specific to the user's body structure in real time even when the image changes over time.

한국등록특허공보 제10-1304321호, 2013.08.30.Korea Patent Registration No. 10-1304321, 2013.08.30.

본 발명이 해결하고자 하는 과제는 영상에 포함된 인물을 대상으로 각 관절을 식별하여 각 관절의 관절 각도를 산출하고, 산출된 관절 각도가 해당 관절의 관절 가동 각도 범위인지 여부를 판단하여 동작 인식의 수행 여부를 결정함으로써 동작 인식의 노이즈를 필터링할 수 있는 시간 및 관절 별 기준 위치를 이용하여 동작 일치를 판단하는 전자 장치의 제어 방법을 제공하는 것이다.The problem to be solved by the present invention is to identify each joint of a person included in an image, calculate the joint angle of each joint, and determine whether the calculated joint angle is within the range of joint movable angles of the corresponding joint to determine motion recognition. An object of the present invention is to provide a control method of an electronic device that determines whether a motion is matched using time and reference positions for each joint, which can filter motion recognition noise by determining whether or not to perform motion recognition.

본 발명이 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The problems to be solved by the present invention are not limited to the problems mentioned above, and other problems not mentioned will be clearly understood by those skilled in the art from the description below.

상술한 과제를 해결하기 위한 본 발명의 일 면에 따른 시간 및 관절 별 기준 위치를 이용하여 동작 일치를 판단하는 전자 장치의 제어 방법에 있어서, 전자 장치가, 영상으로부터 인물의 동작 인식에 이용되는 관절 별 기준 위치 범위가 영상의 복수의 제1 시간 구간 마다 설정된 관절 기준 데이터를 획득하는 단계, 전자 장치가, 영상으로부터 인물의 복수의 관절 객체를 식별하는 단계, 전자 장치가, 식별된 복수의 관절 객체 각각에 관절 포인트를 매칭하는 단계, 전자 장치가, 복수의 제1 시간 구간 중에서 어느 하나의 제1-1 시간 구간에 대응되는 제2 시간 구간의 관절 포인트의 포인트 위치가 제1-1 시간 구간의 기준 위치 범위에 포함되는지 여부를 판단하는 단계, 및 전자 장치가, 확인 결과에 기초하여 인물의 동작이 관절 기준 데이터가 나타내는 동작과 동일한지 여부를 판단하는 단계를 포함한다.In the control method of an electronic device for determining motion matching using time and reference positions for each joint according to an aspect of the present invention for solving the above problems, the electronic device is used for recognizing a motion of a person from an image. Obtaining joint reference data in which each reference position range is set for each of a plurality of first time sections of an image, identifying, by an electronic device, a plurality of joint objects of a person from an image, by an electronic device, identifying a plurality of joint objects Matching the joint points with each other, the electronic device, the point position of the joint point of the second time interval corresponding to any one of the 1-1st time intervals among the plurality of 1st time intervals Determining whether the motion is included in the reference position range, and determining, by the electronic device, whether the motion of the person is the same as the motion indicated by the joint reference data based on the confirmation result.

이때, 인물의 동작이 관절 기준 데이터가 나타내는 동작과 동일한지 여부를 판단하는 단계는, 전자 장치가, 제2 시간 구간의 관절 포인트의 포인트 위치가 제1-1 시간 구간의 기준 위치 범위에 포함되면, 제2 시간 구간의 인물의 동작이 제1-1 시간 구간의 관절 기준 데이터가 나타내는 동작과 동일한 것으로 판단하는 단계를 포함한다.At this time, the step of determining whether the motion of the person is the same as the motion indicated by the joint reference data may include, when the point position of the joint point of the second time period is included in the reference position range of the 1-1st time period. , determining that the motion of the person in the second time period is the same as the motion indicated by the joint reference data in the 1-1st time period.

본 발명의 일 면에 따른 전자 장치의 제어 방법에 있어서, 전자 장치가, 제2 시간 구간의 관절 포인트의 포인트 위치가 제1-1 시간 구간의 기준 위치 범위에 포함되지 않으면, 제2 시간 구간의 인물의 동작이 제1-1 시간 구간의 관절 기준 데이터가 나타내는 동작과 동일하지 않은 것으로 판단하는 단계를 포함한다.In the control method of an electronic device according to an aspect of the present invention, if the point position of the joint point of the second time interval is not included in the reference position range of the 1-1st time interval, the electronic device of the second time interval and determining that the motion of the person is not the same as the motion indicated by the joint reference data of the 1-1st time interval.

본 발명의 일 면에 따른 전자 장치의 제어 방법에 있어서, 관절 기준 데이터의 데이터 시작 시점과 영상 내에서 인물의 동작이 시작된 동작 시작 시점을 동일한 시점으로 동기화시키는 단계를 더 포함한다.The method for controlling an electronic device according to an aspect of the present invention further includes synchronizing a data start time of joint reference data and a motion start time when a motion of a person starts in an image to the same time point.

본 발명의 일 면에 따른 전자 장치의 제어 방법에 있어서, 전자 장치가, 복수의 제1 시간 구간 간의 구간 순서별 시간 길이와 복수의 제2 시간 구간 간의 구간 순서별 시간 길이가 동일하도록 영상을 구획하는 단계를 더 포함한다.In the control method of an electronic device according to an aspect of the present invention, the electronic device divides an image such that the time length of each section between a plurality of first time sections and the time length of each section between a plurality of second time sections are the same. more includes

본 발명의 일 면에 따른 전자 장치의 제어 방법에 있어서, 전자 장치가, 복수의 관절 포인트 중에서 어느 두 개의 관절 포인트를 기준 관절 포인트를 선택하는 단계, 전자 장치가, 기준 관절 포인트로부터 영상 신체 길이를 산출하는 단계, 및 전자 장치가, 기준 관절 포인트에 대응되는 기준 영상 신체 길이 대비 영상 신체 길이의 비율인 비교 비율을 이용하여 복수의 관절 포인트의 포인트 위치를 보정하는 단계를 더 포함한다.In the control method of an electronic device according to an aspect of the present invention, the step of selecting, by the electronic device, any two joint points among a plurality of joint points as reference joint points, the electronic device, determining an image body length from the reference joint points The step of calculating and correcting, by the electronic device, the point positions of the plurality of joint points by using a comparison ratio, which is a ratio of the body length of the video to the body length of the reference video corresponding to the reference joint point.

이때, 복수의 관절 포인트의 포인트 위치를 보정하는 단계는, 전자 장치가, 기준 관절 포인트에서 복수의 관절 포인트 각각을 향하는 방향은 유지하되, 기준 관절 포인트에서 복수의 관절 포인트 각각까지의 거리는 비교 비율만큼 증감시켜 보정하는 단계를 더 포함한다.At this time, in the step of correcting the point positions of the plurality of joint points, the electronic device maintains the direction from the reference joint point to each of the plurality of joint points, but the distance from the reference joint point to each of the plurality of joint points is equal to the comparison ratio. The step of correcting by increasing or decreasing is further included.

본 발명의 기타 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.Other specific details of the invention are included in the detailed description and drawings.

본 발명의 시간 및 관절 별 기준 위치를 이용하여 동작 일치를 판단하는 전자 장치의 제어 방법에 의하면, 영상에 포함된 인물을 대상으로 각 관절을 식별하여 관절 포인트로 매칭시키고, 시간 및 관절 별 기준 위치가 관절 포인트에 대응되는지 여부에 따라, 사용자에게 제시된 동작과 사용자의 동작이 일치하는지 여부를 판단함으로써, 동작 인식을 정확하게 처리할 수 있다.According to the control method of an electronic device for determining motion matching using time and reference positions for each joint of the present invention, each joint of a person included in an image is identified and matched with a joint point, and the reference positions for each joint are identified and matched with each other. It is possible to accurately process motion recognition by determining whether the motion presented to the user and the motion of the user match according to whether or not corresponds to the joint point.

본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description below.

도 1은 본 개시의 일 실시예에 따른 전자 장치의 구성도이다.
도 2는 본 개시의 일 실시예에 따른 기본 흐름도이다.
도 3은 본 개시의 일 실시예에 따른 전자 장치를 사용자가 사용하는 모습에 대한 예시도이다.
도 4는 본 개시의 일 실시예에 따른 관절 객체에 대한 포인트 매칭 예시도이다.
도 5는 본 개시의 일 실시예에 따른 전자 장치가 기준 위치 범위에 포인트 위치가 포함되는지 여부를 판단하는 과정의 일 예에 대한 예시도이다.
도 6은 본 개시의 일 실시예에 따른 전자 장치가 기준 위치 범위에 포인트 위치가 포함되는지 여부를 판단하는 과정의 다른 예에 대한 예시도이다.
1 is a configuration diagram of an electronic device according to an embodiment of the present disclosure.
2 is a basic flow diagram according to an embodiment of the present disclosure.
3 is an exemplary view of a state in which a user uses an electronic device according to an embodiment of the present disclosure.
4 is an exemplary view of point matching for a joint object according to an embodiment of the present disclosure.
5 is an exemplary view of an example of a process of determining whether a point location is included in a reference location range by an electronic device according to an embodiment of the present disclosure.
6 is an exemplary view of another example of a process of determining whether a point location is included in a reference location range by an electronic device according to an embodiment of the present disclosure.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야의 통상의 기술자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.Advantages and features of the present invention, and methods of achieving them, will become clear with reference to the detailed description of the following embodiments taken in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in various different forms, only these embodiments are intended to complete the disclosure of the present invention, and are common in the art to which the present invention belongs. It is provided to fully inform the person skilled in the art of the scope of the invention, and the invention is only defined by the scope of the claims.

본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.Terminology used herein is for describing the embodiments and is not intended to limit the present invention. In this specification, singular forms also include plural forms unless specifically stated otherwise in a phrase. As used herein, "comprises" and/or "comprising" does not exclude the presence or addition of one or more other elements other than the recited elements. Like reference numerals throughout the specification refer to like elements, and “and/or” includes each and every combination of one or more of the recited elements. Although "first", "second", etc. are used to describe various components, these components are not limited by these terms, of course. These terms are only used to distinguish one component from another. Accordingly, it goes without saying that the first element mentioned below may also be the second element within the technical spirit of the present invention.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms (including technical and scientific terms) used in this specification may be used with meanings commonly understood by those skilled in the art to which the present invention belongs. In addition, terms defined in commonly used dictionaries are not interpreted ideally or excessively unless explicitly specifically defined.

명세서에서 사용되는 "부" 또는 “모듈”이라는 용어는 소프트웨어, FPGA 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, "부" 또는 “모듈”은 어떤 역할들을 수행한다. 그렇지만 "부" 또는 “모듈”은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. "부" 또는 “모듈”은 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 "부" 또는 “모듈”은 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 "부" 또는 “모듈”들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 "부" 또는 “모듈”들로 결합되거나 추가적인 구성요소들과 "부" 또는 “모듈”들로 더 분리될 수 있다.The term "unit" or "module" used in the specification means a hardware component such as software, FPGA or ASIC, and "unit" or "module" performs certain roles. However, "unit" or "module" is not meant to be limited to software or hardware. A “unit” or “module” may be configured to reside in an addressable storage medium and may be configured to reproduce one or more processors. Thus, as an example, a “unit” or “module” may refer to components such as software components, object-oriented software components, class components, and task components, processes, functions, properties, procedures, subroutines, segments of program code, drivers, firmware, microcode, circuitry, data, databases, data structures, tables, arrays and variables. Functions provided within components and "units" or "modules" may be combined into smaller numbers of components and "units" or "modules" or may be combined into additional components and "units" or "modules". can be further separated.

공간적으로 상대적인 용어인 "아래(below)", "아래(beneath)", "하부(lower)", "위(above)", "상부(upper)" 등은 도면에 도시되어 있는 바와 같이 하나의 구성요소와 다른 구성요소들과의 상관관계를 용이하게 기술하기 위해 사용될 수 있다. 공간적으로 상대적인 용어는 도면에 도시되어 있는 방향에 더하여 사용시 또는 동작시 구성요소들의 서로 다른 방향을 포함하는 용어로 이해되어야 한다. 예를 들어, 도면에 도시되어 있는 구성요소를 뒤집을 경우, 다른 구성요소의 "아래(below)"또는 "아래(beneath)"로 기술된 구성요소는 다른 구성요소의 "위(above)"에 놓일 수 있다. 따라서, 예시적인 용어인 "아래"는 아래와 위의 방향을 모두 포함할 수 있다. 구성요소는 다른 방향으로도 배향될 수 있으며, 이에 따라 공간적으로 상대적인 용어들은 배향에 따라 해석될 수 있다.The spatially relative terms "below", "beneath", "lower", "above", "upper", etc. It can be used to easily describe a component's correlation with other components. Spatially relative terms should be understood as including different orientations of elements in use or operation in addition to the orientations shown in the drawings. For example, if you flip a component that is shown in a drawing, a component described as "below" or "beneath" another component will be placed "above" the other component. can Thus, the exemplary term “below” may include directions of both below and above. Components may also be oriented in other orientations, and thus spatially relative terms may be interpreted according to orientation.

본 명세서에서, 컴퓨터는 적어도 하나의 프로세서를 포함하는 모든 종류의 하드웨어 장치를 의미하는 것이고, 실시 예에 따라 해당 하드웨어 장치에서 동작하는 소프트웨어적 구성도 포괄하는 의미로서 이해될 수 있다. 예를 들어, 컴퓨터는 스마트폰, 태블릿 PC, 데스크톱, 노트북 및 각 장치에서 구동되는 사용자 클라이언트 및 애플리케이션을 모두 포함하는 의미로서 이해될 수 있으며, 또한 이에 제한되는 것은 아니다.In this specification, a computer means any kind of hardware device including at least one processor, and may be understood as encompassing a software configuration operating in a corresponding hardware device according to an embodiment. For example, a computer may be understood as including a smartphone, a tablet PC, a desktop computer, a laptop computer, and user clients and applications running on each device, but is not limited thereto.

이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 개시의 일 실시예에 따른 전자 장치의 구성도이다.1 is a configuration diagram of an electronic device according to an embodiment of the present disclosure.

도시된 바와 같이, 본 발명의 일 면에 따른 시간 및 관절 별 기준 위치를 이용하여 동작 일치를 판단하는 전자 장치(100)는, 메모리(110), 사용자의 동작을 포함하는 영상을 획득하는 카메라(120), 영상 및 컨텐츠를 출력하는 디스플레이(130), 그리고, 메모리(110), 카메라(120), 디스플레이(130) 및 통신부(150)와 연결된 프로세서(140) 및 다른 장치와 통신을 수행하는 통신부(150)를 포함한다.As shown, the electronic device 100 for determining motion matching using time and reference positions for each joint according to an aspect of the present invention includes a memory 110 and a camera for acquiring an image including a user's motion ( 120), a display 130 that outputs images and contents, a memory 110, a camera 120, a processor 140 connected to the display 130 and the communication unit 150, and a communication unit that communicates with other devices. (150).

실시예로, 전자 장치(100)는, 서버, 스마트폰(smartphone), 태블릿 PC(tablet personal computer), 이동 전화기(mobile phone), 영상 전화기, 랩탑 PC(laptop PC), 넷북 컴퓨터(netbook computer), 노트북 컴퓨터(notebook computer), PDA(personal digital assistant), PMP(portable multimedia player), 웨어러블 장치(wearable device), HMD(head mounted display), 휴대용 의료기기 및 스마트 TV 중 적어도 하나를 포함할 수 있다.In an embodiment, the electronic device 100 includes a server, a smartphone, a tablet personal computer (PC), a mobile phone, a video phone, a laptop PC, and a netbook computer. It may include at least one of a notebook computer, a personal digital assistant (PDA), a portable multimedia player (PMP), a wearable device, a head mounted display (HMD), a portable medical device, and a smart TV. .

한편, 메모리(110)는 전자 장치(100)의 동작에 필요한 각종 프로그램 및 데이터를 저장할 수 있다. 메모리(110)는 비휘발성 메모리(110), 휘발성 메모리(110), 플래시메모리(110)(flash-memory), 하드디스크 드라이브(HDD) 또는 솔리드 스테이트 드라이브(SSD) 등으로 구현될 수 있다.Meanwhile, the memory 110 may store various programs and data necessary for the operation of the electronic device 100 . The memory 110 may be implemented as a non-volatile memory 110, a volatile memory 110, a flash-memory, a hard disk drive (HDD), or a solid state drive (SSD).

프로세서(140)는 메모리(110)에 저장된 각종 프로그램을 이용하여 전자 장치(100)의 전반적인 동작을 제어할 수 있다. 프로세서(140)는 RAM, ROM, 그래픽 처리부, 메인 CPU, 제1 내지 n 인터페이스 및 버스로 구성될 수 있다. 이때, RAM, ROM, 그래픽 처리부, 메인 CPU, 제1 내지 n 인터페이스 등은 버스를 통해 서로 연결될 수 있다.The processor 140 may control overall operations of the electronic device 100 using various programs stored in the memory 110 . The processor 140 may include a RAM, a ROM, a graphic processing unit, a main CPU, first through n interfaces, and a bus. At this time, the RAM, ROM, graphic processing unit, main CPU, first to n interfaces, etc. may be connected to each other through a bus.

RAM은 O/S 및 어플리케이션 프로그램을 저장한다. 구체적으로, 전자 장치(100)가 부팅되면 O/S가 RAM에 저장되고, 사용자가 선택한 각종 어플리케이션 데이터가 RAM에 저장될 수 있다.RAM stores O/S and application programs. Specifically, when the electronic device 100 is booted, O/S is stored in RAM, and various application data selected by the user may be stored in RAM.

ROM에는 시스템 부팅을 위한 명령어 세트 등이 저장된다. 턴 온 명령이 입력되어 전원이 공급되면, 메인 CPU는 ROM에 저장된 명령어에 따라 메모리(110)에 저장된 O/S를 RAM에 복사하고, O/S를 실행시켜 시스템을 부팅시킨다. 부팅이 완료되면, 메인 CPU는 메모리(110)에 저장된 각종 어플리케이션 프로그램을 RAM에 복사하고, RAM에 복사된 어플리케이션 프로그램을 실행시켜 각종 동작을 수행한다.The ROM stores instruction sets for system booting. When a turn-on command is input and power is supplied, the main CPU copies the O/S stored in the memory 110 to the RAM according to the command stored in the ROM, and executes the O/S to boot the system. When booting is completed, the main CPU copies various application programs stored in the memory 110 to RAM, and executes the application programs copied to RAM to perform various operations.

그래픽 처리부는 연산부(미도시) 및 렌더링부(미도시)를 이용하여 아이템, 이미지, 텍스트 등과 같은 다양한 객체를 포함하는 화면을 생성한다. 여기서, 연산부는 입력부로부터 수신된 제어 명령을 이용하여 화면의 레이아웃에 따라 각 객체들이 표시될 좌표값, 형태, 크기, 컬러 등과 같은 속성값을 연산하는 구성일 수 있다. 그리고, 렌더링부는 연산부에서 연산한 속성값에 기초하여 객체를 포함하는 다양한 레이아웃의 화면을 생성하는 구성이 일 수 있다. 이러한 렌더링부에서 생성된 화면은 디스플레이(130)의 디스플레이 영역 내에 표시될 수 있다.The graphic processing unit uses a calculation unit (not shown) and a rendering unit (not shown) to create a screen including various objects such as items, images, and text. Here, the calculation unit may be configured to calculate attribute values such as coordinate values, shape, size, color, etc. of each object to be displayed according to the layout of the screen by using a control command received from the input unit. And, the rendering unit may be configured to generate screens of various layouts including objects based on the attribute values calculated by the calculation unit. The screen created by the rendering unit may be displayed within the display area of the display 130 .

메인 CPU는 메모리(110)에 액세스하여, 메모리(110)에 저장된 OS를 이용하여 부팅을 수행한다. 그리고, 메인 CPU는 메모리(110)에 저장된 각종 프로그램, 컨텐츠, 데이터 등을 이용하여 다양한 동작을 수행한다.The main CPU accesses the memory 110 and performs booting using the OS stored in the memory 110 . And, the main CPU performs various operations using various programs, contents, data, etc. stored in the memory 110 .

제1 내지 n 인터페이스는 상술한 각종 구성요소들과 연결된다. 제1 내지 n 인터페이스 중 하나는 네트워크를 통해 외부 장치와 연결되는 네트워크 인터페이스가 될 수도 있다.The first through n interfaces are connected to the various components described above. One of the first through n interfaces may be a network interface connected to an external device through a network.

한편, 나아가, 프로세서(130)는 인공지능 모델을 제어할 수 있다. 이 경우, 프로세서(130)는 인공지능 모델을 제어하기 위한 그래픽 전용 프로세서(예: GPU)를 포함할 수 있음은 물론이다.Meanwhile, furthermore, the processor 130 may control the artificial intelligence model. In this case, of course, the processor 130 may include a graphics-only processor (eg, GPU) for controlling the artificial intelligence model.

한편, 본 발명에 따른 인공지능 모델은 교사 지도학습(supervised learning) 또는 비교사 지도학습(unsupervised learning)기반의 모델일 수 있다. 나아가, 본 발명에 따른 인공지능 모델은 SVM(support vector machine), Decision tree, neural network 등 및 이들이 응용된 방법론을 포함할 수 있다.Meanwhile, the artificial intelligence model according to the present invention may be a model based on supervised learning or unsupervised learning. Furthermore, the artificial intelligence model according to the present invention may include a support vector machine (SVM), a decision tree, a neural network, and the like, and methodologies to which they are applied.

일 실시예로, 본 발명에 따른 인공지능 모델은 학습데이터를 입력하여 학습된 합성곱 신경망(Convolutional deep Neural Networks, CNN) 기반의 인공지능 모델일 수 있다. 다만, 이에 한정되는 것은 아니며, 다양한 인공지능 모델이 본 발명에 적용될 수 있음은 물론이다. 예컨대, DNN(Deep Neural Network), RNN(Recurrent Neural Network), BRDNN(Bidirectional Recurrent Deep Neural Network)과 같은 모델이 인공지능 모델로서 사용될 수 있으나, 이에 한정되지 않는다.As an embodiment, the artificial intelligence model according to the present invention may be an artificial intelligence model based on convolutional deep neural networks (CNN) learned by inputting training data. However, it is not limited thereto, and it goes without saying that various artificial intelligence models can be applied to the present invention. For example, models such as a deep neural network (DNN), a recurrent neural network (RNN), and a bidirectional recurrent deep neural network (BRDNN) may be used as an artificial intelligence model, but are not limited thereto.

이때, 합성곱 신경망(Convolutional deep Neural Networks, CNN)은 최소한의 전처리(preprocess)를 사용하도록 설계된 다계층 퍼셉트론(multilayer perceptrons)의 한 종류이다. 합성곱 신경망은 하나 또는 여러개의 합성곱 계층(convolutional layer)과 그 위에 올려진 일반적인 인공신경망 계층들로 이루어져 있으며, 가중치와 통합 계층(pooling layer)들을 추가로 활용한다. 이러한 구조 덕분에 합성곱 신경망은 2차원 구조의 입력 데이터를 충분히 활용할 수 있다. 또한, 합성곱 신경망은 표준 역전달을 통해 훈련될 수 있다. 합성곱 신경망은 다른 피드포워드 인공신경망 기법들보다 쉽게 훈련되는 편이고 적은 수의 매개변수를 사용한다는 이점이 있다.At this time, convolutional deep neural networks (CNNs) are a type of multilayer perceptrons designed to use a minimum of preprocessing. A convolutional neural network consists of one or several convolutional layers and general artificial neural network layers placed on top of them, and additionally utilizes weights and pooling layers. Thanks to this structure, convolutional neural networks can fully utilize input data with a two-dimensional structure. Also, convolutional neural networks can be trained via standard back-propagation. Convolutional neural networks are easier to train than other feedforward artificial neural network techniques and have the advantage of using fewer parameters.

또한, 심층 신경망(Deep Neural Networks, DNN)은 입력 계층(input layer)과 출력 계층(output layer) 사이에 복수개의 은닉 계층(hidden layer)들로 이뤄진 인공신경망(Artificial Neural Network, ANN)이다.In addition, deep neural networks (DNNs) are artificial neural networks (ANNs) consisting of a plurality of hidden layers between an input layer and an output layer.

이때, 심층 신경망의 구조는 퍼셉트론(perceptron)으로 구성될 수 있다. 퍼셉트론은 여러 개의 입력 값(input)과 하나의 프로세서(prosessor), 하나의 출력 값으로 구성된다. 프로세서는 여러 개의 입력 값에 각각 가중치를 곱한 후, 가중치가 곱해진 입력 값들을 모두 합한다. 그 다음 프로세서는 합해진 값을 활성화함수에 대입하여 하나의 출력 값을 출력한다. 만약 활성화함수의 출력 값으로 특정한 값이 나오기를 원하는 경우, 각 입력 값에 곱해지는 가중치를 수정하고, 수정된 가중치를 이용하여 출력 값을 다시 계산할 수 있다. 이때, 각각의 퍼셉트론은 서로 다른 활성화함수를 사용할 수 있다. 또한 각각의 퍼셉트론은 이전 계층에서 전달된 출력들을 입력으로 받아들인 다음, 활성화 함수를 이용해서 출력을 구한다. 구해진 출력은 다음 계층의 입력으로 전달된다. 상술한 바와 같은 과정을 거치면 최종적으로 몇 개의 출력 값을 얻을 수 있다.At this time, the structure of the deep neural network may be composed of a perceptron. Perceptron consists of several inputs, one processor, and one output value. The processor multiplies each of a plurality of input values by a weight, and then sums all the input values multiplied by the weight. Then, the processor substitutes the summed value into the activation function and outputs one output value. If a specific value is desired as an output value of the activation function, a weight value multiplied with each input value may be modified, and an output value may be recalculated using the corrected weight value. At this time, each perceptron may use a different activation function. In addition, each perceptron accepts the outputs passed from the previous layer as inputs, and then obtains the outputs using the activation function. The obtained output is passed as input to the next layer. Through the process as described above, several output values can finally be obtained.

순환 신경망(Reccurent Neural Network, RNN)은 인공신경망을 구성하는 유닛 사이의 연결이 Directed cycle을 구성하는 신경망을 말한다. 순환 신경망은 앞먹임 신경망과 달리, 임의의 입력을 처리하기 위해 신경망 내부의 메모리를 활용할 수 있다.Recurrent Neural Network (RNN) refers to a neural network in which the connections between units constituting an artificial neural network constitute a directed cycle. Unlike feed-forward neural networks, recurrent neural networks can utilize the memory inside the neural network to process arbitrary inputs.

심층 신뢰 신경망(Deep Belief Networks, DBN)이란 기계학습에서 사용되는 그래프 생성 모형(generative graphical model)으로, 딥 러닝에서는 잠재변수(latent variable)의 다중계층으로 이루어진 심층 신경망을 의미한다. 계층 간에는 연결이 있지만 계층 내의 유닛 간에는 연결이 없다는 특징이 있다.Deep Belief Networks (DBN) is a generative graphical model used in machine learning. In deep learning, it means a deep neural network consisting of multiple layers of latent variables. There are connections between layers, but there is no connection between units within a layer.

심층 신뢰 신경망은 생성 모형이라는 특성상 선행학습에 사용될 수 있고, 선행학습을 통해 초기 가중치를 학습한 후 역전파 혹은 다른 판별 알고리즘을 통해 가중치의 미조정을 할 수 있다. 이러한 특성은 훈련용 데이터가 적을 때 굉장히 유용한데, 이는 훈련용 데이터가 적을수록 가중치의 초기값이 결과적인 모델에 끼치는 영향이 세지기 때문이다. 선행학습된 가중치 초기값은 임의로 설정된 가중치 초기값에 비해 최적의 가중치에 가깝게 되고 이는 미조정 단계의 성능과 속도향상을 가능케 한다.Due to the characteristics of a generative model, the deep trust neural network can be used for prior learning, and after learning initial weights through prior learning, the weights can be fine-tuned through backpropagation or other discrimination algorithms. This characteristic is very useful when there is little training data, because the smaller the training data, the stronger the influence of the initial weight values on the resulting model. The pre-learned initial value of the weight becomes closer to the optimal weight than the arbitrarily set initial value of the weight, which enables the performance and speed of the fine-tuning step to be improved.

상술한 인공지능 및 그 학습방법에 관한 내용은 예시를 위하여 서술된 것이며, 상술한 실시 예들에서 이용되는 인공지능 및 그 학습방법은 제한되지 않는다. 예를 들어, 당 업계의 통상의 기술자가 동일한 과제해결을 위하여 적용할 수 있는 모든 종류의 인공지능 기술 및 그 학습방법이 개시된 실시 예에 따른 시스템을 구현하는 데 활용될 수 있다.The above-described artificial intelligence and its learning method are described for illustrative purposes, and the artificial intelligence and its learning method used in the above-described embodiments are not limited. For example, all kinds of artificial intelligence technologies and learning methods that can be applied by a person skilled in the art to solve the same problem can be used to implement the system according to the disclosed embodiment.

한편, 프로세서(140)는 하나 이상의 코어(core, 미도시) 및 그래픽 처리부(미도시) 및/또는 다른 구성 요소와 신호를 송수신하는 연결 통로(예를 들어, 버스(bus) 등)를 포함할 수 있다.Meanwhile, the processor 140 may include one or more cores (not shown) and a graphic processor (not shown) and/or a connection path (eg, a bus) for transmitting and receiving signals to and from other components. can

일 실시예에 따른 프로세서(140)는 메모리(110)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 본 발명과 관련하여 설명된 방법을 수행한다.Processor 140 according to one embodiment performs a method described in connection with the present invention by executing one or more instructions stored in memory 110 .

예를 들어, 프로세서(140)는 메모리(110)에 저장된 하나 이상의 인스트럭션을 실행함으로써 신규 학습용 데이터를 획득하고, 학습된 모델을 이용하여, 상기 획득된 신규 학습용 데이터에 대한 테스트를 수행하고, 상기 테스트 결과, 라벨링된 정보가 소정의 제1 기준값 이상의 정확도로 획득되는 제1 학습용 데이터를 추출하고, 상기 추출된 제1 학습용 데이터를 상기 신규 학습용 데이터로부터 삭제하고, 상기 추출된 학습용 데이터가 삭제된 상기 신규 학습용 데이터를 이용하여 상기 학습된 모델을 다시 학습시킬 수 있다.For example, the processor 140 acquires new training data by executing one or more instructions stored in the memory 110, performs a test on the acquired new training data using a learned model, and performs the test As a result, first training data for which the labeled information is obtained with an accuracy equal to or higher than a predetermined first reference value is extracted, the extracted first training data is deleted from the new training data, and the new training data from which the extracted training data is deleted The learned model may be retrained using the training data.

한편, 프로세서(140)는 프로세서(140) 내부에서 처리되는 신호(또는, 데이터)를 일시적 및/또는 영구적으로 저장하는 램(RAM: Random Access Memory, 미도시) 및 롬(ROM: Read-Only Memory, 미도시)을 더 포함할 수 있다. 또한, 프로세서(140)는 그래픽 처리부, 램 및 롬 중 적어도 하나를 포함하는 시스템온칩(SoC: system on chip) 형태로 구현될 수 있다.Meanwhile, the processor 140 includes RAM (Random Access Memory, not shown) and ROM (Read-Only Memory) for temporarily and/or permanently storing signals (or data) processed in the processor 140. , not shown) may be further included. In addition, the processor 140 may be implemented in the form of a system on chip (SoC) including at least one of a graphics processing unit, RAM, and ROM.

메모리(110)에는 프로세서(140)의 처리 및 제어를 위한 프로그램들(하나 이상의 인스트럭션들)을 저장할 수 있다. 메모리(110)에 저장된 프로그램들은 기능에 따라 복수 개의 모듈들로 구분될 수 있다.The memory 110 may store programs (one or more instructions) for processing and control of the processor 140 . Programs stored in the memory 110 may be divided into a plurality of modules according to functions.

카메라(120)는 적어도 하나의 피사체를 촬영하기 위한 구성으로, 프로세서(140)는 카메라(120)를 통해 적어도 하나의 객체를 인식하거나 객체와의 거리를 식별할 수 있다.The camera 120 is configured to photograph at least one subject, and the processor 140 may recognize at least one object or identify a distance to the object through the camera 120 .

일 실시예로, 카메라(120)는 입체 이미지를 획득하는 뎁스 카메라(Depth camera), RGB 카메라 등으로 구현될 수 있다. 뎁스 카메라는, 동시에 2장의 화상을 획득하여 피사체를 입체적으로 획득하는 스테레오 카메라(stereoscopic camera, stereo camera, 쌍안 촬영기, 양 시점 카메라) 및 피사체에 반사된 빛이 돌아오는 시간 및 속도를 바탕으로 배경내 피사체의 3차원 영상 정보를 얻는 ToF 카메라(Time of Flight camera) 등일 수 있다.As an embodiment, the camera 120 may be implemented as a depth camera or RGB camera that acquires a 3D image. The depth camera is a stereo camera (stereoscopic camera, stereo camera, binocular camera, two-view camera) that acquires two images at the same time and acquires the subject in three dimensions, and based on the return time and speed of the reflected light on the subject, the background It may be a ToF camera (Time of Flight camera) that obtains 3D image information of the subject.

디스플레이(130)는 다양한 정보를 시각적으로 출력하기 위한 구성으로, LCD(Liquid Crystal Display), PDP(Plasma Display Panel), OLED(Organic Light Emitting Diodes), TOLED(Transparent OLED), Micro LED 등으로 구현될 수 있으나, 이에 한정되는 것은 아니고 이밖에 종래 알려진 다양한 형태의 디스플레이를 포함할 수 있다.The display 130 is a configuration for visually outputting various information, and may be implemented as a Liquid Crystal Display (LCD), Plasma Display Panel (PDP), Organic Light Emitting Diodes (OLED), Transparent OLED (TOLED), Micro LED, etc. However, it is not limited thereto, and other types of conventionally known displays may be included.

실시예로, 디스플레이(130)는, 사용자의 터치 조작을 감지할 수 있는 터치스크린 형태로 구현될 수 있으며, 접히거나 구부러질 수 있는 플렉서블 디스플레이로 구현될 수도 있다.As an example, the display 130 may be implemented in the form of a touch screen capable of detecting a user's touch manipulation, or may be implemented as a flexible display capable of being folded or bent.

통신부(120)는 외부 장치와 통신을 수행할 수 있다. 특히, 통신부(120)는 와이파이 칩, 블루투스 칩, 무선 통신 칩, NFC칩, 저전력 블루투스 칩(BLE 칩) 등과 같은 다양한 통신 칩을 포함할 수 있다. 이때, 와이파이 칩, 블루투스 칩, NFC 칩은 각각 LAN 방식, WiFi 방식, 블루투스 방식, NFC 방식으로 통신을 수행한다. 와이파이 칩이나 블루투스칩을 이용하는 경우에는 SSID 및 세션 키 등과 같은 각종 연결 정보를 먼저 송수신 하여, 이를 이용하여 통신 연결한 후 각종 정보들을 송수신할 수 있다. 무선 통신칩은 IEEE, 지그비, 3G(3rd Generation), 3GPP(3rd Generation Partnership Project), LTE(Long Term Evolution), 5G(5th Generation) 등과 같은 다양한 통신 규격에 따라 통신을 수행하는 칩을 의미한다.The communication unit 120 may communicate with an external device. In particular, the communication unit 120 may include various communication chips such as a Wi-Fi chip, a Bluetooth chip, a wireless communication chip, an NFC chip, and a low energy Bluetooth chip (BLE chip). At this time, the Wi-Fi chip, the Bluetooth chip, and the NFC chip perform communication in a LAN method, a WiFi method, a Bluetooth method, and an NFC method, respectively. In the case of using a Wi-Fi chip or a Bluetooth chip, various connection information such as an SSID and a session key is first transmitted and received, and various information can be transmitted and received after communication is connected using this. The wireless communication chip refers to a chip that performs communication according to various communication standards such as IEEE, ZigBee, 3rd Generation (3G), 3rd Generation Partnership Project (3GPP), Long Term Evolution (LTE), and 5th Generation (5G).

도 2는 본 개시의 일 실시예에 따른 기본 흐름도이다.2 is a basic flow diagram according to an embodiment of the present disclosure.

도시된 바와 같이, 본 발명의 일 면에 따른 시간 및 관절 별 기준 위치를 이용하여 동작 일치를 판단하는 전자 장치(100)의 제어 방법에 있어서, 전자 장치(100)는 영상으로부터 인물의 동작 인식에 이용되는 관절 별 기준 위치 범위가 영상의 복수의 제1 시간 구간 마다 설정된 관절 기준 데이터를 획득(S1)하고, 영상으로부터 인물의 복수의 관절 객체를 식별(S2)하며, 식별된 복수의 관절 객체 각각에 관절 포인트를 매칭(S3)하고, 복수의 제1 시간 구간 중에서 어느 하나의 제1-1 시간 구간에 대응되는 제2 시간 구간의 관절 포인트의 포인트 위치가 제1-1 시간 구간의 기준 위치 범위에 포함되는지 여부를 판단(S4)하고, 확인 결과에 기초하여 인물의 동작이 관절 기준 데이터가 나타내는 동작과 동일한지 여부를 판단(S5)한다.As shown, in the control method of the electronic device 100 for determining the motion match using time and reference positions for each joint according to an aspect of the present invention, the electronic device 100 performs motion recognition of a person from an image. Obtaining joint reference data in which the reference position range for each joint used is set for each of a plurality of first time sections of the image (S1), identifying a plurality of joint objects of the person from the image (S2), and each of the plurality of identified joint objects (S3), and the point position of the joint point of the second time interval corresponding to any one of the 1-1st time intervals among the plurality of 1st time intervals is the reference position range of the 1-1st time interval. (S4), and based on the confirmation result, it is determined whether the motion of the person is the same as the motion indicated by the joint reference data (S5).

한편, 단계 S1을 수행함에 있어, 전자 장치(100)는, 영상으로부터 인물의 동작 인식에 이용되는 관절 별 기준 위치 범위가 영상의 복수의 제1 시간 구간 마다 설정된 관절 기준 데이터를 획득하되, 통신부(150)를 이용하여 외부 장치로부터 관절 기준 데이터를 수신하여 획득할 수 있다.Meanwhile, in performing step S1, the electronic device 100 obtains joint reference data in which the reference position range for each joint used for motion recognition of the person is set for each of a plurality of first time sections of the image, and the communication unit ( 150) may be used to receive and obtain joint reference data from an external device.

여기서, 관절 기준 데이터는 동작 별로 미리 정해진 각 관절의 기준 위치 범위가 복수의 제1 구간 시간 마다 설정된 데이터이다. 예를 들어, 관절 기준 데이터는 하기의 표 1 및 표 2와 같이, 제1 시간 구간 마다 특정 동작에 대응되는 관절 각각의 기준 위치 범위가 설정된 데이터일 수 있다.Here, the joint reference data is data in which a reference position range of each joint previously determined for each motion is set for each of a plurality of first section times. For example, the joint reference data may be data in which a reference position range of each joint corresponding to a specific motion is set for each first time interval, as shown in Tables 1 and 2 below.

시간 구간time interval 제1 시간 구간(1)1st time period (1) 동작movement 만세 자세hurrah posture 관절joint 관절 위치 범위joint position range 우측 손목right wrist X1, Y1X1, Y1 좌측 손목left wrist X2, Y2X2, Y2

시간 구간time interval 제1 시간 구간(1)1st time period (1) 동작movement 차렷 자세Attention posture 관절joint 관절 위치 범위joint position range 우측 손목right wrist X3, Y3X3, Y3 좌측 손목left wrist X4, Y4X4, Y4

이때, 관절 기준 데이터는 상술한 바와 같이, 표 형식을 전자 장치(100)에 획득될 수도 있고, 동작을 수행하는 모습이 포함된 영상(애니메이션, 실촬영 영상)일 수도 있다.In this case, as described above, the joint reference data may be obtained in the form of a table in the electronic device 100 or may be an image (animation, live image) including a state of performing an operation.

관절 기준 데이터가 영상인 경우, 제1 시간 구간 마다 인물 객체가 동작을 변경하고, 제1 시간 구간 동안은 해당 동작을 유지할 수 있다. 또한, 관절 기준 데이터가 영상인 경우, 영상으로부터 관절 각각의 위치를 인식하여 관절 위치 범위를 설정할 수 있다. 영상의 인물 객체의 각 관절에 대한 위치를 점좌표로 인식하고 점 좌표를 원의 중심으로 하는 원영역을 관절 위치 범위로 설정할 수 있다. 또한, 전자 장치(100)는 영상인 관절 기준 데이터를 디스플레이(130)에 출력하면서 카메라(120)를 이용하여 영상을 보고 동작을 수행하는 사용자를 촬영할 수 있다.When the joint reference data is an image, a motion of the person object may be changed for each first time period and the corresponding motion may be maintained during the first time period. In addition, when the joint reference data is an image, a joint position range may be set by recognizing the position of each joint from the image. The location of each joint of the person object in the image is recognized as point coordinates, and a circle area with the point coordinates as the center of the circle can be set as the joint location range. In addition, the electronic device 100 may output joint reference data, which is an image, to the display 130 and photograph a user performing an operation while viewing the image using the camera 120 .

상술한 바와 같이, 관절 위치 범위는 해당 관절이 위치해야 하는 영역을 의미할수 있다.As described above, the joint location range may mean a region where a corresponding joint should be located.

도 3은 본 개시의 일 실시예에 따른 관절 객체에 대한 포인트 매칭 예시도이다.3 is an exemplary view of point matching for a joint object according to an embodiment of the present disclosure.

구체적으로, 단계 S2을 수행하기 전에, 전자 장치(100)는, 사용자의 모습을 촬영한 영상을 획득할 수 있다.Specifically, before performing step S2, the electronic device 100 may acquire an image of the user's appearance.

이를 위해, 프로세서(140)는 카메라(120)를 제어하여 사용자의 모습을 촬영하도록 하고, 카메라(120)는 사용자의 모습을 촬영하여 사용자의 모습이 담긴 영상을 생성할 수 있다.To this end, the processor 140 may control the camera 120 to capture the user's image, and the camera 120 may capture the user's image and generate an image containing the user's image.

또한, 디스플레이(130)는 사용자의 모습이 담긴 영상을 출력할 수 있으며, 다양한 컨텐츠와 정보를 출력할 수 있다.In addition, the display 130 may output an image containing a user's appearance, and may output various contents and information.

또한, 디스플레이(130)는 사용자의 모습이 담긴 영상을 출력할 수 있으며, 다양한 컨텐츠와 정보를 출력할 수 있다.In addition, the display 130 may output an image containing a user's appearance, and may output various contents and information.

이후, 단계 S1을 수행함에 있어서, 영상에 포함된 적어도 하나의 객체를 식별하고, 식별된 객체 중, 인물의 관절에 대한 객체인 관절 객체를 식별할 수 있다.Thereafter, in performing step S1, at least one object included in the image may be identified, and among the identified objects, a joint object that is an object for a joint of a person may be identified.

이때, 메모리(110)에 사용자의 각 관절에 대한 관절 이미지가 기 등록되어 있는 경우, 전자 장치(100)는 관절 이미지를 바탕으로 관절 객체를 식별할 수 있다.In this case, when a joint image for each joint of the user is pre-registered in the memory 110, the electronic device 100 may identify a joint object based on the joint image.

한편, 영상 내 사람이 복수인 경우, 전자 장치(100)는 각각의 사람에 대한 인물 객체(1)를 식별하되, 각 인물 객체(1)에 대한 안면 이미지를 획득하여, 안면 이미지를 기준으로 인물 객체(1) 각각에 대해 단계 S2 내지 S5를 수행할 수 있다.Meanwhile, when there are a plurality of people in the image, the electronic device 100 identifies a person object 1 for each person, acquires a face image for each person object 1, and acquires a face image for each person, based on the face image. Steps S2 to S5 may be performed for each object 1 .

도 4는 본 개시의 일 실시예에 따른 관절 객체에 대한 관절 포인트 매칭 예시도이다.4 is an exemplary view of joint point matching for a joint object according to an embodiment of the present disclosure.

단계 S3를 수행함에 있어, 전자 장치(100)는 인물 객체(1)의 얼굴, 즉, 안면 이미지를 식별함으로써, 얼굴을 기준으로, 관절 객체 해당하는 사람의 목, 좌측 어깨, 좌측 팔꿈치, 좌측 손목, 우측 어깨, 우측 팔꿈치, 우측 손목, 좌측 고관절, 좌측 무릎, 좌측 발목, 우측 고관절, 우측 무릎 및 우측 발목을 식별할 수 있다.In performing step S3, the electronic device 100 identifies the face of the person object 1, that is, the face image, and based on the face, the neck, left shoulder, left elbow, and left wrist of the person corresponding to the joint object. , right shoulder, right elbow, right wrist, left hip, left knee, left ankle, right hip, right knee and right ankle.

이에 따라, 도 4에 도시된 바와 같이, 전자 장치(100)는 목에 제1 관절 포인트(11), 좌측 어깨에 제2 관절 포인트(12), 좌측 팔꿈치에 제3 관절 포인트(13), 좌측 손목에 제4 관절 포인트(14), 좌측 발목에 제5 관절 포인트(15), 우측 어깨에 제6 관절 포인트(16), 우측 팔꿈치에 제7 관절 포인트(17), 우측 손목에 제8 관절 포인트(18), 우측 발목에 제9 관절 포인트(19), 좌측 고관절에 제10 관절 포인트(20), 좌측 무릎에 제11 관절 포인트(21), 우측 고관절에 제12 관절 포인트(22) 및 우측 무릎에 제13 관절 포인트(23)를 각각 매칭한다.Accordingly, as shown in FIG. 4 , the electronic device 100 has a first joint point 11 on the neck, a second joint point 12 on the left shoulder, a third joint point 13 on the left elbow, and a left joint point 13 on the left shoulder. 4th joint point (14) on the wrist, 5th joint point (15) on the left ankle, 6th joint point (16) on the right shoulder, 7th joint point (17) on the right elbow, 8th joint point on the right wrist (18), the ninth joint point (19) at the right ankle, the tenth joint point (20) at the left hip joint, the eleventh joint point (21) at the left knee, the twelfth joint point (22) at the right hip joint and the right knee Match the thirteenth joint point 23 to each.

이때, 각 관절 객체(목, 어깨, 팔꿈치, 손목, 고관절, 무릎, 발목)를 식별함에 있어, 전자 장치(100)는 인물 객체(1)의 얼굴뿐만 아니라, 목, 상체, 손가락, 귀 등 다양한 신체부위를 기준으로 식별하는 것이 가능하며, 이에 한정되지는 않는다.At this time, in identifying each joint object (neck, shoulder, elbow, wrist, hip joint, knee, ankle), the electronic device 100 uses not only the face of the person object 1, but also various various items such as the neck, upper body, fingers, and ears. It is possible to identify based on the body part, but is not limited thereto.

도 5는 본 개시의 일 실시예에 따른 전자 장치가 기준 위치 범위에 포인트 위치가 포함되는지 여부를 판단하는 과정의 일 예에 대한 예시도이고, 도 6은 본 개시의 일 실시예에 따른 전자 장치가 기준 위치 범위에 포인트 위치가 포함되는지 여부를 판단하는 과정의 다른 예에 대한 예시도이다.5 is an exemplary view of an example of a process of determining whether a point location is included in a reference location range by an electronic device according to an embodiment of the present disclosure, and FIG. 6 is an example of an electronic device according to an embodiment of the present disclosure. is an exemplary view of another example of a process of determining whether a point location is included in a reference location range.

단계 S4를 수행함에 있어, 전자 장치(200)는 복수의 제1 시간 구간 중에서 어느 하나의 제1-1 시간 구간에 대응되는 제2 시간 구간의 관절 포인트의 포인트 위치가 제1-1 시간 구간의 기준 위치 범위에 포함되는지 여부를 판단한다.In performing step S4, the electronic device 200 determines that the point position of the joint point of the second time interval corresponding to any one of the 1-1st time intervals among the plurality of first time intervals is It is determined whether it is included in the reference position range.

이때, 제1 시간 구간은 복수로 구성되고 제1 시간 구간 마다에 관절 별 기준 위치 범위가 설정된다. 또한, 제1 시간 구간 동안에는 동일한 동작에 대한 관절 별 기준 위치 범위가 설정된다.In this case, a plurality of first time sections are configured, and a reference position range for each joint is set for each first time section. Also, during the first time interval, a reference position range for each joint for the same motion is set.

전자 장치(200)는 영상으로부터 최종적으로 생성된 관절 포인트들은 시간 구간 별로 뷰류될 수 있다.The electronic device 200 may view the joint points finally generated from the image for each time section.

구체적으로, 전자 장치(200)는 영상의 재생 시간을 기준으로 복수의 제2 시간 구간을 구획하고, 촬영 시간이 각 복수의 제2 시간 구간에 포함되는 영상으로부터 생성된 관절 포인트들을 해당 제2 시간 구간으로 분류한다.Specifically, the electronic device 200 divides a plurality of second time intervals based on the playback time of the image, and attaches joint points generated from images whose photographing times are included in each of the plurality of second time intervals to the corresponding second time intervals. classify into sections.

예를 들어, 복수의 제2 시간 구간 중 어느 하나인 제2-1 시간 구간의 시작 시점이 2022년 3월 1일 10시 10분 05초이고, 종료 시점이 2022년 3월 1일 10시 10분 10초인 경우, 촬영 시간이 2022년 3월 1일 10시 10분 05초 내지 종료 시점이 2022년 3월 1일 10시 10분 10초인 영상으로부터 생성된 관절 각각의 관절 포인트를 제2-1 시간 구간으로 분류한다.For example, the start time of the 2-1 time interval, which is one of a plurality of second time intervals, is March 1, 2022 at 10:10:05, and the end time is March 1, 2022 at 10:10 In the case of minutes and 10 seconds, the shooting time is March 1, 2022 10:10:05 and the end point is March 1, 2022 10:10:10 Classify by time interval.

상술된 방식으로 전자 장치(200) 관절 포인트들을 복수의 제2 시간 구간 각각에 분류한다.In the above-described manner, joint points of the electronic device 200 are classified into each of a plurality of second time intervals.

이후, 전자 장치(200)는 제1-1 시간 구간에 대응되는 제2 시간 구간을 확인하고, 제1-1 시간 구간의 관절 별 기준 위치 범위에 제2 시간 구간의 관절 별 관절 포인트의 포인트 위치가 각각 포함되는지 여부를 판단한다.Thereafter, the electronic device 200 checks the second time section corresponding to the 1-1 time section, and the point position of the joint point for each joint of the second time section in the reference position range for each joint of the 1-1 time section. It is determined whether each is included.

예를 들어, 5초의 시간 길이인 10개의 제1 시간 구간 연속하여 구성되고, 5초의 시간 길이인 10개의 제2 시간 구간이 연속하여 구성되면, 전자 장치(100)는 시간 순으로 첫번째인 제1 시간 구간의 관절 별 기준 위치 범위에 시간 순으로 첫번째인 제2 시간 구간의 관절 별 관절 포인트의 포인트 위치가 각각 포함되는지 여부를 판단한다.For example, if 10 first time intervals of 5 seconds are continuously configured and 10 second time intervals of 5 seconds are continuously configured, the electronic device 100 may perform the first time interval in chronological order. It is determined whether the point positions of the joint points for each joint in the first second time interval in chronological order are included in the reference position range for each joint in the time interval.

전자 장치(100)는 상술된 판단 과정을 모든 제1 시간 구간의 관절 별 기준 위치 범위와 모든 제2 시간 구간 각각의 관절 별 관절 포인트의 포인트 위치에 순차적으로 수행한다.The electronic device 100 sequentially performs the above-described determination process on the reference position range for each joint in all first time intervals and the point positions of joint points for each joint in all second time intervals.

이를 위해, 전자 장치(100)는 단계 S4 전에 관절 기준 데이터의 데이터 시작 시점과 영상 내에서 인물의 동작이 시작된 동작 시작 시점을 동일한 시점으로 동기화시킬 수 있다. To this end, the electronic device 100 may synchronize the data start time of the joint reference data before step S4 and the motion start time when the motion of the person starts in the image to the same time point.

또한, 전자 장치(100)는 단계 S4 전에 복수의 제1 시간 구간 간의 구간 순서별 시간 길이와 복수의 제2 시간 구간 간의 구간 순서별 시간 길이가 동일하도록 사용자로부터 촬영된 영상을 구획한다.In addition, before step S4, the electronic device 100 partitions the image captured by the user such that the time length of each section between the plurality of first time sections and the time length of each section between the plurality of second time sections are the same.

또한, 전자 장치(100)는 단계 S4 전에 복수의 관절 포인트 중에서 어느 두 개의 관절 포인트를 기준 관절 포인트를 선택하고, 기준 관절 포인트로부터 영상 신체 길이를 산출한다.Also, before step S4, the electronic device 100 selects any two joint points as reference joint points from among a plurality of joint points, and calculates the video body length from the reference joint points.

이후, 전자 장치(100)는 기준 관절 포인트에 대응되는 기준 영상 신체 길이 대비 영상 신체 길이의 비율인 비교 비율을 이용하여 복수의 관절 포인트의 포인트 위치를 보정한다.Thereafter, the electronic device 100 corrects the point positions of the plurality of joint points by using a comparison ratio, which is a ratio of the reference video body length to the video body length corresponding to the reference joint point.

여기서, 기준 관절 포인트는 영상에서의 사용자의 신체 길이를 대표할 수 있는 거리로 이격하고 있는 두 관절 포인트일 수 있으며, 예를 들어, 기준 관절 포인트는 우측 고관절의 관절 포인트와 우측 무릎의 관절 포인트일 수 있으며, 영상 상에서 우측 고관절의 관절 포인트와 우측 무릎의 관절 포인트 간의 이격 거리를 영상 신체 길이로 산출한다.Here, the reference joint points may be two joint points spaced apart by a distance that can represent the length of the user's body in the image. For example, the reference joint points may be a joint point of the right hip joint and a joint point of the right knee. The distance between the joint point of the right hip joint and the joint point of the right knee on the image is calculated as the image body length.

여기서, 기준 영상 신체 길이는 관절 기준 데이터 중에서 기준 관절 포인트와 동일한 관절의 관절 기준 위치 범위 각각의 중앙점 간의 길이일 수 있다.Here, the reference image body length may be the length between the center points of each reference joint position range of the same joint as the reference joint point in the joint reference data.

또한, 전자 장치(100)는, 기준 관절 포인트에서 복수의 관절 포인트 각각을 향하는 방향은 유지하되, 기준 관절 포인트에서 복수의 관절 포인트 각각까지의 거리는 비교 비율만큼 증감시켜 보정한다.In addition, the electronic device 100 maintains the direction from the reference joint point to each of the plurality of joint points, but increases or decreases the distance from the reference joint point to each of the plurality of joint points to compensate for correction.

또한, 전자 장치(100)는 기준 관절 포인트의 포인트 위치와 관절 기준 데이터 중에서 기준 관절 포인트와 동일한 관절의 관절 기준 위치 범위 각각의 중앙점의 위치 간의 거리 차를 산출하고 거리 차 만큼 복수의 관절 포인트의 포인트 위치를 변경시킬 수 있다.In addition, the electronic device 100 calculates a distance difference between the point position of the reference joint point and the position of the center point of each joint reference position range of the same joint as the reference joint point among the joint reference data, and calculates a distance difference between a plurality of joint points by the distance difference. You can change the point location.

이를 통해, 전자 장치(100)는 관절 기준 데이터와 영상으로부터의 관절 포인트의 절대 위치와 비율에 따른 차이를 보정한 후에 관절 별 기준 위치 범위에 관절 별 관절 포인트의 포인트 위치가 각각 포함되는지 여부를 판단한다.Through this, the electronic device 100 determines whether the point positions of each joint point for each joint are included in the reference position range for each joint after correcting the difference according to the absolute position and ratio of the joint point from the joint reference data and the image. do.

단계 S5를 수행함에 있어서, 전자 장치(100)는 제2 시간 구간의 관절 포인트의 포인트 위치가 제1-1 시간 구간의 기준 위치 범위에 포함되면, 제2 시간 구간의 인물의 동작이 제1-1 시간 구간의 관절 기준 데이터가 나타내는 동작과 동일한 것으로 판단할 수 있다.In performing step S5, the electronic device 100 determines that if the point position of the joint point in the second time interval is included in the reference position range of the 1-1st time interval, the motion of the person in the 2nd time interval is It may be determined that it is the same as the motion indicated by the joint reference data of the 1-hour interval.

도 5에 도시된 바와 같이, 전자 장치(100)는 만세 자세 동작에 따른 제1-1 시간 구간의 기준 위치 범위(11 내지 23)에 제2 시간 구간의 모든 관절 포인트(11' 내지 23')의 포인트 위치가 포함되면, 제2 시간 구간에서 인물의 수행한 동작이 제1-1 시간 구간의 관절 기준 데이터가 나타내는 만세 자세 동작과 동일한 것으로 판단할 수 있다.As shown in FIG. 5 , the electronic device 100 includes all joint points 11' to 23' of the second time period in the reference position ranges 11 to 23 of the 1-1 time period according to the hurray posture motion. If the point location of is included, it can be determined that the motion performed by the person in the second time period is the same as the hurray posture motion indicated by the joint reference data in the 1-1 time period.

반대로, 도 6에 도시된 바와 같이, 전자 장치(100)는 만세 자세 동작에 따른 제1-1 시간 구간의 기준 위치 범위(11 내지 23)에 제2 시간 구간의 모든 관절 포인트(11' 내지 23') 중 하나 이상의 포인트(17', 18', 19', 23')의 포인트 위치가 포함되지 않으면, 제2 시간 구간에서 인물의 수행한 동작이 제1-1 시간 구간의 관절 기준 데이터가 나타내는 만세 자세 동작과 동일하지 않은 것으로 판단할 수 있다.Conversely, as shown in FIG. 6 , the electronic device 100 moves all joint points 11' to 23 of the second time period in the reference position ranges 11 to 23 of the 1-1 time period according to the hurray posture motion. '), if the point position of one or more points (17', 18', 19', 23') is not included, the action performed by the person in the second time interval is indicated by the joint reference data of the 1-1 time interval. It can be judged that it is not the same as the manse posture motion.

이러한, 전자 장치(100)는 동작의 동일 여부를 판단한 결과를 디스플레이(130)에 표시할 수 있다.The electronic device 100 may display on the display 130 a result of determining whether the operations are the same.

본 발명의 실시예와 관련하여 설명된 방법 또는 알고리즘의 단계들은 하드웨어로 직접 구현되거나, 하드웨어에 의해 실행되는 소프트웨어 모듈로 구현되거나, 또는 이들의 결합에 의해 구현될 수 있다. 소프트웨어 모듈은 RAM(Random Access Memory), ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리(Flash Memory), 하드 디스크, 착탈형 디스크, CD-ROM, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터 판독가능 기록매체에 상주할 수도 있다.Steps of a method or algorithm described in connection with an embodiment of the present invention may be implemented directly in hardware, implemented in a software module executed by hardware, or implemented by a combination thereof. A software module may include random access memory (RAM), read only memory (ROM), erasable programmable ROM (EPROM), electrically erasable programmable ROM (EEPROM), flash memory, hard disk, removable disk, CD-ROM, or It may reside in any form of computer readable recording medium well known in the art to which the present invention pertains.

또한, 본 발명의 서로 다른 실시예들은 상호 보완되거나 결합될 수 있다.Also, different embodiments of the present invention may complement each other or be combined.

본 발명의 구성 요소들은 하드웨어인 컴퓨터와 결합되어 실행되기 위해 프로그램(또는 애플리케이션)으로 구현되어 매체에 저장될 수 있다. 본 발명의 구성 요소들은 소프트웨어 프로그래밍 또는 소프트웨어 요소들로 실행될 수 있으며, 이와 유사하게, 실시 예는 데이터 구조, 프로세스들, 루틴들 또는 다른 프로그래밍 구성들의 조합으로 구현되는 다양한 알고리즘을 포함하여, C, C++, 자바(Java), 어셈블러(assembler), 파이썬(Python) 등과 같은 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능적인 측면들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다.Components of the present invention may be implemented as a program (or application) to be executed in combination with a computer, which is hardware, and stored in a medium. Components of the present invention may be implemented as software programming or software elements, and similarly, embodiments may include various algorithms implemented as data structures, processes, routines, or combinations of other programming constructs, such as C, C++ , Java (Java), assembler (assembler), may be implemented in a programming or scripting language such as Python (Python). Functional aspects may be implemented in an algorithm running on one or more processors.

이상, 첨부된 도면을 참조로 하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야의 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 제한적이 아닌 것으로 이해해야만 한다.Although the embodiments of the present invention have been described with reference to the accompanying drawings, those skilled in the art to which the present invention pertains can be implemented in other specific forms without changing the technical spirit or essential features of the present invention. you will be able to understand Therefore, it should be understood that the embodiments described above are illustrative in all respects and not restrictive.

1 : 인물 객체
100 : 전자 장치
110 : 메모리
120 : 카메라
130 : 디스플레이
140 : 프로세서
150 : 통신부
1: Person object
100: electronic device
110: memory
120: camera
130: display
140: processor
150: Ministry of Communication

Claims (7)

전자 장치의 제어 방법에 있어서,
상기 전자 장치가, 영상으로부터 인물의 동작 인식에 이용되는 관절 별 기준 위치 범위가 복수의 제1 시간 구간 마다 설정된 관절 기준 데이터를 획득하는 단계;
상기 전자 장치가, 상기 영상으로부터 상기 인물의 복수의 관절 객체를 식별하는 단계;
상기 전자 장치가, 식별된 상기 복수의 관절 객체 각각에 관절 포인트를 매칭하는 단계;
상기 전자 장치가, 복수의 관절 포인트 중에서 어느 두 개의 관절 포인트를 기준 관절 포인트를 선택하는 단계;
상기 전자 장치가, 상기 기준 관절 포인트로부터 영상 신체 길이를 산출하는 단계;
상기 전자 장치가, 상기 기준 관절 포인트에 대응되는 기준 영상 신체 길이 대비 상기 영상 신체 길이의 비율인 비교 비율을 이용하여 상기 복수의 관절 포인트의 포인트 위치를 보정하는 단계;
상기 전자 장치가, 상기 영상을 복수의 제2 시간 구간으로 구획하는 단계;
상기 전자 장치가, 상기 복수의 제1 시간 구간 중에서 어느 하나의 제1-1 시간 구간에 대응되는 제2 시간 구간 동안의 영상으로부터 식별된 관절 객체에 매칭되는 관절 포인트의 포인트 위치가, 상기 제1-1 시간 구간에 설정된 상기 기준 위치 범위에 포함되는지 여부를 판단하는 단계; 및
상기 전자 장치가, 상기 판단 결과에 기초하여 상기 인물의 동작이 관절 기준 데이터가 나타내는 동작과 동일한지 여부를 판단하는 단계;를 포함하는, 전자 장치의 제어 방법.
In the control method of an electronic device,
obtaining, by the electronic device, joint reference data in which a reference position range for each joint used for recognizing a motion of a person is set for each of a plurality of first time intervals from an image;
identifying, by the electronic device, a plurality of joint objects of the person from the image;
matching, by the electronic device, a joint point to each of the identified plurality of joint objects;
selecting, by the electronic device, two joint points among a plurality of joint points as reference joint points;
calculating, by the electronic device, an image body length from the reference joint point;
correcting, by the electronic device, point positions of the plurality of joint points by using a comparison ratio, which is a ratio of a reference video body length corresponding to the reference joint point to the video body length;
dividing, by the electronic device, the image into a plurality of second time sections;
The point position of a joint point matched to a joint object identified by the electronic device from an image during a second time interval corresponding to any one of the 1-1st time intervals among the plurality of first time intervals, the first - Determining whether it is included in the reference position range set in the 1 time interval; and
and determining, by the electronic device, whether the motion of the person is the same as the motion indicated by the joint reference data, based on the determination result.
제1항에 있어서,
상기인물의 동작이 관절 기준 데이터가 나타내는 동작과 동일한지 여부를 판단하는 단계는,
상기 전자 장치가, 상기 제2 시간 구간의 상기 관절 포인트의 상기 포인트 위치가 상기 제1-1 시간 구간의 상기 기준 위치 범위에 포함되면, 제2 시간 구간의 상기 인물의 동작이 상기 제1-1 시간 구간의 상기 관절 기준 데이터가 나타내는 동작과 동일한 것으로 판단하는 단계;를 포함하는, 전자 장치의 제어 방법.
According to claim 1,
The step of determining whether the motion of the person is the same as the motion indicated by the joint reference data,
In the electronic device, when the point position of the joint point in the second time interval is included in the reference position range of the 1-1 time interval, the motion of the person in the 2nd time interval is performed in the 1-1 A method of controlling an electronic device, comprising: determining that the joint reference data of the time interval is the same as the motion indicated by the motion.
제1항에 있어서,
상기 전자 장치가, 상기 제2 시간 구간의 상기 관절 포인트의 상기 포인트 위치가 상기 제1-1 시간 구간의 상기 기준 위치 범위에 포함되지 않으면, 제2 시간 구간의 상기 인물의 동작이 상기 제1-1 시간 구간의 상기 관절 기준 데이터가 나타내는 동작과 동일하지 않은 것으로 판단하는 단계;를 포함하는, 전자 장치의 제어 방법.
According to claim 1,
In the electronic device, if the point position of the joint point in the second time interval is not included in the reference position range of the 1-1 time interval, the motion of the person in the second time interval A method of controlling an electronic device, comprising: determining that the joint reference data of a 1-hour interval is not the same as the motion indicated.
제1항에 있어서,
상기 관절 기준 데이터의 데이터 시작 시점과 상기 영상 내에서 인물의 동작이 시작된 동작 시작 시점을 동일한 시점으로 동기화시키는 단계;를 더 포함하는, 전자 장치의 제어 방법.
According to claim 1,
Synchronizing a data start time of the joint reference data and a motion start time when a motion of a person starts in the image to the same time point; further comprising, the control method of the electronic device.
제1항에 있어서,
상기 전자 장치가, 상기 복수의 제1 시간 구간 간의 구간 순서별 시간 길이와 복수의 상기 제2 시간 구간 간의 구간 순서별 시간 길이가 동일하도록 상기 영상을 구획하는 단계;를 더 포함하는, 전자 장치의 제어 방법.
According to claim 1,
The control method of the electronic device further comprising: dividing, by the electronic device, the image such that a time length for each section between the plurality of first time sections and a time length for each section between the plurality of second time sections are the same. .
삭제delete 제1항에 있어서,
상기 복수의 관절 포인트의 포인트 위치를 보정하는 단계는,
상기 전자 장치가, 상기 기준 관절 포인트에서 상기 복수의 관절 포인트 각각을 향하는 방향은 유지하되, 상기 기준 관절 포인트에서 상기 복수의 관절 포인트 각각까지의 거리는 비교 비율만큼 증감시켜 보정하는 단계;를 더 포함하는, 전자 장치의 제어 방법.
According to claim 1,
The step of correcting the point positions of the plurality of joint points,
Correcting, by the electronic device, maintaining a direction from the reference joint point to each of the plurality of joint points, by increasing or decreasing the distance from the reference joint point to each of the plurality of joint points by a comparison ratio , control methods of electronic devices.
KR1020220091983A 2022-07-25 2022-07-25 Control method of electronic device to determine motion matching using by reference position for each time and joint KR102510051B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220091983A KR102510051B1 (en) 2022-07-25 2022-07-25 Control method of electronic device to determine motion matching using by reference position for each time and joint

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220091983A KR102510051B1 (en) 2022-07-25 2022-07-25 Control method of electronic device to determine motion matching using by reference position for each time and joint

Publications (1)

Publication Number Publication Date
KR102510051B1 true KR102510051B1 (en) 2023-03-14

Family

ID=85502814

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220091983A KR102510051B1 (en) 2022-07-25 2022-07-25 Control method of electronic device to determine motion matching using by reference position for each time and joint

Country Status (1)

Country Link
KR (1) KR102510051B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101304321B1 (en) 2010-01-22 2013-09-11 전자부품연구원 Method for providing UI according to single touch pressure and electronic device using the same
KR20190044952A (en) * 2017-10-23 2019-05-02 남정우 Method for analyzing and displaying a realtime exercise motion using a smart mirror and smart mirror for the same
KR20210079542A (en) * 2019-12-20 2021-06-30 한국전자기술연구원 User Motion Recognition Method and System using 3D Skeleton Information

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101304321B1 (en) 2010-01-22 2013-09-11 전자부품연구원 Method for providing UI according to single touch pressure and electronic device using the same
KR20190044952A (en) * 2017-10-23 2019-05-02 남정우 Method for analyzing and displaying a realtime exercise motion using a smart mirror and smart mirror for the same
KR20210079542A (en) * 2019-12-20 2021-06-30 한국전자기술연구원 User Motion Recognition Method and System using 3D Skeleton Information

Similar Documents

Publication Publication Date Title
US11379287B2 (en) System and method for error detection and correction in virtual reality and augmented reality environments
US20220366627A1 (en) Animating virtual avatar facial movements
US20240351666A1 (en) Matching meshes for virtual avatars
US10832039B2 (en) Facial expression detection method, device and system, facial expression driving method, device and system, and storage medium
US11669726B2 (en) Methods and systems for interpolation of disparate inputs
US10786895B2 (en) Operation method for activation of home robot device and home robot device supporting the same
US11670032B2 (en) Pose space dimensionality reduction for pose space deformation of a virtual character
KR20120005587A (en) Method and apparatus for generating face animation in computer system
CN115244495A (en) Real-time styling for virtual environment motion
EP4290459A1 (en) Augmented reality method and related device thereof
WO2022159200A1 (en) Action recognition using pose data and machine learning
US11205066B2 (en) Pose recognition method and device
KR102510047B1 (en) Control method of electronic device to filter noise of pose recognition using range of motion
KR102510051B1 (en) Control method of electronic device to determine motion matching using by reference position for each time and joint
KR102490431B1 (en) Control method of electronic device for determining environment to acquire movement of user
US20230260156A1 (en) Methods and systems for interpolation of disparate inputs
KR20210072408A (en) Control method, device and program of smart device system using artificial intelligence based surface recognition method
KR102612586B1 (en) Control method of electronic device removing abnormal image frame and restoring according to joint recognition in video
KR102143227B1 (en) Method for generating 3d shape information of object and apparatus thereof
KR102490429B1 (en) Control method of electronic device to privide gmae content adjust difficuty according to physical level of user
KR102510048B1 (en) Control method of electronic device to output augmented reality data according to the exercise motion
KR20240069207A (en) Control method of electronic device acquiring either positive motion or negative motion based on motion of human body
KR102510049B1 (en) Federated learning-based system providing customized content
KR102510050B1 (en) Control method of electronic device to acquire command for either going straight or back based on joint tracking
KR102415774B1 (en) Control method of server for performing selective arrangement of multiple images

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant