KR102128268B1 - Method and system for walking ability prediction using foot characteristics information - Google Patents

Method and system for walking ability prediction using foot characteristics information Download PDF

Info

Publication number
KR102128268B1
KR102128268B1 KR1020180044312A KR20180044312A KR102128268B1 KR 102128268 B1 KR102128268 B1 KR 102128268B1 KR 1020180044312 A KR1020180044312 A KR 1020180044312A KR 20180044312 A KR20180044312 A KR 20180044312A KR 102128268 B1 KR102128268 B1 KR 102128268B1
Authority
KR
South Korea
Prior art keywords
foot
walking
subject
characteristic information
pattern information
Prior art date
Application number
KR1020180044312A
Other languages
Korean (ko)
Other versions
KR20190120923A (en
Inventor
김진욱
문경률
정환수
Original Assignee
한국과학기술연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술연구원 filed Critical 한국과학기술연구원
Priority to KR1020180044312A priority Critical patent/KR102128268B1/en
Publication of KR20190120923A publication Critical patent/KR20190120923A/en
Application granted granted Critical
Publication of KR102128268B1 publication Critical patent/KR102128268B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/112Gait analysis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1126Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
    • A61B5/1128Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique using image analysis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Physiology (AREA)
  • Public Health (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Dentistry (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Fuzzy Systems (AREA)
  • Mathematical Physics (AREA)
  • Psychiatry (AREA)
  • Signal Processing (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

보행 능력 예측 시스템이 제공된다. 보행 능력 예측 시스템은 가상 보행 환경을 대상자에게 제공하고 상기 가상 보행 환경에 따른 상기 대상자의 발 특성 정보를 취득하는 발 특성 정보 취득부; 상기 대상자의 신체 움직임을 감지하고 상기 대상자의 신체 움직임 정보로부터 대상자의 보행 패턴 정보를 추출하는 모션 감지부; 상기 대상자의 발 특성 별 상기 대상자의 보행 패턴 정보를 저장하는 데이터 베이스부; 상기 대상자의 발 특성 정보에 대한 상기 대상자의 보행 패턴 정보의 관계를 분석하고, 기계 학습하여 상기 대상자의 발 특성에 대응되는 표준 보행 패턴 정보를 생성하는 표준 보행 패턴 정보 생성부; 및 새로운 대상자로부터 취득한 발 특성 정보를 상기 표준 보행 패턴 정보에 대입하여 상기 새로운 대상자의 보행 능력을 예측하는 보행 능력 예측부를 포함한다.A walking capability prediction system is provided. The walking capability prediction system includes a foot characteristic information acquisition unit that provides a virtual walking environment to a subject and acquires foot characteristic information of the subject according to the virtual walking environment; A motion detector for sensing the subject's body motion and extracting the subject's gait pattern information from the subject's body motion information; A database unit that stores the gait pattern information of the subject for each foot characteristic of the subject; A standard walking pattern information generating unit that analyzes a relationship between the subject's foot characteristic information and the subject's walking pattern information, and performs machine learning to generate standard walking pattern information corresponding to the subject's foot characteristics; And a walking ability prediction unit that predicts the walking ability of the new subject by substituting foot characteristic information acquired from the new subject into the standard walking pattern information.

Description

발 특성 정보를 이용한 보행 능력 예측 방법 및 시스템{Method and system for walking ability prediction using foot characteristics information}Method and system for walking ability prediction using foot characteristics information

보행 능력 예측 방법 및 시스템에 관한 것으로, 구체적으로 발 특성 정보를 이용한 보행 능력 예측 방법 및 시스템에 관한 것이다.It relates to a walking ability prediction method and system, and specifically to a walking ability prediction method and system using foot property information.

보행은 가장 기본적인 인간의 이동 수단으로 개인 건강 정보, 병적 증상 및 동작에 대한 의도를 포함하고 있다. 보행의 정량적 평가를 통해 근골격계 및 신경 질환을 진단하고 모니터링 할 수 있고, 체계적인 치료에 대한 효과를 판단할 수 있으며, 외과적 수술 결정 및 수술 후 검토에 활용될 수 있다. 이러한 보행 능력은 운동학적, 운동역학적, 생체신호적 관점에서 분석이 가능하나, 보행 능력을 정량화 하기 위해서는 고가의 적외선 카메라, 경험이 풍부한 실험자, 고가의 바닥 센서(Ground Reaction Force), 압력 센서, 근전도(Electromyography) 등과 같은 인력 및 장비가 필요하다.Gait is the most basic means of human mobility, including personal health information, pathological symptoms and intentions for movement. Through quantitative evaluation of gait, it is possible to diagnose and monitor musculoskeletal and neurological diseases, determine the effect on systematic treatment, and be used for surgical surgical decisions and postoperative review. These walking abilities can be analyzed from a kinematic, kinematic, and biosignal point of view, but to quantify walking abilities, expensive infrared cameras, experienced experimenters, expensive ground reaction forces, pressure sensors, and electromyography Personnel and equipment such as (Electromyography) are required.

종래, 상술한 장비를 활용한 보행 능력 평가 방법은 많은 기기 및 인력이 투입됨에 따라 비용이 많이 발생했을 뿐만 아니라, 거동이 불편한 환자가 상술한 실험을 모두 수행할 수 없어 정확한 결과 데이터를 취하기 어려운 단점이 있었다.Conventionally, the method for evaluating walking ability using the above-described equipment has not only a high cost due to the input of a large number of devices and manpower, but also has difficulty in taking accurate result data because patients with inconvenient behavior cannot perform all of the above-described experiments. There was.

따라서, 간단한 테스트만으로 보행 능력 및 보행 특성을 예측할 수 있는 시스템 및 방법이 요구되고 있는 실정이다.Accordingly, there is a need for a system and a method capable of predicting walking ability and walking characteristics through simple tests.

미국 특허 공보 US7467060B2 (2008년 12월 16일)United States Patent Publication US7467060B2 (December 16, 2008)

본 발명은 상술한 문제점을 해결하기 위해 안출된 것으로, 구체적으로, 발 특성 정보를 이용한 보행 능력 예측 방법 및 시스템에 관한 것이다.The present invention has been devised to solve the above-mentioned problems, and specifically, relates to a method and system for predicting walking ability using foot characteristic information.

본 명세서의 일 실시예에 따른 보행 능력 예측 시스템은 발판 상에 위치한 대상자의 발 깊이 영상을 획득하고, 상기 획득한 발 깊이 영상으로부터 발 특성 정보를 취득하는 발 특성 정보 취득부; 상기 대상자의 신체 움직임을 감지하고 상기 대상자의 신체 움직임 정보로부터 대상자의 보행 패턴 정보를 추출하는 모션 감지부; 상기 대상자의 발 특성 정보별 상기 대상자의 보행 패턴 정보를 저장하는 데이터 베이스부; 상기 대상자의 발 특성 정보에 대한 상기 대상자의 보행 패턴 정보의 관계를 분석하고, 기계 학습하여 상기 대상자의 발 특성에 대응되는 표준 보행 패턴 정보를 생성하는 표준 보행 패턴 정보 생성부; 및 새로운 대상자로부터 취득한 발 특성 정보를 상기 표준 보행 패턴 정보에 대입하여 상기 새로운 대상자의 보행 능력을 예측하는 보행 능력 예측부를 포함한다.A walking capability prediction system according to an embodiment of the present specification includes a foot characteristic information acquisition unit that acquires a foot depth image of a subject located on a scaffold and acquires foot characteristic information from the acquired foot depth image; A motion detector for sensing the subject's body motion and extracting the subject's gait pattern information from the subject's body motion information; A database unit for storing the walking pattern information of the target person according to the foot characteristic information of the target person; A standard walking pattern information generating unit that analyzes a relationship between the subject's foot characteristic information and the subject's walking pattern information, and performs machine learning to generate standard walking pattern information corresponding to the subject's foot characteristics; And a walking ability prediction unit that predicts the walking ability of the new subject by substituting foot characteristic information acquired from the new subject into the standard walking pattern information.

일 실시예에서, 상기 발 특성 정보는 발바닥 형상, 발바닥 넓이, 발 아치의 위치, 발 아치의 폭, 발 아치 커브의 각도를 포함할 수 있다.In one embodiment, the foot characteristic information may include a sole shape, a sole width, a position of a foot arch, a width of a foot arch, and an angle of a foot arch curve.

일 실시예에서, 상기 발 특성 정보 취득부는, 상기 발 깊이영상으로부터 MLA 곡선, LLA 곡선을 추출하고, 상기 MLA 곡선 및 상기 LLA 곡선 중 적어도 하나 이상을 기준으로 상기 발 특성 정보를 취득할 수 있다.In one embodiment, the foot characteristic information acquisition unit may extract an MLA curve and an LLA curve from the foot depth image, and acquire the foot characteristic information based on at least one of the MLA curve and the LLA curve.

일 실시예에서, 상기 대상자의 보행 패턴 정보는 시간 파라미터 및 공간 파라미터를 포함하고, 상기 시간 파라미터는 스트라이드 시간, 스탭 시간, 스탠스 시간, 스윙 시간, 싱글 림 서포트 시간, 더블 림 서포트 시간, 케이던스 등을 포함하고, 상기 공간 파라미터는 스트라이드 길이, 스탭 길이, 보행 속도 등을 포함할 수 있다.In one embodiment, the subject's gait pattern information includes time parameters and spatial parameters, and the time parameters include stride time, step time, stance time, swing time, single rim support time, double rim support time, cadence, and the like. Including, the spatial parameter may include a stride length, step length, walking speed, and the like.

일 실시예에서, 상기 표준 보행 패턴 정보 생성부는 상기 발 특성 정보를 입력 값으로 사용하고, 상기 대상자의 보행 패턴 정보를 출력 값으로 사용하여 기계 학습을 수행할 수 있다.In one embodiment, the standard walking pattern information generating unit may perform machine learning by using the foot characteristic information as an input value and using the subject's walking pattern information as an output value.

일 실시예에서, 상기 표준 보행 패턴 정보 생성부는 딥 러닝을 통해 상기 표준 보행 패턴 정보를 생성할 수 있다.In one embodiment, the standard walking pattern information generation unit may generate the standard walking pattern information through deep learning.

보행 능력 예측 방법은 발판 상에 위치한 대상자의 발 깊이 영상을 획득하고, 상기 획득한 발 깊이 영상으로부터 발 특성 정보를 취득하며, 상기 대상자의 신체 움직임을 감지하고 상기 대상자의 신체 움직임 정보로부터 대상자의 보행 패턴 정보를 추출하여, 상기 대상자의 발 특성 정보별 상기 대상자의 보행 패턴 정보를 저장하고, 상기 대상자의 발 특성 정보에 대한 상기 대상자의 보행 패턴 정보의 관계를 분석하고, 기계 학습하여 상기 대상자의 발 특성에 대응되는 표준 보행 패턴 정보를 구축하는 단계; 새로운 대상자로부터 발 특성 정보를 취득하는 단계; 및 상기 새로운 대상자의 발 특성 정보를 상기 표준 보행 패턴 정보에 대입하여 상기 새로운 대상자의 보행 능력을 예측하는 단계를 포함한다.The walking ability prediction method acquires a foot depth image of a subject located on a scaffold, obtains foot characteristic information from the acquired foot depth image, detects the subject's body motion, and walks the subject from the subject's body motion information By extracting pattern information, the subject's walking pattern information for each subject's foot characteristic information is stored, and the relationship between the subject's walking pattern information and the subject's foot characteristic information is analyzed, and machine learning is performed to machine the subject's foot Constructing standard walking pattern information corresponding to the characteristics; Obtaining foot characteristic information from a new subject; And predicting the walking ability of the new subject by substituting the foot gait information of the new subject into the standard walking pattern information.

일 실시예에서, 상기 발 특성 정보는 발바닥 형상, 발바닥 넓이, 발 아치의 위치, 발 아치의 폭, 발 아치 커브의 각도를 포함할 수 있다.In one embodiment, the foot characteristic information may include a sole shape, a sole width, a position of a foot arch, a width of a foot arch, and an angle of a foot arch curve.

일 실시예에서, 상기 발 특성 정보 취득부는, 상기 발 깊이영상으로부터 MLA 곡선, LLA 곡선을 추출하고, 상기 MLA 곡선 및 상기 LLA 곡선 중 적어도 하나 이상을 기준으로 상기 발 특성 정보를 취득할 수 있다.In one embodiment, the foot characteristic information acquisition unit may extract an MLA curve and an LLA curve from the foot depth image, and acquire the foot characteristic information based on at least one of the MLA curve and the LLA curve.

일 실시예에서, 상기 대상자의 보행 패턴 정보는 시간 파라미터 및 공간 파라미터를 포함하고, 상기 시간 파라미터는 스트라이드 시간, 스탭 시간, 스탠스 시간, 스윙 시간, 싱글 림 서포트 시간, 더블 림 서포트 시간, 케이던스 등을 포함하고, 상기 공간 파라미터는 스트라이드 길이, 스탭 길이, 보행 속도 등을 포함할 수 있다.In one embodiment, the subject's gait pattern information includes time parameters and spatial parameters, and the time parameters include stride time, step time, stance time, swing time, single rim support time, double rim support time, cadence, and the like. Including, the spatial parameter may include a stride length, step length, walking speed, and the like.

일 실시예에서, 상기 표준 보행 패턴 정보를 구축하는 단계는, 상기 발 특성 정보를 입력 값으로 사용하고, 상기 대상자의 보행 패턴 정보를 출력 값으로 사용하여 기계 학습을 수행할 수 있다.In one embodiment, the step of constructing the standard gait pattern information may perform machine learning using the foot characteristic information as an input value and the gait pattern information of the subject as an output value.

일 실시예에서, 상기 표준 보행 패턴 정보를 구축하는 단계는 딥 러닝을 통해 상기 표준 보행 패턴 정보를 생성할 수 있다.In one embodiment, the step of constructing the standard walking pattern information may generate the standard walking pattern information through deep learning.

구축된 발 특성 정보에 대응되는 표준 보행 패턴 정보를 활용하여 간단히 취득된 발 특성 정보만으로 새로운 대상자의 실제 보행 능력에 대한 예측이 가능하다.By using the standard walking pattern information corresponding to the constructed foot characteristic information, it is possible to predict the actual walking ability of a new subject with only the acquired foot characteristic information.

이에 따라, 보행 예측에 필요한 기기 및 인력의 투입이 절감될 수 있다.Accordingly, input of equipment and manpower required for walking prediction may be reduced.

또한, 간단한 테스트로 진행되는 바 많은 거동이 어려운 환자도 발 특성 정보 취득 테스트를 수행하여 실제 보행 예측 데이터를 획득할 수 있다.In addition, as a simple test is performed, even a patient with a lot of difficulty in conducting a foot property information acquisition test may obtain actual walking prediction data.

도 1은 본 발명의 일 실시예에 보행 능력 예측 시스템의 블록도이다.
도 2는 발 특성 정보 취득부의 예시도이다.
도 3은 발 깊이 영상 및 이로부터 취득되는 발 특성을 나타내는 예시도이다.
도 4는 모션 감지부에서 감지하는 시공간적 파라미터를 설명하는 예시도이다.
도 5는 본 발명의 일 실시예에 따른 발 특성 정보를 이용한 보행 능력 예측 방법의 순서도이다.
도 6은 본 발명의 일 실시예에 따른 보행 예측 방법의 실험 결과를 도시한 그래프이다.
1 is a block diagram of a walking ability prediction system according to an embodiment of the present invention.
2 is an exemplary view of a foot characteristic information acquisition unit.
3 is an exemplary view showing a foot depth image and foot characteristics obtained therefrom.
4 is an exemplary diagram illustrating spatiotemporal parameters sensed by a motion detector.
5 is a flowchart of a method for predicting walking ability using foot characteristic information according to an embodiment of the present invention.
6 is a graph showing experimental results of a walking prediction method according to an embodiment of the present invention.

이하, 본 발명에 따른 바람직한 실시 형태를 첨부된 도면을 참조하여 상세하게 설명한다. 첨부된 도면과 함께 이하에 개시될 상세한 설명은 본 발명의 예시적인 실시형태를 설명하고자 하는 것이며, 본 발명이 실시될 수 있는 유일한 실시형태를 나타내고자 하는 것이 아니다. 이하의 상세한 설명은 본 발명의 완전한 이해를 제공하기 위해서 구체적 세부사항을 포함한다. 그러나, 당업자는 본 발명이 이러한 구체적 세부사항 없이도 실시될 수 있음을 인지할 수 있다. 이하의 설명에서 사용되는 특정 용어들은 본 발명의 이해를 돕기 위해서 제공된 것이며, 이러한 특정 용어의 사용은 본 발명의 기술적 사상을 벗어나지 않는 범위에서 다른 형태로 변경될 수 있다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. DETAILED DESCRIPTION The following detailed description, together with the accompanying drawings, is intended to describe exemplary embodiments of the present invention, and is not intended to represent the only embodiments in which the present invention may be practiced. The following detailed description includes specific details to provide a thorough understanding of the present invention. However, one skilled in the art will appreciate that the present invention may be practiced without these specific details. Certain terms used in the following description are provided to help understanding of the present invention, and the use of these specific terms may be changed to other forms without departing from the technical spirit of the present invention.

도 1은 본 발명의 일 실시예에 보행 능력 예측 시스템의 블록도이다. 도 2는 발 특성 정보 취득부의 예시도이다. 도 3은 발 깊이 영상 및 이로부터 취득되는 발 특성을 나타내는 예시도이다. 도 4는 모션 감지부에서 감지하는 시공간적 파라미터를 설명하는 예시도이다.1 is a block diagram of a walking ability prediction system according to an embodiment of the present invention. 2 is an exemplary view of a foot characteristic information acquisition unit. 3 is an exemplary view showing a foot depth image and foot characteristics obtained therefrom. 4 is an exemplary diagram illustrating spatiotemporal parameters sensed by a motion detector.

도 1 내지 도 4를 참조하면, 보행 능력 예측 시스템(10)은 발 특성 정보 취득부(100), 모션 감지부(110), 데이터 베이스부(120), 표준 보행 패턴 정보 생성부(130) 및 보행 능력 예측부(140)를 포함한다.1 to 4, the walking ability prediction system 10 includes a foot characteristic information acquisition unit 100, a motion detection unit 110, a database unit 120, a standard walking pattern information generation unit 130, and It includes a walking ability prediction unit 140.

실시예들에 따른 보행 능력 예측 시스템은, 전적으로 하드웨어이거나, 또는 부분적으로 하드웨어이고 부분적으로 소프트웨어인 측면을 가질 수 있다. 예컨대, 본 명세서의 보행 능력 예측 시스템 및 이에 포함된 각 부(unit)는, 특정 형식 및 내용의 데이터를 전자통신 방식으로 주고받기 위한 장치 및 이에 관련된 소프트웨어를 통칭할 수 있다. 본 명세서에서 "부", "모듈(module)", "서버(server)", "시스템", "장치" 또는 "단말" 등의 용어는 하드웨어 및 해당 하드웨어에 의해 구동되는 소프트웨어의 조합을 지칭하는 것으로 의도된다. 예를 들어, 여기서 하드웨어는 CPU 또는 다른 프로세서(processor)를 포함하는 데이터 처리 기기일 수 있다. 또한, 하드웨어에 의해 구동되는 소프트웨어는 실행중인 프로세스, 객체(object), 실행파일(executable), 실행 스레드(thread of execution), 프로그램(program) 등을 지칭할 수 있다.The walking ability prediction system according to the embodiments may have an aspect that is entirely hardware or partially hardware and partially software. For example, the walking capability prediction system of the present specification and each unit included therein may collectively refer to a device for transmitting and receiving data of a specific format and content in an electronic communication method and software related thereto. In this specification, terms such as “part”, “module”, “server”, “system”, “device”, or “terminal” refer to a combination of hardware and software driven by the hardware. Is intended. For example, the hardware here may be a data processing device comprising a CPU or other processor. Also, software driven by hardware may refer to a running process, an object, an executable, a thread of execution, a program, or the like.

또한, 보행 능력 예측 시스템을 구성하는 각각의 부는 반드시 물리적으로 구분되는 별개의 구성요소를 지칭하는 것으로 의도되지 않는다. 도 1에서 발 특성 정보 취득부(100), 모션 감지부(110), 데이터 베이스부(120), 표준 보행 패턴 정보 생성부(130) 및 보행 능력 예측부(140)는 서로 구분되는 별개의 블록으로 도시되나, 이는 보행 능력 예측 시스템을 구성하는 장치를 해당 장치에 의해 실행되는 동작에 의해 단지 기능적으로 구분한 것이다. 따라서, 실시예에 따라서는 발 특성 정보 취득부(100), 모션 감지부(110), 데이터 베이스부(120), 표준 보행 패턴 정보 생성부(130) 및 보행 능력 예측부(140)는 일부 또는 전부가 동일한 하나의 장치 내에 집적화될 수 있고, 하나 이상이 다른 부와 물리적으로 구분되는 별개의 장치로 구현될 수도 있으며, 분산 컴퓨팅 환경 하에서 서로 통신 가능하게 연결된 컴포넌트들일 수도 있다.Also, each part of the walking ability prediction system is not intended to refer to a separate component that is physically separated. In FIG. 1, the foot characteristic information acquisition unit 100, the motion detection unit 110, the database unit 120, the standard walking pattern information generation unit 130, and the walking capability prediction unit 140 are separated blocks that are separated from each other. Although it is illustrated as, it is merely functionally classifying the devices constituting the walking capability prediction system by the operation executed by the device. Therefore, depending on the embodiment, the foot characteristic information acquisition unit 100, the motion detection unit 110, the database unit 120, the standard walking pattern information generation unit 130 and the walking capability prediction unit 140 may be partially or All of them may be integrated in the same single device, one or more may be implemented as separate devices that are physically separated from other parts, or components that are communicatively connected to each other under a distributed computing environment.

발 특성 정보 취득부(100)는 적어도 발판(101), 카메라(102) 및 발 특성 정보 생성부(103)을 포함한다. 발 특성 정보 취득부(100)는 발판(101) 상에 위치한 측정 대상자의 발(20)의 발 깊이영상을 취득할 수 있다. 도 2에 도시된 바와 같이, 카메라(102)는 발판(101) 하부에 위치하여, 발판(101) 상에 위치한 측정 대상자의 발(20)의 발 깊이영상을 획득할 수 있다. 카메라(102)는 발판(101) 상에 위치한 측정 대상자의 발(100)의 발바닥 면을 향하여 촬영할 수 있다. 발판(101)은 투명 재질이거나 불투명 재질일 수 있다. 또한 카메라(102)는 깊이 및 컬러(RGBD) 카메라, 또는 깊이 카메라일 수 있으나 이에 제한되지 않는다. 하기에서는 깊이 및 컬러 카메라를 이용하여 획득한 발 깊이영상을 기초로 발 특성 정보를 취득하는 것을 예로 들어 설명한다.The foot characteristic information acquisition unit 100 includes at least a footrest 101, a camera 102, and a foot characteristic information generation unit 103. The foot characteristic information acquisition unit 100 may acquire a foot depth image of the foot 20 of the measurement target located on the footrest 101. As shown in FIG. 2, the camera 102 is located under the footrest 101 to acquire a foot depth image of the foot 20 of the measurement target located on the footrest 101. The camera 102 may be photographed toward the sole surface of the foot 100 of the measurement target located on the scaffold 101. The footrest 101 may be a transparent material or an opaque material. Also, the camera 102 may be a depth and color (RGBD) camera, or a depth camera, but is not limited thereto. In the following, an example of acquiring foot characteristic information based on a foot depth image obtained using a depth and color camera will be described.

카메라(102)에서 촬영된 발 깊이영상은 발 특성 정보 생성부(103)로 제공되며, 발 특성 정보 생성부(103)는 획득한 발 깊이영상의 전처리 작업을 수행할 수 있다. 예컨대 발 특성 정보 생성부(103)는 발 깊이영상의 노이즈를 필터링할 수 있다. 필터링 후, 발 특성 정보 생성부(103)는 각 화소를 3차원 포인트 클라우드로 변환할 수 있다. 그 후 컬러영상의 각 화소를 깊이영상의 각 화소에 대응시켜 3차원 포인트 클라우드 색상정보를 생성할 수 있다.The foot depth image photographed by the camera 102 is provided to the foot characteristic information generation unit 103, and the foot characteristic information generation unit 103 may perform a pre-processing operation of the acquired foot depth image. For example, the foot characteristic information generation unit 103 may filter noise of the foot depth image. After filtering, the foot characteristic information generation unit 103 may convert each pixel to a 3D point cloud. Thereafter, each pixel of the color image can be mapped to each pixel of the depth image to generate 3D point cloud color information.

도 3(a)는 상술한 필터링 작업 이후 생성된 깊이-컬러 형태의 발 깊이영상을 나타낸다.3(a) shows a depth-colored foot depth image generated after the filtering operation described above.

발 특성 정보 생성부(103)는 발 깊이영상으로부터 발 특성 정보를 취득할 수 있다. 발 특성 정보는 발바닥에 관련된 임의의 정보로서, 발바닥 각 부분에 대한 형태, 전체적인 형태 및 특징에 대한 임의의 정보를 포함할 수 있다. 일 실시예에서 발 특성 정보는, 발바닥 형상, 발바닥 넓이, 발 아치의 위치, 발 아치의 폭, 발 아치 커브의 각도를 포함할 수 있다.The foot characteristic information generation unit 103 may acquire foot characteristic information from a foot depth image. Foot characteristic information is any information related to the sole, and may include arbitrary information about the shape, overall shape, and characteristics of each part of the sole. In one embodiment, the foot characteristic information may include a foot shape, a foot width, a position of the foot arch, a width of the foot arch, and an angle of the foot arch curve.

구체적으로, 발 특성 정보 생성부(103)는 MLA(Medial Longitudinal Arch; 내측 종족궁) 라인, LLA(Lateral Longitudinal Arch; 외측종아치) 라인을 발 깊이영상으로부터 추출할 수 있다. 여기서, MLA 라인은 발 뒤꿈치와 제1 중족골 관절(metatarsal joint)을 연결하는 라인이다. 제1 중족골 관절은 오른발의 경우 엄지 또는 검지 발가락의 중족골 관절일 수 있다. LLA 라인은 발 뒤꿈치와 제2 중족골 관절을 연결하는 라인이다. 제2 중족골 관절은 중지 또는 약지 발가락의 중족골 관절일 수 있다. 여기서, 발 뒤꿈치, 제1 중족골, 제2 중족골은 발 골격에서 지면에 닿는 부위에 해당하며, 각 지점을 연결하는 아치가 형성될 수 있다.Specifically, the foot characteristic information generating unit 103 may extract a Medial Longitudinal Arch (MLA) line and a Lateral Longitudinal Arch (LLA) line from the foot depth image. Here, the MLA line is a line connecting the heel and the first metatarrsal joint. The first metatarsal joint may be the metatarsal joint of the thumb or index finger in the case of the right foot. The LLA line is a line connecting the heel and the second metatarsal joint. The second metatarsal joint may be the metatarsal joint of the middle finger or ring finger toe. Here, the heel, the first metatarsal bone, and the second metatarsal bone correspond to a part of the foot skeleton that touches the ground, and an arch connecting each point may be formed.

발 특성 정보 생성부(103)는 발 깊이영상으로부터 발바닥 접촉면 및 발바닥의 깊이 정보를 획득할 수 있으며, 상기 정보에 기초하여 MLA 라인에서 MLA 곡선을 추출하고, LLA 라인에서 LLA 곡선을 추출할 수 있다.The foot characteristic information generation unit 103 may obtain the foot contact surface and the foot depth information from the foot depth image, and extract the MLA curve from the MLA line based on the information, and extract the LLA curve from the LLA line. .

도 3(b)는 MLA 라인을 나타내는 예시적인 도면이다. 발 특성 정보 생성부(103)는 MLA 곡선 및 LLA 곡선 중 적어도 하나 이상을 기준으로 발 특성 정보를 취득할 수 있다. 발 특성 정보 생성부(103)는 MLA 곡선을 기준으로 발 특성을 나타내는 파라미터인 발 특성 정보(발 아치 높이, 발 길이, 발바닥 넓이, 아치 커브의 각도 등)를 취득하고, LLA 곡선을 기준으로 발 특성 정보를 취득할 수 있다. 일 실시예에서 추출된 각 발 특성 정보는 정해진 비율에 따라 조합될 수 있다. 다만, 이에 한정되는 것은 아니며, 발 특성 정보 생성부(103)는 MLA 곡선 또는 LLA 곡선을 이용하여 발 특성 정보를 추출할 수도 있다.3(b) is an exemplary view showing an MLA line. The foot characteristic information generation unit 103 may acquire foot characteristic information based on at least one of the MLA curve and the LLA curve. The foot characteristic information generating unit 103 acquires foot characteristic information (foot arch height, foot length, foot width, arch curve angle, etc.) which are parameters representing foot characteristics based on the MLA curve, and based on the LLA curve. Characteristic information can be obtained. Each foot characteristic information extracted in one embodiment may be combined according to a predetermined ratio. However, the present invention is not limited thereto, and the foot characteristic information generation unit 103 may extract foot characteristic information using an MLA curve or an LLA curve.

발 특성 정보 취득부(100)는 대상자가 정적인 고정된 자세를 취하는 동안 발 특성 정보를 취득할 수 있다. 여기서, 고정된 자세는 측정 대상자가 소정 각도(예컨대 90도)로 무릎을 구부린 자세, 무릎을 펴고 양발로 서있는 자세, 한발로 서있는 자세 중 적어도 하나 이상을 포함할 수 있다. 발 특성 정보 취득부(100)는 각 고정된 자세에서 상술한 발 특성 정보를 취득할 수 있으며, 각 자세에 따른 파라미터의 변화량이 계산될 수 있다. 다만, 이에 한정되는 것은 아니며 발 특성 정보 취득부(100)는 대상자가 상술한 고정된 자세가 아닌 다른 자세에서도 상술한 발 특성 정보를 취득할 수도 있으며, 대상자가 동적인 자세를 취하는 동안 상기 발 특성 정보를 취득할 수도 있다. 몇몇 실시예에서, 발 특성 정보 취득부(100)는 대상자가 자세를 용이하게 취할 수 있도록 보조하는 지지 부재 및 현재 발 특성 정보 취득의 안내하고, 취득되는 과정을 표시하는 표시 부재를 더 포함할 수 있다.The foot characteristic information acquisition unit 100 may acquire foot characteristic information while the subject takes a static fixed posture. Here, the fixed posture may include at least one of a posture in which the measurement target is a knee bent at a predetermined angle (for example, 90 degrees), a posture with both knees extended, and a posture with one foot. The foot characteristic information acquisition unit 100 may acquire the above-described foot characteristic information in each fixed posture, and the amount of change in a parameter according to each posture may be calculated. However, the present invention is not limited thereto, and the foot characteristic information acquisition unit 100 may acquire the above-described foot characteristic information even in a position other than the fixed posture described above by the subject, and the foot characteristic while the subject takes a dynamic posture. Information can also be obtained. In some embodiments, the foot characteristic information acquisition unit 100 may further include a supporting member that assists a subject to easily take a posture, and a display member that guides acquisition of current foot characteristic information and displays a process of being acquired. have.

발 특성 정보 취득부(100)에서 취득된 발 특성 정보는 데이터 베이스부(120)에 제공될 수 있다. 여기서, 발 특성 정보 취득부(100)는 발 특성 정보 외에 대상자의 나이 정보, 성별 정보, 보행과 관련된 질환 정보, 다리 체형 특성 등과 같은 측정 대상의 신체 정보를 더 수집할 수 있고, 수집된 신체 정보를 발 특성 정보에 포함하여 데이터 베이스부(120)에 제공할 수도 있다.Foot characteristic information acquired by the foot characteristic information acquisition unit 100 may be provided to the database unit 120. Here, the foot characteristic information acquisition unit 100 may further collect the body information of the measurement target, such as the subject's age information, gender information, walking-related disease information, and leg body characteristics, in addition to the foot characteristic information, and collected body information May be included in the foot characteristic information and provided to the database unit 120.

모션 감지부(110)는 대상자의 신체 움직임을 감지하고, 대상자의 신체 움직임 정보로부터 대상자의 보행 패턴 정보를 추출한다. 모션 감지부(110)는 관성 측정 센서(IMU)를 포함하는 웨어러블 모션 캡쳐 시스템으로 구성될 수 있으나, 이에 한정되는 것은 아니다. 대상자는 모션 감지부(110)가 작동되는 환경하에서 실제 보행을 자유롭게 수행할 수 있다. 모션 감지부(110)는 가상 공간에서 제공되는 보행 환경이 아닌 실제 환경에서의 대상자의 보행 특성을 감지하고, 추출한다. 모션 감지부(110)에서 추출되는 보행 특성 데이터는 표준 보행 패턴 정보를 생성하기 위한 샘플 데이터일 수 있다.The motion detection unit 110 detects a subject's body motion and extracts the subject's gait pattern information from the subject's body motion information. The motion detector 110 may be configured as a wearable motion capture system including an inertial measurement sensor (IMU), but is not limited thereto. The subject can freely perform actual walking in an environment in which the motion detector 110 is operated. The motion detection unit 110 detects and extracts a person's walking characteristics in a real environment, not a walking environment provided in a virtual space. The walking characteristic data extracted from the motion detector 110 may be sample data for generating standard walking pattern information.

모션 감지부(110)는 실제 보행 시 대상자의 움직임을 감지할 수 있으며, 감지된 대상자 신체 움직임 정보로부터 대상자의 보행 패턴 정보를 추출할 수 있다. 추출된 대상자의 보행 패턴 정보는 시간 파라미터 및 공간 파라미터를 포함할 수 있다. 구체적으로, 도 4에 도시된 바와 같이, 모션 감지부(110)는 시간 파라미터로써, 스트라이드 시간(Stride time: 한발의 HS 시각과 다음 HS 시각의 사이 시간), 스탭 시간(Step time, 한발의 HS 시각과 다른 발의 HS 시각의 사이 시간), 스탠스 시간(Stance time, 한발의 HS 시각과 TO 시각의 사이 시간), 스윙 시간(Swing time, 한발의 TO 시각과 HS 시각의 사이 시간), 싱글 림 서포트 시간(Single limb support time, 한발로 지지되고 있는 시간), 더블 림 서포트 시간(Double limb support time, 양발로 지지되고 있는 시간), 케이던스(Cadence, 스텝과 스텝 사이 시각) 등을 각 발을 기준으로 추출할 수 있다. 또한, 모션 감지부(110)는 공간 파라미터로써, 스트라이드 길이(Stride length), 스탭 길이(Step length), 보행 속도(Gait velocity) 등을 추출할 수 있다.The motion detection unit 110 may detect a subject's movement when actually walking, and may extract a subject's gait pattern information from the detected subject's body motion information. The gait pattern information of the extracted subject may include temporal parameters and spatial parameters. Specifically, as shown in FIG. 4, the motion detection unit 110 is a time parameter, a stride time (time between one HS time and the next HS time), and a step time (Step time) Time between time and HS time of other foot), Stance time (time between HS time of one foot and TO time), Swing time (time between TO time of one foot and HS time), single rim support Time (Single limb support time, time supported by one leg), Double limb support time (time supported by both feet), Cadence (Cadence, time between steps and steps), etc. Can be extracted. In addition, the motion detector 110 may extract stride length, step length, gait velocity, and the like as spatial parameters.

모션 감지부(110)에서 대상자의 보행 패턴 정보는 데이터 베이스부(120)에 제공될 수 있다.The walking pattern information of the subject in the motion detection unit 110 may be provided to the database unit 120.

데이터 베이스부(120)는 대상자의 발 특성 정보별 대상자의 보행 패턴 정보를 저장할 수 있다.The database unit 120 may store the gait pattern information of the subject according to the foot characteristic information of the subject.

상술한 발 특성 정보 취득부(100)와 모션 감지부(110)에서의 데이터 수집 과정을 통해 데이터 베이스부(120)에 대상자별 대상자의 보행 패턴 정보와 관련된 샘플 데이터가 구축될 수 있다.Through the data collection process of the foot characteristic information acquisition unit 100 and the motion detection unit 110 described above, sample data related to the gait pattern information of the targeted subject can be constructed in the database 120.

표준 보행 패턴 정보 생성부(130)는 상기 대상자의 발 특성 정보에 대한 상기 대상자의 보행 패턴 정보의 관계를 분석하고, 기계 학습하여 상기 대상자의 발 특성 정보에 대응되는 표준 보행 패턴 정보를 생성한다.The standard walking pattern information generation unit 130 analyzes a relationship between the subject's walking pattern information and the machine's foot characteristic information, and performs machine learning to generate standard walking pattern information corresponding to the target's foot characteristic information.

표준 보행 패턴 정보 생성부(130)는 데이터 베이스부(120)에 구축된 발 특성 정보 및 실제 보행 패턴 정보를 기초로 상기 대상자의 발 특성 정보에 대한 상기 대상자의 보행 패턴 정보의 관계를 분석하고 기계 학습을 통해 대상자의 발 특성 정보에 대응되는 표준 보행 패턴 정보를 생성할 수 있다. 이때, 위에서 언급한 발 특성의 인자들을 모두 고려하여 대상자의 발 특성 별 표준 보행 패턴을 생성할 수도 있지만, 추출된 보행 패턴과 연관성이 큰 특징점 또는 특징 인자인 경우에는 가중치를 더 부여할 수 있다. 즉, 다시 말하면, 보행 패턴과의 연관성의 정도(상관도)에 따라서, 대상자의 발 특성 정보의 인자 각각에 각각 다른 가중치를 부여한 후에 표준 보행 패턴 정보를 생성할 수도 있다.The standard gait pattern information generation unit 130 analyzes the relationship between the gait pattern information of the subject and the machine's gait pattern information based on the foot gait information and the actual gait pattern information built in the database unit 120. Through learning, standard walking pattern information corresponding to the subject's foot characteristic information may be generated. At this time, it is possible to generate a standard gait pattern for each subject's foot characteristics by considering all the factors of the above-mentioned foot characteristics, but in the case of a feature point or feature factor that is highly correlated with the extracted walking pattern, weight may be further assigned. In other words, according to the degree of correlation (correlation) with the gait pattern, standard gait pattern information may be generated after different weights are assigned to each of the factors of the subject's foot characteristic information.

발은 체중에 의해 가해지는 하중의 50%~60%를 지지하고, 보행 시 추진력을 제공하고 자세를 제어하는 바, 발 특성 정보는 인체 보행에 밀접한 영향을 미칠 수 있다. 특히, 발의 구조적 이상은 보행 시 비정상적인 압력 분포를 유발하여 보행 능력을 저하시키고, 부상을 유발할 수 있다. 따라서, 발 특성 정보만으로도 충분히 개인의 보행 패턴의 예측이 가능할 수 있다.The foot supports 50% to 60% of the load exerted by body weight, provides propulsive force during walking, and controls posture, so foot property information can have a close influence on human walking. In particular, the structural abnormality of the foot may cause abnormal pressure distribution when walking, thereby reducing walking ability and causing injury. Accordingly, it may be possible to predict an individual's gait pattern sufficiently with only foot characteristic information.

표준 보행 패턴 정보 생성부(130)는 발 특성 정보를 입력 값으로 사용하고, 대상자의 보행 패턴 정보를 출력 값으로 사용하여 기계 학습을 수행할 수 있다. 보행 패턴의 학습은 기존의 기계 학습 모델 방식을 이용할 수 있다. 즉, 차원 변환을 이용해 효율적 최적화 문제로 해답을 찾아내는 학습 모델인 SVR(Support Vector Machine Regression)이나, 데이터 밀도 분포를 multivariate Gaussian으로 가정해 데이터 분포를 예측하는 확률에 기반한 학습 모델인 GMR(Gaussian Mixture Regression)이나, 데이터 차원을 필수 저차원으로 전환(Principle Component Analysis)하여 최적화 문제로 해답을 찾아가는 학습 모델인 EM 기법을 이용할 수 있다.The standard walking pattern information generating unit 130 may perform machine learning by using the foot characteristic information as an input value and the subject's walking pattern information as an output value. The learning of the walking pattern may use an existing machine learning model method. In other words, SVR (Support Vector Machine Regression), which is a learning model that finds the answer with an efficient optimization problem using dimensional transformation, or Gaussian Mixture Regression, which is a learning model based on probability that predicts data distribution by assuming a data density distribution as a multivariate Gaussian. ) Or the EM technique, which is a learning model that finds the answer to the optimization problem by converting the data dimension to the essential low dimension (Principle Component Analysis), can be used.

위와 같은 표준 보행 패턴 데이터베이스를 생성하기 위해서 N명의 사람들로부터 각 개개인의 발 특성 정보 및 추출된 보행 패턴을 데이터 베이스부(120)에 저장한다. 이때, N 명의사람들의 발 특성 정보들을 M개의 군으로 나눈다. 여기서 정확한 M 수치는 군으로 나누어주는 클러스터링 기법에 의해서 정해질 수 있다. 이렇게 각 군이 정해지면, 각 군마다 발 특성 정보와 대표 보행패턴을 생성한다. 각 군의 발 특성 정보 특징점은 그 군에 속해 있는 발 특성 정보 특징점들의 평균값으로 정의될 수 있다. 각 군의 대표 보행 패턴은 그 군에 속한 발 특성 정보들의 보행패턴들의 함수 예측(Function Approximation) 모델을 통해 얻을 수 있다. 함수 예측 기법은 크게 선형 기법과 비선형 기법이 있는데, 어느 기법을 쓰는지는 실제 데이터의 각 군에 가장 적합한 모델을 선택할 수 있다.In order to generate the above-described standard walking pattern database, the individual foot characteristics information and extracted walking patterns from N people are stored in the database unit 120. At this time, the foot characteristic information of N people is divided into M groups. Here, the exact M value can be determined by a clustering technique that divides into groups. When each group is determined in this way, foot characteristic information and a representative walking pattern are generated for each group. The foot characteristic information characteristic points of each group may be defined as an average value of the foot characteristic information characteristic points belonging to the group. The representative walking pattern of each group can be obtained through a function prediction model of walking patterns of foot characteristic information belonging to the group. The function prediction technique is largely divided into a linear technique and a nonlinear technique. Which method is used can select a model that is most suitable for each group of actual data.

또한, 표준 보행 패턴 정보 생성부(130)는 인간의 두뇌가 수많은 데이터 속에서 패턴을 발견한 뒤 사물을 구분하는 정보처리 방식을 모방해 컴퓨터가 사물을 분별하도록 기계 학습을 수행시키는 딥 러닝(deep learning)을 통해서 표준 보행 패턴 데이터베이스를 생성할 수 있다. 즉, 표준 보행 패턴 정보 생성부(130) 발 특성 정보를 입력 값으로 사용하고, 대상자의 보행 패턴 정보를 출력 값으로 하는 추상화된 모델을 구축할 수 있다. 표준 보행 패턴 정보 생성부(130)는 입력층과 출력층 사이에 다중의 은닉층(hidden layer)이 존재하는 심층(deep) 신경망 모델, 동물의 시각 피질의 구조와 유사하게 뉴런 사이의 연결 패턴을 형성하는 컨볼루셔널(convolutional) 신경망 모델, 시간에 따라 매순간 신경망을 쌓아올리는 재귀(recurrent) 신경망 모델, 입력 집합에 대한 확률 분포를 학습할 수 있는 제한 볼츠만 머신(restricted Boltzmann machine) 중 하나의 딥 러닝 모델을 사용할 수 있다. 다만, 상술한 방법은 일 예시일 뿐 본 발명의 일 실시예에 따른 기계 학습 방법이 이에 한정되는 것은 아니다.In addition, the standard walking pattern information generation unit 130 imitates an information processing method of classifying objects after the human brain finds patterns in a large amount of data, and deep learning (deep learning) that the computer performs machine learning to discriminate objects. learning) to create a standard walking pattern database. That is, the abstract walking model using the standard walking pattern information generating unit 130 foot characteristic information as an input value and the subject's walking pattern information as an output value can be constructed. The standard gait pattern information generating unit 130 is a deep neural network model in which multiple hidden layers exist between the input layer and the output layer, and forms a connection pattern between neurons similar to the structure of the animal visual cortex. A deep learning model of one of the convolutional neural network model, a recurrent neural network model that builds up the neural network every moment over time, and a restricted Boltzmann machine that can learn the probability distribution for a set of inputs. Can be used. However, the above-described method is only an example, and the machine learning method according to an embodiment of the present invention is not limited thereto.

이와 같은 기계 학습 학습 과정을 거쳐 표준 보행 패턴 정보 생성부(130)는 발 특성 정보에 대응되는 표준 보행 패턴 정보를 생성할 수 있다. 이러한 발 특성 정보에 대응되는 표준 보행 패턴 정보는 데이터 베이스(120)에 새로운 데이터가 누적되거나, 일정 주기에 따라 새로 업데이트될 수 있다.Through this machine learning learning process, the standard walking pattern information generating unit 130 may generate standard walking pattern information corresponding to foot characteristic information. The standard gait pattern information corresponding to the foot characteristic information may be newly accumulated in the database 120 or newly updated according to a certain period.

보행 능력 예측부(140)는 상기 생성된 표준 보행 패턴 정보를 활용하여 새로운 대상자의 보행 능력을 예측한다.The walking ability prediction unit 140 predicts the walking ability of a new subject by using the generated standard walking pattern information.

새로운 대상자는 발 특성 정보 취득부(100)를 통해 발 특성 정보만이 취득된다. 즉, 새로운 대상자는 모션 감지부(110)를 통해 실제 신체 움직임에 따른 보행 패턴 정보가 취득될 필요가 없다. 보행 능력 예측부(140)는 새로운 대상자의 발 특성 정보를 상기 생성된 표준 보행 패턴 정보에 대입하여 상기 새로운 대상자의 보행 능력을 예측할 수 있다.The new subject is acquired only the foot characteristic information through the foot characteristic information acquisition unit 100. That is, the new subject does not need to acquire gait pattern information according to actual body movement through the motion detector 110. The walking ability prediction unit 140 may predict the walking ability of the new subject by substituting foot characteristic information of the new subject into the generated standard walking pattern information.

본 발명의 일 실시예에 따른 보행 능력 예측 방법은 간단한 발 특성 정보를 취득하는 테스트만으로 대상자의 보행 능력 및 보행 특성을 예측할 수 있다. 즉, 구축된 발 특성 정보에 대응되는 표준 보행 패턴 정보를 활용하여 간단한 발 특성 정보 취득 테스트만으로도 새로운 대상자의 실제 보행 능력에 대한 예측이 가능하다. 이에 따라, 보행 예측에 필요한 기기 및 인력의 투입이 절감될 수 있다. 또한, 간단한 테스트로 진행되는 바 많은 거동이 어려운 환자도 발 특성 정보 취득 테스트를 수행함으로써 실제 보행 예측 데이터를 획득할 수 있다.The walking ability prediction method according to an embodiment of the present invention can predict a person's walking ability and walking characteristics only by a test for acquiring simple foot characteristic information. That is, by using standard walking pattern information corresponding to the constructed foot characteristic information, it is possible to predict the actual walking ability of a new subject with a simple foot characteristic information acquisition test. Accordingly, input of equipment and manpower required for walking prediction may be reduced. In addition, since the patient proceeds with a simple test, it is possible to obtain real gait prediction data by performing a foot characteristic information acquisition test even for patients with many difficulties.

이하, 본 발명의 일 실시예에 따른 발 특성 정보를 이용한 보행 능력 예측 방법에 대해 설명하도록 한다.Hereinafter, a method for predicting walking ability using foot characteristic information according to an embodiment of the present invention will be described.

도 5는 본 발명의 일 실시예에 따른 발 특성 정보를 이용한 보행 능력 예측 방법의 순서도이다. 상기 방법은 상술한 도 1 내지 도 4의 시스템에서 수행될 수 있고, 본 실시예에 설명을 위해 도 1 내지 도 4가 참조될 수 있다.5 is a flowchart of a method for predicting walking ability using foot characteristic information according to an embodiment of the present invention. The method may be performed in the systems of FIGS. 1 to 4 described above, and FIGS. 1 to 4 may be referred to for description in this embodiment.

도 5를 참조하면, 본 발명의 일 실시예에 따른 발 특성 정보를 이용한 보행 능력 예측 방법은 발 특성 정보에 대응되는 표준 보행 패턴 정보를 구축하는 단계(S100), 평가 대상자의 발 특성 정보를 취득하는 단계(S110) 및 평가 대상자의 보행 능력을 예측하는 단계(S120)를 포함한다.Referring to FIG. 5, in the method for predicting a walking ability using foot characteristic information according to an embodiment of the present invention, constructing standard walking pattern information corresponding to the foot characteristic information (S100), obtaining foot characteristic information of an evaluation target It includes a step (S110) and a step (S120) of predicting the walking ability of the evaluation target.

먼저, 발 특성 정보에 대응되는 표준 보행 패턴 정보를 구축한다(S100).First, standard walking pattern information corresponding to foot characteristic information is constructed (S100).

다수의 대상자로부터 발 특성 정보를 취득하고, 상기 다수의 대상자로부터 실제 보행 패턴 정보를 취득하여 데이터 베이스화한다. 발 특성 정보 취득부(100)는 발판 상에 위치한 측정 대상자의 발의 발 깊이영상을 취득하고, 취득된 발 깊이 영상으로부터 대상자의 발 특성 정보를 취득한다. 모션 감지부(110)는 대상자의 신체 움직임을 감지하고, 대상자의 신체 움직임 정보로부터 대상자의 보행 패턴 정보를 추출한다. 발 특성 정보 취득부(100)와 모션 감지부(110)에서의 데이터 수집 과정을 통해 데이터 베이스부(120)에 대상자 별 대상자의 보행 패턴 정보와 관련된 샘플 데이터가 구축될 수 있다.Foot characteristic information is acquired from a plurality of subjects, and actual gait pattern information is obtained from the plurality of subjects to be databased. The foot characteristic information acquisition unit 100 acquires the foot depth image of the foot of the measurement target located on the scaffold, and acquires the foot characteristic information of the subject from the acquired foot depth image. The motion detection unit 110 detects a subject's body motion and extracts the subject's gait pattern information from the subject's body motion information. Through the data collection process of the foot characteristic information acquisition unit 100 and the motion detection unit 110, sample data related to the gait pattern information of each subject can be constructed in the database unit 120.

표준 보행 패턴 정보 생성부(130)는 상기 대상자의 발 특성 정보에 대한 상기 대상자의 보행 패턴 정보의 관계를 분석하고, 기계 학습하여 상기 대상자의 발 특성에 대응되는 표준 보행 패턴 정보를 생성한다. 표준 보행 패턴 정보 생성부(130)는 발 특성 정보를 입력 값으로 사용하고, 대상자의 보행 패턴 정보를 출력 값으로 사용하여 기계 학습을 수행할 수 있다. 기계 학습 과정을 거쳐 표준 보행 패턴 정보 생성부(130)는 발 특성 정보 별 표준 보행 패턴 정보를 생성할 수 있다.The standard walking pattern information generating unit 130 analyzes a relationship between the subject's walking pattern information and the machine's foot characteristic information, and performs machine learning to generate standard walking pattern information corresponding to the target's foot characteristics. The standard walking pattern information generating unit 130 may perform machine learning by using the foot characteristic information as an input value and the subject's walking pattern information as an output value. After the machine learning process, the standard walking pattern information generation unit 130 may generate standard walking pattern information for each foot characteristic information.

다음으로, 평가 대상자의 발 특성 정보를 취득한다(S110).Next, foot characteristic information of the evaluation target is acquired (S110).

발 특성 정보 취득부(100)는 발판 상에 위치한 측정 대상자의 발의 발 깊이영상을 취득하고, 취득된 발 깊이 영상으로부터 대상자의 발 특성 정보를 취득한다. 여기서, 발 특성 정보는 발바닥에 관련된 임의의 정보로서, 발바닥 각 부분에 대한 형태, 전체적인 형태 및 특징에 대한 임의의 정보를 포함할 수 있다. 일 실시예에서 발 특성 정보는, 발바닥 형상, 발바닥 넓이, 발 아치의 위치, 발 아치의 폭, 발 아치 커브의 각도 중 적어도 하나에 대한 정보를 포함할 수 있다. 구체적으로, 발 특성 정보 취득부(100)는 MLA 라인, LLA 라인을 발 깊이영상으로부터 추출할 수 있다. 또한, 발 특성 정보 취득부(100)는 발 깊이영상으로부터 발바닥 접촉면 및 발바닥의 깊이 정보를 획득할 수 있으며, 상기 정보에 기초하여 MLA 라인에서 MLA 곡선을 추출하고, LLA 라인에서 LLA 곡선을 추출할 수 있다. 발 특성 정보 취득부(100)는 MLA 곡선 및 LLA 곡선 중 적어도 하나 이상을 기준으로 발 특성 정보(발 아치 높이, 발 길이, 발바닥 넓이, 아치 커브의 각도 등)를 추출할 수 있다. 이외에 발 특성 정보는 대상자의 나이 정보, 성별 정보, 보행과 관련된 질환 정보, 다리 체형 특성 등의 신체 정보를 더 포함할 수 있다. 새로운 대상자는 발 특성 정보 취득부(100)를 통해 발 특성 정보만이 취득된다. 즉, 새로운 대상자는 모션 감지부(110)를 통해 실제 신체 움직임에 따른 보행 패턴 정보가 취득될 필요가 없다.The foot characteristic information acquisition unit 100 acquires the foot depth image of the foot of the measurement target located on the scaffold, and acquires the foot characteristic information of the subject from the acquired foot depth image. Here, the foot characteristic information is arbitrary information related to the sole, and may include arbitrary information about the shape, the overall shape, and characteristics of each part of the sole. In one embodiment, the foot characteristic information may include information about at least one of a sole shape, a sole width, a position of a foot arch, a width of a foot arch, and an angle of a foot arch curve. Specifically, the foot characteristic information acquisition unit 100 may extract the MLA line and the LLA line from the foot depth image. In addition, the foot characteristic information acquisition unit 100 may acquire the depth information of the sole contact surface and the sole from the foot depth image, extract the MLA curve from the MLA line based on the information, and extract the LLA curve from the LLA line Can. The foot characteristic information acquisition unit 100 may extract foot characteristic information (foot arch height, foot length, foot width, arch curve angle, etc.) based on at least one of the MLA curve and the LLA curve. In addition, the foot characteristic information may further include body information such as age information of the subject, gender information, walking-related disease information, and leg shape characteristics. The new subject is acquired only the foot characteristic information through the foot characteristic information acquisition unit 100. That is, the new subject does not need to acquire gait pattern information according to actual body movement through the motion detector 110.

평가 대상자의 보행 능력을 예측한다(S120).The walking ability of the evaluation target is predicted (S120).

보행 능력 예측부(140)는 상기 생성된 표준 보행 패턴 정보를 활용하여 새로운 대상자의 보행 능력을 예측한다. 보행 능력 예측부(140)는 새로운 대상자의 발 특성 정보를 상기 생성된 표준 보행 패턴 정보에 대입하여 상기 새로운 대상자의 보행 능력을 예측할 수 있다. 즉, 본 발명의 일 실시예에 따른 보행 능력 예측 방법은 간단한 발 특성 정보 취득 테스트만으로 대상자의 보행 능력 및 보행 특성을 예측할 수 있다. 즉, 구축된 발 특성 정보에 대응되는 표준 보행 패턴 정보를 활용하여 간단한 발 특성 정보 취득 테스트만으로도 새로운 대상자의 실제 보행 능력에 대한 예측이 가능하다. 이에 따라, 보행 예측에 필요한 기기 및 인력의 투입이 절감될 수 있다. 또한, 간단한 테스트로 진행되는 바 많은 거동이 어려운 환자도 발 테스트 수행을 통해 실제 보행 예측 데이터를 획득할 수 있다.The walking ability prediction unit 140 predicts the walking ability of a new subject by using the generated standard walking pattern information. The walking ability prediction unit 140 may predict the walking ability of the new subject by substituting foot characteristic information of the new subject into the generated standard walking pattern information. That is, in the method for predicting gait ability according to an embodiment of the present invention, the gait ability and gait characteristics of a subject may be predicted only by a simple foot characteristic information acquisition test. That is, by using standard walking pattern information corresponding to the constructed foot characteristic information, it is possible to predict the actual walking ability of a new subject with a simple foot characteristic information acquisition test. Accordingly, input of equipment and manpower required for walking prediction may be reduced. In addition, since it is a simple test, even a patient with a lot of difficulty in moving can obtain actual walking prediction data through performing a foot test.

도 6은 본 발명의 일 실시예에 따른 보행 예측 방법의 실험 결과를 도시한 그래프이다.6 is a graph showing experimental results of a walking prediction method according to an embodiment of the present invention.

도 6은 본 발명의 일 실시예에 따른 보행 예측 데이터와 대상자의 실제 보행 시 움직임 데이터의 오차를 검토한 그래프이다. 구축된 표준 보행 패턴 정보를 사용하여 평가 대상자로부터 취득한 발 특성 정보만으로 평가자의 보행 능력을 예측한 보행 예측 데이터와 상기 평가 대상자의 실제 모션을 감지한 실제 보행 데이터의 오차를 검토하였다.FIG. 6 is a graph examining errors in gait prediction data and motion data when a subject actually walks according to an embodiment of the present invention. Using the constructed standard gait pattern information, the error between the gait prediction data predicting the gait ability of the evaluator and the actual gait data detecting the actual motion of the evaluator was examined using only the foot characteristic information obtained from the evaluator.

여기서, Only LLA은 LLA 곡선에서만 발 특성 정보를 추출하고 이를 입력값으로 이용하여 표준 보행 패턴 정보를 구축한 실시예1이며, Only MLA는 MLA 곡선에서만 발 특성 정보를 추출하고 이를 입력값으로 이용하여 표준 보행 패턴 정보를 구축한 실시예 2이다. LLA + MLA는 LLA 곡선 및 MLA 곡선 모두를 이용하여 표준 보행 패턴 정보를 구축한 실시예 3이며, Foot + Body Parameters는 발 특성 정보 및 대상자의 신체 정보를 모두 이용하여 표준 보행 패턴 정보를 구축한 실시예 4이다. Foot + Body Parameters + Label은 대상자를 일반인 또는 운동선수 두 집단으로 분류하고, 발 특성 정보 및 대상자의 신체 정보뿐만 아니라 대상자의 집단에 대한 표시(Label)까지 입력값으로 이용하여 표준 보행 패턴 정보를 구축한 실시예 5이다.Here, Only LLA is the first embodiment in which the foot characteristic information is extracted only from the LLA curve and the standard walking pattern information is constructed by using it as an input value. Only MLA extracts the foot characteristic information only from the MLA curve and uses it as an input value. This is Embodiment 2 in which standard walking pattern information is constructed. LLA + MLA is Example 3 in which standard gait pattern information is constructed using both the LLA curve and MLA curve, and Foot + Body Parameters are constructed using standard gait pattern information using both foot characteristic information and subject's body information. Example 4. Foot + Body Parameters + Label classifies subjects into two groups, the general or athlete, and builds standard walking pattern information by using foot characteristics and body information of subjects as well as labels for the groups of subjects. This is Example 5.

도 6(a) 내지 도 6(f)에 개시된 X축은 대상자의 보행 시 관측되는 각각의 시공간 파라미터[스트라이드 길이(Stride_L), 스탭 길이(Step_L), 싱글 림 서포트 시간(SLS_T), 스윙 시간(Swing_T), 스탠스 시간(Stance_T), 보행 속도(Gait V)]를 나타내며, Y축은 각 시공간 파라미터에 대한 예측 데이터와 실제 데이터의 오차를 나타낸다. 또한, 시공간 파라미터에서 마지막 구분 문자는 대상자가 동작한 속도(F:fast, N:normal, S:slow)를 나타낸다.The X-axis disclosed in FIGS. 6(a) to 6(f) shows each spatiotemporal parameter observed when the subject is walking (stride length (Stride_L), step length (Step_L), single rim support time (SLS_T), swing time (Swing_T) ), stance time (Stance_T, walking speed (Gait V)], and the Y-axis represents the error between the predicted data and the actual data for each space-time parameter. In addition, the last delimiter in the space-time parameter indicates the speed (F:fast, N:normal, S:slow) at which the subject operated.

기계 학습을 통해 모델링에서 입력 변수가 다양해지면 더욱 정확한 모델링이 가능한 바, 실시예 1에서 실시예 5로 갈수록 모델링에 따라 상기 오차는 점점 감소하는 것을 알 수 있다. 다만, 입력 변수가 많아지는 것은 이를 획득하기 위한 부가적인 장치 및 인원이 필요할 수 있다. 실시에 1 및 실시예 2와 같이 MLA 파라미터와 LLA 파라미터를 각각 사용하였을 경우에는 실시예 4 및 5와 비교하여 다소 정확도가 떨어지는 것이 관측되었다. 하지만, 발 특성을 나타내는 MLA 파라미터와 LLA 파라미터 모두를 적용한 실시예 3은 실시예 4 및 실시예 5와 비교하여 오차 범위가 크지 않은 것이 확인되었다. 즉, 간단한 테스트로 취득한 발 특성 정보만을 이용하더라도 충분히 대상자의 보행 능력에 대한 예측이 가능한 것을 확인할 수 있다. 본 발명의 일 실시예에 따른 보행 능력 예측 방법은 간단히 취득된 발 특성 정보만으로 새로운 대상자의 실제 보행 능력에 대한 예측을 가능하게 하며, 이에 따라, 보행 예측에 필요한 기기 및 인력의 투입이 절감시킬 수 있다.As the input variable in modeling is varied through machine learning, more accurate modeling is possible, and it can be seen that the error gradually decreases according to modeling from Example 1 to Example 5. However, as the number of input variables increases, additional devices and personnel may be required to acquire them. When the MLA parameter and the LLA parameter were used as in Examples 1 and 2, respectively, it was observed that the accuracy was slightly lower compared to Examples 4 and 5. However, it was confirmed that Example 3, in which both the MLA parameter and the LLA parameter indicating the foot characteristics were applied, had a large error range compared to Example 4 and Example 5. That is, it can be confirmed that even if only the foot characteristic information acquired by the simple test is used, it is possible to sufficiently predict the walking ability of the subject. The walking ability prediction method according to an embodiment of the present invention enables prediction of the actual walking ability of a new subject by simply acquiring foot characteristic information, and accordingly, input of equipment and manpower required for walking prediction can be reduced. have.

이상에서는 실시예들을 참조하여 설명하였지만 본 발명은 이러한 실시예들 또는 도면에 의해 한정되는 것으로 해석되어서는 안 되며, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although described above with reference to the embodiments, the present invention should not be construed as being limited by these embodiments or the drawings, and those skilled in the art will think and scope of the present invention described in the following claims It will be understood that various modifications and changes can be made to the present invention without departing from the scope.

100: 발 특성 정보 취득부
101: 발판
102: 카메라보행 동작 장치
103: 발 특성 정보 생성부
110: 모션 감지부
120: 데이터 베이스부
130: 표준 보행 패턴 정보 생성부
140: 보행 능력 예측부
100: foot characteristic information acquisition unit
101: scaffolding
102: camera walking motion device
103: foot characteristic information generating unit
110: motion detector
120: database unit
130: standard walking pattern information generating unit
140: walking ability prediction unit

Claims (12)

발판 상에 위치한 대상자의 발 깊이 영상을 획득하고, 상기 획득한 발 깊이 영상으로부터 발 특성 정보를 취득하는 발 특성 정보 취득부;
상기 대상자의 신체 움직임을 감지하고 상기 대상자의 신체 움직임 정보로부터 대상자의 보행 패턴 정보를 추출하는 모션 감지부;
상기 대상자의 발 특성 정보별 상기 대상자의 보행 패턴 정보를 저장하는 데이터 베이스부;
상기 대상자의 발 특성 정보에 대한 상기 대상자의 보행 패턴 정보의 관계를 분석하고, 기계 학습하여 상기 대상자의 발 특성에 대응되는 표준 보행 패턴 정보를 생성하는 표준 보행 패턴 정보 생성부; 및
새로운 대상자로부터 취득한 발 특성 정보를 상기 표준 보행 패턴 정보에 대입하여 상기 새로운 대상자의 보행 능력을 예측하는 보행 능력 예측부를 포함하는 보행 능력 예측 시스템.
A foot characteristic information acquisition unit acquiring a foot depth image of a subject located on the scaffold and acquiring foot characteristic information from the acquired foot depth image;
A motion detector for sensing the subject's body motion and extracting the subject's gait pattern information from the subject's body motion information;
A database unit for storing the walking pattern information of the target person according to the foot characteristic information of the target person;
A standard walking pattern information generation unit that analyzes a relationship between the target's foot characteristic information and the target's walking pattern information and performs machine learning to generate standard walking pattern information corresponding to the target's foot characteristics; And
A walking ability prediction system including a walking ability prediction unit that predicts the walking ability of the new subject by substituting foot characteristic information obtained from a new subject into the standard walking pattern information.
제1 항에 있어서,
상기 발 특성 정보는 발바닥 형상, 발바닥 넓이, 발 아치의 위치, 발 아치의 폭, 발 아치 커브의 각도를 포함하는 보행 능력 예측 시스템.
According to claim 1,
The foot characteristic information includes a foot shape, a foot width, a foot arch position, a foot arch width, and a walking ability prediction system including an angle of the foot arch curve.
제2 항에 있어서,
상기 발 특성 정보 취득부는,
상기 발 깊이영상으로부터 MLA 곡선, LLA 곡선을 추출하고,
상기 MLA 곡선 및 상기 LLA 곡선 중 적어도 하나 이상을 기준으로 상기 발 특성 정보를 취득하는 보행 능력 예측 시스템.
According to claim 2,
The foot characteristic information acquisition unit,
MLA curve, LLA curve is extracted from the foot depth image,
A walking capability prediction system that acquires the foot characteristic information based on at least one of the MLA curve and the LLA curve.
제1 항에 있어서,
상기 대상자의 보행 패턴 정보는 시간 파라미터 및 공간 파라미터를 포함하고,
상기 시간 파라미터는 스트라이드 시간, 스탭 시간, 스탠스 시간, 스윙 시간, 싱글 림 서포트 시간, 더블 림 서포트 시간및 케이던스를 포함하고,
상기 공간 파라미터는 스트라이드 길이, 스탭 길이 및 보행 속도를 포함하는 보행 능력 예측 시스템.
According to claim 1,
The subject's gait pattern information includes time parameters and spatial parameters,
The time parameters include stride time, step time, stance time, swing time, single rim support time, double rim support time and cadence,
The spatial parameter includes a stride length, a step length, and a walking speed prediction system.
제4 항에 있어서,
상기 표준 보행 패턴 정보 생성부는 상기 발 특성 정보를 입력 값으로 사용하고, 상기 대상자의 보행 패턴 정보를 출력 값으로 사용하여 기계 학습을 수행하는 보행 능력 예측 시스템.
According to claim 4,
The standard walking pattern information generating unit uses the foot characteristic information as an input value, and a walking ability prediction system that performs machine learning using the target's walking pattern information as an output value.
제5 항에 있어서,
상기 표준 보행 패턴 정보 생성부는 딥 러닝을 통해 상기 표준 보행 패턴 정보를 생성하는 보행 능력 예측 시스템.
The method of claim 5,
The standard walking pattern information generating unit is a walking capability prediction system that generates the standard walking pattern information through deep learning.
보행 능력 예측 시스템에서 수행되는 보행 능력 예측 방법으로,
상기 보행 능력 예측 시스템이, 발판 상에 위치한 대상자의 발 깊이 영상을 획득하고, 상기 획득한 발 깊이 영상으로부터 발 특성 정보를 취득하며, 상기 대상자의 신체 움직임을 감지하고 상기 대상자의 신체 움직임 정보로부터 대상자의 보행 패턴 정보를 추출하여, 상기 대상자의 발 특성 정보별 상기 대상자의 보행 패턴 정보를 저장하고, 상기 대상자의 발 특성 정보에 대한 상기 대상자의 보행 패턴 정보의 관계를 분석하고, 기계 학습하여 상기 대상자의 발 특성에 대응되는 표준 보행 패턴 정보를 구축하는 단계;
상기 보행 능력 예측 시스템이, 새로운 대상자로부터 발 특성 정보를 취득하는 단계; 및
상기 보행 능력 예측 시스템이, 상기 새로운 대상자의 발 특성 정보를 상기 표준 보행 패턴 정보에 대입하여 상기 새로운 대상자의 보행 능력을 예측하는 단계를 포함하는 보행 능력 예측 방법.
A walking ability prediction method performed in a walking ability prediction system,
The walking ability prediction system acquires a foot depth image of the subject located on the scaffold, acquires foot characteristic information from the acquired foot depth image, detects the subject's body motion, and subjects from the subject's body motion information By extracting the gait pattern information of the subject, and storing the gait pattern information of the target by foot characteristics information of the subject, analyze the relationship between the gait pattern information of the subject with respect to the foot characteristic information of the subject, machine learning to the subject Constructing standard walking pattern information corresponding to the characteristics of the foot;
The walking ability prediction system obtaining foot characteristic information from a new subject; And
And a step of estimating the gait ability of the new subject by substituting foot characteristic information of the new subject into the standard gait pattern information.
제7 항에 있어서,
상기 발 특성 정보는 발바닥 형상, 발바닥 넓이, 발 아치의 위치, 발 아치의 폭, 발 아치 커브의 각도를 포함하는 보행 능력 예측 방법.
The method of claim 7,
The foot characteristic information includes a foot shape, a foot width, a position of a foot arch, a width of a foot arch, and an angle of a foot arch curve.
제8 항에 있어서,
상기 발 특성 정보 취득부는,
상기 발 깊이영상으로부터 MLA 곡선, LLA 곡선을 추출하고,
상기 MLA 곡선 및 상기 LLA 곡선 중 적어도 하나 이상을 기준으로 상기 발 특성 정보를 취득하는 보행 능력 예측 방법.
The method of claim 8,
The foot characteristic information acquisition unit,
MLA curve, LLA curve is extracted from the foot depth image,
A walking capability prediction method for acquiring the foot characteristic information based on at least one of the MLA curve and the LLA curve.
제7 항에 있어서,
상기 대상자의 보행 패턴 정보는 시간 파라미터 및 공간 파라미터를 포함하고,
상기 시간 파라미터는 스트라이드 시간, 스탭 시간, 스탠스 시간, 스윙 시간, 싱글 림 서포트 시간, 더블 림 서포트 시간 및 케이던스를 포함하고,
상기 공간 파라미터는 스트라이드 길이, 스탭 길이 및 보행 속도를 포함하는 보행 능력 예측 방법.
The method of claim 7,
The subject's gait pattern information includes time parameters and spatial parameters,
The time parameters include stride time, step time, stance time, swing time, single rim support time, double rim support time and cadence,
The spatial parameter includes a stride length, step length, and walking speed.
제10 항에 있어서,
상기 표준 보행 패턴 정보를 구축하는 단계는,
상기 발 특성 정보를 입력 값으로 사용하고, 상기 대상자의 보행 패턴 정보를 출력 값으로 사용하여 기계 학습을 수행하는 보행 능력 예측 방법.
The method of claim 10,
The step of constructing the standard walking pattern information,
A method for predicting walking ability using the foot characteristic information as an input value and performing machine learning by using the subject's walking pattern information as an output value.
제11 항에 있어서,
상기 표준 보행 패턴 정보를 구축하는 단계는,
딥 러닝을 통해 상기 표준 보행 패턴 정보를 생성하는 보행 능력 예측 방법.
The method of claim 11,
The step of constructing the standard walking pattern information,
A walking ability prediction method for generating the standard walking pattern information through deep learning.
KR1020180044312A 2018-04-17 2018-04-17 Method and system for walking ability prediction using foot characteristics information KR102128268B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180044312A KR102128268B1 (en) 2018-04-17 2018-04-17 Method and system for walking ability prediction using foot characteristics information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180044312A KR102128268B1 (en) 2018-04-17 2018-04-17 Method and system for walking ability prediction using foot characteristics information

Publications (2)

Publication Number Publication Date
KR20190120923A KR20190120923A (en) 2019-10-25
KR102128268B1 true KR102128268B1 (en) 2020-06-30

Family

ID=68421220

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180044312A KR102128268B1 (en) 2018-04-17 2018-04-17 Method and system for walking ability prediction using foot characteristics information

Country Status (1)

Country Link
KR (1) KR102128268B1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102573796B1 (en) * 2020-04-21 2023-09-01 한국전자통신연구원 Apparatus and method for determining musculoskeletal disease
KR102499773B1 (en) * 2020-10-08 2023-02-15 한국과학기술연구원 Method and system for predicting geriatric syndromes using foot characteristics and balance characteristics
KR102404850B1 (en) * 2020-10-19 2022-06-07 한국과학기술연구원 Method and system for frailty prediction using gait parameters

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013048701A (en) * 2011-08-30 2013-03-14 Equos Research Co Ltd Walking assistance device, and walking assistance program
KR101272249B1 (en) * 2011-11-25 2013-06-13 한국과학기술연구원 Customized Walking Correction System and Method for Personal Body Type

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7467060B2 (en) 2006-03-03 2008-12-16 Garmin Ltd. Method and apparatus for estimating a motion parameter

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013048701A (en) * 2011-08-30 2013-03-14 Equos Research Co Ltd Walking assistance device, and walking assistance program
KR101272249B1 (en) * 2011-11-25 2013-06-13 한국과학기술연구원 Customized Walking Correction System and Method for Personal Body Type

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
논문, A STUDY ON THE CORRELATION BETWEEN THE FOOT FEATURES AND GAIT CHARACTERISTICS DURING OVER-GROUND WALKING, 35th Conference of the International Society of Biomechanics in Sports, (2017. 06.)

Also Published As

Publication number Publication date
KR20190120923A (en) 2019-10-25

Similar Documents

Publication Publication Date Title
Johnson et al. Predicting athlete ground reaction forces and moments from motion capture
Liu et al. Wearable devices for gait analysis in intelligent healthcare
KR102128267B1 (en) Method and system for walking ability prediction using stepping characteristics information
JP7057589B2 (en) Medical information processing system, gait state quantification method and program
KR102128268B1 (en) Method and system for walking ability prediction using foot characteristics information
Prado et al. Gait segmentation of data collected by instrumented shoes using a recurrent neural network classifier
Kour et al. A survey of knee osteoarthritis assessment based on gait
Medeiros et al. A gait analysis approach to track parkinson's disease evolution using principal component analysis
US20210244317A1 (en) Walking mode display method, walking mode display system and walking mode analyzer
Caldas et al. Clustering of Self-Organizing Maps as a means to support gait kinematics analysis and symmetry evaluation
US12029550B2 (en) 3D human body joint angle prediction method and system using 2D image
Wang et al. SAIL: A deep-learning-based system for automatic gait assessment from TUG videos
CN110545723A (en) LOCOGRAM software: tool for analyzing gait exercises
US20220280836A1 (en) System and method for human motion detection and tracking
Onal et al. Predicting running injury using kinematic and kinetic parameters generated by an optical motion capture system
Soltaninejad et al. Body movement monitoring for Parkinson’s disease patients using a smart sensor based non-invasive technique
Nandy et al. A study on human gait dynamics: modeling and simulations on OpenSim platform
Dong et al. An “optical flow” method based on pressure sensors data for quantification of Parkinson's disease characteristics
Low et al. Lower extremity kinematics walking speed classification using long short-term memory neural frameworks
Tsakanikas et al. Gait and balance patterns related to Free-Walking and TUG tests in Parkinson’s Disease based on plantar pressure data
Wiles et al. NONAN GaitPrint: An IMU gait database of healthy young adults
Dentamaro et al. Real-time neurodegenerative disease video classification with severity prediction
Mathur et al. Gait classification of stroke survivors-An analytical study
Cai et al. IoT-based gait monitoring system for static and dynamic classification of data
Oluwadare Gait analysis on a smart floor for health monitoring

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant