KR20200094840A - 동물 인식 장치 및 동물 인식 방법 - Google Patents
동물 인식 장치 및 동물 인식 방법 Download PDFInfo
- Publication number
- KR20200094840A KR20200094840A KR1020190008680A KR20190008680A KR20200094840A KR 20200094840 A KR20200094840 A KR 20200094840A KR 1020190008680 A KR1020190008680 A KR 1020190008680A KR 20190008680 A KR20190008680 A KR 20190008680A KR 20200094840 A KR20200094840 A KR 20200094840A
- Authority
- KR
- South Korea
- Prior art keywords
- image
- eye
- animal
- iris
- animal recognition
- Prior art date
Links
Images
Classifications
-
- G06K9/00362—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G06K9/00597—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Human Computer Interaction (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Ophthalmology & Optometry (AREA)
- Image Analysis (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
본 발명은 동물 인식 장치 및 동물 인식 방법에 관한 것이다. 동물 인식 장치는 제1 영상을 촬영하는 제1 촬상부, 제2 영상을 촬영하는 제2 촬상부 및 제1 촬상부와 제2 촬상부에서 촬영된 영상을 입력받아, 각각의 영상에서 각각 눈부분 영상 및 눈주변부분 영상을 추출하고, 추출된 영상들과 기저장된 영상들을 비교하여 특정 동물을 인식하는 제어부를 포함할 수 있다.
Description
본 발명은 동물 인식 장치 및 동물 인식 방법에 관한 것으로, 더욱 상세하게는 두 개의 촬영 장치를 이용하여 영상을 촬영하고, 촬영된 영상에서 추출한 영상의 비교를 통해 특정 동물을 인식하는 동물 인식 장치 및 동물 인식 방법에 관한 것이다.
동물 등록제 의무시행이 시행된 후 동물 유기 발생률이 오히려 증가하였으며, 반려동물 연계사업도 동물 등록률이 저조하여 활성화 되지 못하고 있다. 현재 동물 등록제의 등록방식은 생체이식 칩, 외장형 목걸이, 인식표 등을 이용하여 등록이 이루어지고 있다.
생체이식 칩의 사용은 이용에 많은 장점이 있다. 그럼에도 생체이식 칩 사용에 여러 부작용이 있어서 양육인들이 사용에 주저하고 있다.
따라서 동물에 해를 가하지 않으면서도 동물 등록 방식이 보다 효율적이고 간편하게 개선될 필요가 있다.
본 발명은 전술한 문제점을 해결하기 위하여 창출된 것으로, 동물 인식 장치 및 동물 인식 방법을 제공하는 것을 그 목적으로 한다.
본 발명의 목적들은 이상에서 언급한 목적들로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 명확하게 이해될 수 있을 것이다.
상기한 목적들을 달성하기 위하여, 본 발명의 일 실시예에 따른 동물 인식 장치 및 동물 인식 방법을 개시한다. 상기 장치는 제1 영상을 촬영하는 제1 촬상부, 제2 영상을 촬영하는 제2 촬상부 및 제1 촬상부와 제2 촬상부에서 촬영된 영상을 입력받아, 각각의 영상에서 각각 눈부분 영상 및 눈주변부분 영상을 추출하고, 추출된 영상들과 기저장된 영상들을 비교하여 특정 동물을 인식하는 제어부를 포함할 수 있다.
또한, 본 개시의 일 실시예에 따르면, 피촬영물인 동물의 시선과 동작을 고정하는, 학습된 소리를 생성하여 출력하는 소리 출력부 및 제어부에서 인식한 결과를 출력하는 영상 출력부를 더 포함할 수 있다.
또한, 본 개시의 일 실시예에 따르면, 상기 학습된 소리는, 클릭커 소리 또는 녹음된 음성 중 적어도 하나일 수 있다.
또한, 본 개시의 일 실시예에 따르면, 제1 촬상부는 적외선 촬영장치일 수 있으며, 제2 촬상부는 가시광선 촬영장치일 수 있다.
또한, 본 개시의 일 실시예에 따르면, 제어부는, 제1 영상 및 제2 영상을 다중층 인식망(Multilayer Perceptron) 모델에 입력하여, 상기 눈부분 영상 및 상기 눈주변부분 영상을 추출할 수 있다.
또한, 본 개시의 일 실시예에 따르면, 제어부는, 추출된 눈부분 영상 및 눈주변부분 영상을 딥러닝 기반의 나선 신경망 모델(Convolutional Neural Network)에 입력하여, 각각 홍채 영상 및 눈주변 특징 부분 영상을 하나 이상 생성하고, 생성한 홍채 영상과 눈주변 특징 부분 영상의 크기를 정규화 시키고, 정규화된 홍채 영상 및 눈주변 특징 부분 영상을 부호화 시키는 영상 전처리부 및 부호화된 홍채 영상 및 눈주변 특징 부분 영상을 기저장된 영상들을 비교하여 특정 동물을 인식하는 동물 인식부를 포함하할 수 있다.
또한, 본 개시의 일 실시예에 따르면, 홍채 영상은, 홍채의 모양 또는 홍채의 색 중 어느 하나를 특징으로 하는 영상일 수 있으며, 눈주변 특징 부분 영상은, 눈꺼풀의 모양, 눈주변 털의 모양 또는 눈주변 털의 색 중 어느 하나를 특징으로 하는 영상일 수 있다.
추가적으로, 본 개시의 일 실시예에 따르면, 상기 동물 인식 방법은 피촬영물인 동물의 시선과 동작을 고정하는, 학습된 소리를 생성하여 출력하는 소리 출력 단계, 소리 출력단계에서, 학습된 소리의 출력이 완료되면, 제1 촬상부와 제2 촬상부에서 각각 촬영된 제1 영상 및 제2 영상이 입력되는 영상 입력 단계, 영상 입력단계를 통해 입력된 제1 영상 및 제2 영상에서 각각 눈부분 영상 및 눈주변부분 영상을 추출하는 영상 추출 단계, 추출된 영상들과 기저장된 영상들을 비교하여 특정 동물을 인식하는 영상 비교인식 단계 및 영상 비교인식 단계에서 인식한 결과를 출력하는 영상 출력 단계를 포함할 수 있다.
또한, 본 개시의 일 실시예에 따르면, 학습된 소리는, 클릭커 소리 또는 녹음된 음성 중 적어도 하나일 수 있다.
또한, 본 개시의 일 실시예에 따르면, 제1 촬상부는 적외선 촬영장치일 수 있으며, 제2 촬상부는 가시광선 촬영장치일 수 있다.
또한, 본 개시의 일 실시예에 따르면, 영상 추출 단계는, 제1 영상 및 제2 영상을 다중층 인식망(Multilayer Perceptron) 모델에 입력하여, 상기 눈부분 영상 및 상기 눈주변부분 영상을 추출하는 단계일 수 있다.
또한, 본 개시의 일 실시예에 따르면, 영상 비교인식 단계는, 추출된 눈부분 영상 및 눈주변부분 영상을 딥러닝 기반의 나선 신경망 모델(Convolutional Neural Network)에 입력하여, 각각 홍채 영상 및 눈주변 특징 부분 영상을 하나 이상 생성하고, 생성한 홍채 영상과 눈주변 특징 부분 영상의 크기를 정규화 시키고, 정규화된 홍채 영상 및 눈주변 특징 부분 영상을 부호화 시키는 영상 전처리 단계 및 부호화된 홍채 영상 및 눈주변 특징 부분 영상을 기저장된 영상들을 비교하여 특정 동물을 인식하는 동물 인식 단계를 포함할 수 있다.
또한, 본 개시의 일 실시예에 따르면, 홍채 영상은, 홍채의 모양 또는 홍채의 색 중 어느 하나를 특징으로 하는 영상일 수 있으며, 눈주변 특징 부분 영상은, 눈꺼풀의 모양, 눈주변 털의 모양 또는 눈주변 털의 색 중 어느 하나를 특징으로 하는 영상일 수 있다.
상기한 목적들을 달성하기 위한 구체적인 사항들은 첨부된 도면과 함께 상세하게 후술될 실시예들을 참조하면 명확해질 것이다.
그러나, 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라, 서로 다른 다양한 형태로 구성될 수 있으며, 본 발명의 개시가 완전하도록 하고 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자(이하, "통상의 기술자")에게 발명의 범주를 완전하게 알려주기 위해서 제공되는 것이다.
본 발명은 두 개의 촬영 장치를 이용하여 영상을 촬영하고, 촬영된 영상을 통해 특정 동물을 인식하는 동물 인식 장치 및 동물 인식 방법에 관한 것이다.
본 발명은 두 개의 촬영 장치를 이용하여 영상을 촬영하고, 그 촬영 영상을 분석함으로써 홍채 패턴을 정확히 획득할 수 있다.
또한, 본 발명은 딥러닝 기반의 나선 신경망 모델(Convolutional Neural Network)을 적용하여 홍채 인식률을 개선할 수 있다.
또한, 본 발명은 학습된 소리를 이용하여 동물의 시선 및 동작을 고정하여, 카메라를 두려워하는 동물들의 공포감을 완화 시킬 수 있다.
따라서 본 발명에 개시된 동물 인식 장치에 따르면, 동물의 홍채를 이용하여 동물을 인식함으로써 동물의 등록률을 높일 수 있다.
본 발명의 효과들은 상술된 효과들로 제한되지 않으며, 본 발명의 기술적 특징들에 의하여 기대되는 잠정적인 효과들은 아래의 기재로부터 명확하게 이해될 수 있을 것이다.
상기 언급된 본 발명 내용의 특징들이 상세하게, 보다 구체화된 설명으로, 이하의 실시예들을 참조하여 이해될 수 있도록, 실시예들 중 일부는 첨부되는 도면에서 도시된다. 또한, 도면과의 유사한 참조번호는 여려 측면에 걸쳐서 동일하거나 유사한 기능을 지칭하는 것으로 의도된다. 그러나 첨부된 도면들은 단지 본 발명 내용의 특정한 전형적인 실시예들만을 도시하는 것일 뿐, 본 발명의 범위를 한정하는 것으로 고려되지는 않으며, 동일한 효과를 갖는 다른 실시예들이 충분히 인식될 수 있다는 점을 유의하도록 한다.
도 1은 본 발명의 일 실시예에 따른 동물 인식 장치의 구성요소를 도시한 도면이다.
도 2는 본 발명의 일 실시예에 따른 동물 인식 방법에 관한 순서도이다.
도 1은 본 발명의 일 실시예에 따른 동물 인식 장치의 구성요소를 도시한 도면이다.
도 2는 본 발명의 일 실시예에 따른 동물 인식 방법에 관한 순서도이다.
본 발명은 다양한 변경을 가할 수 있고, 여러 가지 실시예들을 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 이를 상세히 설명하고자 한다.
청구범위에 개시된 발명의 다양한 특징들은 도면 및 상세한 설명을 고려하여 더 잘 이해될 수 있을 것이다. 명세서에 개시된 장치, 방법, 제법 및 다양한 실시예들은 예시를 위해서 제공되는 것이다. 개시된 구조 및 기능상의 특징들은 통상의 기술자로 하여금 다양한 실시예들을 구체적으로 실시할 수 있도록 하기 위한 것이고, 발명의 범위를 제한하기 위한 것이 아니다. 개시된 용어 및 문장들은 개시된 발명의 다양한 특징들을 이해하기 쉽게 설명하기 위한 것이고, 발명의 범위를 제한하기 위한 것이 아니다.
본 발명을 설명함에 있어서, 관련된 공지기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우, 그 상세한 설명을 생략한다.
이하, 본 발명의 일 실시예에 따른 동물 인식 장치 및 동물 인식 방법을 설명한다.
도 1은 본 발명의 일 실시예에 따른 동물 인식 장치의 구성요소를 도시한 도면이다.
도 1을 참고하면, 본 발명의 동물 인식 장치(100)는 소리 출력부(110), 영상 촬상부(130), 제어부(150) 및 영상 출력부(170)를 포함할 수 있다.
일 실시예에서, 소리 출력부(110)는 동물 인식 장치(100)에 구비되어 피촬영물인 동물의 시선과 동작을 고정하는, 학습된 소리를 생성하여 출력할 수 있다. 예를 들어, 동물은 사람과 달리 의식적으로 시선을 고정하기 어렵다. 그래서 동물의 시선 및 동작 고정을 유도하기 위하여 학습된 소리를 사용할 수 있다. 학습된 소리는 클릭커 소리 또는 녹음된 음성 중 적어도 하나를 포함할 수 있다. 상기 예시는 본 개시를 설명하기 위한 예시일 뿐, 본 개시는 이에 제한되지 않는다.
일 실시예에서, 영상 촬상부(130)는 제1 영상을 촬영하는 제1 촬상부와 제2 영상을 촬영하는 제2 촬상부, 즉 두 개의 영상 촬영 장치를 통해 눈 영상 및 눈 주변 영상이 포함된 영상을 촬영할 수 있다. 보다 구체적으로, 영상 촬상부(130)는 제1 촬상부는 적외선 촬영장치일 수 있으며, 제2 촬상부는 가시광선 촬영장치일 수 있다. 제1 촬상부인 적외선 촬영 장치는 눈의 동공 및 홍채 위치가 포함된 영상을 촬영할 수 있다. 제2 촬상부인 가시광선 촬영 장치는 눈 주변 영상이 포함된 영상을 촬영할 수 있다.
홍채는 개체마다 고유의 특징을 내포하여 생체정보 중 가장 뛰어난 식별력을 보인다. 또한, 비접촉식으로 등록 및 인식이 가능하여 홍채를 이용하여 개체 식별하는 방법은 효과적인 방법일 수 있다.
본 발명은 개체마다 고유의 특징을 내포하는 홍채 및 안구 주변 특징을 종합하여 개체 식별에 사용함으로써 개체 식별에 보다 완성도를 높일 수 있다. 상기 예시는 본 개시를 설명하기 위한 예시일 뿐, 본 개시는 이에 제한되지 않는다.
일 실시예에서, 제어부(150)는 영상 촬상부(130)를 통해 촬영된 제1 영상 및 제2 영상을 입력받아, 각각의 영상에서 각각 눈부분 영상 및 눈주변부분 영상을 추출하고, 추출된 영상들과 기저장된 영상들을 비교하여 특정 동물을 인식할 수 있다. 제어부(150)는 제1 영상 및 제2 영상을 다중층 인식망(Multilayer Perceptron) 모델에 입력하여, 눈부분 영상 및 눈주변부분 영상을 추출할 수 있다.
보다 구체적으로, 제어부(150)는 영상 전처리부 및 동물 인식부를 포함할 수 있다. 영상 전처리부는 다중층 인식망(Multilayer Perceptron) 모델을 통해 추출된 눈부분 영상 및 눈주변부분 영상을 딥러닝 기반의 나선 신경망 모델(Convolutional Neural Network)에 입력하여, 각각 홍채 영상 및 눈주변 특징 부분 영상을 하나 이상 생성하고, 상기 생성한 홍채 영상과 눈주변 특징 부분 영상의 크기를 정규화 시키고, 상기 정규화된 홍채 영상 및 눈주변 특징 부분 영상을 부호화 시킬 수 있다. 동물 인식부는 부호화된 홍채 영상 및 눈주변 특징 부분 영상을 기저장된 영상들을 비교하여 특정 동물을 인식할 수 있다.
홍채 영상은 홍채의 모양 또는 홍채의 색 중 어느 하나를 특징으로 하는 영상일 수 있으며, 눈주변 특징 부분 영상은 눈꺼풀의 모양, 눈주변 털의 모양 또는 눈주변 털의 색 중 어느 하나를 특징으로 하는 영상일 수 있다. 정규화는 입력된 영상의 크기를 일정하게 하고, 중복 정보 포함을 최소화하기 위해 사용할 수 있다. 상기 예시는 본 개시를 설명하기 위한 예시일 뿐, 본 개시는 이에 제한되지 않는다.
또한, 인공지능은 인간의 지능으로 할 수 있는 사고, 학습, 자기 개발 등을 컴퓨터가 할 수 있도록 하는 방법을 연구하는 컴퓨터 공학 및 정보기술의 한 분야로서, 컴퓨터가 인간의 지능적인 행동을 모방할 수 있도록 하는 것을 의미한다.
본 발명의 제어부(150)는 다중층 인식망(Multilayer Perceptron: MLP)모델을 통해 촬영 영상으로부터 눈부분 영상 및 눈주변부분 영상을 추출할 수 있다. 본 발명의 일 실시예에 따른 인공 신경망은 컨볼루션 신경망(convolution neural network: CNN), 오토 인코더(auto encoder), 피드포워드 신경망(feedforward neural network), 방사 신경망(radial basis function network), 코헨 자기조직 신경망(kohonen self-organizing network), 순환 신경망(RNN: recurrent neural network) 다중층 인식망(Multilayer Perceptron: MLP) 등으로 구성될 수 있으며 본 발명은 이에 제한되지 않고 임의의 신경망을 포함할 수 있다.
상기 사전 결정된 인식 알고리즘은 인공지능의 딥러닝을 이용하여 홍채 영상 및 눈 주변 영상을 추출하도록 사전 훈련된 것을 말한다. 보다 구체적으로, 컨피던스 맵을 이용하여 홍채 영상 및 눈 주변 영상을 인식하고, PAF(Part Affinity Fields)를 이용하여 각각의 홍채 영상 및 눈 주변 영상을 연관 지으며, Greedy 알고리즘을 이용하여 홍채 영상 및 눈 주변 영상을 분석할 수 있다. 상기 컨피던스 맵은 조직의 탄성도 데이터를 신뢰도에 따라 구분해 표시하는 기능을 말한다. 상기 PAF(Part Affinity Fields)는 비 매개 변수를 사용하여 신체 부위를 이미지의 개인과 연관시키는 방법을 말한다. 상기 Greedy 알고리즘은 전체 문제를 해결해 나갈 때 매순간 탐욕적인 선택을 해나가면서 전체 문제를 해결하는 알고리즘을 말한다. 따라서 본 발명은 인공지능 딥러닝 기술을 이용해 수만장의 이미지를 학습하여 사용자의 홍채 영상 및 눈 주변 영상들을 전술한 방법을 활용하여 분석하여 키넥트와 같은 별도의 부가장치 없이 홍채 영상 및 눈 주변 영상을 분석해 피드백을 줄 수 있다.
예를 들어, 강아지 얼굴을 제1 촬상부 및 제2 촬상부를 통해 촬영하면, 상기 촬영된 제1 영상 및 제2 영상을 다중층 인식망(Multilayer Perceptron: MLP)에 입력하여 강아지 눈과 눈 주변부 영상을 추출할 수 있다. 또한, 추출된 눈과 눈 주변부 영상을 나선 신경망 모델(Convolutional Neural Network)에 입력하여 홍채 영상 및 눈 주변부 특징부분 영상을 추출할 수 있다. 추출된 홍채 영상 및 눈 주변부 특징부분 영상을 정규화 시키고, 부호화 시킨다. 그런 다음, 부호화된 홍채 영상 및 눈 주변부 특징부분 영상과 기저장된 영상들을 비교하여 특정 동물임을 인식할 수 있다. 상기 예시는 본 개시를 설명하기 위한 예시일 뿐, 본 개시는 이에 제한되지 않는다.
일 실시예에서, 영상 출력부(170)는 제어부(150)에서 인식한 결과를 출력할 수 있다. 예를 들어, 인식한 결과는 촬영한 사진, 동물의 이름, 개체번호, 홍채 코드, 품종, 생년월일, 등록 지역 및 양육인 정보를 포함할 수 있다. 상기 예시는 본 개시를 설명하기 위한 예시일 뿐, 본 개시는 이에 제한되지 않는다.
도 2는 본 발명의 일 실시예에 따른 동물 인식 방법에 관한 순서도이다.
도 2을 참고하면, 본 발명의 동물 인식 방법(S200)은 피촬영물인 동물의 시선과 동작을 고정하는, 학습된 소리를 생성하여 출력하는 소리 출력 단계(S210), 소리 출력단계에서, 학습된 소리의 출력이 완료되면, 제1 촬상부와 제2 촬상부에서 각각 촬영된 제1 영상 및 제2 영상이 입력되는 영상 입력 단계(S230), 영상 입력단계를 통해 입력된 제1 영상 및 제2 영상에서 각각 눈부분 영상 및 눈주변부분 영상을 추출하는 영상 추출 단계(S250), 추출된 영상들과 기저장된 영상들을 비교하여 특정 동물을 인식하는 영상 비교인식 단계(S270) 및 영상 비교인식 단계에서 인식한 결과를 출력하는 영상 출력 단계(S290)를 포함할 수 있다.
일 실시예에서, 동물 인식 방법(S200)은 피촬영물인 동물의 시선과 동작을 고정하는, 학습된 소리를 생성하여 출력하는 소리 출력 단계(S210)를 포함할 수 있다. 예를 들어, 동물은 사람과 달리 의식적으로 시선을 고정하기 어렵다. 그래서 동물의 시선 및 동작 고정을 유도하기 위하여 학습된 소리를 사용할 수 있다. 학습된 소리는 클릭커 소리 또는 녹음된 음성 중 적어도 어느 하나를 포함할 수 있다. 상기 예시는 본 개시를 설명하기 위한 예시일 뿐, 본 개시는 이에 제한되지 않는다.
일 실시예에서, 동물 인식 방법(S200)은 소리 출력단계에서, 학습된 소리의 출력이 완료되면, 제1 촬상부와 제2 촬상부에서 각각 촬영된 제1 영상 및 제2 영상이 입력되는 영상 입력 단계(S230)를 포함할 수 있다. 제1 촬상부에서 촬영한 제1 영상은 눈부분 영상이 포함된 영상일 수 있으며, 제2 촬상부에서 촬영한 제2 영상은 눈주변부분 영상이 포함된 영상일 수 있다.
보다 구체적으로, 영상 입력 단계(S230)는 제1 촬상부인 적외선 촬영 장치 및 제2 촬상부인 가시광선 촬영 장치를 이용하여 각각 제1 영상 및 제2 영상을 촬영하는 단계를 포함할 수 있다. 제1 촬상부인 적외선 촬영 장치는 눈의 동공 및 홍채 위치가 포함된 영상을 촬영할 수 있다. 제2 촬상부인 가시광선 촬영 장치는 눈 주변 영상이 포함된 영상을 촬영할 수 있다.
홍채는 개체마다 고유의 특징을 내포하여 생체정보 중 가장 뛰어난 식별력을 보이며, 비접촉식으로 등록 및 인식이 가능하여 보다 효과적인 사용이 가능할 수 있다.
홍채 영상은 홍채의 모양 또는 홍채의 색 중 어느 하나를 특징으로 하는 영상일 수 있으며, 눈주변 특징 부분 영상은 눈꺼풀의 모양, 눈주변 털의 모양 또는 눈주변 털의 색 중 어느 하나를 특징으로 하는 영상일 수 있다. 본 발명은 개체마다 고유의 특징을 내포하는 홍채 및 안구 주변 특징을 종합하여 개체 식별에 사용함으로써 개체 식별에 보다 완성도를 높일 수 있다. 상기 예시는 본 개시를 설명하기 위한 예시일 뿐, 본 개시는 이에 제한되지 않는다.
일 실시예에서, 동물 인식 방법(S200)은 영상 입력 단계(S230)를 통해 입력된 제1 영상 및 제2 영상에서 각각 눈부분 영상 및 눈주변부분 영상을 추출하는 영상 추출 단계(S250)를 포함할 수 있다.
또한, 영상 추출 단계(S250)는 제1 영상 및 제2 영상을 다중층 인식망(Multilayer Perceptron) 모델에 입력하여, 눈부분 영상 및 눈주변부분 영상을 추출하는 단계일 수 있다.
보다 구체적으로, 영상 추출 단계(S250)는 다중층 인식망(Multilayer Perceptron) 모델을 통해 촬영된 영상으로부터 눈부분 영상 및 눈주변부분 영상을 추출할 수 있다. 본 발명의 일 실시예에 따른 인공 신경망은 컨볼루션 신경망(convolution neural network: CNN), 오토 인코더(auto encoder), 피드포워드 신경망(feedforward neural network), 방사 신경망(radial basis function network), 코헨 자기조직 신경망(kohonen self-organizing network), 순환 신경망(RNN: recurrent neural network), 다중층 인식망(Multilayer Perceptron) 등으로 구성될 수 있으며 본 발명은 이에 제한되지 않고 임의의 신경망을 포함할 수 있다. 상기 예시는 본 개시를 설명하기 위한 예시일 뿐, 본 개시는 이에 제한되지 않는다.
일 실시예에서, 동물 인식 방법(S200)은 추출된 영상들과 기저장된 영상들을 비교하여 특정 동물을 인식하는 영상 비교인식 단계(S270)를 포함할 수 있다.
보다 구체적으로, 영상 비교인식 단계(S270)는 영상 전처리 단계 및 동물 인식 단계를 포함할 수 있다. 영상 전처리 단계는 다중층 인식망(Multilayer Perceptron) 모델을 통해 추출된 눈부분 영상 및 눈주변부분 영상을 딥러닝 기반의 나선 신경망 모델(Convolutional Neural Network)에 입력하여, 각각 홍채 영상 및 눈주변 특징 부분 영상을 하나 이상 생성하고, 생성한 홍채 영상과 눈주변 특징 부분 영상의 크기를 정규화 시키고, 정규화된 홍채 영상 및 눈주변 특징 부분 영상을 부호화 시키는 단계일 수 있다. 동물 인식 단계는 부호화된 홍채 영상 및 눈주변 특징 부분 영상을 기저장된 영상들을 비교하여 특정 동물을 인식하는 단계일 수 있다.
홍채 영상은 홍채의 모양 또는 홍채의 색 중 어느 하나를 특징으로 하는 영상일 수 있고, 눈주변 특징 부분 영상은 눈꺼풀의 모양, 눈주변 털의 모양 또는 눈주변 털의 색 중 어느 하나를 특징으로 하는 영상일 수 있다. 정규화는 입력된 영상의 크기를 일정하게 하고, 중복 정보 포함을 최소화하기 위해 사용할 수 있다. 상기 예시는 본 개시를 설명하기 위한 예시일 뿐, 본 개시는 이에 제한되지 않는다.
일 실시예에서, 동물 인식 방법(S200)은 영상 비교인식 단계(S270)에서 인식한 결과를 출력하는 영상 출력 단계(S290)를 포함할 수 있다. 예를 들어, 분석한 결과는 촬영한 사진, 동물의 이름, 개체번호, 홍채 코드, 품종, 생년월일, 등록 지역 및 양육인 정보를 포함할 수 있다. 상기 예시는 본 개시를 설명하기 위한 예시일 뿐, 본 개시는 이에 제한되지 않는다.
이상의 설명은 본 발명의 기술적 사상을 예시적으로 설명한 것에 불과한 것으로, 통상의 기술자라면 본 발명의 본질적인 특성이 벗어나지 않는 범위에서 다양한 변경 및 수정이 가능할 것이다.
따라서, 본 명세서에 개시된 실시예들은 본 발명의 기술적 사상을 한정하기 위한 것이 아니라, 설명하기 위한 것이고, 이러한 실시예들에 의하여 본 발명의 범위가 한정되는 것은 아니다.
본 발명의 보호범위는 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 이해되어야 한다.
Claims (13)
- 동물 인식 장치에 있어서,
제1 영상을 촬영하는 제1 촬상부;
제2 영상을 촬영하는 제2 촬상부; 및
상기 제1 촬상부와 제2 촬상부에서 촬영된 영상을 입력받아, 각각의 영상에서 각각 눈부분 영상 및 눈주변부분 영상을 추출하고, 추출된 영상들과 기저장된 영상들을 비교하여 특정 동물을 인식하는 제어부;
를 포함하는,
동물 인식 장치.
- 제1항에 있어서,
피촬영물인 동물의 시선과 동작을 고정하는, 학습된 소리를 생성하여 출력하는 소리 출력부; 및
상기 제어부에서 인식한 결과를 출력하는 영상 출력부;
를 더 포함하는,
동물 인식 장치.
- 제2항에 있어서,
상기 학습된 소리는,
클릭커 소리 또는 녹음된 음성 중 적어도 하나인,
동물 인식 장치.
- 제1항에 있어서,
상기 제1 촬상부는 적외선 촬영장치이며,
상기 제2 촬상부는 가시광선 촬영장치인,
동물 인식 장치.
- 제1항에 있어서,
상기 제어부는,
상기 제1 영상 및 제2 영상을 다중층 인식망(Multilayer Perceptron) 모델에 입력하여, 상기 눈부분 영상 및 상기 눈주변부분 영상을 추출하는,
동물 인식 장치.
- 제5항에 있어서,
상기 제어부는,
상기 추출된 눈부분 영상 및 눈주변부분 영상을 딥러닝 기반의 나선 신경망 모델(Convolutional Neural Network)에 입력하여, 각각 홍채 영상 및 눈주변 특징 부분 영상을 하나 이상 생성하고, 상기 생성한 홍채 영상과 눈주변 특징 부분 영상의 크기를 정규화 시키고, 상기 정규화된 홍채 영상 및 눈주변 특징 부분 영상을 부호화 시키는 영상 전처리부; 및
상기 부호화된 홍채 영상 및 눈주변 특징 부분 영상을 기저장된 영상들을 비교하여 특정 동물을 인식하는 동물 인식부;
를 포함하는,
동물 인식 장치.
- 제6항에 있어서,
상기 홍채 영상은,
홍채의 모양 또는 홍채의 색 중 어느 하나를 특징으로 하는 영상인,
상기 눈주변 특징 부분 영상은,
눈꺼풀의 모양, 눈주변 털의 모양 또는 눈주변 털의 색 중 어느 하나를 특징으로 하는 영상인,
동물 인식 장치.
- 동물 인식 방법에 있어서,
피촬영물인 동물의 시선과 동작을 고정하는, 학습된 소리를 생성하여 출력하는 소리 출력 단계;
상기 소리 출력단계에서, 학습된 소리의 출력이 완료되면, 제1 촬상부와 제2 촬상부에서 각각 촬영된 제1 영상 및 제2 영상이 입력되는 영상 입력 단계;
상기 영상 입력단계를 통해 입력된 제1 영상 및 제2 영상에서 각각 눈부분 영상 및 눈주변부분 영상을 추출하는 영상 추출 단계;
상기 추출된 영상들과 기저장된 영상들을 비교하여 특정 동물을 인식하는 영상 비교인식 단계; 및
상기 영상 비교인식 단계에서 인식한 결과를 출력하는 영상 출력 단계;
를 포함하는,
동물 인식 방법.
- 제8항에 있어서,
상기 학습된 소리는,
클릭커 소리 또는 녹음된 음성 중 적어도 하나인,
동물 인식 방법.
- 제8항에 있어서,
상기 제1 촬상부는 적외선 촬영장치이며,
상기 제2 촬상부는 가시광선 촬영장치인,
동물 인식 방법.
- 제8항에 있어서,
상기 영상 추출 단계는,
상기 제1 영상 및 제2 영상을 다중층 인식망(Multilayer Perceptron) 모델에 입력하여, 상기 눈부분 영상 및 상기 눈주변부분 영상을 추출하는 단계인,
동물 인식 방법.
- 제8항에 있어서,
상기 영상 비교인식 단계는,
상기 추출된 눈부분 영상 및 눈주변부분 영상을 딥러닝 기반의 나선 신경망 모델(Convolutional Neural Network)에 입력하여, 각각 홍채 영상 및 눈주변 특징 부분 영상을 하나 이상 생성하고, 상기 생성한 홍채 영상과 눈주변 특징 부분 영상의 크기를 정규화 시키고, 상기 정규화된 홍채 영상 및 눈주변 특징 부분 영상을 부호화 시키는 영상 전처리 단계; 및
상기 부호화된 홍채 영상 및 눈주변 특징 부분 영상을 기저장된 영상들을 비교하여 특정 동물을 인식하는 동물 인식 단계;
를 포함하는,
동물 인식 방법.
- 제12항에 있어서,
상기 홍채 영상은,
홍채의 모양 또는 홍채의 색 중 어느 하나를 특징으로 하는 영상이고,
상기 눈주변 특징 부분 영상은,
눈꺼풀의 모양, 눈주변 털의 모양 또는 눈주변 털의 색 중 어느 하나를 특징으로 하는 영상인,
동물 인식 방법.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190008680A KR102161265B1 (ko) | 2019-01-23 | 2019-01-23 | 동물 인식 장치 및 동물 인식 방법 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190008680A KR102161265B1 (ko) | 2019-01-23 | 2019-01-23 | 동물 인식 장치 및 동물 인식 방법 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20200094840A true KR20200094840A (ko) | 2020-08-10 |
KR102161265B1 KR102161265B1 (ko) | 2020-09-29 |
Family
ID=72049625
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190008680A KR102161265B1 (ko) | 2019-01-23 | 2019-01-23 | 동물 인식 장치 및 동물 인식 방법 |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102161265B1 (ko) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118089899A (zh) * | 2024-04-19 | 2024-05-28 | 中农吉牧(吉林)农业发展有限公司 | 一种智能化牛场的智能称重系统 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20240146415A (ko) | 2023-03-29 | 2024-10-08 | 주식회사 에이나 | 생체 정보 기반 펫 인식 시스템 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20110060496A (ko) * | 2009-11-30 | 2011-06-08 | 삼성전자주식회사 | 애완동물 촬영 장치 및 방법 |
WO2017077676A1 (ja) * | 2015-11-05 | 2017-05-11 | パナソニックIpマネジメント株式会社 | カメラシステム、給餌システム、撮像方法および撮像装置 |
KR101862639B1 (ko) | 2017-05-30 | 2018-07-04 | 동국대학교 산학협력단 | 나선 신경망 기법을 이용한 홍채 인식 장치 및 방법 |
-
2019
- 2019-01-23 KR KR1020190008680A patent/KR102161265B1/ko active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20110060496A (ko) * | 2009-11-30 | 2011-06-08 | 삼성전자주식회사 | 애완동물 촬영 장치 및 방법 |
WO2017077676A1 (ja) * | 2015-11-05 | 2017-05-11 | パナソニックIpマネジメント株式会社 | カメラシステム、給餌システム、撮像方法および撮像装置 |
KR101862639B1 (ko) | 2017-05-30 | 2018-07-04 | 동국대학교 산학협력단 | 나선 신경망 기법을 이용한 홍채 인식 장치 및 방법 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118089899A (zh) * | 2024-04-19 | 2024-05-28 | 中农吉牧(吉林)农业发展有限公司 | 一种智能化牛场的智能称重系统 |
Also Published As
Publication number | Publication date |
---|---|
KR102161265B1 (ko) | 2020-09-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20210378554A1 (en) | Method and system for privacy-preserving health monitoring | |
Krišto et al. | An overview of thermal face recognition methods | |
da Costa et al. | Dynamic features for iris recognition | |
KR101901591B1 (ko) | 얼굴 인식 장치 및 그 제어방법 | |
CN106295313B (zh) | 对象身份管理方法、装置和电子设备 | |
KR20190016733A (ko) | 얼굴 특징점 기반 부분 영역 지정을 통한 부분 가림 얼굴 인식 방법, 이를 수행하기 위한 기록 매체 및 장치 | |
US11756338B2 (en) | Authentication device, authentication method, and recording medium | |
JP7192872B2 (ja) | 虹彩認証装置、虹彩認証方法、虹彩認証プログラムおよび記録媒体 | |
Omoyiola | Overview of biometric and facial recognition techniques | |
KR102161265B1 (ko) | 동물 인식 장치 및 동물 인식 방법 | |
JP7010385B2 (ja) | 虹彩認証装置、虹彩認証方法、虹彩認証プログラムおよび記録媒体 | |
KR102261175B1 (ko) | 동물 인식 장치 및 동물 인식 방법 | |
Mustafi et al. | RetIS: Unique identification system of goats through retinal analysis | |
WO2019137915A1 (en) | Generating input data for a convolutional neuronal network | |
WO2019014521A1 (en) | DYNAMIC IMAGE RECOGNITION SYSTEM FOR SECURITY AND TELEMEDICINE | |
Benalcazar et al. | Toward an efficient iris recognition system on embedded devices | |
Medjdoubi et al. | Smart city surveillance: Edge technology face recognition robot deep learning based | |
Reddy et al. | Face Recognition Based Attendance Management System By Using Embedded Linux | |
Alhajim et al. | Enhancing and Securing a Real-Time Embedded Face Recognition System using Raspberry Pi | |
Patel et al. | IoT based Smart Health Monitoring System with Patient Identification using Face Recognition | |
Agarwal et al. | A comparative study of facial, retinal, iris and sclera recognition techniques | |
WO2023229498A1 (en) | Biometric identification system and method for biometric identification | |
Dhaded et al. | Mishathi-A Smart Vision System | |
Abidin | Swarm intelligence for iris recognition | |
ARSLAN | CNN BASED HEAD-MOUSE CONTROL SYSTEM FOR PEOPLE WITH DISABILITIES |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
AMND | Amendment | ||
E601 | Decision to refuse application | ||
AMND | Amendment | ||
X701 | Decision to grant (after re-examination) | ||
GRNT | Written decision to grant |