KR102473188B1 - Method and apparatus for recommending learning amount based on artificial intelligence and weighted score for statistical learning amount - Google Patents
Method and apparatus for recommending learning amount based on artificial intelligence and weighted score for statistical learning amount Download PDFInfo
- Publication number
- KR102473188B1 KR102473188B1 KR1020220066803A KR20220066803A KR102473188B1 KR 102473188 B1 KR102473188 B1 KR 102473188B1 KR 1020220066803 A KR1020220066803 A KR 1020220066803A KR 20220066803 A KR20220066803 A KR 20220066803A KR 102473188 B1 KR102473188 B1 KR 102473188B1
- Authority
- KR
- South Korea
- Prior art keywords
- learning
- amount
- type
- academic achievement
- data
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 41
- 238000013473 artificial intelligence Methods 0.000 title claims abstract description 23
- 238000013135 deep learning Methods 0.000 claims abstract description 24
- 238000011156 evaluation Methods 0.000 claims abstract description 23
- 238000012545 processing Methods 0.000 claims abstract description 9
- 238000013480 data collection Methods 0.000 claims abstract description 8
- 238000007781 pre-processing Methods 0.000 claims abstract description 8
- 238000004364 calculation method Methods 0.000 claims abstract description 6
- 238000013528 artificial neural network Methods 0.000 claims description 36
- 238000012549 training Methods 0.000 claims description 35
- 230000008569 process Effects 0.000 claims description 17
- 230000003442 weekly effect Effects 0.000 claims description 3
- 238000007619 statistical method Methods 0.000 abstract description 19
- 230000000694 effects Effects 0.000 abstract description 8
- 239000013598 vector Substances 0.000 description 108
- 230000006870 function Effects 0.000 description 26
- 210000002569 neuron Anatomy 0.000 description 20
- 238000010586 diagram Methods 0.000 description 18
- 239000011159 matrix material Substances 0.000 description 14
- 239000000203 mixture Substances 0.000 description 11
- 238000009826 distribution Methods 0.000 description 9
- 238000010801 machine learning Methods 0.000 description 9
- 230000004913 activation Effects 0.000 description 6
- 238000004422 calculation algorithm Methods 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 4
- 238000012546 transfer Methods 0.000 description 4
- 230000014509 gene expression Effects 0.000 description 3
- 238000009499 grossing Methods 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 230000008685 targeting Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 230000008878 coupling Effects 0.000 description 2
- 238000010168 coupling process Methods 0.000 description 2
- 238000005859 coupling reaction Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000002250 progressing effect Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 239000004984 smart glass Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/20—Education
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G06N3/0472—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/09—Supervised learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/04—Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Strategic Management (AREA)
- Human Resources & Organizations (AREA)
- Tourism & Hospitality (AREA)
- Economics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Marketing (AREA)
- General Business, Economics & Management (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Biophysics (AREA)
- General Engineering & Computer Science (AREA)
- Entrepreneurship & Innovation (AREA)
- Game Theory and Decision Science (AREA)
- Operations Research (AREA)
- Quality & Reliability (AREA)
- Development Economics (AREA)
- Educational Administration (AREA)
- Educational Technology (AREA)
- Primary Health Care (AREA)
- Probability & Statistics with Applications (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
Description
본 발명은 학습량 추천 기술에 관한 것으로, 더욱 상세하게는 통계적 학습량에 대한 가중점수 및 인공지능 기반의 학습량 추천 방법 및 장치에 관한 것이다.The present invention relates to a learning amount recommendation technology, and more particularly, to a method and apparatus for recommending a learning amount based on a weighted score for a statistical learning amount and artificial intelligence.
국내는 교육에 대한 학부모의 관심과 열의가 매우 높고, 이 때문에 학생들의 학교 수업과 이를 통한 대학 입시에는 굉장히 많은 사람들이 관심을 갖고 있다.In Korea, parents' interest and enthusiasm for education are very high, and because of this, many people are interested in students' school classes and college entrance exams through them.
학생들이 학습량을 최대한 많이 늘릴수록 좋은 학습 성취 결과를 얻을 가능성이 높아질 수는 있지만, 학습량을 무작정 늘리는 것은 물리적으로 불가능하고 체력적으로도 역효과를 초래할 수 있어, 주어진 시간 내에서 최적의 학습량을 결정하는 것은 매우 중요한 이슈가 된다.The more students increase the amount of learning as much as possible, the more likely they are to achieve good learning outcomes. It becomes a very important issue.
통상적인 경우, 현재의 학습 결과가 다음 학습에 영향을 미치기 때문에 현재의 학습 결과에 따라 다음 학습량을 늘리거나 줄이는 방식으로 개별적으로 결정하고 있어 학업성취결과가 제각각으로 나타나는 경우가 많다.In general, since the current learning result affects the next learning, the next learning amount is individually determined by increasing or decreasing the current learning result, so the results of academic achievement often appear differently.
이러한 문제를 해결하기 위하여, 종래의 기술(특허출원번호 10-2018-0135206)은 최근에 수행한 소정 개수의 학습 결과 데이터에 근거하여, 시기적으로 최근일 수록 더 높은 가중치를 부여하는 방식으로 사전 지정된 가중치를 적용하여 예상 학습량을 추정하고 있다.In order to solve this problem, the conventional technology (Patent Application No. 10-2018-0135206) is based on a predetermined number of recently performed learning result data, and a pre-specified weight in a way that a higher weight is given the more recent in time. is applied to estimate the expected amount of learning.
그러나 상술한 종래의 기술의 경우, 사전 지정된 가중치에 따라 예측 결과가 크게 달라질 수 있는 문제가 있으며, 가중치를 선정하는 기준 자체가 구현 방식에 따라 매우 상이하게 결정되기 때문에 일정한 예측 결과를 기대하기 어려운 문제가 있었다.However, in the case of the above-described prior art, there is a problem that the prediction result may vary greatly depending on the pre-specified weight, and it is difficult to expect a constant prediction result because the criteria for selecting the weight are determined very differently depending on the implementation method. there was
한편, 최근에는 사람의 지능을 모방하여 복잡한 일을 수행하는 인공지능(artificial intelligence)에 대한 연구가 활발히 진행되고 있으며, 인공지능은 기계학습 알고리즘을 이용하여 학습되어 동작하는 형태의 머신 러닝(machine learning)을 포함하는 넓은 개념이며, 머신 러닝 분야에서도 사람의 뉴런들을 모방하여 구현된 딥 러닝(deep learning)이 조금 더 진보된 개념으로 알려져 있다.On the other hand, recently, research on artificial intelligence (artificial intelligence), which performs complex tasks by imitating human intelligence, has been actively conducted. ), and in the field of machine learning, deep learning implemented by imitating human neurons is known as a slightly more advanced concept.
딥 러닝에 따른 심층 신경망(Deep Neural Network, DNN)은, 다중의 은닉층을 포함하여 다양한 비선형적 관계를 학습하고, 학습 결과를 기반으로 예측 결과를 제공하는 인공신경망(ANN, Artificial Neural Network)으로서, 이에 대한 많은 관심과 연구가 이루어지고 있다.A deep neural network (DNN) based on deep learning is an artificial neural network (ANN) that learns various nonlinear relationships, including multiple hidden layers, and provides prediction results based on the learning results, There is a lot of interest and research on this.
심층 신경망은 알고리즘에 따라 비지도 학습(unsupervised learning)을 기반으로 하는 심층 신뢰 신경망(DBN, Deep Belief Network), 심층 오토인코더(Deep Autoencoder) 등이 있으며, 이미지와 같은 2차원 데이터를 처리하기 위한 합성곱 신경망(CNN, Convolutional Neural Network), 시계열 데이터를 처리하는 데 유용한 순환 신경망(RNN, Recurrent Neural Network) 등이 알려져 있다.Depending on the algorithm, deep neural networks include a deep belief network (DBN) based on unsupervised learning, a deep autoencoder, and the like, and are synthesized for processing two-dimensional data such as images. A convolutional neural network (CNN), a recurrent neural network (RNN) useful for processing time series data, and the like are known.
상기와 같은 문제점을 해결하기 위한 본 발명의 목적은, 통계적 분석과 딥러닝 기반의 인공지능을 동시에 활용한 학습량 추천 방법 및 장치를 제공하는 데 있다.An object of the present invention to solve the above problems is to provide a learning amount recommendation method and apparatus using statistical analysis and deep learning-based artificial intelligence at the same time.
상기 목적을 달성하기 위한 본 발명의 일 측면은, 통계적 분석과 딥러닝 기반의 인공지능을 동시에 활용한 학습량 추천 장치를 제공한다.One aspect of the present invention for achieving the above object provides a learning amount recommendation device that simultaneously utilizes statistical analysis and deep learning-based artificial intelligence.
상기 통계적 분석과 딥러닝 기반의 인공지능을 동시에 활용한 학습량 추천 장치는, 다수의 사용자들에 대응하는 학생 단말들로부터 다수의 학습 데이터들을 수집하는 학습 데이터 수집부; 상기 다수의 학습 데이터들을 이용하여 상기 학생 단말들 각각의 사용자와 대응하는 학업성취능력 타입을 예측하는 학업성취능력 예측부; 예측된 학업성취능력 타입에 따라 상기 학습 데이터들을 전처리(pre-processing)하여 상기 학습 데이터들에 대한 통계적 연산 처리에 따른 결과로서 얻어지는 학습량 테이블을 생성하는 학습량 테이블 생성부; 및 상기 학습량 테이블을 참조하여 타겟 사용자에 대응하는 추천 학습량을 결정하고, 결정된 상기 추천 학습량을 상기 타겟 사용자의 학생 단말에 제공하는 추천 학습량 결정부;를 포함한다.An apparatus for recommending a learning amount using the statistical analysis and deep learning-based artificial intelligence at the same time includes a learning data collection unit that collects a plurality of learning data from student terminals corresponding to a plurality of users; an academic achievement predictor predicting an academic achievement ability type corresponding to a user of each of the student terminals by using the plurality of learning data; a learning amount table generation unit that pre-processes the learning data according to the predicted academic achievement ability type and generates a learning amount table obtained as a result of statistical calculation processing on the learning data; and a recommended learning amount determining unit for determining a recommended learning amount corresponding to a target user by referring to the learning amount table, and providing the determined recommended learning amount to a student terminal of the target user.
상기 학업성취능력 예측부는, 상기 사용자들의 현재 교육과정에 따른 학습 데이터들에 기초하여 상기 사용자들을 클러스터링함으로써, 상기 사용자들 각각에 대응하는 클러스터(cluster)를 결정하고, 결정된 클러스터에 부여된 학업성취능력 타입을 해당 클러스터에 속하는 사용자의 학업성취능력 타입으로 예측하는 군집화 엔진; 및 상기 사용자들 각각의 학습 데이터와 대응하는 훈련 입력값 및 상기 군집화 엔진을 통해 학업성취능력 타입이 라벨링된 훈련 출력값으로 구성되는 훈련 데이터를 이용하여 지도학습(supervised-learning)되고, 복수의 은닉층들로 구성되는 딥러닝 네트워크 기반으로 상기 타겟 사용자에 대응하는 학업성취능력 타입을 예측하는 인공신경망 엔진;을 포함한다.The academic achievement ability predictor determines a cluster corresponding to each of the users by clustering the users based on the learning data according to the current curriculum of the users, and the academic achievement ability assigned to the determined cluster. A clustering engine that predicts the type as the academic achievement type of the user belonging to the corresponding cluster; And supervised-learning is performed using training data composed of training input values corresponding to the learning data of each of the users and training output values labeled with academic achievement types through the clustering engine, and a plurality of hidden layers and an artificial neural network engine that predicts the type of academic achievement corresponding to the target user based on the deep learning network consisting of .
상기 학습량 테이블은, 상기 예측된 학업성취능력 타입에 해당하는 사용자들이 현재 교육과정의 다음 교육과정에서 실제로 수행한 다수의 학습량들 각각에 대하여, 상기 다음 교육과정과 대응하는 상기 학습 데이터들을 이용하여 산출한 평가 통과율 및 평가점수 평균을 포함한다.The learning amount table is calculated using the learning data corresponding to the next curriculum for each of a plurality of learning amounts actually performed in the next curriculum of the current curriculum by users corresponding to the predicted academic achievement ability type. This includes the pass rate and the average of the evaluation scores.
상기 인공신경망 엔진은, 상기 사용자들 각각의 현재 교육과정에 따른 학습 데이터를 변환하여 획득되는 학습 특징 벡터를 입력받고, 상기 학습 특징 벡터의 성분값 개수와 동일한 개수의 뉴런들로 구성되는 입력층; 상기 입력층으로부터 전달받은 출력값들을 이용하여 산출된 출력 벡터를 출력층에 전달하는 은닉층; 및 상기 출력 벡터에 활성화함수(activation function)를 적용하여 상기 출력 벡터에 대응하는 확률을 결정하고, 결정된 확률이 가장 높은 출력 벡터를 출력하는 출력층을 포함한다.The artificial neural network engine may include an input layer configured of the same number of neurons as the number of component values of the learning feature vector, which receives a learning feature vector obtained by converting learning data according to the current curriculum of each of the users; a hidden layer that transmits an output vector calculated using the output values received from the input layer to an output layer; and an output layer which determines a probability corresponding to the output vector by applying an activation function to the output vector, and outputs an output vector having the highest determined probability.
상기 인공신경망 엔진은, 상기 훈련 입력값을 입력받았을 때 상기 은닉층의 출력으로 획득되는 출력 벡터와 상기 훈련 출력값에 따른 학업 성취능력 타입을 지시하는 훈련출력 벡터를 이용하여 하기 수학식에 따른 손실함수를 연산하고, 연산된 상기 손실함수의 결과값이 최소화되도록 지도학습되고,The artificial neural network engine, when receiving the training input value, uses an output vector obtained as an output of the hidden layer and a training output vector indicating the type of academic achievement according to the training output value to obtain a loss function according to the following equation It is calculated, and supervised so that the resultant value of the calculated loss function is minimized,
상기 수학식에서 Ym은 목표 출력 벡터(Ym)의 m(m은 1 이상의 자연수)번째 성분이고, Y`m은 상기 은닉층의 출력으로 획득되는 출력 벡터(Y`)의 m번째 성분이다.In the above equation, Ym is the m-th component (m is a natural number greater than or equal to 1) of the target output vector Ym, and Y'm is the m-th component of the output vector Y' obtained as an output of the hidden layer.
상기 인공신경망 엔진은, 상기 입력층과 상기 은닉층 사이에 자기집중 메커니즘(self-attention mechanism)에 따른 기법을 수행하는 자가주의 집중계층(self-attention layer)을 더 포함한다.The artificial neural network engine further includes a self-attention layer performing a technique according to a self-attention mechanism between the input layer and the hidden layer.
상기 자가주의 집중계층은, 상기 입력층의 출력으로 획득되는 중간 연산 벡터들 각각의 중요도를 판별하고, 판별된 중요도가 상대적으로 낮은 중간 연산 벡터를 배제시킴으로써 상기 중간 연산 벡터들 중 일부를 선택적으로 상기 은닉층에 전달한다.The self-attention concentration layer determines the importance of each of the intermediate operation vectors obtained as an output of the input layer, and selectively selects some of the intermediate operation vectors by excluding intermediate operation vectors having a relatively low level of importance. passed to the hidden layer.
상기 학습량 테이블 생성부는, 상기 군집화 엔진에 의해 결정되는 학업성취능력 타입에 따라 상기 다수의 학습 데이터들을 전처리하여 상기 학습량 테이블을 생성한다.The learning amount table generator generates the learning amount table by pre-processing the plurality of learning data according to the academic achievement type determined by the clustering engine.
상기 추천 학습량 결정부는, 상기 다수의 학습량들 각각에 대응하는 상기 통계 데이터를 이용하여 상기 다수의 학습량들 각각마다 하기 수학식에 따른 가중점수를 산출하고, 산출된 가중점수에 기초하여 상기 추천 학습량을 결정하고,The recommended learning amount determination unit calculates a weighted score according to the following equation for each of the plurality of learning amounts using the statistical data corresponding to each of the plurality of learning amounts, and calculates the recommended learning amount based on the calculated weighted score decide,
상기 수학식에서 N은 학업성취능력 타입과 학습량에 해당하는 학습인원들의 수이고, Nmin은 미리 학습능력 타입과 학습량에 따라 개별적으로 정의되는 최소 학습인원의 수이고, PP는 학업성취능력 타입과 학습량에 해당하는 학습인원들의 평가 통과율이고, acSC는 학업성취능력 타입과 학습량에 해당하는 학습인원들의 평가점수의 평균이고, k는 미리 학습성취능력 타입과 학습량에 따라 개별적으로 정의되는 가중치 상수이고, avgN은 학업성취능력 타입별 학습인원들의 수에 대한 평균값이다.In the above equation, N is the number of learners corresponding to the type and amount of learning ability, Nmin is the minimum number of learners individually defined according to the type and amount of learning ability in advance, and PP is the number of learners corresponding to the type and amount of learning ability. The evaluation pass rate of the corresponding learners, acSC is the average of the evaluation scores of the learners corresponding to the type of learning achievement and the amount of learning, k is a weight constant individually defined according to the type of learning achievement and the amount of learning, and avgN is It is the average value of the number of learners by type of academic achievement ability.
상기 추천 학습량 결정부는, 상기 상기 다수의 학습량들 각각에 대응하여 산출된 가중점수들 중에서 가장 높게 산출된 가중 점수와 대응하는 학습량을 상기 타겟 사용자의 다음 교육과정에 대한 추천 학습량으로 결정한다.The recommended learning amount determining unit determines the learning amount corresponding to the highest weighted score among the weighted scores calculated corresponding to each of the plurality of learning amounts as the recommended learning amount for the next curriculum of the target user.
상기와 같은 본 발명에 따른 통계적 분석과 딥러닝 기반의 인공지능을 동시에 활용한 학습량 추천 방법 및 장치를 이용할 경우에는 학생의 학업성취능력을 미리 지도학습된 인공신경망을 이용하여 예측하고, 예측된 학습성취능력에 따른 최적의 추천 학습량을 빅데이터 기반으로 결정하여 학생에게 제공함으로써 가장 효율적인 학습량을 학생에게 가이드하고 학습 효과를 극대화할 수 있다.In the case of using the method and apparatus for recommending learning amount using statistical analysis and deep learning-based artificial intelligence at the same time according to the present invention as described above, the student's academic achievement ability is predicted using an artificial neural network trained in advance, and the predicted learning By determining the optimal recommended learning amount according to achievement ability based on big data and providing it to students, it is possible to guide students to the most efficient learning amount and maximize learning effects.
도 1은 일 실시예에 따른 통계적 분석과 딥러닝 기반의 인공지능을 동시에 활용한 학습량 추천 방법이 수행되는 환경을 나타낸 개념도이다.
도 2는 도 1에 따른 통계적 분석과 딥러닝 기반의 인공지능을 동시에 활용한 학습량 추천 장치의 기능적 구성요소들을 나타낸 블록도이다.
도 3은 도 1에 따른 학습량 테이블의 구성을 예시적으로 나타낸 도면이다.
도 4는 도 2에 따른 학습량 테이블을 참조하여 가중점수를 산출한 결과를 나타낸 도면이다.
도 5는 도 2에 따른 군집화 엔진의 동작을 설명하기 위한 도면이다.
도 6은 도 2에 따른 인공신경망 엔진의 동작을 설명하기 위한 도면이다.
도 7은 도 6에 따른 인공신경망 엔진의 구조를 구체적으로 도시한 도면이다.
도 8은 일 실시예에 따른 자가주의집중계층에서의 K벡터를 결정하는 방법을 설명하기 위한 도면이다.
도 9는 일 실시예에 따른 통계적 분석과 딥러닝 기반의 인공지능을 동시에 활용한 학습량 추천 장치의 하드웨어 구성을 예시적으로 나타낸 도면이다.
도 10은 일 실시예에 따른 통계적 분석과 딥러닝 기반의 인공지능을 동시에 활용한 학습량 추천 방법 및 장치의 효과를 확인할 수 있는 통계 분석 결과를 나타낸 그래프이다.1 is a conceptual diagram illustrating an environment in which a learning amount recommendation method using both statistical analysis and deep learning-based artificial intelligence according to an embodiment is performed.
FIG. 2 is a block diagram showing functional components of an apparatus for recommending a learning amount using both statistical analysis and deep learning-based artificial intelligence according to FIG. 1 .
3 is a diagram showing the configuration of the learning amount table according to FIG. 1 by way of example.
4 is a diagram showing the result of calculating the weighted score with reference to the learning amount table according to FIG. 2 .
FIG. 5 is a diagram for explaining the operation of the clustering engine according to FIG. 2 .
6 is a diagram for explaining the operation of the artificial neural network engine according to FIG. 2;
FIG. 7 is a diagram showing the structure of the artificial neural network engine according to FIG. 6 in detail.
8 is a diagram for explaining a method of determining a K vector in a self-attention layer according to an embodiment.
9 is a diagram showing the hardware configuration of an apparatus for recommending a learning amount using statistical analysis and deep learning-based artificial intelligence at the same time according to an embodiment by way of example.
10 is a graph showing statistical analysis results for confirming the effect of a learning amount recommendation method and apparatus using statistical analysis and deep learning-based artificial intelligence at the same time according to an embodiment.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다. Since the present invention can make various changes and have various embodiments, specific embodiments will be illustrated in the drawings and described in detail in the detailed description. However, this is not intended to limit the present invention to specific embodiments, and should be understood to include all modifications, equivalents, and substitutes included in the spirit and scope of the present invention. Like reference numerals have been used for like elements throughout the description of each figure.
제1, 제2, A, B 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다. Terms such as first, second, A, and B may be used to describe various components, but the components should not be limited by the terms. These terms are only used for the purpose of distinguishing one component from another. For example, a first element may be termed a second element, and similarly, a second element may be termed a first element, without departing from the scope of the present invention. The terms and/or include any combination of a plurality of related recited items or any of a plurality of related recited items.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. It is understood that when an element is referred to as being "connected" or "connected" to another element, it may be directly connected or connected to the other element, but other elements may exist in the middle. It should be. On the other hand, when an element is referred to as “directly connected” or “directly connected” to another element, it should be understood that no other element exists in the middle.
본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Terms used in this application are only used to describe specific embodiments, and are not intended to limit the present invention. Singular expressions include plural expressions unless the context clearly dictates otherwise. In this application, the terms "include" or "have" are intended to designate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, but one or more other features It should be understood that the presence or addition of numbers, steps, operations, components, parts, or combinations thereof is not precluded.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which the present invention belongs. Terms such as those defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related art, and unless explicitly defined in the present application, they should not be interpreted in an ideal or excessively formal meaning. don't
이하, 본 발명에 따른 바람직한 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.Hereinafter, preferred embodiments according to the present invention will be described in detail with reference to the accompanying drawings.
도 1은 일 실시예에 따른 통계적 분석과 딥러닝 기반의 인공지능을 동시에 활용한 학습량 추천 방법이 수행되는 환경을 나타낸 개념도이다.1 is a conceptual diagram illustrating an environment in which a learning amount recommendation method using both statistical analysis and deep learning-based artificial intelligence according to an embodiment is performed.
도 1을 참조하면, 통계적 분석과 딥러닝 기반의 인공지능을 동시에 활용한 학습량 추천 방법은, 이하에서 설명하는 학습량 추천 서버(100, 통계적 분석과 딥러닝 기반의 인공지능을 동시에 활용한 학습량 추천 장치로도 혼용하여 지칭될 수 있음)에 의해 수행될 수 있다.Referring to FIG. 1, the learning amount recommendation method using statistical analysis and deep learning-based artificial intelligence at the same time, the learning amount recommendation server (100, learning amount recommendation device using statistical analysis and deep learning-based artificial intelligence at the same time) described below (which may also be referred to interchangeably) may be performed by.
학습량 추천 서버(100)는, 다수의 학생 단말들(200a~200n)과 연동하여 학습 데이터를 수집할 수 있다. The learning
학생 단말들(200a~200n) 각각에는 미리 배포된 학습용 애플리케이션이 설치되어 구동될 수 있으며, 학습용 애플리케이션이 실행됨에 따라 학생 단말들(200a~200n) 각각은 교육과정에 따른 다수의 학습 문제들을 선정하여 학생 단말(200)의 사용자에게 제공하고, 사용자의 문제 풀이 결과를 저장할 수 있다.Each of the
학생 단말(200)의 사용자는 미리 학생 단말(200)을 이용하여 학습량 추천 서버(100)에 접속하고, 사용자 인증 절차를 통해 사용자 정보를 학습량 추천 서버(100)에 등록(registration)할 수 있다. 사용자 정보는 자신의 나이, 학년, 학교 등을 포함할 수 있다.The user of the
또한, 학생 단말들(200a~200n) 각각은 학생 단말(200)의 사용자에게 제공된 학습 문제들에 따른 문제 풀이 결과를 나타내는 학습 데이터를 실시간으로 또는 미리 지정된 주기마다 또는 미리 지정된 시기들마다 학습량 추천 서버(100)에 제공할 수 있다.In addition, each of the
구체적으로, 학습 데이터는, 주별 또는 일별로 교육 과정(ex: 덧셈 과정)에 따라 적어도 하나의 레슨(lesson)에 대하여 제공되는 학습 문제들에 대한 풀이 결과들을 의미할 수 있다. 교육 과정은, 커리큘럼에 따라 제공되는 학습과제 대분류에 해당할 수 있으며, 레슨은 특정 교육 과정 내에서 제공되는 학습과제 소분류에 해당할 수 있다. 예를 들어, 교육 과정은, 덧셈 기초 과정, 덧셈 심화 과정, 뺄셈 기초 과정, 뺄셈 심화 과정 등으로서, 미리 정해진 순서를 가질 수 있다. 구체적으로, 덧셈 기초 과정 다음에 학습할 교육 과정이 덧셈 심화 과정일 수 있고, 덧셈 심화 과정 다음에 학습할 교육 과정이 뺄셈 기초 과정일 수 있다.Specifically, the learning data may mean solution results for learning problems provided for at least one lesson according to a weekly or daily educational process (eg, an addition process). The educational process may correspond to a large classification of learning tasks provided according to a curriculum, and the lessons may correspond to a small classification of learning tasks provided within a specific education course. For example, the educational process may have a predetermined order, such as a basic addition course, an advanced addition course, a basic subtraction course, an advanced subtraction course, and the like. Specifically, a curriculum to be learned after the basic course of addition may be an advanced course of addition, and a curriculum to be learned after the advanced course of addition may be a basic course of subtraction.
예를 들어, 덧셈 기초 과정에 대한 레슨으로는 한자리 수에 대한 덧셈, 두자리 수에 대한 덧셈 등을 포함할 수 있고, 덧셈 심화 과정에 대한 레슨으로는 세자리 수에 대한 덧셈, 3개 이상의 수들 전체에 대한 덧셈 등을 포함할 수 있다.For example, lessons on the basic course of addition may include addition to single-digit numbers, addition to two-digit numbers, and so on, and lessons on the advanced course of addition may include addition to three-digit numbers, addition to all three or more numbers. It may include addition to .
학습량 추천 서버(100)는, 다수의 학생 단말들(200a~200n)로부터 다수의 과거 학습 데이터들을 수집하고, 수집된 과거 학습 데이터들을 기초로, 학생 단말들(200a~200n) 각각의 사용자들을 머신러닝 엔진(10)을 이용하여 군집화(clustering)함으로써, 사용자들 각각에 대응하는 학업성취능력 타입을 결정할 수 있다.The learning
여기서, 머신러닝 엔진(10)은, 가우시안 혼합 모델 (Gaussian Mixture Model, GMM) 기반으로 동작하는 군집화 엔진(102a)을 포함할 수 있다. 군집화 엔진(102a)은 가우시안 혼합 모델(GMM)을 소프트웨어 상으로 구현한 일종의 소스코드 또는 소스코드의 동작 프로그램에 해당할 수 있다.Here, the
사람마다 각자 타고난 재능이나 기억력, 수학 연산 능력 등이 상이하기 때문에, 사용자들 마다 동일한 문제를 제공받더라도 쉽게 풀수 있는 사람과 쉽게 풀기 어려운 사람이 나뉜다. 또한, 동일한 학업성취수준을 갖고있는 사용자들이라고 하더라도, 특정인은 수학을 잘 하는 반면에 국어에 약한 반면 다른 특정인은 수학을 국어보다 상대적으로 못하는 경향성도 있다. Since each person has a different innate talent, memory, mathematical calculation ability, etc., users are divided into those who can solve easily and those who cannot easily solve even if they are provided with the same problem. In addition, even among users with the same academic achievement level, there is a tendency that a specific person is good at math but weak in Korean language, while another specific person is relatively poor at math than Korean language.
본 발명의 일 실시예에서는 이처럼 사람마다 각자 학업성취능력이 상이한 점을 고려하여, 학업성취능력에 따라 가장 적합한 학습량을 추천할 수 있도록, 사용자들을 군집화하여 다수의 클러스터들(clusters)을 구성하고, 구성된 클러스터들 각각에 대응하는 학업성취능력 타입을 결정한다. 여기서, 학업성취능력 타입은 사용자가 속한 클러스터마다 개별적으로 부여되는 일종의 식별 기호로서 예를 들어, A, B, C 등과 같이 우열 없이 결정되는 기호를 사용하거나 그밖에 다양한 형태의 고유 식별 기호를 사용할 수 있다. 즉, 학업성취능력 타입은 해당 클러스터에 속하는 사용자들의 학업성취능력을 대표하는 의미로서 사용된다.In an embodiment of the present invention, in consideration of the fact that each person has a different academic achievement ability, a plurality of clusters are formed by clustering users to recommend the most suitable amount of learning according to the academic achievement ability, A type of academic achievement capability corresponding to each of the configured clusters is determined. Here, the academic achievement ability type is a kind of identification symbol that is individually assigned to each cluster to which the user belongs. For example, symbols that are determined without superiority or inferiority such as A, B, C, etc., or various other types of unique identification symbols can be used. . That is, the academic achievement ability type is used as a meaning representing the academic achievement ability of users belonging to the corresponding cluster.
군집화를 통해 사용자들 각각에 대응하는 학업성취능력 타입이 결정되면, 학습량 추천 서버(100)는, 사용자들에 대한 학습 데이터들을 학업성취능력 타입과 과거에 수행된 학습량에 따라 분류하고, 전처리함으로써 학습량 테이블(20)을 생성할 수 있다.When the academic achievement type corresponding to each user is determined through clustering, the learning
여기서 생성되는 학습량 테이블(20)은 추후에 특정 사용자를 위한 추천 학습량을 결정하기 위한 빅데이터로서 사용되며, 최대한 많은 사용자들을 대상으로 학습 데이터들을 수집하고, 사용자들 각각에 대응하는 학업성취능력 타입을 결정함으로써 최대한 방대한 빅데이터(big data) 기반의 학습량 테이블(20)을 구성하는 것이 바람직할 수 있다.The learning amount table 20 generated here is used as big data to determine the recommended amount of learning for a specific user in the future, and learning data is collected for as many users as possible, and the academic achievement ability type corresponding to each user is determined. It may be desirable to configure the learning amount table 20 based on the largest amount of big data by determining.
군집화를 통해 학습량 테이블(20)이 생성되면, 학습량 추천 서버(100)는, 특정인에 대한 추천 학습량을 제공하도록 동작할 수 있다.When the learning amount table 20 is generated through clustering, the learning
먼저, 학습량 추천 서버(100)는, 사용자들 중 타겟 사용자의 학생 단말(200)로부터 타겟 학습 데이터를 수신할 수 있고, 수신된 타겟 학습 데이터를 기반으로 머신러닝 엔진(10)을 이용하여 타겟 사용자와 대응하는 학업성취능력 타입을 예측할 수 있다.First, the learning
이때, 머신러닝 엔진(10)으로는 전술한 군집화 엔진(102a)이 사용될 수 있으나, 이에 한정되지 않는다.In this case, the
예를 들어, 머신러닝 엔진(10)으로 심층 신경망(deep neural network) 기반의 인공신경망 엔진(102b)이 사용될 수도 있다. 인공신경망 엔진(102b)은 훈련 입력값과 훈련 출력값의 셋트(set)로 구성되는 훈련 데이터를 이용하여, 특정 사용자의 학습 데이터를 입력받으면, 해당 특정 사용자와 대응하는 학업성취능력 타입을 지시하는 출력값을 출력하도록 미리 지도학습(supervised learning)될 수 있다.For example, an artificial
따라서, 학습량 추천 서버(100)는, 군집화 엔진(102a)을 이용하여 타겟 학습 데이터를 기반으로 타겟 사용자가 속하는 클러스터와 대응하는 학업성취능력 타입을 예측하거나, 인공신경망 엔진(102b)을 이용하여 타겟 학습 데이터를 기반으로 타겟 사용자와 대응하는 학업성취능력 타입을 예측할 수 있도록 구성될 수 있다.Therefore, the learning
학습량 추천 서버(100)는, 예측된 학업성취능력 타입을 기반으로 학습량 테이블(20)을 분석하여 예측된 학업성취능력 타입에 따른 타겟 사용자를 위한 추천 학습량을 결정할 수 있다.The learning
예를 들어, 추천 학습량(또는 학습량)은, 타겟 학습 데이터에 따른 타겟 사용자의 현재 교육 과정 이후에 학습할 다음 교육 과정(도면상의 뺄셈 과정) 및 주별 학습 횟수 및 일별 레슨 개수 등을 의미할 수 있다.For example, the recommended learning amount (or learning amount) may mean the next education course (subtraction process on the drawing) to be learned after the target user's current education course according to the target learning data, the number of learning per week, and the number of lessons per day. .
학습량 추천 서버(100)는, 결정된 추천 학습량을 타겟 사용자의 학생 단말(200)에 전송할 수 있다.The learning
타겟 사용자는, 학생 단말(200)로 자신의 학업성취능력 타입에서 가장 높은 성과를 달성할 것으로 예상되는 추천 학습량을 제공받기 때문에, 추천 학습량에 따라 학습을 진행함으로써 최적의 학업성취 결과를 달성할 가능성이 높아지게 될 수 있다.Since the target user is provided with the
도 2는 도 1에 따른 통계적 분석과 딥러닝 기반의 인공지능을 동시에 활용한 학습량 추천 장치의 기능적 구성요소들을 나타낸 블록도이다. 도 3은 도 1에 따른 학습량 테이블의 구성을 예시적으로 나타낸 도면이다. 도 4는 도 2에 따른 학습량 테이블을 참조하여 가중점수를 산출한 결과를 나타낸 도면이다.FIG. 2 is a block diagram showing functional components of an apparatus for recommending a learning amount using both statistical analysis and deep learning-based artificial intelligence according to FIG. 1 . 3 is a diagram showing the configuration of the learning amount table according to FIG. 1 by way of example. 4 is a diagram showing the result of calculating the weighted score with reference to the learning amount table according to FIG. 2 .
도 2를 참조하면, 학습량 추천 서버(100)는, 다수의 사용자들에 대응하는 학생 단말(200)들 각각으로부터 학습 데이터를 수집하는 학습 데이터 수집부(101), 학생 단말(200)들로부터 수집된 다수의 학습 데이터들을 이용하여 학생 단말(200)들 각각의 사용자들과 대응하는 학업성취능력 타입을 예측하는 학업성취능력 예측부(102), 예측된 학업성취능력 타입에 따라 학습 데이터들을 전처리(pre-processing)하여 학습량 테이블을 생성하는 학습량 테이블 생성부(103), 및 학습량 테이블을 참조하여 타겟 사용자에 대응하는 추천 학습량을 결정하고, 결정된 추천 학습량을 타겟 사용자의 학생 단말(200)에 제공하는 추천 학습량 결정부(104)를 포함할 수 있다.Referring to FIG. 2 , the learning
학습 데이터 수집부(101)는, 다수의 학생 단말(200)들과 연동하여 학습 데이터를 수집할 수 있다. 이를 위해 학생 단말(200)들과 주기적으로 유선 또는 무선 네트워크를 통해 통신함으로써 학습 데이터를 획득할 수 있다. 예를 들어, 학생 단말(200)들 각각에서 교육 과정에 따른 학습이 완료되면, 학생 단말(200)들 각각이 학습 데이터 수집부(101)로 학습 완료에 따른 학습 데이터를 전송할 수 있다.The learning
학업성취능력 예측부(102)는, 학습 데이터들을 이용하여 사용자들 각각과 대응하는 학업성취능력 타입을 예측하여 학습량 테이블 생성부(103)에 제공할 수 있다. The academic achievement
구체적으로, 학업성취능력 예측부(102)는, 학습 데이터들 각각에 대응하는 사용자들을 클러스터링함으로써, 사용자들 각각과 대응하는 클러스터를 결정하고, 결정된 클러스터에 부여되는 학업성취능력 타입을 결정하는 군집화 엔진(102a)을 포함할 수 있다.Specifically, the
예를 들어, 군집화 엔진(102a)은, 가우시안 혼합 모델 (Gaussian Mixture Model, GMM)에 따른 클러스터링 또는 K-평균 알고리즘에 따른 클러스터링을 수행할 수 있다.For example, the
여기서, K-평균 알고리즘은 가우시안 혼합 모델과 달리 비지도학습에 속하는 머신러닝 기반의 클러스터링 기법일 수 있다. 구체적으로 K-평균 알고리즘은 K개의 클러스터들 각각에 대한 초기 중심점에 해당하는 벡터값을 설정한 후, 사용자들 각각을 대표하는 학습 특징 벡터와 가까운 초기 중심점을 가진 클러스터에 사용자들을 할당한다.Here, the K-means algorithm may be a machine learning-based clustering technique belonging to unsupervised learning, unlike the Gaussian mixture model. Specifically, the K-means algorithm sets a vector value corresponding to an initial center point for each of the K clusters, and then assigns users to a cluster having an initial center point close to a learning feature vector representing each user.
다음으로, 모든 사용자들에 대한 클러스터 할당이 끝나면, 해당 클러스터에 속하는 사용자들의 학습 특징 벡터들의 중간값 또는 평균값으로 각 클러스터의 중심점을 재설정하고, 재설정된 중심점을 기준으로 모든 사용자들의 클러스터 할당을 다시 시행한다.Next, after cluster assignment to all users is completed, the center point of each cluster is reset to the median or average value of the learning feature vectors of users belonging to the cluster, and cluster assignment to all users is performed again based on the reset center point. do.
상술하는 중심점 재설정과 클러스터 재할당을 중심점의 변동이 없을 때까지 반복함으로써 사용자들을 클러스터들에 할당할 수 있다.Users can be assigned to clusters by repeating the above-described center point resetting and cluster reallocation until there is no change in the center point.
학습량 테이블 생성부(103)는, 군집화 엔진(102a)에 의해 결정되는 학업성취능력 타입에 따라 학습 데이터들을 전처리하여 학습량 테이블(20)을 생성할 수 있다.The learning
구체적으로, 학습량 테이블 생성부(103)는, 사용자의 현재 교육 과정에 따른 학습 데이터들을 기초로 군집화 엔진(102a)에 의해 결정되는 학업성취능력 타입과 현재 교육 과정 이후의 다음 교육 과정에서 수행된 학습량에 따라 분류하고, 분류된 학업성취능력 타입과 학습량에 대응하는 학습 데이터들에 대한 통계 데이터를 산출함으로써 학습 데이터들을 전처리할 수 있다.Specifically, the learning
즉, 학업성취능력 타입은 사용자의 현재 교육 과정에 따른 학습 데이터들을 기초로 군집화 엔진(102a)에 의해 예측된다.That is, the academic achievement type is predicted by the
도 3을 참조하면, 학습량 테이블(20)은, 학업성취능력 타입과 학습량에 따라 현재 교육 과정에 따른 학습 데이터들을 분류하고, 분류된 학습 데이터들에 대한 통계 연산 처리를 통해 얻어진 통계 데이터로서, 분류된 학습 데이터들에 대한 평가 통과율, 평가점수 평균 등을 포함할 수 있다.Referring to FIG. 3 , the learning amount table 20 classifies learning data according to the current educational process according to the type of academic achievement ability and the amount of learning, and is statistical data obtained through statistical calculation processing on the classified learning data. It may include the evaluation passing rate and the average evaluation score for the obtained training data.
여기서, 학습량은 해당 학업성취능력 타입의 사용자들의 다음 교육과정에서 수행한 주별 학습 횟수 및 일별 학습레슨 개수를 의미할 수 있다. 또 다른 예시로 학습량은 다음 교육과정에서 수행한 주별 학습일수와 학습시간을 의미할 수도 있다. 여기서 학습량은 그 지표를 설정되는 기준에 따라 시간, 일, 또는 월 단위로 설정될 수 있거나 그 혼용된 단위로 설정될 수도 있으며 이는 통상의 기술자의 용이 변형 사항에 해당하므로 자세한 설명은 생략한다.Here, the amount of learning may mean the number of learning per week and the number of daily learning lessons performed in the next curriculum of users of the corresponding academic achievement ability type. As another example, the amount of learning may mean the number of learning days and learning time per week performed in the next curriculum. Here, the amount of learning may be set in units of hours, days, or months according to the criteria for setting the indicator, or may be set in units of a mixture thereof, and since this corresponds to a modification easily performed by a person skilled in the art, a detailed description thereof will be omitted.
여기서, 평가 통과율은 해당 학업성취능력 타입으로 결정된 사용자들을 대상으로, 다음 교육과정에서 제공된 학습량에 따른 풀이 결과가 특정 기준 점수를 초과하는 사용자들의 비율일 수 있다.Here, the evaluation passing rate may be a ratio of users whose solution result according to the amount of learning provided in the next curriculum exceeds a specific reference score, targeting users determined to have the corresponding academic achievement type.
평가점수 평균은 해당 학업성취능력 타입으로 결정된 사용자들을 대상으로, 다음 교육과정에서 제공된 학습량에 따른 풀이 결과에서 평가점수들의 평균값일 수 있다.The average evaluation score may be an average value of evaluation scores in a solution result according to an amount of learning provided in a next curriculum targeting users determined to have a corresponding academic achievement type.
도 3을 참조하면, 현재 교육과정에서의 학업성취능력 타입이 클러스터 A에 속하는 사용자들 중에서, 다음 교육과정으로 제공된 학습량에 따른 주별 학습횟수가 3회이고, 일별 학습레슨 개수가 3개인 사용자들이 169명이고, 169명인 사용자들을 대상으로 다음 교육과정으로 제공된 학습량에 대한 평가 통과율이 92%이며, 학습량에 대한 평가점수 평균은 94점인 것을 확인할 수 있다.Referring to FIG. 3, among users whose academic achievement ability type in the current curriculum belongs to cluster A, users who have 3 weekly learning times and 3 daily learning lessons according to the amount of learning provided to the next curriculum are 169 , and 169 users, it can be confirmed that the evaluation pass rate for the amount of learning provided in the next curriculum is 92%, and the average evaluation score for the amount of learning is 94 points.
이와 같이, 학습량 테이블(20)은, 매우 방대한 다수의 사용자들의 현재 교육과정에 따른 학습 데이터들을 대상으로 사용자들 각각에 대응하는 학업성취능력 타입을 군집화 엔진(102a)을 이용하여 예측하고, 예측된 학업성취능력 타입에 따라 다음 교육과정에 따른 학습 데이터들에 대한 통계 데이터를 산출하는 방식으로 구성될 수 있다.In this way, the learning amount table 20 predicts, using the
이와 같이 학습량 테이블(20)이 현재 교육과정에 따른 학습 데이터들을 기반으로 예측된 학업성취능력 타입에 따라 분류되어 있어, 특정 타겟 사용자의 현재 교육과정에 따른 학습데이터들을 기초로 다음 교육과정에 따른 학습량을 추천하는 것이 용이하다.In this way, the learning amount table 20 is classified according to the predicted academic achievement ability type based on the learning data according to the current curriculum, and the learning amount according to the next curriculum based on the learning data according to the current curriculum of a specific target user It is easy to recommend
학습량 테이블(20)이 생성되면 추천 학습량을 제공하는 기능이 활성화된다.When the learning amount table 20 is created, a function of providing a recommended learning amount is activated.
구체적으로, 학습 데이터 수집부(101)는, 타겟 사용자의 학생 단말(200)로부터 타겟 사용자의 현재 교육과정에 따른 타겟 학습 데이터를 획득할 수 있다. 여기서 현재 교육과정이란 타겟 사용자가 현재 진행하고 있는 교육과정의 단계를 의미할 수 있다.Specifically, the learning
학업성취능력 예측부(102)는, 현재 교육과정에 따른 타겟 학습 데이터를 기반으로 타겟 사용자에 대응하는 학업성취능력 타입을 예측할 수 있다. The academic achievement
일 실시예에서, 학업성취능력 예측부(102)는, 군집화 엔진(102a)을 이용하여 타겟 사용자와 대응하는 클러스터를 결정하고, 결정된 클러스터에 부여된 학업성취능력 타입을 타겟 사용자에 대응하는 학업성취능력 타입으로 예측할 수 있다.In an embodiment, the academic achievement
다른 일 실시예에서, 학업성취능력 예측부(102)는, 딥러닝 기반의 인공신경망 엔진(102b)을 이용하여 타겟 사용자와 대응하는 학업성취능력 타입을 예측할 수도 있다. 인공신경망 엔진(102b)은, 훈련 데이터를 이용하여 미리 지도학습될 수 있다.In another embodiment, the
이때, 훈련 데이터를 구성하는 훈련 입력값은 다수의 사용자들 각각으로부터 수집된 학습 데이터를 이용하여 생성된 학습 특징 벡터일 수 있고, 훈련 출력값은 군집화 엔진(102a)을 이용하여 사용자들 각각에 대응하는 클러스터에 대하여 부여된 학업성취능력 타입일 수 있다.In this case, the training input value constituting the training data may be a learning feature vector generated using learning data collected from each of a plurality of users, and the training output value corresponds to each user using the
즉, 인공신경망 엔진(102b)은, 군집화 엔진(102a)을 통해 학업성취능력 타입이 라벨링(labeling)된 훈련 출력값을 제공받기 때문에, 인공신경망을 지도학습하기 위한 방대한 학습 데이터 수집의 어려움을 해소할 수 있다.That is, since the artificial
게다가, 군집화 엔진(102a)이, 머신러닝 기반의 가우시안 혼합 모델을 이용하여 구현되기 때문에 군집화 엔진(102a)을 통해 라벨링된 훈련 출력값을 사용하더라도 통계적으로 유의미하게 라벨링될 수 있어 이를 통해 학습된 인공신경망 엔진(102b)의 학업성취능력 타입에 대한 예측 정확도가 비교적 정확하게 구현된다.In addition, since the
추천 학습량 결정부(104)는, 학습량 테이블(20)에서 타겟 사용자에 대하여 예측된 학업성취능력 타입에 대응하는 다음 교육과정에 따른 학습량들 별 통계 데이터를 이용하여 미리 지정된 수학식에 따른 가중점수를 산출하고, 산출된 가중점수에 기초하여 추천 학습량을 결정할 수 있다.The recommended learning
예를 들어, 가중점수는 도 4에 도시된 것과 같이 학업성취능력 타입과 학습량에 따른 통계 데이터들을 대상으로 산출되며, 구체적으로 하기 수학식 1에 따라 산출될 수 있다. For example, as shown in FIG. 4 , the weighted score is calculated for statistical data according to the type of academic achievement ability and the amount of learning, and can be specifically calculated according to
수학식 1을 참조하면, N은 학업성취능력 타입과 학습량에 해당하는 학습인원들의 수이고, Nmin은 미리 학습능력 타입과 학습량에 따라 개별적으로 정의되는 최소 학습인원의 수이고, PP는 학업성취능력 타입과 학습량에 해당하는 학습인원들의 평가 통과율이고, acSC는 학업성취능력 타입과 학습량에 해당하는 학습인원들의 평가점수의 평균이고, k는 미리 학습성취능력 타입과 학습량에 따라 개별적으로 정의되는 가중치 상수이고, avgN은 학업성취능력 타입별 학습인원들의 수에 대한 평균값일 수 있다.Referring to
예를 들어, 타겟 사용자에 대하여 예측된 학업성취능력 타입이 클러스터 A에 해당하는 경우, 도 4에 도시된 것과 같이 학업성취능력 타입이 클러스터 A에 대응하는 다수의 학습량들 각각에 대한 통계 데이터들을 이용하여 학습량들 각각에 대하여 수학식 1에 따른 가중점수를 산출할 수 있다.For example, when the academic achievement type predicted for the target user corresponds to cluster A, as shown in FIG. Thus, a weighted score according to
이때, 추천 학습량 결정부(104)는, 수학식 1에 따라 학습량들 각각에 대하여 산출된 가중점수들 중에서, 가장 높게 산출된 가중점수와 대응하는 학습량을 추천 학습량으로서 결정할 수 있다.At this time, the recommended learning
즉, 도 4에서의 경우, 가중점수가 학습량으로서 주별 학습횟수가 3회이고, 일별 학습레슨의 개수가 3개일 때 가장 높은 값으로 산출되었기 때문에, 다음 교육과정에서의 추천 학습량은 주별 학습횟수가 3회이고, 일별 학습레슨의 개수가 3개인 학습량으로 결정된다.That is, in the case of FIG. 4, since the weighted score is calculated as the highest value when the number of learning times per week is 3 as the learning amount and the number of daily learning lessons is 3, the recommended learning amount in the next curriculum is the number of learning times per
도 5는 도 2에 따른 군집화 엔진의 동작을 설명하기 위한 도면이다.FIG. 5 is a diagram for explaining the operation of the clustering engine according to FIG. 2 .
군집화 엔진(102a)은 사용자별로 수집되는 학습 데이터들을 이용하여 사용자의 현재 교육과정을 대표하는 학습 특징 벡터를 생성할 수 있다.The
예를 들어, 도 5를 참조하면, 군집화 엔진(102a)은, 사용자별 수집되는 현재 교육과정에 따른 학습 데이터들을 이용하여 현재 교육과정과 레슨에 따른 문제풀이 횟수와 평가 통과 횟수, 현재 교육과정에서의 평균 통과 횟수, 현재 교육과정에서의 평균 점수, 및 레슨에서의 테스트 점수를 포함하는 전처리 학습 데이터를 획득할 수 있다.For example, referring to FIG. 5 , the
군집화 엔진(102a)은 획득된 전처리 학습 데이터에 포함된 지표들 중 적어도 일부를 이용하여 사용자에 대응하는 학습 특징 벡터를 생성할 수 있다.The
예를 들어, 군집화 엔진(102a)은, 현재 교육과정에서 레슨의 식별기호, 전처리 학습 데이터에서 문제풀이 횟수, 평가 통과 횟수, 평균 통과 횟수, 평균 점수, 및 레슨에서의 테스트 점수 각각을 성분값으로 하는 학습 특징 벡터를 생성할 수 있다.For example, the
예를 들어, 학습 특징 벡터는, 현재 교육과정에 속하는 레슨들마다 각각 하나씩 생성될 수 있다.For example, one learning feature vector may be generated for each lesson belonging to the current curriculum.
군집화 엔진(102a)은 사용자들 각각의 현재 교육과정에 따른 적어도 하나의 학습 특징 벡터를 이용하여 사용자들 각각을 다수의 클러스터들 중 하나로 분류(classify)할 수 있다. 예를 들어, 가우시안 혼합 모델(GMM)의 경우, 미리 지정된 K(K는 1보다 큰 자연수)개의 가우시안 분포들 각각이 클러스터와 대응하며. 사용자들을 K개의 가우시안 분포들 중 하나로 분류하도록 동작한다.The
구체적으로, 군집화 엔진(102a)의 경우, 베이즈 정리(Bayes' theorem)를 이용하여 K개의 가우시안 분포들 중에서 하기 수학식 2에 따른 가우시안 분포 선택함수(γ)의 결과값이 가장 높은 가우시안 분포를 선정하고, 선정된 가우시안 분포를 해당 사용자의 현재 교육과정에 대응하는 학업성취능력 타입으로 결정한다. Specifically, in the case of the
수학식 2에서 (γ)는 선택함수이고, xn은 해당 교육과정에서 n번째 레슨에 따른 학습 특징 벡터이고, znk는 학습 특징 벡터가 주어졌을 때 가우시안 혼합 모델에서 k(k는 1과 K 사이의 자연수)번째 가우시안 분포가 선택되면 1이고, 아니면 0의 값을 갖는 2진 변수이다. 또한 수학식 2에서 μ와 Σ는 가우시안 혼합 모델에 따른 파라미터로서 미리 가우시안 혼합 모델에 대한 학습 과정을 통해 확정되는 값이다. 가우시안 혼합 모델에 따른 파라미터를 결정하기 위한 학습 과정에 대해서는 Christopher Bishop의 Pattern Recognition and Machine Learning, 2008.03.18 을 참조하면 이해할 수 있으므로 구체적인 설명은 생략한다.In
도 6은 도 2에 따른 인공신경망 엔진의 동작을 설명하기 위한 도면이다. 도 7은 도 6에 따른 인공신경망 엔진의 구조를 구체적으로 도시한 도면이다. 도 8은 일 실시예에 따른 자가주의집중계층에서의 K벡터를 결정하는 방법을 설명하기 위한 도면이다.6 is a diagram for explaining the operation of the artificial neural network engine according to FIG. 2; FIG. 7 is a diagram showing the structure of the artificial neural network engine according to FIG. 6 in detail. 8 is a diagram for explaining a method of determining a K vector in a self-attention layer according to an embodiment.
도 6을 참조하면, 딥러닝 기반의 인공신경망 엔진(102b)은, 훈련 데이터를 구성하는 훈련 입력값으로 현재 교육과정에 따른 레슨 별 학습 특징 벡터들을 순차적으로 입력받았을 때, 인공신경망 엔진(102b)의 출력값으로 얻어지는 학업성취능력 타입을 훈련출력값과 서로 비교하고 비교 결과에 따라 인공신경망 엔진(102b)을 구성하는 파라미터들(parameters)을 조정(tuning)하는 방식으로 지도학습된다.Referring to FIG. 6, when the deep learning-based artificial
구체적으로, 딥러닝 기반의 인공신경망 엔진(102b)은, 인공신경망 엔진(102b)의 출력값으로 얻어지는 학업성취능력 타입을 지시하는 출력벡터와 훈련출력값에 따른 학업성취능력 타입을 지시하는 훈련출력벡터를 이용하여 미리 정의된 손실함수(loss function)에 따라 산출하고, 산출된 손실함수의 결과값이 최소화되도록 인공신경망 엔진(102b)을 구성하는 파라미터들을 조정할 수 있다.Specifically, the deep learning-based artificial
이때, 손실함수는 크로스 엔트로피(Cross Entropy) 함수일 수 있다.In this case, the loss function may be a cross entropy function.
도 7을 참조하면, 인공 신경망 엔진(102b)은, 학습 특징 벡터(X)를 입력받고, 입력받은 학습 특징 벡터의 성분값 개수와 동일한 개수(N)의 입력 노드들로 구성되는 입력층(11), 입력층(11)으로부터 전달받은 출력값들을 이용하여 산출된 출력 벡터(Y`)를 출력층(13)에 전달하는 은닉층(12), 및 출력 벡터(Y`)에 활성화 함수를 적용하여 출력 벡터(Y`)에 대응하는 확률(p)을 결정하고, 결정된 확률(p)이 가장 높은 출력 벡터(Y`)를 출력하는 출력층(13)을 포함할 수 있다. 본 발명에서 인공 신경망 엔진(102b)을 구성하는 노드들 각각은 본 발명이 속하는 기술분야에서 흔히 사용하는 표현인 뉴런(neuron)이라는 용어로도 혼용하여 지칭될 수 있다.Referring to FIG. 7 , the artificial
구체적으로, 인공 신경망 엔진(102b)은, 훈련 입력값으로 제공된 학습 특징 벡터(X)를 입력받으면, 은닉층(12)의 출력으로서 획득되는 출력 벡터(Y`)와 훈련 출력값으로 제공받은 학업성취능력 타입을 지시하는 훈련출력벡터(Y)를 사용하여 손실함수(loss function)을 연산하고, 연산된 손실함수의 결과값이 최소화되도록 지도학습된다.Specifically, when the artificial
예를 들어, 손실 함수(H(Y,Y`))는, 크로스 엔트로피(Cross Entropy) 함수일 수 있다. 출력 벡터(Y`)와 훈련출력벡터(Y) 사이의 크로스 엔트로피(H(Y,Y`))는 다음의 수학식 3과 같이 정의될 수 있다.For example, the loss function H(Y,Y′) may be a cross entropy function. The cross entropy (H(Y,Y`)) between the output vector (Y`) and the training output vector (Y) can be defined as in
수학식 3에서 Ym은 훈련출력벡터(Y)의 m(m은 1 이상의 자연수)번째 성분이고, Y`m은 출력 벡터(Y`)의 m번째 성분일 수 있다.In
입력층(11)은 학습 특징 벡터(X)를 입력받고, 입력받은 학습 특징 벡터(X)의 성분들 각각에 대하여, 입력 노드들과 대응하는 하나 이상의 연결 강도값들을 적용하여 은닉층(12)에 전달할 수 있다.The
예를 들어, 입력 노드들 각각에 대응하는 하나 이상의 연결 강도값들은 N×M의 크기를 갖는 제1 연결강도 행렬(WN×M)로 표현할 수 있다. 이때, N은 입력노드들과 동일한 개수일 수 있고, M은 N보다 1/10 배 이하로 충분히 작게 설정된다. 제1 연결강도 행렬(WN×M)은 임의의 초기값으로 설정된 후 지도학습을 통해 지속적으로 갱신되는 파라미터일 수 있다.For example, one or more connection strength values corresponding to each of the input nodes may be expressed as a first connection strength matrix (W N×M ) having a size of N×M. At this time, N may be the same number as the input nodes, and M is set sufficiently smaller than N by 1/10 times or less. The first connection strength matrix (W N×M ) may be a parameter that is continuously updated through supervised learning after being set to a random initial value.
종합하면, 입력층(11)은 입력받은 학습 특징 벡터(X)에 제1 연결강도 행렬(WN×M)을 행렬곱 연산하여 얻어진 중간 연산 벡터(X)을 은닉층(12)에 전달할 수 있다.In summary, the
은닉층(12)은, 입력층(11)으로부터 전달받은 중간 연산 벡터(X)에서 획득되는 특징 벡터(feature vector, F)에 은닉 노드들 각각에 대응하는 하나 이상의 연결 강도를 적용하여 출력 벡터(Y`)를 생성하고, 생성된 출력 벡터(Y`)를 출력층(13)에 전달할 수 있다. The hidden layer 12 applies one or more connection strengths corresponding to each of the hidden nodes to a feature vector (F) obtained from an intermediate operation vector (X) received from the
예를 들어, 은닉층(12)은, 중간 연산 벡터(X)로부터 아래 수학식 4를 만족하는 대각 행렬(diagonal matrix)인 특징 벡터(F)를 획득할 수 있다.For example, the hidden layer 12 may obtain a feature vector F, which is a diagonal matrix that satisfies
수학식 4에서, R는 대각 행렬인 특징 벡터(F)와 중간 연산 벡터(X) 사이에 수학식4에 따른 관계를 가역적으로 만족시키는 행렬로서, 좌표변환행렬에 해당한다. 수학식 4에 따른 연산은 대각화 연산의 하나로 지칭될 수 있으며, 통상의 기술자에게 쉽게 이해될 수 있으므로 구체적인 설명은 생략한다.In
이때, 은닉 노드들 각각에 대응하는 하나 이상의 연결 강도값들은 M×Q의 크기를 갖는 제2 연결강도 행렬(UM×Q)로 표현할 수 있다. 즉, 제2 연결강도 행렬(UM×Q)은 M개의 차원으로 사상된 특징 벡터(F)를 다시 Q개의 차원으로 늘린다. Q는 M보다 10배 이상 충분히 큰 값으로 설정된다.In this case, one or more connection strength values corresponding to each of the hidden nodes may be expressed as a second connection strength matrix (U M×Q ) having a size of M×Q. That is, the second connection strength matrix (UM×Q) increases the feature vector (F) mapped in M dimensions to Q dimensions again. Q is set to a value that is at least 10 times larger than M.
한편, 제2 연결강도 행렬(UM×Q)의 초기값은 임의의 값으로 설정된 후, 특징 벡터(F)와 제2 연결강도 행렬(UM×Q) 사이의 행렬곱 연산하여 생성된 출력 벡터(Y`)가 훈련 출력값인 훈련출력벡터(Y)가 되도록 지속적으로 갱신될 수 있다. 즉, 제2 연결강도 행렬(UM×Q)도 훈련 데이터를 지속적으로 지도학습함에 따라 갱신되는 파라미터일 수 있다.Meanwhile, after the initial value of the second coupling strength matrix (U M×Q ) is set to an arbitrary value, an output generated by performing a matrix multiplication operation between the feature vector (F) and the second coupling strength matrix (U M×Q ) The vector (Y′) can be continuously updated to become the training output vector (Y), which is a training output value. That is, the second connection strength matrix (U M×Q ) may also be a parameter that is updated as training data is continuously supervised.
즉, 은닉층(12)은, 입력층(11)으로부터 전달받은 중간 연산 벡터(X)를 특징 벡터로 변환하고, 특징 벡터에 대하여 연결강도를 적용하여 출력 벡터(Y`)를 생성하므로, 마치 CNN(convolutional neural network)의 특징 추출을 담당하는 컨볼루셔널 레이어와 유사한 기능을 은닉층(12)에서 수행하도록 구성할 수 있다.That is, since the hidden layer 12 converts the intermediate operation vector (X) received from the
출력층(13)은, 은닉층(12)으로부터 전달받은 출력 벡터(Y`)에 활성화 함수를 적용함으로써 출력 벡터(Y`)에 대응하는 확률(p)을 결정하고, 결정된 확률(p)이 가장 높은 출력 벡터(Y`)를 출력할 수 있다. 활성화 함수는 다양한 범위를 가지는 값들을 0과 1 사이의 값으로 확대 또는 축소함으로써 확률로 변환하는 효과가 있다. 예를 들어, 활성화 함수는, ReLU 함수 또는 Softmax 함수일 수 있으나 이에 한정되는 것은 아니다.The
한편, 일 실시예에서 입력층(11)과 은닉층(12) 사이에 2의 8제곱에 해당하는 값인 256의 p 배수(p는 2 이상의 자연수로서 예를 들면 3)에 해당하는 개수의 뉴런들로 구성되는 자가주의집중 계층(14)이 더 포함될 수 있다. 자가주의집중계층(14, self-attention layer)은, 자기집중 메커니즘(self-attention mechanism)에 따른 기법을 수행하는 계층으로서, 입력층(11)으로부터 전달되는 시퀀스로부터 정보를 통합하는 신경망 구조의 한 종류이다. On the other hand, in one embodiment, between the
자가집중 메커니즘에 대해서는 Vaswani , output probability to another component or to another sys- A. , Shazeer , N. , Parmar , N. , Uszkoreit , J. , Jones , L. , Gomez , tem , and the like . Examples of the output terminal may 45 A. N. , Kaiser , L. and Polosukhin , I. , 2017.을 참조하여 이해될 수 있으므로, 기본적인 설명은 간략히 하였다.For self-focusing mechanisms, Vaswani, output probability to another component or to another sys-A., Shazeer, N., Parmar, N., Uszkoreit, J., Jones, L., Gomez, tem, and the like. Since it can be understood by referring to Examples of the output terminal may 45 A. N., Kaiser, L. and Polosukhin, I., 2017., the basic description has been simplified.
한편, 본 발명의 일 실시예에서 자가주의집중계층(14)은, 입력층(11)의 출력으로 제공되는 중간 연산 벡터(X)들 각각의 중요도를 판별하여 중요도가 상대적으로 낮은 정보를 배제시켜 은닉층(12)으로 전달하도록 동작함으로써 예측 결과를 높일 수 있는 역할을 한다. 특히, 입력층(11)으로 하나의 교육 과정에 따른 레슨 별 학습 특징 벡터(X)가 순차적으로 입력될 경우, 다음 교육 과정에 영향이 큰 레슨과 영향이 적은 레슨이 구별되기 때문에 이를 고려하여 은닉층(12)에 전달함으로써 예측 성공율을 높이도록 구성하는 것이 바람직하다.On the other hand, in one embodiment of the present invention, the self-
구체적으로, 자가주의집중계층(14)은, 쿼리(query)와 키(key), 값(value)이라고 하는 3개의 변수들 각각과 대응하는 벡터들을 이용하여 입력층(11)에서 전달받는 중간 연산 벡터(X)들 마다 중요도를 나타내는 자가주의집중 값(α)을 산출한 뒤, 입력층(11)에서 전달받은 중간 연산 벡터(X)들 중에서, 산출된 자가주의집중 값이 가장 높게 산출되는 중간 연산 벡터(X)를 선정하여 은닉층(12)으로 전달하도록 구성될 수 있다.Specifically, the self-attention-focused
자가주의집중 값(α)을 산출하기 위하여, 쿼리(query) 변수와 대응하는 q벡터, 키(key) 변수와 대응하는 K벡터, 값(value) 변수와 대응하는 V 벡터가 먼저 결정되어야 한다. 여기서, q벡터는 중요도를 판별하고자 하는 대상으로서, 본 발명에서는 입력층(11)의 출력으로 제공되는 중간 연산 벡터(X)일 수 있다. K벡터는 q벡터와 연산됨으로써 중요도 판별의 기준값을 도출하는 역할을 할 수 있다. V벡터는 K벡터와 q벡터 사이의 연산 결과로 얻어지는 확률값에 대해 적절한 크기의 자가주의집중 값(α)을 도출하는 역할을 한다. q벡터, K벡터, 및 v벡터는 모두 동일한 차원을 갖는 벡터이다.In order to calculate the self-attention value (α), a q vector corresponding to a query variable, a K vector corresponding to a key variable, and a V vector corresponding to a value variable must first be determined. Here, the q vector is an object to determine the importance, and in the present invention, it may be an intermediate operation vector (X) provided as an output of the
도 8을 참조하면, 일 실시예에서 K 벡터는 현재 교육과정에 따른 레슨의 총 개수, 레슨에서 문제풀이 횟수에 따른 평가 통과 횟수의 비율, 및 현재 교육과정에서 평균 통과 횟수에 따른 평균 점수의 비율 각각을 성분값으로 갖는 초기 K벡터가 구성될 수 있다.Referring to FIG. 8, in one embodiment, K vector is the ratio of the total number of lessons according to the current curriculum, the ratio of the number of passing evaluations according to the number of problem solving in the lesson, and the ratio of the average score according to the average number of passing in the current curriculum An initial K vector having each of the component values may be constructed.
다음으로, 초기 K벡터가 q벡터와 대응하는 차원을 갖도록 미리 설정된 기준값을 이용하여 패딩(padding) 처리되고, 마스크 벡터(mask vecter)와 쉬프트 내적 연산된 결과값으로서 K벡터가 결정될 수 있다. 마스크 벡터는 연산 대상이 되는 성분값들에 대한 데이터 평활화(data smoothing)을 하는 벡터로서, 다양한 형태의 스무딩용 벡터들이 존재하므로 통상의 기술자는 주지된 스무딩 벡터들 중 하나를 선택적으로 활용할 수 있다.Next, the initial K vector may be padded using a preset reference value to have a dimension corresponding to the q vector, and the K vector may be determined as a result of shift dot product operation with a mask vector. A mask vector is a vector for data smoothing on component values to be operated, and since various types of smoothing vectors exist, a person skilled in the art can selectively utilize one of well-known smoothing vectors.
쉬프트 내적 연산은 마스크 벡터가 하나의 성분값씩 이동하면서 패딩 처리된 초기 K벡터와의 내적(dot)연산을 순차적으로 수행하는 것을 의미할 수 있다. 즉, 내적 연산이 수행될 때마다 순차적으로 얻어지는 결과값들이 K벡터의 성분값들이 된다. The shift dot product operation may mean sequentially performing a dot operation with the padded initial K vector while the mask vector is shifted by one component value. That is, the result values sequentially obtained each time the dot product operation is performed become component values of the K vector.
V 벡터는 관리자에 의해 미리 설정되는 고정된 성분값을 갖는 벡터일 수 있다.The V vector may be a vector with fixed component values preset by an administrator.
결정된 q벡터, K벡터, V벡터를 기반으로 하기 수학식에 따른 자가주의집중 값(α)이 다음과 같이 산출될 수 있다.Based on the determined q vector, K vector, and V vector, the self attention value (α) according to the following equation can be calculated as follows.
상기 수학식 5를 참조하면, activate는 입력값에 대한 확률값을 출력하는 활성화함수로서 전술한 ReLU 함수 또는 Softmax 함수일 수 있다. q는 상기 q벡터이고, K는 상기 K벡터이고, V는 상기 V벡터이고, d는 q벡터와 K벡터 사이의 연산 결과를 미리 설정된 크기의 값 이하로 낮춰주는 상수로서 미리 설정되는 값일 수 있다. Referring to
본 발명의 일 실시예에서 은닉층(12)은, 서로 순차적으로 연결된 복수의 은닉층들로 구성될 수 있다. 예를 들어, 은닉층(12)은 서로 순차적으로 연결된 제1 은닉층, 제2 은닉층, 제3 은닉층, 및 제4 은닉층으로 구성될 수 있다. 이때, 제1 내지 제4 은닉층은 선형 레이어(linear layer)일 수 있으며, 제1 내지 제4 은닉층들 중에서 적어도 하나는 밀집 레이어(dense layer)일 수 있다. 여기서 선형 레이어 또는 밀집 레이어의 지정은 Tensorflow에서 미리 정의된 함수를 통해 간단하게 설정될 수 있으므로 설명은 생략한다.In one embodiment of the present invention, the hidden layer 12 may be composed of a plurality of hidden layers sequentially connected to each other. For example, the hidden layer 12 may include a first hidden layer, a second hidden layer, a third hidden layer, and a fourth hidden layer sequentially connected to each other. In this case, the first to fourth hidden layers may be linear layers, and at least one of the first to fourth hidden layers may be a dense layer. The designation of the linear layer or the dense layer here can be easily set through a predefined function in Tensorflow, so the description is omitted.
또한, 제1 내지 제4 은닉층들 중에서 적어도 하나는 은닉층들의 개수와 은닉층들 각각이 갖는 뉴런들의 수에 따라 결정되는 확률(p)에 따라 드랍아웃(drop out)이 적용될 수 있다.In addition, drop out may be applied to at least one of the first to fourth hidden layers according to a probability p determined according to the number of hidden layers and the number of neurons each of the hidden layers has.
본 발명의 일 실시예에서, 드랍아웃이란, 해당 계층을 구성하는 뉴런들 중에서 확률(p)에 따라 무작위로 선택된 적어도 일부의 뉴런들의 가중치를 0 또는 미리 정의된 상수로 설정함으로써 해당 일부의 뉴런들을 비활성화하거나 방해하도록 구성하는 것을 의미할 수 있다.In one embodiment of the present invention, dropout refers to setting the weights of at least some neurons randomly selected according to a probability (p) from among the neurons constituting the layer to 0 or a predefined constant so that some neurons are It can mean disabling or configuring it to interfere.
예를 들어, 제1 은닉층이 768개의 뉴런들로 구성되고, 확률(p)이 0.2인 경우, 768개의 뉴런들 중 무작위로 선택된 20%의 뉴런들(즉, 768/5 개의 뉴런들)에 대한 가중치가 0 또는 미리 정의된 상수로 설정될 수 있다.For example, if the first hidden layer is composed of 768 neurons and the probability (p) is 0.2, for 20% of neurons (i.e., 768/5 neurons) randomly selected among the 768 neurons, The weight can be set to 0 or a predefined constant.
예를 들어, 확률(p)는 다음의 수학식 6과 같이 정의될 수 있다.For example, probability p may be defined as in Equation 6 below.
수학식 6에서 NRn은 제1 내지 제4 은닉층들에 포함된 뉴런들의 평균 개수일 수 있고, HDn은 은닉층들의 전체 개수로서 제1 내지 제4 은닉층들로 구성될 경우 4일 수 있다. In Equation 6, NRn may be the average number of neurons included in the first to fourth hidden layers, and HDn is the total number of hidden layers, which may be 4 when the first to fourth hidden layers are included.
이처럼, 제1 내지 제4 은닉층들 중에서 적어도 하나에 대하여 드랍아웃을 적용할 경우, 은닉층들의 수와 각 뉴런들의 수가 증가함에 따라 발생할 수 있는 과적합 경향성을 보상하거나 상쇄할 수 있어 더 높은 예측 효과를 가져오는 데 도움이 될 수 있다. As such, when dropout is applied to at least one of the first to fourth hidden layers, it is possible to compensate or offset the overfitting tendency that may occur as the number of hidden layers and each neuron increases, resulting in a higher prediction effect. can help bring
일 실시예에서, 제1 내지 제4 은닉층들 중에서 제1 은닉층 및 제3 은닉층 내지 제4 은닉층 각각은 서로 동일한 뉴런들의 수로 구성될 수 있다. 예를 들어, 각각 768개의 뉴런들로 구성될 수 있다.In one embodiment, each of the first hidden layer and the third to fourth hidden layers among the first to fourth hidden layers may include the same number of neurons. For example, each may consist of 768 neurons.
이때, 제1 은닉층 뒤에 연결되는 제2 은닉층을 구성하는 뉴런들의 수는 다른 은닉층들 각각이 갖는 뉴런들의 수보다 적어도 4 배이상 클 수 있다. 제2 은닉층을 구성하는 뉴런들의 수를 다른 은닉층들 각각이 갖는 뉴런들의 수보다 기준치 이상 크게 설정할 경우, 인공 신경망 엔진(102b)이 과적합되는 경향성이 줄어들 수 있는 장점이 있다.In this case, the number of neurons constituting the second hidden layer connected behind the first hidden layer may be at least four times greater than the number of neurons each of the other hidden layers has. When the number of neurons constituting the second hidden layer is set to be larger than the reference value or more than the number of neurons of each of the other hidden layers, there is an advantage in that the overfitting tendency of the artificial
도 9는 일 실시예에 따른 통계적 분석과 딥러닝 기반의 인공지능을 동시에 활용한 학습량 추천 장치의 하드웨어 구성을 예시적으로 나타낸 도면이다.9 is a diagram showing the hardware configuration of an apparatus for recommending a learning amount using statistical analysis and deep learning-based artificial intelligence at the same time according to an embodiment by way of example.
도 9를 참조하면, 학습량 추천 서버(100)는, 적어도 하나의 프로세서(110), 상기 적어도 하나의 프로세서(110)가 적어도 하나의 동작(operation)을 수행하도록 지시하는 명령어들(instructions)을 저장하는 메모리(memory, 120)를 포함할 수 있다.Referring to FIG. 9, the learning
여기서, 적어도 하나의 동작은 전술한 학습량 추천 서버(100)이 동작이나 기능들 중에서 적어도 일부를 포함하는 것으로 해석되며, 중복 설명을 방지하기 위하여 구체적인 설명은 생략된다.Here, at least one operation is interpreted as including at least some of the operations or functions of the aforementioned learning
여기서 적어도 하나의 프로세서(110)는 중앙 처리 장치(central processing unit, CPU), 그래픽 처리 장치(graphics processing unit, GPU), 또는 본 발명의 실시예들에 따른 방법들이 수행되는 전용의 프로세서를 의미할 수 있다. 메모리(120)는 휘발성 저장 매체 및 비휘발성 저장 매체 중에서 적어도 하나로 구성될 수 있다. Here, the at least one
학습량 추천 서버(100)는, 적어도 하나의 동작을 수행함에 따른 입력 데이터, 중간 처리 데이터, 임시 데이터, 출력 데이터 등을 비일시적으로 저장하기 위한 저장 장치(160)를 더 포함할 수 있다.The learning
예를 들어, 메모리(120)는 읽기 전용 메모리(read only memory, ROM) 및 랜덤 액세스 메모리(random access memory, RAM) 중 하나일 수 있고, 저장 장치(160)는, 플래시메모리(flash-memory), 하드디스크 드라이브(HDD), 솔리드 스테이트 드라이브(SSD), 또는 각종 메모리 카드(예를 들어, micro SD 카드) 등일 수 있다.For example, the
또한, 학습량 추천 서버(100)는, 무선 네트워크를 통해 통신을 수행하는 송수신 장치(transceiver)(130)를 더 포함할 수 있다. 또한, 학습량 추천 서버(100)는 입력 인터페이스 장치(140), 출력 인터페이스 장치(150) 등을 더 포함할 수 있다. 학습량 추천 서버(100)에 포함된 각각의 구성 요소들은 버스(bus)(170)에 의해 연결되어 서로 통신을 수행할 수 있다.In addition, the learning
학습량 추천 서버(100)의 예를 들면, 통신 가능한 데스크탑 컴퓨터(desktop computer), 랩탑 컴퓨터(laptop computer), 노트북(notebook), 스마트폰(smart phone), 태블릿 PC(tablet PC), 모바일폰(mobile phone), 스마트 워치(smart watch), 스마트 글래스(smart glass), e-book 리더기, PMP(portable multimedia player), 휴대용 게임기, 네비게이션(navigation) 장치, 디지털 카메라(digital camera), DMB(digital multimedia broadcasting) 재생기, 디지털 음성 녹음기(digital audio recorder), 디지털 음성 재생기(digital audio player), 디지털 동영상 녹화기(digital video recorder), 디지털 동영상 재생기(digital video player), PDA(Personal Digital Assistant) 등일 수 있다.For example, the learning
도 10은 일 실시예에 따른 통계적 분석과 딥러닝 기반의 인공지능을 동시에 활용한 학습량 추천 방법 및 장치의 효과를 확인할 수 있는 통계 분석 결과를 나타낸 그래프이다.10 is a graph showing statistical analysis results for confirming the effect of a learning amount recommendation method and apparatus using statistical analysis and deep learning-based artificial intelligence at the same time according to an embodiment.
도 10을 참조하면, 본 발명의 일 실시예에 따른 통계적 분석과 딥러닝 기반의 인공지능을 동시에 활용한 학습량 추천 방법 또는 통계적 분석과 딥러닝 기반의 인공지능을 동시에 활용한 학습량 추천 장치에서 제공되는 추천 학습량으로 다음 교육과정에서의 학습을 실시한 제1 사용자 그룹에 대한 평가성적(Xi)에 따른 확률분포(with AI)가 도시된다.Referring to FIG. 10, a learning amount recommendation method using statistical analysis and deep learning-based artificial intelligence at the same time or a learning amount recommendation device using statistical analysis and deep learning-based artificial intelligence at the same time according to an embodiment of the present invention The probability distribution (with AI) according to the evaluation scores (X i ) for the first user group, which has learned in the next curriculum with the recommended amount of learning, is shown.
또한, 도 10을 참조하면, 본 발명의 일 실시예에 따라 제공되는 추천 학습량으로 다음 교육과정에서의 학습을 실시하지 않고, 사용자들 각자의 선택에 따른 학습량으로 다음 교육과정에서의 학습을 실시한 제2 사용자 그룹에 대한 평가성적(Xi)에 따른 확률분포(General)가 도시된다.In addition, referring to FIG. 10, learning in the next curriculum is not performed with the recommended learning amount provided according to an embodiment of the present invention, but learning in the next curriculum is performed with the learning amount selected by each user. A probability distribution (General) according to evaluation scores (X i ) for 2 user groups is shown.
여기서, 제1 사용자 그룹과 제2 사용자 그룹이 수행한 현재 교육과정과 다음 교육과정은 동일하며, 각 그룹에 속하는 사용자들의 수는 동일하다. 도면에서 곱셉, 나눗셈, 분수/소수는 각각 다음 교육과정을 의미하며, 덧셈 -> 곱셈 -> 나눗셈 -> 분수/소수의 교육과정 순서를 가진다.Here, the current training course and the next training course performed by the first user group and the second user group are the same, and the number of users belonging to each group is the same. In the drawing, multiplication, division, and fraction/decimal mean the next curriculum, respectively, and have the curriculum order of addition -> multiplication -> division -> fraction/decimal.
이때, 도 9에 도시된 것과 같이 학업성취능력 타입이 D 타입이고, 다음 교육과정이 분수/소수인 경우를 제외한 거의 모든 학업성취능력 타입에 따른 다음 교육과정에서 모두 본 발명의 일 실시예에 따른 추천 학습량을 실시하였을 때 더 높은 평가성적을 갖는 것이 확인된다.At this time, as shown in FIG. 9, all of the following curriculum according to the academic achievement ability type, except for the case where the academic achievement ability type is D type and the next curriculum is fractional/decimal, are all according to an embodiment of the present invention. It is confirmed that it has a higher evaluation score when the recommended learning amount is implemented.
따라서, 본 발명의 일 실시예에 따라 제공되는 추천 학습량으로 학습할 경우 학습 효과가 더욱 높아질 수 있어 학업 효율이 크게 증가할 수 있는 장점이 있다. 또한 자신의 학습량을 스스로 선택하거나 계획하기 힘든 어린 학생일수록, 추천 학습량을 제공받았을 때 더욱 높은 학업 성취도 증가 효과가 나타날 수 있다.Therefore, in the case of learning with the recommended learning amount provided according to an embodiment of the present invention, the learning effect can be further enhanced, and thus the study efficiency can be greatly increased. In addition, for young students who have difficulty choosing or planning their own learning volume, a higher academic achievement increase effect may appear when they are provided with the recommended learning volume.
본 발명에 따른 방법들은 다양한 컴퓨터 수단을 통해 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 컴퓨터 판독 가능 매체에 기록되는 프로그램 명령은 본 발명을 위해 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다.The methods according to the present invention may be implemented in the form of program instructions that can be executed by various computer means and recorded on a computer readable medium. Computer readable media may include program instructions, data files, data structures, etc. alone or in combination. Program instructions recorded on a computer readable medium may be specially designed and configured for the present invention or may be known and usable to those skilled in computer software.
컴퓨터 판독 가능 매체의 예에는 롬(ROM), 램(RAM), 플래시 메모리(flash memory) 등과 같이 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함될 수 있다. 프로그램 명령의 예에는 컴파일러(compiler)에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터(interpreter) 등을 사용해서 컴퓨터에 의해 실행될 수 있는 고급 언어 코드를 포함할 수 있다. 상술한 하드웨어 장치는 본 발명의 동작을 수행하기 위해 적어도 하나의 소프트웨어 모듈로 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.Examples of computer readable media may include hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions may include not only machine language codes generated by a compiler but also high-level language codes that can be executed by a computer using an interpreter and the like. The hardware device described above may be configured to operate with at least one software module to perform the operations of the present invention, and vice versa.
또한, 상술한 방법 또는 장치는 그 구성이나 기능의 전부 또는 일부가 결합되어 구현되거나, 분리되어 구현될 수 있다. In addition, the above-described method or device may be implemented by combining all or some of its components or functions, or may be implemented separately.
상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다. Although the above has been described with reference to preferred embodiments of the present invention, those skilled in the art will variously modify and change the present invention within the scope not departing from the spirit and scope of the present invention described in the claims below. You will understand that it can be done.
10: 머신러닝 엔진
20: 학습량 테이블
100: 학습량 추천 서버
101: 학습 데이터 수집부
102: 학업성취능력 예측부
102a: 군집화 엔진
102b: 인공신경망 엔진
103: 학습량 테이블 생성부
104: 추천 학습량 결정부
200: 학생 단말10: Machine learning engine
20: learning amount table
100: learning volume recommendation server
101: learning data collection unit
102: Academic Achievement Ability Prediction Unit
102a: clustering engine
102b: artificial neural network engine
103: learning amount table generation unit
104: recommended learning amount determining unit
200: student terminal
Claims (8)
다수의 사용자들에 대응하는 학생 단말들로부터 다수의 학습 데이터들을 수집하는 학습 데이터 수집부;
상기 다수의 학습 데이터들을 이용하여 상기 학생 단말들 각각의 사용자와 대응하는 학업성취능력 타입을 예측하는 학업성취능력 예측부;
예측된 학업성취능력 타입에 따라 상기 학습 데이터들을 전처리(pre-processing)하여 상기 학습 데이터들에 대한 통계적 연산 처리에 따른 결과로서 얻어지는 학습량 테이블을 생성하는 학습량 테이블 생성부; 및
상기 학습량 테이블을 참조하여 타겟 사용자에 대응하는 추천 학습량을 결정하고, 결정된 상기 추천 학습량을 상기 타겟 사용자의 학생 단말에 제공하는 추천 학습량 결정부;를 포함하고,
상기 학업성취능력 예측부는,
상기 사용자들의 현재 교육과정에 따른 학습 데이터들에 기초하여 상기 사용자들을 클러스터링함으로써, 상기 사용자들 각각에 대응하는 클러스터(cluster)를 결정하고, 결정된 클러스터에 부여된 학업성취능력 타입을 해당 클러스터에 속하는 사용자의 학업성취능력 타입으로 예측하는 군집화 엔진; 및
상기 사용자들 각각의 학습 데이터와 대응하는 훈련 입력값 및 상기 군집화 엔진을 통해 학업성취능력 타입이 라벨링된 훈련 출력값으로 구성되는 훈련 데이터를 이용하여 지도학습(supervised-learning)되고, 복수의 은닉층들로 구성되는 딥러닝 네트워크 기반으로 상기 타겟 사용자에 대응하는 학업성취능력 타입을 예측하는 인공신경망 엔진;을 포함하고,
상기 학습량 테이블은, 상기 예측된 학업성취능력 타입에 해당하는 사용자들이 현재 교육과정의 다음 교육과정에서 실제로 수행한 다수의 학습량들 각각에 대하여, 상기 다음 교육과정과 대응하는 상기 학습 데이터들을 이용하여 산출한 학습인원, 평가 통과율 및 평가점수 평균을 포함하고,
상기 학습량들 각각은, 상기 다음 교육과정에서 수행한 주별 학습 횟수 및 일별 학습레슨의 개수를 포함하고,
상기 학습량 테이블 생성부는,
상기 군집화 엔진에 의해 결정되는 학업성취능력 타입과 상기 다음 교육 과정에서 수행된 학습량에 따라 상기 다수의 학습 데이터들을 분류하고, 분류된 학업성취능력 타입과 학습량에 대응하는 학습 데이터들에 대한 통계 데이터를 산출함으로써 상기 학습 데이터들을 전처리하고,
상기 추천 학습량 결정부는,
상기 학습량 테이블에서 상기 다수의 학습량들 각각에 대응하는 상기 통계 데이터를 이용하여 상기 다수의 학습량들 각각마다 하기 수학식에 따른 가중점수를 산출하고, 산출된 가중점수에 기초하여 상기 추천 학습량을 결정하되,
상기 수학식에서 N은 학업성취능력 타입과 학습량에 해당하는 학습인원들의 수이고, Nmin은 미리 학습능력 타입과 학습량에 따라 개별적으로 정의되는 최소 학습인원의 수이고, PP는 학업성취능력 타입과 학습량에 해당하는 학습인원들의 평가 통과율이고, acSC는 학업성취능력 타입과 학습량에 해당하는 학습인원들의 평가점수의 평균이고, k는 미리 학습성취능력 타입과 학습량에 따라 개별적으로 정의되는 가중치 상수이고, avgN은 학업성취능력 타입별 학습인원들의 수에 대한 평균값인, 통계적 학습량에 대한 가중점수 및 인공지능 기반의 학습량 추천 장치.As a weighted score for statistical learning amount and AI-based learning amount recommendation device,
a learning data collection unit that collects a plurality of learning data from student terminals corresponding to a plurality of users;
an academic achievement predictor predicting an academic achievement ability type corresponding to a user of each of the student terminals by using the plurality of learning data;
a learning amount table generation unit that pre-processes the learning data according to the predicted academic achievement ability type and generates a learning amount table obtained as a result of statistical calculation processing on the learning data; and
A recommended learning amount determining unit for determining a recommended learning amount corresponding to a target user by referring to the learning amount table and providing the determined recommended learning amount to a student terminal of the target user;
The academic achievement ability prediction unit,
By clustering the users based on learning data according to the current curriculum of the users, a cluster corresponding to each of the users is determined, and the academic achievement type assigned to the determined cluster is assigned to the users belonging to the cluster. A clustering engine that predicts the academic achievement type of ; and
Supervised-learning is performed using training data composed of training input values corresponding to the learning data of each of the users and training output values labeled with an academic achievement type through the clustering engine, and a plurality of hidden layers. An artificial neural network engine that predicts the type of academic achievement corresponding to the target user based on the configured deep learning network;
The learning amount table is calculated using the learning data corresponding to the next curriculum for each of a plurality of learning amounts actually performed in the next curriculum of the current curriculum by users corresponding to the predicted academic achievement ability type. Including the number of students, the passing rate and the average of the evaluation scores,
Each of the learning amounts includes the number of weekly learning and the number of daily learning lessons performed in the next curriculum,
The learning amount table generation unit,
The plurality of learning data is classified according to the type of academic achievement determined by the clustering engine and the amount of learning performed in the next educational process, and statistical data for the learning data corresponding to the type of academic achievement and the amount of learning classified preprocessing the learning data by calculating
The recommended learning amount determining unit,
Calculate a weighted score according to the following equation for each of the plurality of learning amounts using the statistical data corresponding to each of the plurality of learning amounts in the learning amount table, and determine the recommended learning amount based on the calculated weighted score ,
In the above equation, N is the number of learners corresponding to the type and amount of learning ability, Nmin is the minimum number of learners individually defined according to the type and amount of learning ability in advance, and PP is the number of learners corresponding to the type and amount of learning ability. The evaluation pass rate of the corresponding learners, acSC is the average of the evaluation scores of the learners corresponding to the type of learning achievement and the amount of learning, k is a weight constant individually defined according to the type of learning achievement and the amount of learning, and avgN is A weighted score for statistical learning amount, which is the average value of the number of learners by type of academic achievement ability, and an artificial intelligence-based learning amount recommendation device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220066803A KR102473188B1 (en) | 2021-12-03 | 2022-05-31 | Method and apparatus for recommending learning amount based on artificial intelligence and weighted score for statistical learning amount |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210172011A KR102405832B1 (en) | 2021-12-03 | 2021-12-03 | Method and device for recommending learning volume using statistical analysis and deep learning-based artificial intelligence at the same time |
KR1020220066803A KR102473188B1 (en) | 2021-12-03 | 2022-05-31 | Method and apparatus for recommending learning amount based on artificial intelligence and weighted score for statistical learning amount |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210172011A Division KR102405832B1 (en) | 2021-12-03 | 2021-12-03 | Method and device for recommending learning volume using statistical analysis and deep learning-based artificial intelligence at the same time |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102473188B1 true KR102473188B1 (en) | 2022-12-02 |
Family
ID=81987082
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210172011A KR102405832B1 (en) | 2021-12-03 | 2021-12-03 | Method and device for recommending learning volume using statistical analysis and deep learning-based artificial intelligence at the same time |
KR1020220066803A KR102473188B1 (en) | 2021-12-03 | 2022-05-31 | Method and apparatus for recommending learning amount based on artificial intelligence and weighted score for statistical learning amount |
KR1020220066805A KR20230083990A (en) | 2021-12-03 | 2022-05-31 | Method and device for recommending learning volume using statistical analysis and deep learning-based artificial intelligence at the same time |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210172011A KR102405832B1 (en) | 2021-12-03 | 2021-12-03 | Method and device for recommending learning volume using statistical analysis and deep learning-based artificial intelligence at the same time |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020220066805A KR20230083990A (en) | 2021-12-03 | 2022-05-31 | Method and device for recommending learning volume using statistical analysis and deep learning-based artificial intelligence at the same time |
Country Status (1)
Country | Link |
---|---|
KR (3) | KR102405832B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118228611A (en) * | 2024-05-23 | 2024-06-21 | 无锡谨研物联科技有限公司 | Artificial intelligence experiment system and method |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20180102786A (en) * | 2017-03-08 | 2018-09-18 | 김동희 | Customized learning service providing method based on big data associated with learning |
KR102040506B1 (en) * | 2018-11-06 | 2019-11-05 | 주식회사 대교 | Individually costomized learning workload prediction system and method |
KR20210086577A (en) * | 2019-12-31 | 2021-07-08 | 주식회사 달공 | Metacognitive based education content curation system |
KR20210108319A (en) * | 2020-02-25 | 2021-09-02 | 한국전자통신연구원 | Method and system for automatic classification based on machine learning |
KR20210141320A (en) * | 2020-02-18 | 2021-11-23 | (주)뤼이드 | A system for tracking user knowledge based on artificial intelligence learning and method thereof |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CA3144657C (en) * | 2017-05-23 | 2023-10-10 | Google Llc | Attention-based sequence transduction neural networks |
-
2021
- 2021-12-03 KR KR1020210172011A patent/KR102405832B1/en active IP Right Grant
-
2022
- 2022-05-31 KR KR1020220066803A patent/KR102473188B1/en active IP Right Grant
- 2022-05-31 KR KR1020220066805A patent/KR20230083990A/en unknown
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20180102786A (en) * | 2017-03-08 | 2018-09-18 | 김동희 | Customized learning service providing method based on big data associated with learning |
KR102040506B1 (en) * | 2018-11-06 | 2019-11-05 | 주식회사 대교 | Individually costomized learning workload prediction system and method |
KR20210086577A (en) * | 2019-12-31 | 2021-07-08 | 주식회사 달공 | Metacognitive based education content curation system |
KR20210141320A (en) * | 2020-02-18 | 2021-11-23 | (주)뤼이드 | A system for tracking user knowledge based on artificial intelligence learning and method thereof |
KR20210108319A (en) * | 2020-02-25 | 2021-09-02 | 한국전자통신연구원 | Method and system for automatic classification based on machine learning |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118228611A (en) * | 2024-05-23 | 2024-06-21 | 无锡谨研物联科技有限公司 | Artificial intelligence experiment system and method |
Also Published As
Publication number | Publication date |
---|---|
KR20230083990A (en) | 2023-06-12 |
KR102405832B1 (en) | 2022-06-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102506132B1 (en) | Method and device for personalized learning amount recommendation based on self-attention mechanism | |
Tomasevic et al. | An overview and comparison of supervised data mining techniques for student exam performance prediction | |
Xu et al. | A machine learning approach for tracking and predicting student performance in degree programs | |
Wang et al. | Predicting construction cost and schedule success using artificial neural networks ensemble and support vector machines classification models | |
Silva-Ramírez et al. | Single imputation with multilayer perceptron and multiple imputation combining multilayer perceptron and k-nearest neighbours for monotone patterns | |
Zafra et al. | Multiple instance learning for classifying students in learning management systems | |
Silva-Ramírez et al. | Missing value imputation on missing completely at random data using multilayer perceptrons | |
US11468337B2 (en) | System and methods for facilitating pattern recognition | |
CN110852390A (en) | Student score classification prediction method and system based on campus behavior sequence | |
KR102563986B1 (en) | Method and apparatus for recommending learning amount using artificial intelligence and clustering using k-means algorithm at the same time | |
Ahmed et al. | Discovering diverse, high quality design ideas from a large corpus | |
Wilson et al. | Classification of open-ended responses to a research-based assessment using natural language processing | |
Ndou et al. | Educational data-mining to determine student success at higher education institutions | |
CN117540104B (en) | Learning group difference evaluation method and system based on graph neural network | |
KR102473188B1 (en) | Method and apparatus for recommending learning amount based on artificial intelligence and weighted score for statistical learning amount | |
KR102509367B1 (en) | Learning amount recommendation method and apparatus using deep learning-based artificial intelligence composed of a plurality of hidden layers that compensate for overfitting tendencies through dropout | |
Gambo et al. | Performance comparison of convolutional and multiclass neural network for learning style detection from facial images | |
Lu et al. | Application of neighborhood components analysis to process and survey data to predict student learning of statistics | |
Jiang et al. | Applying AdaBoost to improve diagnostic accuracy | |
Dhumal et al. | Automatic Handwriting Analysis and Personality Trait Detection using Multi-Task Learning Technique | |
Lafi et al. | Classification of Apple Diseases Using Deep Learning | |
CN116029760A (en) | Message pushing method, device, computer equipment and storage medium | |
Jiang et al. | Learning analytics in a blended computer education course | |
Pavlekovic et al. | Comparison of intelligent systems in detecting a child’s mathematical gift | |
Cao et al. | Learner behavioral feature refinement and augmentation using GANs |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |