KR20240143236A - Conversation evaluation system for language education - Google Patents
Conversation evaluation system for language education Download PDFInfo
- Publication number
- KR20240143236A KR20240143236A KR1020230038265A KR20230038265A KR20240143236A KR 20240143236 A KR20240143236 A KR 20240143236A KR 1020230038265 A KR1020230038265 A KR 1020230038265A KR 20230038265 A KR20230038265 A KR 20230038265A KR 20240143236 A KR20240143236 A KR 20240143236A
- Authority
- KR
- South Korea
- Prior art keywords
- chat
- conversation
- user
- data
- message
- Prior art date
Links
- 238000011156 evaluation Methods 0.000 title claims abstract description 39
- 238000013473 artificial intelligence Methods 0.000 claims abstract description 25
- 238000012937 correction Methods 0.000 claims description 15
- 238000013135 deep learning Methods 0.000 claims description 12
- 238000007405 data analysis Methods 0.000 claims description 8
- 238000010801 machine learning Methods 0.000 claims description 3
- 238000004891 communication Methods 0.000 abstract description 12
- 238000000034 method Methods 0.000 description 15
- 238000012545 processing Methods 0.000 description 13
- 238000012360 testing method Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 6
- 238000004458 analytical method Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000002452 interceptive effect Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000007619 statistical method Methods 0.000 description 2
- 238000013480 data collection Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000008451 emotion Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000003203 everyday effect Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/20—Education
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/50—Business processes related to the communications industry
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B19/00—Teaching not covered by other main groups of this subclass
- G09B19/06—Foreign languages
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/01—Assessment or evaluation of speech recognition systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L12/00—Data switching networks
- H04L12/02—Details
- H04L12/16—Arrangements for providing special services to substations
- H04L12/18—Arrangements for providing special services to substations for broadcast or conference, e.g. multicast
- H04L12/1813—Arrangements for providing special services to substations for broadcast or conference, e.g. multicast for computer conferences, e.g. chat rooms
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L51/00—User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
- H04L51/02—User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail using automatic reactions or user delegation, e.g. automatic replies or chatbot-generated messages
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L51/00—User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
- H04L51/21—Monitoring or handling of messages
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Tourism & Hospitality (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Economics (AREA)
- General Business, Economics & Management (AREA)
- Educational Administration (AREA)
- Educational Technology (AREA)
- Human Computer Interaction (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Acoustics & Sound (AREA)
- Computational Linguistics (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- General Engineering & Computer Science (AREA)
- Entrepreneurship & Innovation (AREA)
- Information Transfer Between Computers (AREA)
Abstract
본 발명은 인공지능을 이용하여 화상 커뮤니케이션의 참석자의 말하기 능력을 평가하고, 교정하는 것에 저렴한 비용으로 더욱 효율적인 어학교육을 가능하게 하기 위한 어학교육을 위한 대화 평가 시스템에 관한 것이다. The present invention relates to a conversation evaluation system for language education that enables more efficient language education at a low cost by evaluating and correcting the speaking ability of participants in a video communication using artificial intelligence.
Description
본 발명은 화상 채팅 커뮤니케이션 기술에 관한 것으로서, 보다 상세하게는 화상 채팅에서 주고, 받는 음성 채팅 메시지를 분석하여 사용자의 외국어 말하기 능력을 평가하고, 교정하는 어학교육을 위한 대화 평가 시스템에 관한 것이다. The present invention relates to video chat communication technology, and more specifically, to a conversation evaluation system for language education that evaluates and corrects a user's foreign language speaking ability by analyzing voice chat messages sent and received in a video chat.
외국어 말하기 시험은 면대면 인터뷰와 컴퓨터 기반의 평가 방법이 있다. 면대면 인터뷰는 응시자와 평가자간 특정 주제와 상황에 대해서 질문과 응답을 하는 형식으로 진행된다. 이런 면대면 인터뷰는 물리적인 시간과 리소스 부족으로 응시 비용이 비싸고, 대중적으로 적용되기에는 무리가 있다. Foreign language speaking tests are conducted through face-to-face interviews and computer-based assessment methods. Face-to-face interviews are conducted in the form of questions and answers between the examinee and the evaluator on specific topics and situations. Such face-to-face interviews are expensive due to the lack of physical time and resources, and are difficult to apply to the general public.
컴퓨터 기반의 평가는 실제 생활에서 얼마나 효과적이고 적절한 언어를 사용할 수 있는가를 측정하는 평가 도구로 응시자들이 컴퓨터를 통해 질문에 대한 답변을 녹음하는 것으로 상대적으로 면대면 인터뷰 보다 많이 활용되고 있다. 이런 컴퓨터 기반의 평가들도 실제 응시자가 컴퓨터에 나오는 가이드에 따라 질문을 받으면 이에 대한 응답만 하게 되어 응시자의 실질적인 회화 능력을 깊이 있게 평가하기에는 한계가 있다. Computer-based assessments are an assessment tool that measures how effectively and appropriately language can be used in real life, and are used more frequently than face-to-face interviews, as the examinees record their answers to questions on the computer. These computer-based assessments also have limitations in deeply assessing the examinees’ actual conversational skills, as the examinees only respond to questions that are guided by a computer.
한편, 인공지능(Artificial Intelligence)은 비즈니스, 조직운영, 생활방식 그리고 커뮤니케이션 방법에 혁신을 일으키고 있다. 매일매일 빠르게 변화하는 현대적 문화의 생활방식과 다양하게 끊임없이 변화되는 고객의 요구사항에 최적의 서비스를 제공하기 위한 다양한 정보화 프로젝트가 진행되고 있으며, 그 중에서도 최근 빅데이터와 딥 러닝 관련 기술이 빠른 속도로 발전하여 특정 분야에서는 실생활에 적용되고 있는 인공지능 기술이 구현되었으며, 특정 데이터에 대한 분석과, 개개인에게 특화된 다양한 분야의 정보를 통합 제공 및 활용하는 지능화된 개인 서비스에도 적용되고 있다. 현재 인공지능과 인간의 인터랙션은 제한적이지만 일상적인 자연어, 즉 대화 형태로 이루어진다.Meanwhile, artificial intelligence (AI) is revolutionizing business, organizational operations, lifestyles, and communication methods. Various information projects are being carried out to provide optimal services to the rapidly changing lifestyles of modern culture and the constantly changing needs of customers. Among them, big data and deep learning-related technologies have been rapidly developing recently, and AI technologies that are applied to real life in specific fields have been implemented, and they are also being applied to intelligent personal services that analyze specific data and integrate and utilize information from various fields specialized for each individual. Currently, the interaction between AI and humans is limited, but it is done in the form of everyday natural language, that is, conversation.
종래의 인공지능 외국어 말하기 시험은 주어진 텍스트를 읽는 영어 발음, 사진을 보고 묘사, 질문에 대한 간단한 대답을 통해 회화 능력을 평가한다. 이런 말하기 시험에서는 단순 발음 능력을 측정하거나, 질문을 한 후, 수초 이상을 응시자가 답변을 생각하고 정리한 후 주어진 시간 분량 안에 대답을 하게 한다. 이런 시험은 평가하는 측면에서, 발음의 정확도, 사진 묘사력, 질문의 이해 및 답변의 유창성 일관성을 평가한다. 이런 인공지능 말하기 시험도 응시자의 회화 능력을 심층적으로 평가하기는 어렵고, 흔히 응시자의 설문 입력 내용을 기반으로 문제를 큐레이션 하는 것으로 응시자가 문제 패턴을 익힌 후, 해당 패턴에 맞는 답변만 미리 준비하면, 높은 말하기 능력 평가 점수를 받을 수 있는 한계가 있다. 또한 응시자들은 본인의 평가 결과에 대한 점수와 대략적인 설명만 받을 수 있고, 응시자가 말한 내용을 분석한 세세한 항목별 피드백을 받을 수 없어, 어떤 부분에서 부족한지 파악하기 어려운 한계가 있다.Conventional AI foreign language speaking tests evaluate conversational skills through reading a given text, describing a picture, and answering simple questions. In these speaking tests, simple pronunciation skills are measured, or after asking a question, the test taker thinks about and organizes the answer for several seconds and then answers within a given time limit. In terms of evaluation, these tests evaluate the accuracy of pronunciation, the ability to describe a picture, the understanding of the question, and the fluency and consistency of the answer. These AI speaking tests also have difficulty in deeply evaluating the test taker's conversational skills, and since questions are often curated based on the test taker's questionnaire input, there is a limit to receiving a high speaking ability evaluation score if the test taker learns the question pattern and prepares only the answers that match the pattern in advance. In addition, test takers can only receive a score and a general explanation of their evaluation results, and cannot receive detailed item-by-item feedback that analyzes what the test taker said, making it difficult to identify which areas they are lacking in.
특허문헌 1(대한민국 공개특허공보 제 2007-0024918 호)은 화상 커뮤니케이션을 가상 공간상에서 제공하여, 가상의 공간에서 제공되는 다양한 시나리오에 따라 보다 더 현실적인 대화를 가상 공간에서 수행할 수 있는 가상 공간에서 화상 커뮤니케이션 서비스를 제공하는 방법을 개시한다. Patent Document 1 (Korean Patent Publication No. 2007-0024918) discloses a method for providing a video communication service in a virtual space, which provides video communication in a virtual space and enables more realistic conversations to be performed in the virtual space according to various scenarios provided in the virtual space.
특허문헌 2(대한민국 공개특허공보 제 2002-0066804 호)는 강사와 학습자가 생방송으로 인터페이스가 가능하도록 하는 학습방식으로서 인터넷을 접속하여 강사가 수업에 필요한 여러 가지 동영상 및 문서, 외부 어플리케이션 등을 실시간으로 학습자에게 제공하여 학습효과를 높이는 실시간 온라인 사이버 학습 시스템을 개시한다. Patent Document 2 (Korean Patent Publication No. 2002-0066804) discloses a real-time online cyber learning system that provides various videos, documents, external applications, etc. necessary for the class to the learner in real time by connecting to the Internet, as a learning method that enables a live interface between the instructor and the learner, thereby enhancing the learning effect.
특허문헌 3(대한민국 공개특허공보 제 2021-0059995 호)은 미리 설정된 문제에 대하여, 외국어로 답변한 사용자의 음성을 수신하고, 상기 수신된 사용자의 음성을 텍스트로 변환하는 단계; 상기 변환된 텍스트의 분석에 기초하여 상기 사용자의 발화량을 체크하고, 상기 문제의 답변에 대한 문법, 감정, 주제 및 카테고리 중 적어도 하나를 추출하는 단계; 상기 변환된 텍스트를 입력으로 하는 학습 모델 기반의 뉴럴 네트워크를 이용하여 상기 문제의 답변에 대한 단어 사용 적합성, 문법 적합성 및 질문 관련성 중 적어도 하나를 판단하는 단계; 및 상기 사용자의 발화량, 상기 추출된 적어도 하나와 상기 판단된 적어도 하나에 기초하여 상기 사용자의 외국어 말하기 능력을 평가하는 단계를 포함하는 학습 기반의 외국어 말하기 평가방법을 개시한다. Patent Document 3 (Korean Patent Publication No. 2021-0059995) discloses a learning-based foreign language speaking evaluation method, including the steps of: receiving a user's voice answering a preset question in a foreign language, and converting the received user's voice into text; checking the user's speech volume based on analysis of the converted text, and extracting at least one of grammar, emotion, topic, and category for the answer to the question; determining at least one of word usage appropriateness, grammatical appropriateness, and question relevance for the answer to the question using a neural network based on a learning model that uses the converted text as input; and evaluating the user's foreign language speaking ability based on the user's speech volume, the extracted at least one, and the determined at least one.
기존의 어학 스터디 모임의 경우 리더가 다른 사람들이 말하는 것을 듣고 평가 및 교정을 해주고 있다. 그러나, 이러한 리더 역할을 하는 사람이 현저히 부족하고, 특히나 어학수준이 일정 레벨 이상인 리더는 더욱더 부족한 현실이다. In the case of existing language study groups, the leader listens to what others say and evaluates and corrects them. However, there is a significant shortage of people who play this leadership role, and especially leaders with a certain level of language proficiency are even more in short supply.
따라서, 본 발명은 이러한 어학 스터디 모임의 리더를 인공지능 AI로 대체함으로써 교육비용을 절감하고, 교육의 품질을 향상시키는 것을 제 1의 기술적 과제로 한다. Therefore, the first technical task of the present invention is to reduce educational costs and improve educational quality by replacing the leaders of such language study groups with artificial intelligence (AI).
또한, 본 발명은 인공지능을 이용하여 화상 커뮤니케이션의 참석자의 말하기 능력을 평가하고, 교정하는 것에 저렴한 비용으로 더욱 효율적인 어학교육을 가능하게 하는 것을 제 2의 기술적 과제로 한다. In addition, the present invention has as its second technical task to enable more efficient language education at a low cost by evaluating and correcting the speaking ability of participants in a video communication using artificial intelligence.
상술한 목적을 달성하기 위한 본 발명의 제 1 양태로서의 어학교육을 위한 대화 평가 시스템은, 복수의 사용자들간에 화상 채팅 서비스를 제공하는 화상 채팅 어플리케이션이 설치된 복수의 사용자 단말과 이 복수의 사용자 단말간의 화상 채팅 메시지를 매개하는 채팅 서버가 네트워크를 경유하여 접속되어 있는 환경에 있어서, 상기 채팅 서버에서, 상기 복수의 사용자 단말에 설치된 화상 채팅 어플리케이션을 이용하여 화상 채팅 메시지를 주고, 받기 위한 화상 채팅을 위한 대화 세션을 개설하는 단계; 상기 대화 세션에 대화형 인공지능인 챗봇(Chat Bot)을 친구로 추가시키는 단계; 상기 챗봇(Chat Bot)이 상기 화상 채팅 메시지를 획득하고, 이 화상 채팅 메시지를 분석하여 사용자의 외국어 말하기 능력을 평가하는 단계; 및 상기 챗봇(Chat Bot)이 상기 사용자의 외국어 말하기 능력의 평가 레벨에 기반하여 상기 화상 채팅 메시지를 올바르게 교정하고, 이렇게 교정된 메시지를 해당하는 사용자 단말에 응답하는 단계를 실행하는 것을 특징으로 한다. In order to achieve the above-described purpose, the first aspect of the present invention provides a conversation evaluation system for language education, which comprises the steps of: in an environment where a plurality of user terminals, each of which has a video chat application installed to provide a video chat service between a plurality of users, and a chat server that mediates video chat messages between the plurality of user terminals, are connected via a network; in the chat server, opening a conversation session for video chatting to send and receive video chat messages using the video chat application installed in the plurality of user terminals; adding a chat bot, which is a conversational artificial intelligence, as a friend to the conversation session; obtaining the video chat message by the chat bot, analyzing the video chat message, and evaluating the user's foreign language speaking ability; and executing the step of the chat bot correctly correcting the video chat message based on the evaluation level of the user's foreign language speaking ability, and responding the corrected message to the corresponding user terminal.
본 발명의 다른 제 2 양태로서의 어학교육을 위한 대화 평가 시스템은, 상기 제 1 양태에 있어서, 상기 챗봇(Chat Bot)은, 상기 화상 채팅 메시지를 전달받고, 이 채팅 메시지의 음성 대화 데이터를 텍스트 대화 데이터로 변환하고, 이 텍스트 대화 데이터를 단어 단위로 분할하는 음성 데이터 분석부와; 상기 단어 단위로 분할된 텍스트 대화 데이터를 기준으로 단어 사용 적합성, 문법 적합성 및 발음 적합성중 적어도 하나를 판단하고, 이러한 판단에 기초하여 사용자의 외국어 말하기 능력을 평가하는 말하기 평가부; 및 상기 음성 대화 데이터의 잘못된 단어, 문법, 발음에 대해서 올바르게 교정된 단어, 문법, 발음을 포함하는 메시지를 생성하고, 이를 해당하는 사용자에게 채팅 메시지로서 응답하는 말하기 교정부를 포함하는 것을 특징으로 한다. As another second aspect of the present invention, a conversation evaluation system for language education is characterized in that, in the first aspect, the Chat Bot includes: a voice data analysis unit that receives the video chat message, converts voice conversation data of the chat message into text conversation data, and divides the text conversation data into word units; a speaking evaluation unit that determines at least one of word usage appropriateness, grammar appropriateness, and pronunciation appropriateness based on the text conversation data divided into word units, and evaluates the user's foreign language speaking ability based on the determination; and a speaking correction unit that generates a message including correctly corrected words, grammar, and pronunciation for incorrect words, grammar, and pronunciation in the voice conversation data, and responds to the corresponding user as a chat message.
본 발명의 다른 제 3 양태로서의 어학교육을 위한 대화 평가 시스템은, 상기 제 2 양태에 있어서, 상기 채팅 서버는, 상기 음성 대화 데이터와, 그 평가 정보 및 교정된 채팅 메시지를 하나의 데이터 세트로 저장하는 것을 특징으로 한다. As another third aspect of the present invention, a conversation evaluation system for language education is characterized in that, in the second aspect, the chat server stores the voice conversation data, its evaluation information, and corrected chat messages as one data set.
본 발명의 다른 제 4 양태로서의 어학교육을 위한 대화 평가 시스템은, 상기 제 3 양태에 있어서, 상기 데이터 세트들을 빅데이터로 머신러닝하는 것에 의해 상기 챗봇의 인공지능 알고리즘을 업그레이드하기 위한 딥러닝 서버를 더 포함하는 것을 특징으로 한다. As another fourth aspect of the present invention, a conversation evaluation system for language education is characterized in that, in the third aspect, it further includes a deep learning server for upgrading the artificial intelligence algorithm of the chatbot by machine learning the data sets into big data.
본 발명에 따르면, 사용자간의 자연스런 채팅 과정에서 대화형 인공지능에 의해 자신의 외국어 말하기 능력을 평가받고, 교정을 받을 수 있기 때문에 저렴한 비용으로 효율적인 어학교육이 가능해져 해외 유학을 가거나 비싼 렛슨 비용을 지불하며 어학을 배울 필요가 없다. According to the present invention, since one's foreign language speaking ability can be evaluated and corrected by conversational artificial intelligence during a natural chat process between users, efficient language education is possible at a low cost, eliminating the need to study abroad or pay expensive lesson fees to learn a language.
본 명세서에 첨부되는 다음의 도면들은 본 발명의 바람직한 실시예를 예시하는 것이며, 후술되는 발명의 상세한 설명과 함께 본 발명의 기술사상을 더욱 이해시키는 역할을 하는 것이므로, 본 발명은 그러한 도면에 기재된 사항에만 한정되어 해석되어서는 아니된다.
도 1은 본 발명의 바람직한 일 실시예에 따른 인공지능을 이용한 화상 채팅 시스템의 개요도이다.
도 2는 본 발명의 바람직한 일 실시예에 따른 채팅 서버의 구성을 도시한 기능 블록도이다.
도 3은 본 발명에 따른 화상 채팅을 위한 채팅창의 일 예를 캡춰한 화면이다.
도 4는 본 발명의 바람직한 일 실시예에 따른 챗봇의 구성을 도시한 기능 블록도이다. The following drawings attached to this specification illustrate preferred embodiments of the present invention and, together with the detailed description of the invention described below, serve to further understand the technical idea of the present invention; therefore, the present invention should not be interpreted as being limited to matters described in such drawings.
Figure 1 is a schematic diagram of a video chat system using artificial intelligence according to a preferred embodiment of the present invention.
FIG. 2 is a functional block diagram illustrating the configuration of a chat server according to a preferred embodiment of the present invention.
FIG. 3 is a screen capture of an example of a chat window for video chat according to the present invention.
Figure 4 is a functional block diagram illustrating the configuration of a chatbot according to a preferred embodiment of the present invention.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는바, 특정 실시예들을 도면에 예시하고 상세하게 설명하고자 한다. 그러나 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야한다. The present invention can have various modifications and various embodiments, and specific embodiments are illustrated in the drawings and described in detail. However, this is not intended to limit the present invention to specific embodiments, and it should be understood that it includes all modifications, equivalents, and substitutes included in the spirit and technical scope of the present invention.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다.When it is said that a component is "connected" or "connected" to another component, it should be understood that it may be directly connected or connected to that other component, but there may also be other components in between.
반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. On the other hand, when it is said that a component is "directly connected" or "directly connected" to another component, it should be understood that there are no other components in between.
본 명세서에서 사용되는 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 공정, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 공정, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used herein is only used to describe specific embodiments and is not intended to limit the present invention. The singular expression includes the plural expression unless the context clearly indicates otherwise. In this application, it should be understood that the terms "comprises" or "has" and the like are intended to specify the presence of a feature, number, process, operation, component, part or combination thereof described in the specification, but do not exclude in advance the possibility of the presence or addition of one or more other features, numbers, processes, operations, components, parts or combinations thereof.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미가 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미가 있는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Terms defined in commonly used dictionaries, such as those defined in common dictionaries, should be interpreted as having a meaning consistent with the meaning they have in the context of the relevant art, and shall not be interpreted in an idealized or overly formal sense unless expressly defined in this application.
본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정하여 해석되어서는 아니 되며, 발명자는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념을 적절하게 정의할 수 있다는 원칙에 입각하여, 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다. 또한, 사용되는 기술 용어 및 과학 용어에 있어서 다른 정의가 없다면, 이 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 통상적으로 이해하고 있는 의미를 가지며, 하기의 설명 및 첨부 도면에서 본 발명의 요지를 불필요하게 흐릴 수 있는 공지 기능 및 구성에 대한 설명은 생략한다. 다음에 소개되는 도면들은 당업자에게 본 발명의 사상이 충분히 전달될 수 있도록 하기 위해 예로서 제공되는 것이다. 따라서, 본 발명은 이하 제시되는 도면들에 한정되지 않고 다른 형태로 구체화될 수도 있다. 또한, 명세서 전반에 걸쳐서 동일한 참조번호들은 동일한 구성요소들을 나타낸다. 도면들 중 동일한 구성요소들은 가능한 한 어느 곳에서든지 동일한 부호들로 나타내고 있음에 유의해야 한다.The terms or words used in this specification and claims should not be interpreted as limited to their common or dictionary meanings, and should be interpreted as meanings and concepts that conform to the technical idea of the present invention based on the principle that the inventor can appropriately define the concept of the term in order to explain his or her own invention in the best way. In addition, if there is no other definition for the technical and scientific terms used, they have the meanings commonly understood by those of ordinary skill in the technical field to which this invention belongs, and the description of well-known functions and configurations that may unnecessarily obscure the gist of the present invention in the following description and the attached drawings are omitted. The drawings introduced below are provided as examples so that those skilled in the art can sufficiently convey the idea of the present invention. Therefore, the present invention is not limited to the drawings presented below and may be embodied in other forms. In addition, the same reference numerals represent the same components throughout the specification. It should be noted that the same components in the drawings are represented by the same symbols wherever possible.
이하 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세하게 설명하도록 한다. 첨부된 도면은 축척에 의하여 도시되지 않았으며, 각 도면의 동일한 참조 번호는 동일한 구성 요소를 지칭한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the attached drawings. The attached drawings are not drawn to scale, and like reference numerals in each drawing indicate like components.
도 1은 본 발명의 바람직한 일 실시예에 따른 인공지능을 이용한 외국어 말하기 평가 시스템의 개요도이다. Figure 1 is a schematic diagram of a foreign language speaking evaluation system using artificial intelligence according to a preferred embodiment of the present invention.
도 1을 참조하면, 본 발명에 따른 인공지능을 이용한 외국어 말하기 평가 시스템은, 유,무선 네트워크(104)를 통해 다수의 사용자 단말들(110 내지 130)에 화상 채팅 서비스를 제공하는 채팅 서버(210)를 포함한다. 이러한 화상 채팅 서비스는 사용자 단말들(110 내지 130)에 설치된 화상 채팅 어플리케이션(111)을 통해 상기 채팅 서버(210)로부터 제공된다. Referring to FIG. 1, the foreign language speaking evaluation system using artificial intelligence according to the present invention includes a chat server (210) that provides a video chat service to a plurality of user terminals (110 to 130) through a wired or wireless network (104). This video chat service is provided from the chat server (210) through a video chat application (111) installed in the user terminals (110 to 130).
본 발명의 일 실시예에 따르면, 상기 채팅 서버(210)는 사용자 단말들(110 내지 130)의 사용자 간에 화상 대화가 진행되는 동안, 사용자로부터 입력된 외국어(예를 들어, 영어) 음성 대화를 대화형 인공지능인 챗봇(Chat bot)(220)에 기반하여 평가하고, 올바르게 교정한다. 즉, 상기 채팅 서버(210)는 화상 대화에 참여하는 참석자들중의 하나로 챗봇(Chat bot)(220)을 참여시킨다. 이 챗봇(220)은 사용자들간의 대화를 인식하고, 분석하여 사용자의 외국어를 실시간으로 평가하고, 교정한다. According to one embodiment of the present invention, while a video conversation is in progress between users of user terminals (110 to 130), the chat server (210) evaluates and correctly corrects a foreign language (e.g., English) voice conversation input by a user based on a chat bot (220), which is an interactive artificial intelligence. That is, the chat server (210) causes the chat bot (220) to participate as one of the participants in the video conversation. The chat bot (220) recognizes and analyzes the conversation between users, and evaluates and corrects the user's foreign language in real time.
상기 채팅 서버(210)는 사용자들의 외국어 말하기 능력을 평가하고, 교정하기 위한 인공지능 챗봇을 내부에 포함할 수도 있으나, 사용자들의 외국어 말하기 능력을 평가하고, 교정하기 위한 적어도 하나 이상의 외부의 챗봇(Chat bot)(220)과 연동되어 협업할 수 있다. The above chat server (210) may include an artificial intelligence chatbot internally for evaluating and correcting users' foreign language speaking ability, but may also collaborate with at least one external chatbot (220) for evaluating and correcting users' foreign language speaking ability.
본 발명의 일 실시예에 따르면, 채팅 서버(210)는 사용자 단말들(110 내지 130)의 사용자 간에 화상 채팅을 통해 대화가 진행되는 동안 이루어진 음성 데이터와 이 음성 데이터에 대한 평가 정보 및 교정 정보 등을 빅데이터로 저장하고, 이 빅데이터를 학습데이터로서 딥러닝하여 상기 챗봇(Chat bot)(220)의 정확성을 높이기 위한 딥러닝 서버(230)와 연동하여 협업할 수도 있다. According to one embodiment of the present invention, the chat server (210) stores voice data generated during a video chat conversation between users of user terminals (110 to 130), evaluation information for the voice data, and correction information as big data, and may collaborate with a deep learning server (230) to use the big data as learning data to perform deep learning to increase the accuracy of the chat bot (220).
상기 사용자 단말(110 내지 130)은 컴퓨터 장치로 구현되는 고정형 단말이거나 이동형 단말일 수 있다. 사용자 단말(110 내지 130)의 예를 들면, 스마트폰(smart phone), 휴대폰, 네비게이션, 컴퓨터, 노트북, 디지털방송용 단말, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 태블릿 PC 등이 있다. 일례로 사용자 단말(110 내지 130)은 무선 또는 유선 통신 방식을 이용하여 네트워크(104)를 통해 다른 단말들 및/또는 채팅 서버(210)와 통신할 수 있다.The above user terminals (110 to 130) may be fixed terminals or mobile terminals implemented as computer devices. Examples of the user terminals (110 to 130) include smart phones, mobile phones, navigation devices, computers, laptops, digital broadcasting terminals, PDAs (Personal Digital Assistants), PMPs (Portable Multimedia Players), tablet PCs, etc. For example, the user terminals (110 to 130) may communicate with other terminals and/or a chat server (210) through a network (104) using a wireless or wired communication method.
통신 방식은 제한되지 않으며, 네트워크(104)가 포함할 수 있는 통신망(일례로, 이동통신망, 유선 인터넷, 무선 인터넷, 방송망)을 활용하는 통신 방식 뿐만 아니라 기기들간의 근거리 무선 통신 역시 포함될 수 있다. 예를 들어, 네트워크(104)는, PAN(personal area network), LAN(local area network), CAN(campus area network), MAN(metropolitan area network), WAN(wide area network), BBN(broadband network), 인터넷 등의 네트워크중 하나 이상의 임의의 네트워크를 포함할 수 있다. 또한, 네트워크(104)는 버스 네트워크, 스타 네트워크, 링 네트워크, 메쉬 네트워크, 스타-버스 네트워크, 트리 또는 계층적(hierarchical) 네트워크 등을 포함하는 네트워크 토폴로지 중 임의의 하나 이상을 포함할 수 있으나, 이에 제한되지 않는다.The communication method is not limited, and may include not only a communication method that utilizes a communication network (for example, a mobile communication network, a wired Internet, a wireless Internet, a broadcasting network) that the network (104) may include, but also a short-range wireless communication between devices. For example, the network (104) may include any one or more of a network such as a personal area network (PAN), a local area network (LAN), a campus area network (CAN), a metropolitan area network (MAN), a wide area network (WAN), a broadband network (BBN), and the Internet. In addition, the network (104) may include any one or more of a network topology including, but not limited to, a bus network, a star network, a ring network, a mesh network, a star-bus network, a tree, or a hierarchical network.
채팅 서버(210)는 사용자 단말(110 내지 130)과 네트워크(104)를 통해 통신하여 명령, 코드, 파일, 컨텐츠, 서비스 등을 제공하는 컴퓨터 장치 또는 복수의 컴퓨터 장치들로 구현될 수 있다. 일례로, 채팅 서버(210)는 네트워크(104)를 통해 접속한 사용자 단말(110 내지 130)의 다수의 사용자와 챗봇(Chat bot)(220)을 1개의 대화형 채팅방에 참여할 수 있도록 하고, 참여된 사용자들 간에 음성 메시지 또는 문자 메시지를 통해 소통할 수 있는 여건을 제공한다.The chat server (210) may be implemented as a computer device or multiple computer devices that communicate with user terminals (110 to 130) through a network (104) to provide commands, codes, files, contents, services, etc. For example, the chat server (210) allows multiple users of user terminals (110 to 130) connected through a network (104) and a chat bot (220) to participate in a single interactive chat room, and provides an environment in which the participating users can communicate with each other through voice messages or text messages.
도 2는 본 발명의 바람직한 일 실시예에 따른 채팅 서버의 구성을 도시한 기능 블록도이다. FIG. 2 is a functional block diagram illustrating the configuration of a chat server according to a preferred embodiment of the present invention.
본 발명에 따른 화상 채팅은 다수의 사용자 단말들(110 내지 130)에 설치된 화상 채팅 어플리케이션을 통해 상기 채팅 서버(210)로부터 제공된다. Video chat according to the present invention is provided from the chat server (210) through a video chat application installed on a plurality of user terminals (110 to 130).
본 발명의 일 실시예에 따르면, 채팅 서버(210)는 사용자 단말들(110 내지 130)의 사용자 간에 화상 채팅 세션 내에서 대화가 진행되는 동안, 챗봇(220)을 대화의 참석자로 참여시키고, 사용자들로부터 입력되는 음성 메시지(또는 문자 메시지)를 인식하고, 분석하여 사용자들의 외국어 말하기 능력을 평가하고, 교정한다. According to one embodiment of the present invention, while a conversation is in progress within a video chat session between users of user terminals (110 to 130), the chat server (210) allows a chatbot (220) to participate as a participant in the conversation, recognizes and analyzes voice messages (or text messages) input from the users, and evaluates and corrects the users' foreign language speaking skills.
또한, 사용자간의 화상 채팅 서비스를 제공하기 위한 본 발명에 따른 채팅 서버(210)는 기능 모듈로서 접속 관리부(211), 사용자 정보 저장부(212), 처리부(213), 데이터베이스(214), 제 1 연동부(215) 및 제 2 연동부(216)를 포함한다. 채팅 서버(210)의 상기 기능 모듈들은 소프트웨어적으로 구현되는 것이 바람직하지만, 하드웨어로 구현될 수 있음은 물론이다. In addition, the chat server (210) according to the present invention for providing a video chat service between users includes a connection management unit (211), a user information storage unit (212), a processing unit (213), a database (214), a first linkage unit (215), and a second linkage unit (216) as functional modules. The above functional modules of the chat server (210) are preferably implemented in software, but of course, can be implemented in hardware.
상기 화상 채팅 어플리케이션은 사용자 단말기(110)에 설치되는 복수개의 어플리케이션 중 하나로서 어플리케이션 스토어 또는 마켓에서 배포될 수 있다. The above video chat application may be distributed from an application store or market as one of multiple applications installed on a user terminal (110).
이하에서, 상기 '화상 채팅'은 사용자 단말(110)에 카메라를 장착하여 자기의 움직임을 실시간으로 전송함으로써 서로 상대방의 모습을 보면서 음성 메시지나 문자 메시지를 주고 받는 것을 의미한다. 또한, '채팅창' 또는 '대화창'은 사용자 단말(110)의 화면을 통해 화상 채팅 서비스를 수행하는 창(Window)을 의미한다.Hereinafter, the 'video chat' means exchanging voice messages or text messages while viewing each other's appearance by transmitting one's movements in real time by mounting a camera on the user terminal (110). In addition, the 'chat window' or 'conversation window' means a window that performs a video chat service through the screen of the user terminal (110).
채팅 서버(210)의 접속 관리부(211)는 채팅 서버(210)와 다양한 사용자 단말들(101 내지 103 등)이 네트워크(104)를 통해 연결되도록 하는 물리적/논리적 통신 모듈로 이해될 수 있다. 사용자 단말(101 내지 103)로부터 수신된 메시지는 접속 관리부(211)를 통해 처리부(213)에 전달되며, 처리부(213)가 사용자들 사이의 메시지(특히, 음성 메시지)를 챗봇(220)에 전송하고, 챗봇(220)은 상기 사용자의 음성 메시지를 평가하고, 교정하여 그 결과를 접속 관리부(211)를 통해 사용자 단말(101 내지 103)로 전달할 수 있다.The connection management unit (211) of the chat server (210) can be understood as a physical/logical communication module that allows the chat server (210) and various user terminals (such as 101 to 103) to be connected via the network (104). Messages received from user terminals (101 to 103) are transmitted to the processing unit (213) via the connection management unit (211), and the processing unit (213) transmits messages (particularly, voice messages) between users to the chatbot (220), and the chatbot (220) can evaluate and correct the user's voice messages and transmit the results to the user terminals (101 to 103) via the connection management unit (211).
상기 사용자 정보 저장부(220)는 다양한 사용자의 가입 정보(나이, 국적, 성별 등) 및 사용자가 진행하던 대화 세션에 관한 정보 등을 저장하고 관리할 수 있는 일체의 물리적/논리적 구성을 대표한다. The above user information storage unit (220) represents an entire physical/logical configuration that can store and manage various user subscription information (age, nationality, gender, etc.) and information about conversation sessions being conducted by users.
그리고, 상기 처리부(230)는 일대일 또는 일대다 또는 다대다 채팅 방식의 서비스에서 사용자의 음성 메시지를 수신하여 다른 사용자들에게 전달하면서, 이와 병행하여 사용자들간의 채팅에 챗봇(220)을 채팅 참석자중 하나로서 참여시켜 사용자간의 대화를 평가하고, 교정하도록 한다. And, the processing unit (230) receives a user's voice message in a one-to-one, one-to-many, or many-to-many chat service and transmits it to other users, and at the same time, participates the chatbot (220) in the chat between users as one of the chat participants to evaluate and correct the conversation between users.
도 3은 본 발명에 따른 화상 채팅을 위한 채팅창의 일 예를 캡춰한 화면이다. 도면을 참조하면, 본 발명에 따른 화상 채팅에서 채팅창에 대화의 참석자로 대화형 인공지능(AI)인 챗봇이 참여하고 있는 상태를 나타내고 있다. FIG. 3 is a screen capture of an example of a chat window for a video chat according to the present invention. Referring to the drawing, it shows a state in which a chatbot, which is an interactive artificial intelligence (AI), is participating as a conversation participant in the chat window in a video chat according to the present invention.
상기 데이터베이스(240)는 본 발명에 따른 화상 채팅 서비스를 위한 각종 프로그램, 특히, 상기 화상 채팅 어플리케이션을 저장하고, 본 발명에 따른 채팅 과정에서 발생하는 음성 메시지와 그 평가 정보 및 교정 정보를 하나의 데이터 세트로서 저장한다. The above database (240) stores various programs for a video chat service according to the present invention, particularly, the video chat application, and stores voice messages generated during a chat process according to the present invention and their evaluation information and correction information as one data set.
상기 제 1 연동부(215)는 사용자의 음성 메시지를 평가하고, 교정하기 위한 챗봇(220)과 상기 처리부(213)를 인터페이스하는 일체의 물리적/논리적 구성을 대표한다. The above first linkage unit (215) represents an entire physical/logical configuration that interfaces the chatbot (220) for evaluating and correcting the user's voice message and the processing unit (213).
상기 제 2 연동부(216)는 본 발명에 따른 음성 메시지와 그 평가 정보 및 교정 정보를 포함하는 상기 데이터 세트를 딥러닝 서버(230)로 전달하기 위하여 채팅 서버(210)의 상기 처리부(213)와 상기 딥러닝 서버(230)를 인터페이스하는 일체의 물리적/논리적 구성을 대표한다.The above second linkage unit (216) represents an integral physical/logical configuration that interfaces the processing unit (213) of the chat server (210) and the deep learning server (230) to transmit the data set including the voice message according to the present invention and its evaluation information and correction information to the deep learning server (230).
또한, 이하에서는 채팅 서버(210)가 수행하는 다양한 동작이나 응용들이 설명되는데, 상기 접속 관리부(211) 내지 제 2 연동부(216) 중 어느 구성을 특정하지 않더라도 본 발명의 기술 분야의 통상의 기술자가 명확하게 이해하고 예상할 수 있는 정도의 내용은 통상의 구현으로 이해될 수 있으며, 본 발명의 권리범위가 특정한 구성의 명칭이나 물리적/논리적 구조에 의해 제한되는 것은 아니다.In addition, various operations or applications performed by the chat server (210) are described below. Even if no configuration of the connection management unit (211) or the second linkage unit (216) is specified, the content that can be clearly understood and expected by a person skilled in the art of the present invention can be understood as a typical implementation, and the scope of the rights of the present invention is not limited by the name of a specific configuration or the physical/logical structure.
도 4는 본 발명의 바람직한 일 실시예에 따른 챗봇의 구성을 도시한 기능 블록도이다. Figure 4 is a functional block diagram illustrating the configuration of a chatbot according to a preferred embodiment of the present invention.
본 발명의 실시 예에 따른 상기 챗봇(200)은 사용자간의 외국어 음성 메시지를 획득하고, 획득된 음성 메시지를 인식 및 분석하여 사용자의 외국어 능력을 평가하고, 오류를 교정하는 동작을 수행한다. 본 발명의 실시예에 따른 상기 챗봇(220)은 인공지능 알고리즘 연산 과정에 기반하여 외국어 능력 평가 동작 및 교정 동작을 수행할 수 있다. 상기 챗봇(220)은 사용자 간의 채팅 데이터를 획득하는 동작(Data collection), 채팅 데이터를 분석용 데이터로 가공 및 전처리하는 동작(Processing), 인공지능 알고리즘 기반의 합성곱 연산을 수행하는 동작, 통계적 분석(Statistical analysis), 평가 및 교정 동작을 수행할 수 있다.The chatbot (200) according to an embodiment of the present invention obtains foreign language voice messages between users, recognizes and analyzes the obtained voice messages to evaluate the user's foreign language ability, and performs an operation of correcting errors. The chatbot (220) according to an embodiment of the present invention can perform a foreign language ability evaluation operation and a correction operation based on an artificial intelligence algorithm operation process. The chatbot (220) can perform an operation of obtaining chat data between users (Data collection), an operation of processing and preprocessing chat data into data for analysis (Processing), an operation of performing a convolution operation based on an artificial intelligence algorithm, statistical analysis (Statistical analysis), and an evaluation and correction operation.
이러한 챗봇(220)의 음성 메시지의 평가 및 교정 동작을 수행하기에 앞서, 본 발명의 실시예에 따른 딥러닝 서버(230)는 챗봇(220)이 설정한 특정 기준에 대응하는 데이터 세트(음성메시지-평가정보-교정정보)를 기반으로 인공지능 알고리즘을 학습시켜 챗봇(220)의 기능을 지속적으로 향상시킬 수 있다.Prior to performing the evaluation and correction operations of the voice message of the chatbot (220), the deep learning server (230) according to the embodiment of the present invention can continuously improve the function of the chatbot (220) by training an artificial intelligence algorithm based on a data set (voice message-evaluation information-correction information) corresponding to a specific standard set by the chatbot (220).
본 발명의 챗봇(220)은 사용자간의 채팅 대화에 참가하여 상기 딥러닝 서버(220)에 의해 모델링되는 외국어 능력 평가 및 교정을 위한 인공지능 알고리즘에 사용자의 채팅 데이터로부터 추출된 음성 데이터를 투입하고, 이를 통해 사용자의 외국어 대화 능력을 평가하고, 잘못된 부분은 교정하는 동작을 수행할 수 있다.The chatbot (220) of the present invention can participate in a chat conversation between users and input voice data extracted from the user's chat data into an artificial intelligence algorithm for evaluating and correcting foreign language ability modeled by the deep learning server (220), thereby evaluating the user's foreign language conversation ability and performing an operation of correcting errors.
구체적으로, 상기 챗봇(220)은 사용자간의 화상 채팅과정에서 외국어 음성 데이터를 획득하는 동작을 수행할 수 있다. 상기 챗봇(220)은 추출된 사용자의 대화 음성 데이터를 학습 모델 기반의 뉴럴 네트워크를 이용하여 상기 대화 음성 데이터의 단어 사용 적합성, 문법 적합성 및 발음 적합성중 적어도 하나를 판단하고, 이러한 판단에 기초하여 사용자의 외국어 말하기 능력을 평가한다. 그리고, 상기 대화 음성 데이터의 잘못된 단어, 문법, 발음에 대해서는 올바르게 교정된 단어, 문법, 발음을 포함하는 메시지(음성 메시지 또는 문자 메시지)를 생성하고, 이를 해당하는 사용자에게 채팅 메시지로서 응답한다. Specifically, the chatbot (220) can perform an operation of acquiring foreign language voice data during a video chat process between users. The chatbot (220) determines at least one of word usage appropriateness, grammatical appropriateness, and pronunciation appropriateness of the extracted user's conversation voice data using a neural network based on a learning model, and evaluates the user's foreign language speaking ability based on this determination. Then, for incorrect words, grammar, and pronunciation in the conversation voice data, it generates a message (voice message or text message) including correctly corrected words, grammar, and pronunciation, and responds to the corresponding user as a chat message.
상기 대화 음성 데이터는 다수개의 문장으로 구성될 수 있으며, 그에 따라 상기 챗봇(220)은 상기 음성 데이터를 구성하는 다수개의 문장 전체에 대한 분석을 수행할 수 있다. 상기 챗봇(220)은 상기 대화 음성 데이터를 구성하는 전체 문장에 대한 분석을 수행한 결과에 따라 전체 대화 음성 데이터에 대한 단어 사용 적합성, 문법 적합성 및 발음 적합성을 평가하고, 교정한다. The above conversational voice data may be composed of multiple sentences, and accordingly, the chatbot (220) may perform analysis on all of the multiple sentences that compose the voice data. The chatbot (220) evaluates and corrects word usage suitability, grammatical suitability, and pronunciation suitability for the entire conversational voice data based on the results of analyzing all of the sentences that compose the conversational voice data.
도 4를 참조하여 상기 챗봇(220)의 동작에 대하여 보다 상세히 설명하기로 한다. 상기 챗봇(220)은 그 기능에 따라 음성 데이터 분석부(221), 말하기 평가부(222), 말하기 교정부(223)를 포함하여 구성될 수 있다.The operation of the chatbot (220) will be described in more detail with reference to Fig. 4. The chatbot (220) may be configured to include a voice data analysis unit (221), a speech evaluation unit (222), and a speech correction unit (223) depending on its function.
상기 음성 데이터 분석부(221)는 크게 3가지 동작을 통해 사용자의 채팅 메시지의 음성 데이터를 분석할 수 있다. 구체적으로, 상기 음성 데이터 분석부(221)는 화상 채팅 사용자간의 음성 대화 데이터를 획득하는 동작, 획득된 음성 대화 데이터를 텍스트 대화 데이터로 변환하는 동작, 상기 텍스트 대화 데이터를 단어 단위로 분할하여 분석하는 동작을 수행할 수 있다.The above voice data analysis unit (221) can analyze the voice data of a user's chat message through three major operations. Specifically, the voice data analysis unit (221) can perform an operation of obtaining voice conversation data between video chat users, an operation of converting the obtained voice conversation data into text conversation data, and an operation of dividing the text conversation data into word units and analyzing it.
상기 음성 데이터 분석부(221)는 채팅 서버(210)의 제 1 연동부(215)로부터 사용자간의 화상 채팅에서 생성되는 채팅 메시지를 전달받고, 이 채팅 메시지의 음성 대화 데이터를 TTS(Sound To Text) 프로그램 등을 이용하여 텍스트 대화 데이터로 변환하며, 이 텍스트 대화 데이터를 단어 단위로 분할하여 분석한다. The above voice data analysis unit (221) receives a chat message generated from a video chat between users from the first link unit (215) of the chat server (210), converts the voice conversation data of the chat message into text conversation data using a TTS (Sound To Text) program, etc., and analyzes the text conversation data by dividing it into word units.
상기 말하기 평가부(222)는 상기 음성 데이터 분석부(221)에서 단어 단위로 분할된 텍스트 대화 데이터를 기준으로 단어 사용 적합성, 문법 적합성 및 발음 적합성중 적어도 하나를 판단하고, 이러한 판단에 기초하여 사용자의 외국어 말하기 능력을 평가한다. 예를 들어, 상기 말하기 평가부(222)는 사용자의 외국어 말하기 능력을 상, 중, 하 등의 레벨로 분류하여 평가할 수도 있고, 100점 만점을 기준으로 하는 점수로 표현할 수도 있다. The above-mentioned speaking evaluation unit (222) determines at least one of word usage suitability, grammatical suitability, and pronunciation suitability based on text conversation data divided into word units by the above-mentioned voice data analysis unit (221), and evaluates the user's foreign language speaking ability based on this determination. For example, the above-mentioned speaking evaluation unit (222) may evaluate the user's foreign language speaking ability by classifying it into levels such as upper, middle, and lower, or may express it as a score based on a full score of 100.
상기 말하기 교정부(223)는 상기 말하기 평가부(222)의 평가 레벨이 일정한 기준치를 하회하는 경우, 해당하는 음성 대화 데이터의 잘못된 단어, 문법, 발음에 대해서 올바르게 교정된 단어, 문법, 발음을 포함하는 메시지(음성 메시지 또는 문자 메시지)를 생성하고, 이를 해당하는 사용자에게 채팅 메시지로서 응답하기 위해 상기 채팅 서버(210)의 제 1 연동부(215)로 리턴한다. 채팅 서버(210)는 상기 말하기 평가부(222)에 의한 평가 레벨과 상기 말하기 교정부(223)에 의해 교정된 메시지를 제 1 연동부(215)를 통해 전달받고, 이를 접속 관리부(211)를 통해 해당하는 사용자 단말(110)로 전송한다.The above-mentioned speech correction unit (223) generates a message (voice message or text message) including correctly corrected words, grammar, and pronunciation for incorrect words, grammar, and pronunciation of the corresponding voice conversation data when the evaluation level of the above-mentioned speech evaluation unit (222) falls below a certain standard, and returns it to the first linkage unit (215) of the above-mentioned chat server (210) to respond as a chat message to the corresponding user. The chat server (210) receives the evaluation level by the above-mentioned speech evaluation unit (222) and the message corrected by the above-mentioned speech correction unit (223) through the first linkage unit (215), and transmits them to the corresponding user terminal (110) through the access management unit (211).
이하에서, 본 발명에 따른 화상 채팅의 음성 대화 메시지를 기반으로 사용자의 외국어 말하기 능력을 평가하고, 교정하는 방법을 설명한다. Below, a method for evaluating and correcting a user's foreign language speaking ability based on a voice conversation message of a video chat according to the present invention is described.
먼저, 본 발명의 화상 채팅 서비스를 이용하고자 하는 사용자는 사용자 단말기(110, 120, 130)에 화상 채팅 어플리케이션을 다운받아 설치한다. 이하에서는, 상기 사용자 단말기가 스마트 폰(110)인 경우를 대표적인 예시로서 설명한다.First, a user who wishes to use the video chat service of the present invention downloads and installs a video chat application on a user terminal (110, 120, 130). Hereinafter, a case in which the user terminal is a smart phone (110) will be described as a representative example.
상기 화상 채팅 어플리케이션은 사용자 단말기(110)에 설치되는 복수개의 어플리케이션 중 하나로서 어플리케이션 스토어 또는 마켓에서 배포될 수 있다. 사용자가 화상 채팅 어플리케이션을 실행하면 등록된 친구들과 대화 세션을 개설하여 음성 메시지나 문자 메시지를 주고 받을 수 있다. The above video chat application may be distributed from an application store or market as one of multiple applications installed on a user terminal (110). When a user runs the video chat application, a conversation session can be opened with registered friends and voice messages or text messages can be exchanged.
상기 화상 채팅 어플리케이션은 사용자 단말(110)의 연락처 목록에 액세스하여 자동으로 동일한 어플리케이션을 설치한 친구들을 친구 목록에 추가할 수 있으며, 친구를 직접 추가할 수도 있다. 이를 테면, 초대는 사용자 단말(110) 내의 연락처에 액세스하여 화상 채팅 어플리케이션을 사용하지 않는 친구에게 어플리케이션 설치를 추천할 수 있다. 또한, QR코드 판독을 수행하여, 인식되는 QR코드가 포함하는 정보에 대응하는 다른 사용자를 친구로 추가할 수 있고, 직접 다른 사용자의 ID를 검색하여 수동으로 친구를 추가할 수 있다. The above video chat application can access the contact list of the user terminal (110) and automatically add friends who have installed the same application to the friend list, and can also add friends directly. For example, the invitation can access the contact list in the user terminal (110) and recommend the installation of the application to a friend who does not use the video chat application. In addition, by performing QR code reading, it can add another user as a friend corresponding to the information included in the recognized QR code, and can manually add a friend by directly searching for the ID of another user.
본 발명에 따른 화상 채팅을 이용하고자 하는 사용자는 상기 화상 채팅 어플리케이션을 이용하여 적어도 한 명 이상의 다른 사용자를 포함하는 대화방을 개설한다. A user who wishes to use video chat according to the present invention opens a chat room including at least one other user using the video chat application.
채팅 서버(210)의 처리부(213)는 상기 대화방의 개설을 인식하고, 도 3과 같이 이 대화방에 대화 친구로서 챗봇(220)을 참여시킨다. 이에 따라, 채팅 서버(210)와 챗봇(220)은 상기 대화방에서 이루어지는 사용자간의 모든 채팅 메시지를 인식하는 것이 가능해진다. The processing unit (213) of the chat server (210) recognizes the opening of the chat room and allows the chatbot (220) to participate in the chat room as a conversation partner, as shown in Fig. 3. Accordingly, the chat server (210) and the chatbot (220) become capable of recognizing all chat messages between users in the chat room.
이런 상태에서, 상기 채팅 서버(210)의 접속 관리부(211)는 사용자 대화 세션에서 사용자가 입력하는 음성 채팅 메시지를 수신하고, 이를 처리부(213)로 전달한다. In this state, the connection management unit (211) of the chat server (210) receives a voice chat message entered by the user in the user conversation session and transmits it to the processing unit (213).
상기 음성 채팅 메시지를 수신한 처리부(213)는 이 음성 채팅 메시지를 데이터베이스(214)에 저장한 후, 접속 관리부(211)를 통해 상기 음성 채팅 메시지를 상기 대화 세션에 참여하고 있는 다른 사용자들의 사용자 단말기(110)에 송신한다.The processing unit (213) that receives the above voice chat message stores the voice chat message in a database (214) and then transmits the voice chat message to the user terminals (110) of other users participating in the conversation session through the connection management unit (211).
상기 다른 사용자들의 화상 채팅 어플리케이션은 상기 음성 채팅 메시지를 해당 사용자의 사용자 단말기(111)의 채팅 대화창(즉, 채팅창)에 표시한다. The video chat application of the other users displays the voice chat message in the chat conversation window (i.e., chat window) of the user terminal (111) of the user.
이러한 채팅 과정에서, 상기 챗봇(220은 사용자들간에 오고가는 상기 음성 채팅 메시지를 획득하고, 이 음성 채팅 메시지를 분석하여 사용자의 외국어 말하기 능력을 평가하고, 잘못된 부분을 교정하여 교정된 채팅 메시지를 생성하여 상기 사용자에게 리턴한다. During this chat process, the chatbot (220) obtains the voice chat messages exchanged between users, analyzes the voice chat messages to evaluate the user's foreign language speaking ability, corrects errors, generates a corrected chat message, and returns it to the user.
그리고, 상기 채팅 서버(210)의 처리부(213)는 제 1 연동부(215)를 거쳐서 챗봇(220)으로부터 말하기 능력 평가정보와 교정 정보를 수신하고, 이를 상기 음성 채팅 메시지와 함께 데이터 세트로서 데이터베이스(214)에 저장한다. And, the processing unit (213) of the chat server (210) receives speaking ability evaluation information and correction information from the chatbot (220) through the first link unit (215), and stores this together with the voice chat message as a data set in the database (214).
이렇게 저장된 데이터 세트는 제 2 연동부(216)를 통해 상기 딥러닝 서버(230)로 전달되고, 딥러닝 서버(230)는 이 데이터 세트를 빅데이터로 머신러닝하는 것에 의해 상기 챗봇(220)의 인공지능 알고리즘인 말하기 교정 모델을 지속적으로 업그레이드한다. 이에 따라, 상기 챗봇(220)의 외국어 말하기 능력의 평가 및 교정을 위한 인공지능 알고리즘은 보다 정확하고, 정밀하게 향상된다. The data set saved in this manner is transmitted to the deep learning server (230) through the second linkage (216), and the deep learning server (230) continuously upgrades the speaking correction model, which is an artificial intelligence algorithm of the chatbot (220), by machine learning this data set into big data. Accordingly, the artificial intelligence algorithm for evaluating and correcting the foreign language speaking ability of the chatbot (220) is improved to be more accurate and precise.
이상에서 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 이것에 의해 한정되지 않으며 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 본 발명의 기술사상과 아래에 기재될 특허청구범위의 균등범위 내에서 다양한 수정 및 변형이 가능함은 물론이다.Although the present invention has been described above by means of limited embodiments and drawings, the present invention is not limited thereto, and various modifications and variations are possible by those skilled in the art within the scope of the technical idea of the present invention and the equivalent scope of the patent claims to be described below.
110,120,130 : 사용자 단말, 104 : 네트워크, 210 : 채팅 서버, 211 : 접속 관리부, 212 : 사용자 정보 저장부, 213 : 처리부, 214 : 데이터베이스, 215 : 제 1 연동부, 216 : 제 2 연동부, 220 : 챗봇, 221 : 음성 데이터 분석부, 222 : ㅁ마말하기 평가부, 223 : 말하기 교정부, 230 : 딥러닝 서버110,120,130: user terminal, 104: network, 210: chat server, 211: access management unit, 212: user information storage unit, 213: processing unit, 214: database, 215: first linkage unit, 216: second linkage unit, 220: chatbot, 221: voice data analysis unit, 222: ㅁ마말하기 evaluation unit, 223: speech correction unit, 230: deep learning server
Claims (4)
상기 채팅 서버에서,
상기 복수의 사용자 단말에 설치된 화상 채팅 어플리케이션을 이용하여 화상 채팅 메시지를 주고, 받기 위한 화상 채팅을 위한 대화 세션을 개설하는 단계;
상기 대화 세션에 대화형 인공지능인 챗봇(Chat Bot)을 대화 친구로 추가시키는 단계;
상기 챗봇(Chat Bot)이 상기 화상 채팅 메시지를 획득하고, 이 화상 채팅 메시지를 분석하여 사용자의 외국어 말하기 능력을 평가하는 단계;
상기 챗봇(Chat Bot)이 상기 사용자의 외국어 말하기 능력의 평가 레벨에 기반하여 상기 화상 채팅 메시지를 올바르게 교정하고, 이렇게 교정된 메시지를 해당하는 사용자 단말에 응답하는 단계를 실행하는 것을 특징으로 하는 어학교육을 위한 대화 평가 시스템. In an environment where multiple user terminals are installed with a video chat application that provides a video chat service between multiple users, and a chat server that mediates video chat messages between the multiple user terminals is connected via a network,
In the above chat server,
A step of opening a conversation session for video chatting to send and receive video chat messages using a video chat application installed on the plurality of user terminals;
A step of adding a chatbot, a conversational artificial intelligence, as a conversation buddy to the above conversation session;
A step in which the above chat bot obtains the video chat message and analyzes the video chat message to evaluate the user's foreign language speaking ability;
A conversation evaluation system for language education, characterized in that the chat bot correctly corrects the video chat message based on the evaluation level of the user's foreign language speaking ability and executes a step of responding with the corrected message to the corresponding user terminal.
상기 화상 채팅 메시지를 전달받고, 이 채팅 메시지의 음성 대화 데이터를 텍스트 대화 데이터로 변환하고, 이 텍스트 대화 데이터를 단어 단위로 분할하는 음성 데이터 분석부와;
상기 단어 단위로 분할된 텍스트 대화 데이터를 기준으로 단어 사용 적합성, 문법 적합성 및 발음 적합성중 적어도 하나를 판단하고, 이러한 판단에 기초하여 사용자의 외국어 말하기 능력을 평가하는 말하기 평가부; 및
상기 음성 대화 데이터의 잘못된 단어, 문법, 발음에 대해서 올바르게 교정된 단어, 문법, 발음을 포함하는 메시지를 생성하고, 이를 해당하는 사용자에게 채팅 메시지로서 응답하는 말하기 교정부를 포함하는 것을 특징으로 하는 어학교육을 위한 대화 평가 시스템. In the first paragraph, the chat bot,
A voice data analysis unit that receives the above video chat message, converts the voice conversation data of the chat message into text conversation data, and divides the text conversation data into word units;
A speaking evaluation unit that judges at least one of word usage appropriateness, grammatical appropriateness, and pronunciation appropriateness based on text conversation data divided into the above word units, and evaluates the user's foreign language speaking ability based on such judgment; and
A conversation evaluation system for language education, characterized by including a speech correction unit that generates a message including correctly corrected words, grammar, and pronunciation for incorrect words, grammar, and pronunciation of the above-mentioned voice conversation data, and responds to the corresponding user as a chat message.
상기 채팅 서버는, 상기 음성 대화 데이터와, 그 평가 정보 및 교정된 채팅 메시지를 하나의 데이터 세트로 저장하는 것을 특징으로 하는 어학교육을 위한 대화 평가 시스템. In the second paragraph,
A conversation evaluation system for language education, characterized in that the above chat server stores the voice conversation data, its evaluation information, and corrected chat messages as a single data set.
상기 데이터 세트들을 빅데이터로 머신러닝하는 것에 의해 상기 챗봇의 인공지능 알고리즘을 업그레이드하기 위한 딥러닝 서버를 더 포함하는 것을 특징으로 하는 어학교육을 위한 대화 평가 시스템. In the third paragraph,
A conversation evaluation system for language education, characterized in that it further includes a deep learning server for upgrading the artificial intelligence algorithm of the chatbot by machine learning the above data sets into big data.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020230038265A KR20240143236A (en) | 2023-03-23 | 2023-03-23 | Conversation evaluation system for language education |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020230038265A KR20240143236A (en) | 2023-03-23 | 2023-03-23 | Conversation evaluation system for language education |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20240143236A true KR20240143236A (en) | 2024-10-02 |
Family
ID=93116758
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020230038265A KR20240143236A (en) | 2023-03-23 | 2023-03-23 | Conversation evaluation system for language education |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20240143236A (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20020066804A (en) | 2001-02-14 | 2002-08-21 | 제성경 | interface between client and teacher for real time cyber education system |
KR20070024918A (en) | 2005-08-31 | 2007-03-08 | 김유신 | Apparatus and method for providing video conference service in virtual space |
KR20210059995A (en) | 2019-11-18 | 2021-05-26 | 이용조 | Method for Evaluating Foreign Language Speaking Based on Deep Learning and System Therefor |
-
2023
- 2023-03-23 KR KR1020230038265A patent/KR20240143236A/en unknown
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20020066804A (en) | 2001-02-14 | 2002-08-21 | 제성경 | interface between client and teacher for real time cyber education system |
KR20070024918A (en) | 2005-08-31 | 2007-03-08 | 김유신 | Apparatus and method for providing video conference service in virtual space |
KR20210059995A (en) | 2019-11-18 | 2021-05-26 | 이용조 | Method for Evaluating Foreign Language Speaking Based on Deep Learning and System Therefor |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Khang et al. | AI-Aided teaching model in education 5.0 | |
Lee et al. | Developing an AI-based chatbot for practicing responsive teaching in mathematics | |
Tecedor et al. | Videoconferencing and the development of intercultural competence: Insights from students' self‐reflections | |
KR101012420B1 (en) | Foreign language education system using the internet | |
Goh et al. | Examining the notion of listening subskill divisibility and its implications for second language listening | |
CN110992222A (en) | Teaching interaction method and device, terminal equipment and storage medium | |
US20200098286A1 (en) | Network-based online interactive language learning system | |
Wu et al. | Incorporating LINE smartphone affordances: Cross-cultural collaboration, willingness to communicate, and language learning | |
Banafshı et al. | COMPARING EFL LEARNERS’RESPONSES IN ONLINE AND TRADITIONAL CLASSES: A MIXED METHOD APPROACH | |
Zhu | Facilitating effective online discourse: Investigating factors influencing students’ cognitive presence in online learning | |
Ho et al. | Work in progress: An AI-assisted metaverse for computer science education | |
KR102299563B1 (en) | Method And Apparatus for Providing Untact Class by using Virtual Teaching Assistant Robot | |
Gromik | Smartphone-based learning in the Japanese ESL classroom: A case study report | |
KR20220039861A (en) | Physical education development and education management system for the disabled and its method | |
KR20240143236A (en) | Conversation evaluation system for language education | |
CN113268512A (en) | Enterprise post professional skill training system based on internet platform | |
Palanisamy et al. | Insights into the Dynamic Relationship between Technology and Task-Based Language Teaching: A Critical Review | |
Nguyen et al. | Understanding Teachers’ Knowledge and Skills via Technological Pedagogical and Content Knowledge Framework | |
Lee et al. | Can ChatGPT be a debate partner? Developing ChatGPT-based application “DEBO” for debate education, findings and limitations | |
le Roux et al. | The impact and opportunities of e-tutoring in a challenged socio-economic environment | |
Fateh et al. | Small Group Conversations in a POGIL-Based Class: How English Learners Engage in a Joint Knowledge Construction Process to Reach a Shared Understanding | |
KR102671570B1 (en) | Method for chatbot conversation that allows different artificial intelligence to answer questions by type | |
Zimotti et al. | The future of language education: Teachers’ perceptions about the surge of AI writing tools | |
Saadati et al. | Adapting german instruments and validating their use to measure chilean mathematics teachers’ professional competence | |
Murugan et al. | Proctoring Tools and Techniques for Ensuring the Integrity of Online Assessments |