KR102716679B1 - Method and device for providing customized cultural and art contents curation and for recommending mate playing the contents with user - Google Patents
Method and device for providing customized cultural and art contents curation and for recommending mate playing the contents with user Download PDFInfo
- Publication number
- KR102716679B1 KR102716679B1 KR1020210176017A KR20210176017A KR102716679B1 KR 102716679 B1 KR102716679 B1 KR 102716679B1 KR 1020210176017 A KR1020210176017 A KR 1020210176017A KR 20210176017 A KR20210176017 A KR 20210176017A KR 102716679 B1 KR102716679 B1 KR 102716679B1
- Authority
- KR
- South Korea
- Prior art keywords
- user
- content
- cultural
- artistic
- emotion
- Prior art date
Links
- 238000000034 method Methods 0.000 title abstract description 20
- 238000011156 evaluation Methods 0.000 claims abstract description 25
- 230000008451 emotion Effects 0.000 claims description 80
- 230000002996 emotional effect Effects 0.000 claims description 22
- 238000013527 convolutional neural network Methods 0.000 claims description 20
- 238000013528 artificial neural network Methods 0.000 claims description 15
- 239000011159 matrix material Substances 0.000 claims description 11
- 230000000306 recurrent effect Effects 0.000 claims description 9
- 239000000463 material Substances 0.000 claims description 3
- 230000006870 function Effects 0.000 description 14
- 239000013598 vector Substances 0.000 description 14
- 238000010586 diagram Methods 0.000 description 12
- 230000004913 activation Effects 0.000 description 9
- 230000015654 memory Effects 0.000 description 7
- 238000011176 pooling Methods 0.000 description 7
- 238000005070 sampling Methods 0.000 description 5
- 230000008901 benefit Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 239000000284 extract Substances 0.000 description 4
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 230000002123 temporal effect Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000012552 review Methods 0.000 description 2
- 235000019640 taste Nutrition 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 239000010985 leather Substances 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 239000004984 smart glass Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/02—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/45—Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
- H04N21/466—Learning process for intelligent management, e.g. learning user preferences for recommending movies
- H04N21/4668—Learning process for intelligent management, e.g. learning user preferences for recommending movies for recommending content, e.g. movies
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- General Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- Business, Economics & Management (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- General Physics & Mathematics (AREA)
- Databases & Information Systems (AREA)
- Tourism & Hospitality (AREA)
- Human Resources & Organizations (AREA)
- Artificial Intelligence (AREA)
- Economics (AREA)
- Psychiatry (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- Hospice & Palliative Care (AREA)
- Child & Adolescent Psychology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
사용자 맞춤형 문화 예술 컨텐츠 큐레이션을 제공하고, 사용자와 함께 관람할 메이트를 추천하기 위한 방법 및 장치가 개시된다. 사용자 맞춤형 문화 예술 컨텐츠 큐레이션을 제공하고, 사용자와 함께 관람할 메이트를 추천하기 위한 컨텐츠 제공 서버는, 다수의 사용자 단말들의 사용자들 각각에 대응하는 사용자 정보를 수신하고, 상기 사용자 정보 및 상기 사용자들이 문화예술 컨텐츠를 이용한 이용기록 정보를 포함하는 사용자 프로필 정보를 생성하여 관리하는 사용자 프로필 관리부; 등록된 다수의 문화예술 컨텐츠들 각각에 대응하는 컨텐츠 정보를 생성하여 관리하는 문화예술 컨텐츠 관리부; 상기 컨텐츠 정보에 포함된 상기 문화예술 컨텐츠들 각각에 대응하는 평가 정보를 기반으로 상기 문화예술 컨텐츠들에 대한 제1 사용자의 예측 선호도를 결정하고, 상기 예측 선호도를 기반으로 사용자 맞춤형 컨텐츠 후보군을 선정하고, 상기 사용자 맞춤형 컨텐츠 후보군에서 상기 제1 사용자를 위한 사용자 맞춤형 추천 컨텐츠를 선정하는 컨텐츠 추천부; 및 상기 사용자들 중에서 상기 사용자 맞춤형 추천 컨텐츠와 함께 즐길 메이트를 선정하는 메이트 선정부를 포함한다.A method and device for providing customized cultural and artistic content curation and recommending a mate to view with the user are disclosed. A content providing server for providing customized cultural and artistic content curation and recommending a mate to view with the user includes: a user profile management unit for receiving user information corresponding to each of users of a plurality of user terminals, and generating and managing user profile information including the user information and usage history information of the users using cultural and artistic content; a cultural and artistic content management unit for generating and managing content information corresponding to each of a plurality of registered cultural and artistic contents; a content recommendation unit for determining a predicted preference of a first user for the cultural and artistic contents based on evaluation information corresponding to each of the cultural and artistic contents included in the content information, selecting a user-tailored content candidate group based on the predicted preference, and selecting a user-tailored recommended content for the first user from the user-tailored content candidate group; and a mate selection unit for selecting a mate to enjoy with the user-tailored recommended content from among the users.
Description
본 발명은 문화 예술 컨텐츠 제공 방법 및 장치에 관한 것으로, 더욱 상세하게는 사용자 맞춤형 문화 예술 컨텐츠 큐레이션을 제공하고, 사용자와 함께 관람할 메이트를 추천하기 위한 방법 및 장치에 관한 것이다.The present invention relates to a method and device for providing cultural and artistic content, and more specifically, to a method and device for providing customized cultural and artistic content curation and recommending mates to view together with the user.
영화, 드라마, 연극, 뮤지컬, 미술 전시 등을 비롯한 각종 문화 예술 컨텐츠는 문화예술 산업이 발전함에 따라 매우 다양화되는 추세에 있어 사용자가 다양한 문화 예술 컨텐츠들 중에서 자신이 보고싶고 감상하고 싶은 컨텐츠를 선택하는 것이 중요한 이슈로 작용하고 있다.As the cultural arts industry develops, various cultural arts content, including movies, dramas, plays, musicals, and art exhibitions, is becoming increasingly diverse. Therefore, it is becoming an important issue for users to choose the content they want to see and appreciate among the various cultural arts content.
또한, 이러한 문화 예술 컨텐츠들은 스마트폰을 비롯한 각종 통신 단말이 보급화됨에 따라 온라인을 통해 다운받아 감상하거나 온라인을 통해 예약이 가능하기 때문에 사용자가 문화 예술 컨텐츠들 각각이 갖는 각종 정보들을 얻는데 용이한 장점이 있다.In addition, since these cultural and artistic contents can be downloaded and viewed online or reserved online as various communication terminals including smartphones become widespread, there is an advantage in that users can easily obtain various information about each cultural and artistic content.
다만, 문화 예술 컨텐츠들 각각이 갖는 각종 정보들을 사용자가 일일이 확인하고 검색하려면 사용자가 알고있는 사전지식 범위 내에서 검색어를 설정할 수 밖에 없기 때문에 사용자가 접하거나 알고있지 않은 정보를 기반으로 문화 예술 컨텐츠를 선택하여 제공받기 어렵다.However, since users have no choice but to set search terms within the scope of their prior knowledge in order to individually check and search for various pieces of information on each piece of cultural and artistic content, it is difficult for users to select and receive cultural and artistic content based on information they are not exposed to or aware of.
이러한 문제를 해결하기 위하여 종래의 컨텐츠 제공자들은 사용자가 직접 검색어를 입력하지 않았더라도, 실시간 조회수가 높아 인기가 많은 문화 예술 컨텐츠를 선정하여 사용자에게 제공하거나, 사용자가 자주 이용한 문화 예술 컨텐츠와 유사한 컨텐츠를 선정하여 사용자에게 제공한다.To solve these problems, conventional content providers select and provide users with cultural and artistic content that is popular due to its high real-time views, even if the user did not directly enter a search term, or select and provide users with content similar to cultural and artistic content frequently used by the user.
그러나, 이러한 종래의 방식은 특정 사용자의 사용 이력을 단순 참조하여 유사 컨텐츠를 제공하거나, 컨텐츠들 자체의 이용 빈도 등을 고려하여 특정 컨텐츠를 제공하는 데 그치고 있기 때문에, 컨텐츠를 제공받는 시점에서의 사용자의 감정은 전혀 고려되지 않는다.However, since these conventional methods only provide similar content by simply referring to the usage history of a specific user or provide specific content by considering the frequency of use of the content itself, the user's feelings at the time of receiving the content are not considered at all.
또한, 문화 예술 컨텐츠의 경우 여러 사람이 함께 이용하고자 하는 경향성이 있기 때문에 문화 예술 컨텐츠를 함께 즐길 수 있는 다른 사용자를 함께 제공함으로써 더욱 풍부한 문화 예술 컨텐츠를 즐길 수 있는 방안이 필요하다.In addition, since cultural and artistic content tends to be used by multiple people, a method is needed to enjoy richer cultural and artistic content by providing other users with whom one can enjoy cultural and artistic content together.
상기와 같은 문제점을 해결하기 위한 본 발명의 목적은, 사용자 맞춤형 문화 예술 컨텐츠 큐레이션을 제공하고, 사용자와 함께 관람할 메이트를 추천하기 위한 방법 및 장치를 제공하는데 있다.The purpose of the present invention to solve the above problems is to provide a method and device for providing customized cultural and artistic content curation and recommending a mate to view with the user.
상기 목적을 달성하기 위한 본 발명의 일 측면은, 사용자 맞춤형 문화 예술 컨텐츠 큐레이션을 제공하고, 사용자와 함께 관람할 메이트를 추천하기 위한 컨텐츠 제공 서버를 제공한다.One aspect of the present invention for achieving the above purpose is to provide a content provision server that provides customized cultural and artistic content curation and recommends mates to view together with the user.
상기 컨텐츠 제공 서버는, 다수의 사용자 단말들의 사용자들 각각에 대응하는 사용자 정보를 수신하고, 상기 사용자 정보 및 상기 사용자들이 문화예술 컨텐츠를 이용한 이용기록 정보를 포함하는 사용자 프로필 정보를 생성하여 관리하는 사용자 프로필 관리부; 등록된 다수의 문화예술 컨텐츠들 각각에 대응하는 컨텐츠 정보를 생성하여 관리하는 문화예술 컨텐츠 관리부; 상기 컨텐츠 정보에 포함된 상기 문화예술 컨텐츠들 각각에 대응하는 평가 정보를 기반으로 상기 문화예술 컨텐츠들에 대한 제1 사용자의 예측 선호도를 결정하고, 상기 예측 선호도를 기반으로 사용자 맞춤형 컨텐츠 후보군을 선정하고, 상기 사용자 맞춤형 컨텐츠 후보군에서 상기 제1 사용자를 위한 사용자 맞춤형 추천 컨텐츠를 선정하는 컨텐츠 추천부; 및 상기 사용자들 중에서 상기 사용자 맞춤형 추천 컨텐츠와 함께 즐길 메이트를 선정하는 메이트 선정부를 포함한다.The above content providing server includes a user profile management unit which receives user information corresponding to each user of a plurality of user terminals, and generates and manages user profile information including the user information and usage history information of the users using cultural and artistic content; a cultural and artistic content management unit which generates and manages content information corresponding to each of a plurality of registered cultural and artistic contents; a content recommendation unit which determines a predicted preference of a first user for the cultural and artistic contents based on evaluation information corresponding to each of the cultural and artistic contents included in the content information, selects a user-tailored content candidate group based on the predicted preference, and selects user-tailored recommended content for the first user from the user-tailored content candidate group; and a mate selection unit which selects a mate to enjoy the user-tailored recommended content together with among the users.
상기 컨텐츠 정보는, 상기 문화예술 컨텐츠들 각각에 대한 분위기, 장르, 소재, 및 수상 이력 중 적어도 하나와, 상기 문화예술 컨텐츠들 각각에 대하여 관람한 사용자의 감정 상태를 지시하는 추천 감정으로 구성된 감상 태그를 포함한다.The above content information includes an appreciation tag composed of at least one of the atmosphere, genre, material, and award history for each of the above cultural and artistic contents, and a recommended emotion indicating the emotional state of a user who viewed each of the above cultural and artistic contents.
상기 컨텐츠 추천부는, 상기 제1 사용자의 현재 감정 상태를 지시하는 사용자 감정과 대응하는 상기 추천 감정을 검색하고, 검색된 추천 감정과 대응하는 문화예술 컨텐츠를 상기 사용자 맞춤형 추천 컨텐츠로서 상기 사용자 맞춤형 컨텐츠 후보군에서 선정한다.The above content recommendation unit searches for the recommended emotion corresponding to the user emotion indicating the current emotional state of the first user, and selects cultural and artistic content corresponding to the searched recommended emotion as the user-tailored recommended content from the user-tailored content candidate group.
상기 컨텐츠 제공 서버는, 상기 제1 사용자의 사용자 단말로부터 가장 최근에 미리 설정된 시간 간격동안 녹음된 음성 신호를 수신하고, 상기 음성 신호에 기초하여 상기 제1 사용자의 상기 사용자 감정을 결정하는 사용자 감정 트래킹부를 더 포함한다.The above content providing server further includes a user emotion tracking unit that receives a voice signal recorded during the most recent preset time interval from a user terminal of the first user and determines the user emotion of the first user based on the voice signal.
상기 사용자 감정 트래킹부는, 상기 음성 신호로부터 스펙트로그램(spectrogram)을 획득하고, 상기 스펙트로그램을 합성곱 신경망(Convolutional Neural network, CNN)을 이용하여 분석함으로써 제1 감정을 결정한다.The above user emotion tracking unit obtains a spectrogram from the voice signal and determines the first emotion by analyzing the spectrogram using a convolutional neural network (CNN).
상기 사용자 감정 트래킹부는, 상기 음성 신호를 STT(Speech to Text) 변환하여 상기 음성 신호와 대응하는 음성 텍스트를 획득하고, 상기 음성 텍스트를 구성하는 단어들을 순환신경망(Recurrent Neural Network, RNN)을 이용하여 분석함으로써 제2 감정을 결정한다.The above user emotion tracking unit converts the voice signal into STT (Speech to Text) to obtain a voice text corresponding to the voice signal, and analyzes the words constituting the voice text using a recurrent neural network (RNN) to determine a second emotion.
상기 사용자 감정 트래킹부는, 상기 제1 감정과 상기 제2 감정에 기초하여 상기 사용자 감정을 결정한다.The above user emotion tracking unit determines the user emotion based on the first emotion and the second emotion.
상기 평가 정보는, 상기 문화예술 컨텐츠들 각각에 대한 다수의 평가 항목들에 따른 개별 평점들 및 상기 개별 평점들에 대한 종합 평점을 포함한다.The above evaluation information includes individual ratings according to multiple evaluation items for each of the above cultural and artistic contents and a comprehensive rating for the individual ratings.
상기 컨텐츠 추천부는, 상기 사용자들이 상기 문화예술 컨텐츠들 각각에 대하여 남긴 상기 종합 평점을 기반으로, 상기 문화예술 컨텐츠들 상호간 근접도(proximity)를 산출하고, 산출된 상기 근접도에 기초하여 상기 예측 선호도를 결정한다.The above content recommendation unit calculates the proximity between the cultural and artistic contents based on the comprehensive ratings left by the users for each of the cultural and artistic contents, and determines the predicted preference based on the calculated proximity.
상기와 같은 본 발명에 따른 사용자 맞춤형 문화 예술 컨텐츠 큐레이션을 제공하고, 사용자와 함께 관람할 메이트를 추천하기 위한 방법 및 장치를 이용할 경우에는 사용자들 각각이 문화예술 컨텐츠들에 대하여 남긴 평가 정보를 기반으로 특정 사용자가 문화예술 컨텐츠에 대하여 가질 선호도를 예측할 수 있어 가장 적합한 문화예술 컨텐츠를 선정할 수 있다.When using the method and device for providing customized cultural and artistic content curation according to the present invention as described above and recommending a mate to view with the user, it is possible to predict the preference that a specific user will have for cultural and artistic content based on the evaluation information left by each user for cultural and artistic content, and thus select the most suitable cultural and artistic content.
또한, 문화예술 컨텐츠를 관람하거나 체험한 사용자의 추천 감정을 문화예술 컨텐츠들 각각에 대하여 수집하여 관리하기 때문에 문화예술 컨텐츠를 체험할 사용자의 감정을 고려하여 문화예술 컨텐츠를 선정할 수 있다.In addition, since the recommended feelings of users who have viewed or experienced cultural and artistic content are collected and managed for each cultural and artistic content, cultural and artistic content can be selected by considering the feelings of users who will experience the cultural and artistic content.
또한, 사용자의 음성 신호를 기반으로 사용자의 현재 감정 상태를 추적하고, 추적된 현재 감정 상태와 적합한 문화예술 컨텐츠를 사용자 맞춤형 문화예술 컨텐츠로서 제공하는 장점이 있다.In addition, it has the advantage of tracking the user's current emotional state based on the user's voice signal and providing cultural and artistic content that is appropriate for the tracked current emotional state as customized cultural and artistic content.
도 1은 일 실시예에 따른 사용자 맞춤형 문화 예술 컨텐츠 제공 방법이 수행되는 환경을 나타낸 개요도이다.
도 2는 도 1에 따른 컨텐츠 제공 서버의 기능적 구성을 나타낸 블록도이다.
도 3은 도 2에 따른 사용자 프로필 관리부에서 관리하는 정보를 나타낸 도면이다.
도 4는 도 2에 따른 문화예술 컨텐츠 관리부에서 관리하는 정보를 나타낸 도면이다.
도 5는 도 2에 따른 컨텐츠 추천부의 동작을 설명하기 위한 예시도이다.
도 6은 도 2에 따른 문화예술 컨텐츠 관리부에 의해 관리되는 문화예술 컨탠츠의 태그를 나타낸 도면이다.
도 7은 도 2에 따른 사용자 감정 트래킹부의 동작을 설명하기 위한 도면이다.
도 8은 도 7에 따른 합성곱 신경망의 구조를 예시적으로 나타낸 도면이다.
도 9는 도 2에 따른 메이트 선정부의 동작을 설명하기 위한 도면이다.
도 10은 도 1에 따른 컨텐츠 제공 서버의 하드웨어 구성을 예시적으로 나타낸 도면이다.Figure 1 is a schematic diagram showing an environment in which a method for providing user-customized cultural and artistic content according to one embodiment is performed.
Figure 2 is a block diagram showing the functional configuration of a content provision server according to Figure 1.
Figure 3 is a diagram showing information managed by the user profile management unit according to Figure 2.
Figure 4 is a diagram showing information managed by the cultural and artistic content management department according to Figure 2.
Fig. 5 is an example diagram for explaining the operation of the content recommendation unit according to Fig. 2.
Figure 6 is a drawing showing tags of cultural and artistic content managed by the cultural and artistic content management department according to Figure 2.
Fig. 7 is a drawing for explaining the operation of the user emotion tracking unit according to Fig. 2.
Fig. 8 is a diagram exemplarily showing the structure of a convolutional neural network according to Fig. 7.
Figure 9 is a drawing for explaining the operation of the mate selection unit according to Figure 2.
FIG. 10 is a drawing exemplarily showing the hardware configuration of a content provision server according to FIG. 1.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다. The present invention can have various modifications and various embodiments, and specific embodiments are illustrated in the drawings and described in detail in the detailed description. However, this is not intended to limit the present invention to specific embodiments, but should be understood to include all modifications, equivalents, or substitutes included in the spirit and technical scope of the present invention. In describing each drawing, similar reference numerals are used for similar components.
제1, 제2, A, B 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다. The terms first, second, A, B, etc. may be used to describe various components, but the components should not be limited by the terms. The terms are only used to distinguish one component from another. For example, without departing from the scope of the present invention, the first component may be referred to as the second component, and similarly, the second component may also be referred to as the first component. The term and/or includes any combination of a plurality of related described items or any item among a plurality of related described items.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. When it is said that a component is "connected" or "connected" to another component, it should be understood that it may be directly connected or connected to that other component, but that there may be other components in between. On the other hand, when it is said that a component is "directly connected" or "directly connected" to another component, it should be understood that there are no other components in between.
본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used in this application is only used to describe specific embodiments and is not intended to limit the present invention. The singular expression includes the plural expression unless the context clearly indicates otherwise. In this application, it should be understood that the terms "comprises" or "has" and the like are intended to specify the presence of a feature, number, step, operation, component, part or combination thereof described in the specification, but do not exclude in advance the possibility of the presence or addition of one or more other features, numbers, steps, operations, components, parts or combinations thereof.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Terms defined in commonly used dictionaries, such as those defined in common dictionaries, should be interpreted as having a meaning consistent with the meaning they have in the context of the relevant art, and will not be interpreted in an idealized or overly formal sense unless expressly defined in this application.
이하, 본 발명에 따른 바람직한 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the attached drawings.
도 1은 일 실시예에 따른 사용자 맞춤형 문화 예술 컨텐츠 제공 방법이 수행되는 환경을 나타낸 개요도이다.Figure 1 is a schematic diagram showing an environment in which a method for providing user-customized cultural and artistic content according to one embodiment is performed.
도 1을 참조하면, 사용자 맞춤형 문화예술 컨텐츠 제공 방법은 컨텐츠 제공 서버(100)에 의해 수행될 수 있다.Referring to FIG. 1, a method for providing customized cultural and artistic content can be performed by a content providing server (100).
컨텐츠 제공 서버(100)는, 다수의 문화예술 컨텐츠들을 등록하고, 등록된 문화예술 컨텐츠들 중에서 사용자 맞춤형 문화예술 컨텐츠를 선정하여 사용자 단말(200)에 제공할 수 있다.The content provision server (100) can register a number of cultural and artistic contents, select user-customized cultural and artistic contents from among the registered cultural and artistic contents, and provide them to the user terminal (200).
여기서, 문화예술 컨텐츠는, 영화, 드라마, 공연, 전시, 수업, 체험활동 등을 포함할 수 있다. 구체적으로, 문화예술 컨텐츠는, 영화, 드라마, 공연, 전시 등에 대하여 온라인 또는 오프라인으로 관람할 수 있는 티케팅 서비스, 도예 공방이나 가죽 공방 등과 같은 각종 수업에 대하여 온라인 또는 오프라인으로 수강할 수 있는 수강 예약 서비스, 및 특정 지역에 대한 여행 투어나 체험활동을 할 수 있는 체험활동 예약 서비스 등을 의미할 수 있다.Here, cultural and artistic content may include movies, dramas, performances, exhibitions, classes, and experiential activities. Specifically, cultural and artistic content may refer to a ticketing service that allows online or offline viewing of movies, dramas, performances, and exhibitions, a class reservation service that allows online or offline taking classes such as pottery or leather workshops, and an experiential activity reservation service that allows travel tours or experiential activities to specific regions.
컨텐츠 제공 서버(100)는, 사용자 단말(200)로부터 사용자 정보를 수집하고, 수집된 사용자 정보를 기반으로 사용자 프로필을 관리할 수 있다. 또한, 컨텐츠 제공 서버(100)는, 등록된 문화예술 컨텐츠들 각각에 대한 컨텐츠 정보를 저장할 수 있다. 여기서, 컨텐츠 정보는, 문화예술 컨텐츠들 각각에 대하여 관람하거나 체험한 사용자에 의해 부여되거나, 관리자로부터 입력받아 부여된 태그(tag) 정보를 포함할 수 있다.The content provision server (100) can collect user information from the user terminal (200) and manage the user profile based on the collected user information. In addition, the content provision server (100) can store content information for each registered cultural and artistic content. Here, the content information can include tag information that is provided by a user who has viewed or experienced each cultural and artistic content, or is provided by input from an administrator.
컨텐츠 제공 서버(100)는, 문화예술 컨텐츠마다 개별적으로 부여된 태그 정보를 기반으로 사용자 맞춤형 컨텐츠를 선정하고, 선정된 사용자 맞춤형 컨텐츠를 사용자 단말(200)에 제공할 수 있다. 여기서 사용자 맞춤형 컨텐츠는 복수개의 리스트 형태로 사용자 단말(200)에 제공될 수 있다.The content provision server (100) can select user-customized content based on tag information individually assigned to each cultural and artistic content, and provide the selected user-customized content to the user terminal (200). Here, the user-customized content can be provided to the user terminal (200) in the form of multiple lists.
구체적으로, 컨텐츠 제공 서버(100)는, 문화예술 컨텐츠들 각각에 대한 사용자들의 평가 정보를 기반으로 특정 사용자 단말(200)의 사용자의 컨텐츠 선호도를 예측하고, 예측된 컨텐츠 선호도에 따라 다수의 사용자 맞춤형 컨텐츠 후보군을 선정할 수 있다.Specifically, the content provision server (100) can predict the content preference of a user of a specific user terminal (200) based on the user's evaluation information for each cultural and artistic content, and select a plurality of user-customized content candidates according to the predicted content preference.
이때, 컨텐츠 제공 서버(100)는, 특정 사용자 단말(200)의 사용자에 대한 감정 상태를 지속적으로 트래킹(tracking)함으로써, 현재 시점에서 사용자의 감정 상태를 나타내는 사용자 감정을 결정할 수 있다.At this time, the content provision server (100) can determine the user emotion representing the user's emotional state at the current point in time by continuously tracking the emotional state of the user of a specific user terminal (200).
컨텐츠 제공 서버(100)는, 결정된 사용자 감정을 기반으로 사용자 맞춤형 컨텐츠 후보군에 포함된 문화예술 컨텐츠들 중에서 적어도 하나의 사용자 맞춤형 컨텐츠를 선정할 수 있다.The content provision server (100) can select at least one user-customized content from cultural and artistic contents included in the user-customized content candidate group based on the determined user sentiment.
즉, 본 발명의 일 실시예에 따른 컨텐츠 제공 서버(100)는, 사용자들의 평가 정보를 기반으로 특정 사용자의 문화예술 컨텐츠에 대한 예측 선호도를 예측하여 사용자 맞춤형 컨텐츠 후보군을 선정한 후, 사용자 맞춤형 컨텐츠 후보군에 포함된 문화예술 컨텐츠들 중에서, 사용자 감정을 기반으로 적어도 하나의 사용자 맞춤형 컨텐츠를 선정한다.That is, the content provision server (100) according to one embodiment of the present invention predicts a specific user's predicted preference for cultural and artistic content based on the user's evaluation information, selects a user-customized content candidate group, and then selects at least one user-customized content based on the user's emotion among the cultural and artistic content included in the user-customized content candidate group.
따라서, 컨텐츠 제공 서버(100)는, 사용자의 컨텐츠 선호도 뿐만 아니라 현재의 감정 상태에서 관람 또는 즐기기에 적합한 문화예술 컨텐츠를 사용자 맞춤형 컨텐츠로서 사용자 단말(200)에 제공하므로 사용자의 감정 상태와 선호도를 동시에 고려한 맞춤형 컨텐츠를 추천하는 것이 가능한 장점이 있다.Accordingly, the content provision server (100) provides the user terminal (200) with cultural and artistic content suitable for viewing or enjoying in the user's current emotional state as customized content, as well as the user's content preference, so there is an advantage in that it is possible to recommend customized content that simultaneously takes into account the user's emotional state and preference.
또한, 컨텐츠 제공 서버(100)는, 문화예술 컨텐츠들 각각에 대한 평가 정보를 기반으로 사용자들을 서로 비교하고, 비교 결과에 따라 동일한 문화예술 컨텐츠를 함께 즐기기에 적합한 메이트를 선정하여 서로에게 추천할 수 있다. 예를 들어, 컨텐츠 제공 서버(100)는, 문화예술 컨텐츠들 각각에 대한 제1 사용자의 평가 정보를 기반으로 제1 사용자와 나머지 다른 사용자들을 서로 비교하고, 비교 결과에 따라 나머지 다른 사용자들 중에서 제1 사용자와 특정 문화예술 컨텐츠를 함께 관람하거나 즐길 수 있는 메이트를 선정하여 제1 사용자에게 추천할 수 있다.In addition, the content providing server (100) can compare users with each other based on evaluation information for each cultural and artistic content, and select a suitable mate to enjoy the same cultural and artistic content together based on the comparison result, and recommend the mate to each other. For example, the content providing server (100) can compare the first user with the remaining other users based on the first user's evaluation information for each cultural and artistic content, and select a mate to enjoy or view a specific cultural and artistic content together with the first user from among the remaining other users based on the comparison result, and recommend the mate to the first user.
사용자 단말(200)은, 컨텐츠 제공 서버(100)에 접속하여 사용자 정보를 컨텐츠 제공 서버(100)에 제공하고, 컨텐츠 제공 서버(100)에 등록된 다수의 문화예술 컨텐츠들에 대한 예약 또는 구매를 진행하거나 감상 후기를 남길 수 있다.The user terminal (200) can access the content provision server (100) and provide user information to the content provision server (100), and can make reservations or purchases for a number of cultural and artistic contents registered in the content provision server (100), or leave reviews after viewing the contents.
이때, 사용자 단말(200)은, 컨텐츠 제공 서버(100)로부터 적어도 하나의 사용자 맞춤형 문화예술 컨텐츠를 추천받을 수 있다. 또한, 사용자 단말(200)은 컨텐츠 제공 서버(100)로부터 적어도 하나의 메이트를 추천받을 수 있다.At this time, the user terminal (200) can receive recommendations for at least one customized cultural and artistic content from the content providing server (100). In addition, the user terminal (200) can receive recommendations for at least one mate from the content providing server (100).
사용자 단말(200)의 사용자들 대다수는 문화예술 컨텐츠를 소비하고 제공받는 소비자에 해당할 수 있으나, 사용자 단말(200)의 사용자들 중 일부는 문화예술 컨텐츠를 직접 기획하거나 진행하는 예술인을 포함할 수 있다.Most of the users of the user terminal (200) may be consumers who consume and receive cultural and artistic content, but some of the users of the user terminal (200) may include artists who directly plan or produce cultural and artistic content.
도 2는 도 1에 따른 컨텐츠 제공 서버의 기능적 구성을 나타낸 블록도이다. 도 3은 도 2에 따른 사용자 프로필 관리부에서 관리하는 정보를 나타낸 도면이다. 도 4는 도 2에 따른 문화예술 컨텐츠 관리부에서 관리하는 정보를 나타낸 도면이다.Fig. 2 is a block diagram showing the functional configuration of the content provision server according to Fig. 1. Fig. 3 is a diagram showing information managed by the user profile management unit according to Fig. 2. Fig. 4 is a diagram showing information managed by the cultural and artistic content management unit according to Fig. 2.
도 2 및 도 3을 참조하면, 사용자 프로필 관리부(101)는, 사용자 단말(200)의 사용자들 각각에 대응하는 사용자 정보를 수신하고, 수신된 사용자 정보 및 문화예술 컨텐츠를 이용한 이용기록 정보를 포함하는 사용자 프로필 정보를 생성하여 관리할 수 있다.Referring to FIGS. 2 and 3, the user profile management unit (101) can receive user information corresponding to each user of the user terminal (200), and create and manage user profile information including the received user information and usage history information using cultural and artistic content.
구체적으로, 사용자 정보는, 사용자 단말(200)의 사용자들 각각에 대한 성별, 연령, 닉네임, 포인트, 잔액 등을 포함할 수 있다. 또한, 이용기록 정보는, 사용자 단말(200)의 사용자가 이용한 공연의 명칭, 이용한 공연의 티겟 종류, 이용한 공연의 날짜, 함께 문화예술 컨텐츠를 관람한 메이트의 수와 닉네임 등을 포함할 수 있다.Specifically, the user information may include the gender, age, nickname, points, balance, etc. of each user of the user terminal (200). In addition, the usage record information may include the name of the performance used by the user of the user terminal (200), the type of ticket for the performance used, the date of the performance used, the number of mates who watched the cultural and artistic content together, the nickname, etc.
한편, 사용자 프로필 관리부(101)에 의해 관리되는 사용자에는 문화예술 컨텐츠에 참가자로 참여하는 사용자 뿐만 아니라 문화예술 컨텐츠를 실제로 구성하고 만들어가는 예술인을 포함할 수 있다. 예를 들어, 예술인은 영화, 연극, 공연 등에 대한 출연자, 수업이나 체험활동을 기획하고 진행하는 교사 등을 포함할 수 있다.Meanwhile, users managed by the user profile management unit (101) may include not only users who participate in cultural and artistic content as participants, but also artists who actually compose and create cultural and artistic content. For example, artists may include performers in movies, plays, performances, etc., and teachers who plan and conduct classes or experiential activities.
따라서, 사용자 프로필 관리부(101)는, 예술인 정보를 추가로 생성하여 저장할 수 있다. 예술인 정보는, 예술인에 대한 이름, 필명, 국적, 전화번호, 이메일, 주소, 홈페이지 주소, 성별 등으로서, 사용자 프로필 정보의 사용자 정보에 대응하는 정보를 포함할 수 있다.Accordingly, the user profile management unit (101) can additionally create and store artist information. The artist information can include information corresponding to the user information of the user profile information, such as the artist's name, pen name, nationality, phone number, email, address, homepage address, gender, etc.
도 2 및 도 4를 참조하면, 문화예술 컨텐츠 관리부(102)는, 등록된 다수의 문화예술 컨텐츠들 각각에 대한 컨텐츠 정보를 생성하고 관리할 수 있다. 예를 들어, 컨텐츠 정보는 문화예술 컨텐츠에 대한 명칭, 공연지역, 유형, 장르, 공연기간, 공연장소, 관람등급, 주최자 명칭, 출연자 명칭, 대표자 명칭 등을 포함할 수 있다.Referring to FIGS. 2 and 4, the cultural arts content management department (102) can create and manage content information for each of a plurality of registered cultural arts contents. For example, the content information can include the name of the cultural arts contents, performance area, type, genre, performance period, performance venue, audience rating, host name, performer name, representative name, etc.
또한, 문화예술 컨텐츠 관리부(102)는, 컨텐츠 정보에 부수적으로 문화예술 컨텐츠들 각각에 대한 예술공간 정보를 더 생성하여 관리할 수 있다. 예술공간 정보는, 문화예술 컨텐츠가 진행되거나 열리는 장소에 대한 정보로서, 장소의 명칭, 장소의 분류, 주소, 장소에 대한 연락처, 장소에 대한 메일이나 웹페이지 등을 포함할 수 있다.In addition, the cultural arts content management department (102) can additionally create and manage art space information for each cultural arts content in addition to the content information. The art space information is information about the place where the cultural arts content is performed or opened, and can include the name of the place, the classification of the place, the address, contact information for the place, and email or web pages for the place.
따라서, 문화예술 컨텐츠 관리부(102)는, 예술공간 정보를 이용하여 사용자 단말(200)에게 지리적으로 유리한 문화예술 컨텐츠를 추천할 수 있다.Accordingly, the cultural arts content management department (102) can recommend geographically advantageous cultural arts content to the user terminal (200) using the art space information.
예를 들어, 문화예술 컨텐츠 관리부(102)는, 사용자 단말(200)의 현재 위치 정보를 기준으로, 현재 위치 정보와 지리적으로 가까운 예술공간 정보와 대응하는 문화예술 컨텐츠를 적어도 하나 선정하여 사용자 단말(200)에 제공할 수 있다.For example, the cultural arts content management department (102) may select at least one cultural arts content corresponding to the current location information and geographically close art space information based on the current location information of the user terminal (200) and provide the selected cultural arts content to the user terminal (200).
또한, 문화예술 컨텐츠 관리부(102)는, 모든 문화예술 컨텐츠에 대한 예술공간 정보를 지리적 맵(map)을 이용하여 사용자 단말(200)에 제공하고, 사용자 단말(200)이 지리적 맵(map)을 탐색하는 전체 시간, 및 지리적 맵(map)의 특정 범위 영역을 표시하는 시간(즉, 사용자의 시선이 유지되는 시간)을 측정하고, 지리적 맵을 탐색하는 시간 대비 특정 범위 영역을 표시하는 시간이 미리 설정된 비율 이상인 경우, 해당 특정 범위 영역을 사용자 단말(200)의 사용자가 관심있는 관심 지역으로 결정할 수 있다.In addition, the cultural arts content management unit (102) provides art space information on all cultural arts content to the user terminal (200) using a geographical map, measures the total time that the user terminal (200) explores the geographical map, and the time that a specific range area of the geographical map is displayed (i.e., the time that the user's gaze is maintained), and if the time that the specific range area is displayed compared to the time that the geographical map is explored is greater than a preset ratio, the specific range area can be determined as an area of interest that the user of the user terminal (200) is interested in.
따라서, 문화예술 컨텐츠 관리부(102)는, 사용자 맞춤형 문화예술 컨텐츠를 추천할 때, 관심 지역 내에 있는 문화예술 컨텐츠를 사용자 맞춤형 문화예술 컨텐츠로서 사용자 단말(200)에 제공할 수 있다.Accordingly, when recommending customized cultural and artistic content, the cultural and artistic content management department (102) can provide cultural and artistic content within the area of interest to the user terminal (200) as customized cultural and artistic content.
도 5는 도 2에 따른 컨텐츠 추천부의 동작을 설명하기 위한 예시도이다.Fig. 5 is an example diagram for explaining the operation of the content recommendation unit according to Fig. 2.
문화예술 컨텐츠 관리부(102)이 관리하는 컨텐츠 정보에는 문화예술 컨텐츠들 각각에 대응하는 평가 정보를 더 포함할 수 있다. 여기서 평가 정보는, 문화예술 컨텐츠를 직접 관람하거나 체험한 사용자 단말(200)이 해당 문화예술 컨텐츠에 대하여 남긴 평점, 후기 등을 포함할 수 있다. 여기서 평점은 다수의 평가 항목들(예를 들어, 흥미, 개연성, 등을 포함할 수 있음) 각각에 대한 개별 평점들 및 개별 평점들에 대한 평균 또는 중간값 등으로 나타낸 종합 평점을 포함할 수 있다.The content information managed by the cultural arts content management department (102) may further include evaluation information corresponding to each cultural arts content. Here, the evaluation information may include ratings, reviews, etc. left by user terminals (200) who directly viewed or experienced the cultural arts content. Here, the rating may include individual ratings for each of a number of evaluation items (e.g., interest, probability, etc.) and a comprehensive rating expressed as an average or median of the individual ratings.
본 발명의 일 실시예에 따른 컨텐츠 추천부(104)는, 다수의 사용자 단말(200)들의 사용자들이 문화예술 컨텐츠들 각각에 대하여 남긴 종합 평점을 기반으로 문화예술 컨텐츠들 상호간 근접도(proximity)를 산출하고, 산출된 근접도를 이용하여 특정 사용자 단말(200)의 사용자가 특정 문화예술 컨텐츠에 대하여 갖게될 선호도를 결정할 수 있다.A content recommendation unit (104) according to one embodiment of the present invention calculates proximity between cultural and artistic contents based on comprehensive ratings left by users of multiple user terminals (200) for each cultural and artistic content, and determines a preference that a user of a specific user terminal (200) will have for a specific cultural and artistic content using the calculated proximity.
구체적으로, 컨텐츠 추천부(104)는, 다음의 수학식 1에 기초하여 문화 예술 컨텐츠들 상호간 근접도(Proximity)를 산출할 수 있다.Specifically, the content recommendation unit (104) can calculate the proximity between cultural and artistic contents based on the following mathematical expression 1.
상기 수학식 1을 참조하면, wi,j 는, 문화예술 컨텐츠 i와 문화예술 컨텐츠 j 사이의 근접도이고, U는 문화예술 컨텐츠 i와 문화예술 컨텐츠 j에 모두 종합 평점을 남긴 사용자 단말(200)의 사용자들 전체의 집합이고, ru,i는 집합 U에 포함된 사용자 u가 문화예술 컨텐츠 i에 대하여 남긴 종합 평점이고, ru,j는 집합 U에 포함된 사용자 u가 문화예술 컨텐츠 i에 대하여 남긴 종합 평점이며, 는 모든 사용자들이 문화예술 컨텐츠 i에 남긴 종합 평점들의 평균값이고, 는 모든 사용자들이 문화예술 컨텐츠 j에 대하여 남긴 종합 평점들의 평균값이다.Referring to the above mathematical expression 1, w i,j is the proximity between cultural and artistic content i and cultural and artistic content j, U is a set of all users of user terminals (200) who have left comprehensive ratings on both cultural and artistic content i and cultural and artistic content j, r u,i is a comprehensive rating left by user u included in set U for cultural and artistic content i, and r u,j is a comprehensive rating left by user u included in set U for cultural and artistic content i. is the average of the overall ratings left by all users on cultural and artistic content i, is the average of the comprehensive ratings left by all users for cultural and artistic content j.
따라서, 수학식 1을 이용하면 2개의 문화예술 컨텐츠들 상호간에 근접도를 산출할 수 있다. 수학식 1에 따른 근접도는 -1과 +1 사이의 값일 수 있다.Therefore, using mathematical expression 1, the proximity between two cultural and artistic contents can be calculated. The proximity according to mathematical expression 1 can be a value between -1 and +1.
컨텐츠 추천부(104)는, 산출된 근접도를 이용하여 특정 사용자 단말(200)의 사용자가 문화예술 컨텐츠들 각각을 선호하는 정도를 예측한 예측 선호도를 산출할 수 있다.The content recommendation unit (104) can use the calculated proximity to calculate a predicted preference that predicts the degree to which a user of a specific user terminal (200) prefers each cultural and artistic content.
예를 들어, 컨텐츠 추천부(104)는, 다음의 수학식 2에 따라 문화예술 컨텐츠들 각각에 대한 예측 선호도를 산출할 수 있다.For example, the content recommendation unit (104) can calculate the predicted preference for each cultural and artistic content according to the following mathematical expression 2.
수학식 2에서, Pa,i는 특정 사용자 단말(200)의 사용자 a가 문화예술 컨텐츠 i를 선호하는 정도를 예측한 예측 선호도이고, N은 문화예술 컨텐츠 i를 제외한 나머지 문화예술 컨텐츠들의 집합이고, wi,n은 문화예술 컨텐츠 i와 집합 N에 포함된 문화예술 컨텐츠 n 사이의 근접도이고, ra,n은 사용자 a가 문화예술 컨텐츠 n에 대하여 남긴 종합 평점일 수 있다.In mathematical expression 2, P a,i is a predicted preference that predicts the degree to which a user a of a specific user terminal (200) prefers cultural and artistic content i, N is a set of cultural and artistic contents excluding cultural and artistic content i, w i,n is a proximity between cultural and artistic content i and cultural and artistic content n included in the set N, and r a,n may be a comprehensive rating left by user a for cultural and artistic content n.
컨텐츠 추천부(104)는, 산출된 예측 선호도가 높은 순서대로 미리 설정된 개수 이내로 문화예술 컨텐츠들을 선정하고, 선정된 문화예술 컨텐츠들로 사용자 맞춤형 컨텐츠 후보군을 구성할 수 있다.The content recommendation unit (104) can select cultural and artistic contents within a preset number in order of high predicted preference, and can compose a user-customized content candidate group with the selected cultural and artistic contents.
예를 들어 도 5를 참조하면, 컨텐츠 추천부(104)는, 사용자 맞춤형 컨텐츠를 추천받을 대상이 되는 제3 사용자(203)가 제1 문화예술 컨텐츠(C1)에 높은 종합 평점을 남겼고, 제1 문화예술 컨텐츠(C1)와 제2 문화예술 컨텐츠(C2) 사이의 근접도가 높은 경우, 제2 문화예술 컨텐츠(C2)에 대한 제3 사용자(203)의 예측 선호도가 높을 수 있다. 따라서, 이 경우 컨텐츠 추천부(104)는, 제2 문화예술 컨텐츠(C2)를 사용자 맞춤형 컨텐츠 후보군에 포함시킬 수 있다.For example, referring to FIG. 5, the content recommendation unit (104) may determine that if a third user (203) to whom customized content is to be recommended has given a high overall rating to the first cultural and artistic content (C1) and the proximity between the first cultural and artistic content (C1) and the second cultural and artistic content (C2) is high, the predicted preference of the third user (203) for the second cultural and artistic content (C2) may be high. Accordingly, in this case, the content recommendation unit (104) may include the second cultural and artistic content (C2) in the candidate group of customized content.
따라서, 제3 사용자(203)는, 사용자 맞춤형 컨텐츠 후보군에 포함되어 있는 제2 문화예술 컨텐츠(C2)를 사용자 맞춤형 컨텐츠로서 제공받을 수 있다. Accordingly, the third user (203) can receive the second cultural and artistic content (C2) included in the user-customized content candidate group as user-customized content.
한편, 컨텐츠 추천부(104)는, 사용자 맞춤형 컨텐츠 후보군에 포함되어 있는 문화예술 컨텐츠들 중에서 사용자의 현재 감정 상태를 지시하는 사용자 감정에 따라 사용자 맞춤형 컨텐츠를 선정하고, 선정된 사용자 맞춤형 컨텐츠를 사용자 단말(200)에 제공함으로써 사용자의 현재 감정 상태를 최대한 고려한 컨텐츠를 제공할 수도 있다.Meanwhile, the content recommendation unit (104) may select user-customized content based on the user's emotions, which indicate the user's current emotional state, from among the cultural and artistic contents included in the user-customized content candidate group, and provide the selected user-customized content to the user terminal (200), thereby providing content that takes the user's current emotional state into maximum consideration.
도 6은 도 2에 따른 문화예술 컨텐츠 관리부에 의해 관리되는 문화예술 컨탠츠의 태그를 나타낸 도면이다.Figure 6 is a drawing showing tags of cultural and artistic content managed by the cultural and artistic content management department according to Figure 2.
문화예술 컨텐츠 관리부(102)는, 컨텐츠 정보로서, 문화예술 컨텐츠들 각각에 대응하는 감상 태그를 수집할 수 있다. 여기서, 감상 태그는 사용자들이 문화예술 컨텐츠들 각각에 대하여 감상한 소감이나 정보를 기록한 각종 텍스트(text)일 수 있다. 구체적으로 예를 들어, 감상 태그는, 문화예술 컨텐츠에 대응하는 분위기, 장르, 평가, 소재, 수상 이력 등을 포함할 수 있다.The cultural and artistic content management department (102) can collect appreciation tags corresponding to each cultural and artistic content as content information. Here, the appreciation tags can be various texts in which users record their impressions or information regarding each cultural and artistic content. Specifically, for example, the appreciation tags can include the atmosphere, genre, evaluation, material, award history, etc. corresponding to the cultural and artistic content.
감상 태그는, 문화예술 컨텐츠를 직접 체험하거나 관람한 사용자의 사용자 단말(200)로부터 수집할 수 있으며, 감상 태그의 적어도 일부는 컨텐츠 제공 서버(100)의 관리자에 의해 입력됨으로써 수집될 수도 있다.Appreciation tags can be collected from a user terminal (200) of a user who directly experienced or viewed cultural and artistic content, and at least some of the appreciation tags can be collected by being input by an administrator of a content providing server (100).
문화예술 컨텐츠 관리부(102)는, 사용자 단말(200)로부터 검색어를 수신하고, 수신된 검색어와 대응하는 감상 태그를 검색하고, 검색된 감상 태그와 대응하는 문화예술 컨텐츠를 사용자 단말(200)에 제공할 수 있다. 즉, 감상 태그는 문화예술 컨텐츠에 대한 색인어(index)로 사용될 수 있다.The cultural and artistic content management unit (102) can receive a search word from a user terminal (200), search for an appreciation tag corresponding to the received search word, and provide cultural and artistic content corresponding to the searched appreciation tag to the user terminal (200). In other words, the appreciation tag can be used as an index for cultural and artistic content.
한편, 컨텐츠 추천부(104)가 사용자의 현재 감정 상태에 따른 사용자 맞춤형 문화예술 컨텐츠를 선정하기 위하여, 감상 태그에는 문화예술 컨텐츠들 각각에 대응하는 추천 감정이 포함될 수 있다. 여기서, 추천 감정은, 문화예술 컨텐츠를 직접 체험하거나 관람한 사용자의 감정 상태를 지시하는 텍스트(text)일 수 있다.Meanwhile, in order for the content recommendation unit (104) to select customized cultural and artistic content according to the user's current emotional state, the appreciation tag may include a recommended emotion corresponding to each cultural and artistic content. Here, the recommended emotion may be a text indicating the emotional state of a user who directly experienced or viewed the cultural and artistic content.
예를 들어, 추천 감정은, 사용자의 감정이 사랑하고 싶을 때 즐기면 적합한 문화예술 컨텐츠에 대해서 '사랑하고 싶을 때'로 표현될 수 있고, 사용자의 감정이 웃고 싶을 때 즐기면 적합한 문화예술 컨텐츠에 대해서 '웃고 싶을 때'로 표현될 수 있다.For example, the recommended emotion can be expressed as 'when you want to love' for cultural and artistic content that is suitable to enjoy when the user's emotion is to love, and 'when you want to laugh' for cultural and artistic content that is suitable to enjoy when the user's emotion is to laugh.
추천 감정은, 문화예술 컨텐츠를 직접 체험하거나 관람한 사용자의 사용자 단말(200)로 한정하여 수집되는 것이 가장 바람직하나, 감상 태그와 마찬가지로 추천 감정의 적어도 일부는 컨텐츠 제공 서버(100)의 관리자에 의해 입력됨으로써 수집될 수도 있다.It is most desirable that the recommended emotions be collected only from the user terminal (200) of a user who directly experienced or viewed cultural and artistic content, but, like the appreciation tag, at least a portion of the recommended emotions may be collected by being input by the administrator of the content providing server (100).
본 발명의 일 실시예에 따른 컨텐츠 추천부(104)는 추천 감정을 적극적으로 이용하여 사용자의 현재 감정 상태를 지시하는 사용자 감정과 대응하는 추천 감정을 검색하고, 검색된 추천 감정과 대응하는 문화예술 컨텐츠를 사용자 맞춤형 문화예술 컨텐츠로서 사용자 맞춤형 컨텐츠 후보군에서 선정하여 사용자 단말(200)에 제공할 수 있다. 이때, 컨텐츠 추천부(104)는, 사용자 감정 트래킹부(103)에 의해 결정된 사용자 감정을 사용자 감정 트래킹부(103)로부터 제공받을 수 있다.The content recommendation unit (104) according to one embodiment of the present invention actively uses the recommended emotion to search for the recommended emotion corresponding to the user emotion indicating the current emotional state of the user, and selects the cultural and artistic content corresponding to the searched recommended emotion as a user-customized cultural and artistic content from a group of user-customized content candidates and provides it to the user terminal (200). At this time, the content recommendation unit (104) can receive the user emotion determined by the user emotion tracking unit (103) from the user emotion tracking unit (103).
도 7은 도 2에 따른 사용자 감정 트래킹부의 동작을 설명하기 위한 도면이다.Figure 7 is a drawing for explaining the operation of the user emotion tracking unit according to Figure 2.
사용자의 현재 감정 상태를 지시하는 사용자 감정은, 분노, 사랑, 행복, 힘듦, 스릴, 웃김 등을 포함할 수 있다. 이처럼 다양한 사용자의 현재 감정 상태를 결정하기 위하여, 사용자 감정 트래킹부(103)는, 사용자 단말(200)에서 가장 최근에 미리 설정된 시간 간격동안 녹음된 음성 신호를 사용자 단말(200)로부터 수신할 수 있다. 음성 신호를 녹음하기 위하여 사용자 단말(200)에는 미리 소정의 애플리케이션이 설치될 수도 있다.The user emotions indicating the user's current emotional state may include anger, love, happiness, difficulty, thrill, laughter, etc. In order to determine the user's current emotional state in various ways, the user emotion tracking unit (103) may receive a voice signal recorded during the most recent preset time interval from the user terminal (200). In order to record the voice signal, a predetermined application may be installed in advance on the user terminal (200).
사람은 다양한 형태로 자신의 현재 감정 상태를 드러내지만, 음성에서 특히 그 감정 상태가 드러나는 경우가 많다. 따라서 본 발명의 일 실시예에 따른 사용자 감정 트래킹부(103)는, 이러한 음성 신호를 기초로 사용자 감정을 결정한다.People express their current emotional state in various forms, but their emotional state is often particularly revealed through their voice. Therefore, the user emotion tracking unit (103) according to one embodiment of the present invention determines the user's emotion based on this voice signal.
구체적으로, 사용자 감정 트래킹부(103)는, 사용자 단말(200)로부터 수신된 음성 신호를 이용하여 스펙트로그램(spectrogram)을 획득할 수 있다. 스펙트로그램은, 음성 신호를 주파수, 진폭, 시간으로 시각화할 수 있는 도구로서 시간축을 가로(x) 축으로 하고, 음성 신호의 주파수를 세로(y) 축으로 하고, 음성 신호의 진폭 크기를 미리 설정된 범위의 색상 값으로서 가로축과 세로축에 대응하는 지점에 표시한다.Specifically, the user emotion tracking unit (103) can obtain a spectrogram using a voice signal received from the user terminal (200). The spectrogram is a tool that can visualize a voice signal in terms of frequency, amplitude, and time, with the time axis as the horizontal (x) axis, the frequency of the voice signal as the vertical (y) axis, and the amplitude size of the voice signal as a color value within a preset range at points corresponding to the horizontal and vertical axes.
예를 들어, 사용자 감정 트래킹부(103)는, 음성 신호의 샘플링 율(sampling rate)을 이용하여 다음의 수학식 3에 따라 고속 푸리에 변환(FFT)의 윈도우 원소 개수를 결정할 수 있다.For example, the user emotion tracking unit (103) can determine the number of window elements of a fast Fourier transform (FFT) according to the following mathematical expression 3 using the sampling rate of the voice signal.
수학식 3에서 sr은 샘플링 율이고, W는 고속 푸리에 변환(FFT)의 윈도우 크기로서 미리 설정되는 값일 수 있다.In mathematical expression 3, sr is a sampling rate, and W is a window size of a fast Fourier transform (FFT), which can be a preset value.
사용자 감정 트래킹부(103)는, 윈도우 원소 개수에 해닝 윈도우(Hanning Window)를 적용한 후, 정규화(Normalization)하여 정규화된 해닝 윈도우를 얻을 수 있다.The user emotion tracking unit (103) can obtain a normalized Hanning window by applying a Hanning window to the number of window elements and then normalizing the window.
사용자 감정 트래킹부(103)는, 정규화된 해닝 윈도우, 샘플링 율, 및 상기 음성 신호에 대하여 미리 설정된 홉 길이로 절단(truncated)된 음성 신호를 고속 푸리에 변환(FFT)한 결과값을 이용하여 아래 수학식 4에 따른 스펙트로그램(SPT)을 획득할 수 있다.The user emotion tracking unit (103) can obtain a spectrogram (SPT) according to the following mathematical expression 4 by using the result of performing a fast Fourier transform (FFT) on a voice signal truncated by a normalized Hanning window, a sampling rate, and a preset hop length for the voice signal.
수학식 4에서, VC는 음성 신호이고, trunc(VC)는, 미리 설정된 홉 길이로 절단된 음성 신호이고, FFT는 고속 푸리에 변환을 나타내는 함수이고, Wnh는 정규화된 해닝 윈도우이고, sr은 샘플링 율이고, T는 절단된 음성 신호의 시간 간격일 수 있다.In mathematical expression 4, VC is a speech signal, trunc(VC) is a speech signal truncated with a preset hop length, FFT is a function representing a fast Fourier transform, Wnh is a normalized Hanning window, sr is a sampling rate, and T may be a time interval of the truncated speech signal.
한편, 스펙트로그램(SPT)으로부터 인공신경망을 통해 음성 신호 분석을 수행할 경우, 수학식 4에 따른 스펙트로그램의 결과 값으로부터 특징벡터에 해당하는 MFCC(Mel-Frequency Cepstral Coefficient)를 추출하고, 추출된 MFCC 등을 인공신경망에 입력하는 학습시키는 방식을 사용할 수 있다.Meanwhile, when performing voice signal analysis through an artificial neural network from a spectrogram (SPT), a learning method can be used in which the MFCC (Mel-Frequency Cepstral Coefficient) corresponding to the feature vector is extracted from the result value of the spectrogram according to mathematical expression 4, and the extracted MFCC, etc. are input into the artificial neural network.
그러나, 이 경우 스펙트로그램에 따른 MFCC 이외에도 ZCR(zero crossing rete) 등의 특징 벡터를 추출하여 인공신경망에 학습시키게 되는데, 이러한 다양한 특징 벡터들에 따라 인공신경망에서의 특징 학습 모델이 달라진다.However, in this case, in addition to MFCC according to the spectrogram, feature vectors such as ZCR (zero crossing rete) are extracted and trained on the artificial neural network, and the feature learning model in the artificial neural network changes depending on these various feature vectors.
한편, 합성곱 신경망(CNN, convolutional neural network)은 전술한 특징 벡터를 입력값으로 학습하는 방식과는 달리 입력 이미지를 클래스들(classes) 중 하나로 분류하는 데 많은 연구가 이루어져 있어 입력 이미지를 분류하는 데 높은 성능을 갖는다.Meanwhile, convolutional neural networks (CNNs) have been studied extensively in classifying input images into classes, unlike the method of learning the aforementioned feature vectors as input values, and thus have high performance in classifying input images.
본 발명은 이러한 합성곱 신경망의 분류 성능상 이점과 특징 벡터를 음성 신호에 따라 설정하는 문제점을 해결하기 위한 수단으로 스펙트로그램을 시각화하여 합성곱 신경망(CNN)을 통해 학습 및 분석하는 방법을 제안한다.The present invention proposes a method of visualizing a spectrogram and learning and analyzing it through a convolutional neural network (CNN) as a means to solve the classification performance advantage of such a convolutional neural network and the problem of setting a feature vector according to a speech signal.
구체적으로, 스펙트로그램(SPT)은, 음성 신호의 시간을 x 축으로 하고, 음성 신호의 주파수를 y 축으로 하고, 음성 신호의 진폭 크기를 미리 설정된 범위의 색상 값으로서 x축과 y축에 대응하는 지점에 표시하면 도 6과 같이 시각화가 가능하다.Specifically, the spectrogram (SPT) can be visualized as shown in Fig. 6 by displaying the time of the voice signal as the x-axis, the frequency of the voice signal as the y-axis, and the amplitude size of the voice signal as color values within a preset range at points corresponding to the x-axis and y-axis.
사용자 감정 트래킹부(103)는, 이렇게 시각화된 스펙트로그램에서 x축과 y축에 의해 정의되는 영역을 미리 설정된 크기의 블록(block)들로 블록화하고, 블록화된 블록들 각각에 표시되어 있는 다수의 색상 값들을 미리 정의된 화소 범위(예를 들어 8bit의 화소값으로 대응시키면 0과 255 사이의 값들) 내의 화소값으로 변환(또는 양자화)시키고, 변환된 다수의 화소 값들의 평균값 또는 중간값으로 블록들 각각에 대응하는 화소값을 결정함으로써 스펙트로그램에 대응하는 입력 이미지를 생성할 수 있다.The user emotion tracking unit (103) divides an area defined by the x-axis and y-axis in the spectrogram visualized in this manner into blocks of a preset size, converts (or quantizes) a plurality of color values displayed in each of the divided blocks into pixel values within a predefined pixel range (for example, values between 0 and 255 when corresponding to 8-bit pixel values), and determines a pixel value corresponding to each of the blocks as an average value or median value of the converted plurality of pixel values, thereby generating an input image corresponding to the spectrogram.
이렇게 생성되는 입력 이미지는 시각화된 스펙트로그램을 블록화하고 양자화하여 일부 정보를 간소화하기 때문에 음성 신호의 세부 특징이 다소 소실될 수 있으나, 특징 벡터를 이용하는 것보다 더욱 많은 정보를 담고 있기 때문에 음성 신호의 현재 감정 상태를 매우 잘 표현할 수 있다.The input image generated in this way may lose some of the detailed features of the voice signal because it simplifies some of the information by blocking and quantizing the visualized spectrogram. However, it can express the current emotional state of the voice signal very well because it contains more information than using a feature vector.
사용자 감정 트래킹부(103)는, 스펙트로그램에 대응하는 입력 이미지를 미리 지도학습된(supervised learning) 합성곱 신경망(CNN)에 입력하고, 합성곱 신경망의 출력으로 사용자의 현재 감정 상태를 나타내는 제1 감정을 획득할 수 있다. 이를 위해 합성곱 신경망(CNN)은 다수의 사용자 감정들 각각에 대응하는 스펙트로그램을 이미지로 변환한 입력 이미지들을 훈련 데이터로 사용하여 미리 학습될 수 있다.The user emotion tracking unit (103) inputs an input image corresponding to a spectrogram into a pre-supervised learning convolutional neural network (CNN), and can obtain a first emotion representing the user's current emotional state as an output of the convolutional neural network. To this end, the convolutional neural network (CNN) can be pre-learned using input images converted into images of spectrograms corresponding to each of a plurality of user emotions as training data.
한편, 본 발명의 일 실시예에 따른 사용자 감정 트래킹부(103)는, 사용자의 음성 신호에 내재된 사용자의 감정 상태를 나타내는 제1 감정 뿐만 아니라 사용자가 발화한 텍스트를 구성하는 단어들 자체로부터 드러나는 사용자의 감정 상태를 나타내는 제2 감정을 추가로 획득할 수 있다.Meanwhile, the user emotion tracking unit (103) according to one embodiment of the present invention can additionally obtain a second emotion representing the user's emotional state revealed from the words themselves that make up the text spoken by the user, as well as a first emotion representing the user's emotional state inherent in the user's voice signal.
구체적으로, 사용자 감정 트래킹부(103)는, 음성 신호를 STT(Speech to Text) 변환함으로써 음성 신호에 대응하는 음성 텍스트를 획득할 수 있다.Specifically, the user emotion tracking unit (103) can obtain voice text corresponding to a voice signal by converting the voice signal into STT (Speech to Text).
다음으로 사용자 감정 트래킹부(103)는, 획득된 음성 텍스트를 다양한 벡터 변환 알고리즘들(word2Vec)를 이용하여 음성 텍스트를 구성하는 단어들 각각에 대응하는 단어 벡터들을 획득하고, 획득된 단어 벡터들을 순환 신경망(Recurrent Neural Network, RNN)에 입력하고, 순환 신경망의 출력으로 제2 감정을 획득할 수 있다. Next, the user emotion tracking unit (103) obtains word vectors corresponding to each word composing the acquired voice text using various vector conversion algorithms (word2Vec), inputs the obtained word vectors into a recurrent neural network (RNN), and obtains a second emotion as the output of the recurrent neural network.
순환 신경망(RNN)은 시간의 흐름에 따라 변화하는 데이터를 학습하기 위한 인공신경망(Artificial Neural Network, ANN)의 하나로서 음성 텍스트가 음성 신호의 시간적 흐름에 따라 순차적으로 발화되기 때문에 이러한 시간적 흐름에 따른 음성 텍스트를 분석하기에 적합하다. 순환 신경망(RNN)은 각 단어들을 시간적 순서에 따라 분석하여 사용자의 감정(제2 감정)을 결정도록 미리 학습될 수 있다. 예를 들어, 순환 신경망(RNN)은 장단기 메모리(LSTM, Long-Short term Memory) 방식의 순환 신경망으로 구현되거나 그 밖에 다른 공지된 다양한 구조의 순환 신경망으로 구성될 수 있다.A recurrent neural network (RNN) is an artificial neural network (ANN) that learns data that changes over time. Since spoken text is spoken sequentially according to the temporal flow of the speech signal, it is suitable for analyzing spoken text according to such temporal flow. A recurrent neural network (RNN) can be pre-trained to analyze each word in temporal order to determine the user's emotion (secondary emotion). For example, a recurrent neural network (RNN) can be implemented as a recurrent neural network using a long short-term memory (LSTM) method, or can be configured with various other known recurrent neural network structures.
사용자 감정 트래킹부(103)는, 제1 감정과 제2 감정을 이용하여 사용자 감정을 결정할 수 있다. The user emotion tracking unit (103) can determine the user emotion using the first emotion and the second emotion.
구체적으로, 사용자 감정 트래킹부(103)는, 다수의 사용자 감정들 각각에 대하여 제1 감정과 제2 감정 중 하나를 선택하기 위한 선택정보를 미리 설정하여 저장할 수 있다.Specifically, the user emotion tracking unit (103) can preset and store selection information for selecting one of the first emotion and the second emotion for each of a plurality of user emotions.
예를 들어, 분노, 사랑 등의 사용자 감정들 중 일부는 음성 신호의 스펙트로그램을 통해 파악하는 것이 더 정확할 수도 있고, 사용자 감정들 중 나머지는 음성 텍스트를 통해 더욱 잘 드러날 수도 있다. 구체적으로, '사랑'은 제2 감정으로 RNN을 통해 출력되었을 때보다 제1 감정으로 CNN을 통해 출력되었을때 선택되도록 선택 정보로서 구성될 수 있고, '분노'는 제2 감정으로 RNN을 통해 출력되었을 때 선택되도록 선택 정보로서 구성될 수 있다.For example, some of the user emotions, such as anger and love, may be more accurately identified through the spectrogram of the voice signal, and the rest of the user emotions may be better expressed through the voice text. Specifically, 'love' may be configured as selection information so that it is selected when it is output as the first emotion through the CNN rather than when it is output as the second emotion through the RNN, and 'anger' may be configured as selection information so that it is selected when it is output as the second emotion through the RNN.
따라서, 이러한 점들을 고려하여 선택 정보가 미리 관리자에 의해 입력되어 저장되며, 사용자 감정 트래킹부(103)는, 이러한 선택 정보를 기초로 제1 감정과 제2 감정 중 하나를 선택하여 사용자 감정으로 결정할 수 있다.Accordingly, considering these points, selection information is entered and stored in advance by the administrator, and the user emotion tracking unit (103) can select one of the first and second emotions based on this selection information and determine it as the user emotion.
도 8은 도 7에 따른 합성곱 신경망의 구조를 예시적으로 나타낸 도면이다.Fig. 8 is a diagram exemplarily showing the structure of a convolutional neural network according to Fig. 7.
도 8을 참조하면, 본 발명의 일 실시예에 따른 합성곱 신경망(10)은, 미리 설정된 크기의 스펙트로그램과 대응하는 입력 이미지를 입력받아, 특징 맵을 추출하는 컨볼루셔널 계층(11), 추출된 특징에 대해 활성화 함수를 이용해 출력을 활성화할지 여부를 결정하는 활성화 계층(12), 활성화 계층(12)에 따른 출력에 대해 샘플링을 수행하는 풀링 계층(13), 클래스에 따른 분류를 수행하는 완전 연결 계층(14), 완전 연결 계층(14)에 따른 출력을 최종적으로 출력하는 출력 계층(15)을 포함할 수 있다.Referring to FIG. 8, a convolutional neural network (10) according to one embodiment of the present invention may include a convolutional layer (11) that receives an input image corresponding to a spectrogram of a preset size and extracts a feature map, an activation layer (12) that determines whether to activate an output using an activation function for the extracted feature, a pooling layer (13) that performs sampling on the output according to the activation layer (12), a fully connected layer (14) that performs classification according to a class, and an output layer (15) that finally outputs the output according to the fully connected layer (14).
컨볼루셔널 계층(11)은 입력 이미지와 필터를 서로 합성곱함으로써 입력 데이터의 특징을 추출하는 계층일 수 있다. 여기서 필터는 입력 이미지의 특징적 부분을 검출하는 함수로서, 일반적으로 행렬로 표현되며 학습 데이터에 의해 지속적으로 학습됨에 따라 결정되는 함수일 수 있다. 컨볼루셔널 계층(11)에 의해 추출된 특징은 특징 맵(feature map)으로 지칭될 수도 있다. 또한, 합성곱을 수행하는 간격 값을 스트라이드(stride)라고 지칭할 수 있는데, 스트라이드 값에 따라 다른 크기의 특징 맵이 추출될 수 있다. 이때, 특징 맵은 필터의 크기가 입력 영상보다 작으면, 기존의 입력 영상보다 더 작은 크기를 갖게 되는데, 여러 단계를 거쳐 특징이 소실되는 것을 방지하기 위하여 패딩 과정이 추가로 수행될 수 있다. 이때, 패딩 과정은 생성된 특징 맵의 외곽에 미리 설정된 값(예를 들면 0이나 1)을 추가함으로써 입력 영상의 크기와 특징 맵의 크기를 동일하게 유지하는 과정일 수 있다. The convolutional layer (11) may be a layer that extracts features of input data by convolving the input image and the filter with each other. Here, the filter is a function that detects a characteristic part of the input image, and may be a function that is generally expressed as a matrix and is determined by continuously learning by learning data. The features extracted by the convolutional layer (11) may be referred to as a feature map. In addition, the interval value for performing the convolution may be referred to as a stride, and feature maps of different sizes may be extracted depending on the stride value. At this time, if the size of the filter is smaller than that of the input image, the feature map has a smaller size than the existing input image, and a padding process may be additionally performed to prevent the feature from being lost through several steps. At this time, the padding process may be a process of maintaining the size of the input image and the size of the feature map the same by adding a preset value (for example, 0 or 1) to the periphery of the generated feature map.
여기서 본 발명의 일 실시예에 따른 컨볼루셔널 계층(11)은, 1×1 컨볼루셔널 계층과 3×3 컨볼루셔널 계층을 순차로 반복 연결한 구조를 사용할 수 있다.Here, the convolutional layer (11) according to one embodiment of the present invention can use a structure in which a 1×1 convolutional layer and a 3×3 convolutional layer are sequentially and repeatedly connected.
활성화 계층(12)는 어떠한 값(또는 행렬)으로 추출된 특징을 활성화 함수에 따라 비선형 값으로 바꾸어 활성화 여부를 결정하는 계층으로, 활성화 함수로는 시그모이드(sigmoid) 함수, ReLU 함수, 소프트맥스(softmax) 함수 등이 사용될 수 있다. 예를 들어, 소프트맥스 함수는 입력된 값을 0~1사이의 값으로 모두 정규화하며 출력 값들의 총합은 항상 1이 되는 특성을 가진 함수일 수 있다.The activation layer (12) is a layer that changes a feature extracted as a value (or matrix) into a nonlinear value according to an activation function to determine whether to activate it. A sigmoid function, a ReLU function, a softmax function, etc. can be used as an activation function. For example, the softmax function can be a function that normalizes all input values to values between 0 and 1 and has the characteristic that the sum of the output values is always 1.
풀링 계층(130)은 활성화 계층(12)의 출력에 대하여 서브 샘플링(subsampling) 또는 풀링(pooling)을 수행하여 특징맵을 대표하는 특징을 선정하는 계층으로서, 특징맵의 일정 영역에 대하여 가장 큰 값을 추출하는 맥스 풀링(max pooling), 평균값을 추출하는 애버리지 풀링(average pooling) 등이 수행될 수 있다. 이때, 풀링 계층은 활성화 함수 이후에 반드시 수행되는 것이 아니라 선택적으로 수행될 수 있다.The pooling layer (130) is a layer that selects a feature representing the feature map by performing subsampling or pooling on the output of the activation layer (12). Max pooling, which extracts the largest value for a certain area of the feature map, and average pooling, which extracts the average value, may be performed. At this time, the pooling layer is not necessarily performed after the activation function, but may be performed selectively.
또한, 여기서 합성곱 신경망(10)은, 컨볼루셔널 계층(11), 활성화 계층(12), 풀링 계층(13)의 연결 구조가 복수개 포함될 수도 있다.In addition, the convolutional neural network (10) here may include multiple connection structures of a convolutional layer (11), an activation layer (12), and a pooling layer (13).
도 9는 도 2에 따른 메이트 선정부의 동작을 설명하기 위한 도면이다.Fig. 9 is a drawing for explaining the operation of the mate selection unit according to Fig. 2.
도 9를 참조하면, 메이트 선정부(105)는, 사용자 맞춤형 추천 컨텐츠를 함께 즐길 메이트를 선정하여 사용자에게 제공할 수 있다.Referring to Figure 9, the mate selection unit (105) can select a mate with whom to enjoy customized recommended content and provide the same to the user.
구체적으로, 메이트 선정부(105)는, 사용자 A와 사용자 B가 공통적으로 평가 정보를 남긴 n개의 문화예술 컨텐츠들을 선정할 수 있다. 여기서 n개의 문화예술 컨텐츠들의 개수는 문화예술 컨텐츠 하나에 대응하는 개별 평점의 평가 항목들의 개수와 동일할 수 있다.Specifically, the mate selection unit (105) can select n cultural and artistic contents for which user A and user B have left evaluation information in common. Here, the number of n cultural and artistic contents can be the same as the number of evaluation items of individual ratings corresponding to one cultural and artistic content.
다음으로, 메이트 선정부(105)는, 사용자 A가 n개의 문화예술 컨텐츠들 각각에 남긴 평가 정보들과 대응하는 평가 항목 벡터들(a1~an)을 결정하고, 결정된 평가 항목 벡터들(a1~an)을 열(column)로 갖는 제1 사용자 행렬(MatA)을 생성할 수 있다.Next, the mate selection unit (105) can determine evaluation item vectors (a1 to an) corresponding to the evaluation information left by user A for each of n cultural and artistic contents, and generate a first user matrix (MatA) having the determined evaluation item vectors (a1 to an) as columns.
같은 방식으로 메이트 선정부(105)는, 사용자 B가 n개의 문화예술 컨텐츠들 각각에 남긴 평가 정보들과 대응하는 평가 항목 벡터들(b1~bn)을 결정하고, 결정된 평가 항목 벡터들(b1~bn)을 열(column)로 갖는 제2 사용자 행렬(MatB)을 생성할 수 있다.In the same manner, the mate selection unit (105) can determine evaluation item vectors (b1 to bn) corresponding to the evaluation information left by user B for each of n cultural and artistic contents, and generate a second user matrix (MatB) having the determined evaluation item vectors (b1 to bn) as columns.
여기서, 평가 항목 벡터들 각각은, 문화예술 컨텐츠에 대응하는 개별 평점들 각각을 요소(element)로 포함할 수 있다. 즉, 제1 사용자 행렬(MatA)과 제2 사용자 행렬(MatB)은 n×n의 크기를 갖는 정사각행렬일 수 있다.Here, each of the evaluation item vectors may include, as an element, each of the individual ratings corresponding to the cultural and artistic content. That is, the first user matrix (MatA) and the second user matrix (MatB) may be square matrices having a size of n×n.
다음으로, 메이트 선정부(105)는, 제1 사용자 행렬(MatA)에서 산출된 제1 고유 벡터(Aev)와 제2 사용자 행렬(MatB)에서 산출된 제2 고유 벡터(Bev)를 이용하여 사용자 A와 사용자 B 사이의 메이트 거리를 결정할 수 있다. 이때, 고유 벡터(eigen vector)가 존재하지 않는 경우, 사용자 행렬들(MatA, MatB) 각각을 구성하는 열을 서로 교환하여 고유 벡터를 도출할 수 있다.Next, the mate selection unit (105) can determine the mate distance between users A and B using the first eigenvector (Aev) produced from the first user matrix (MatA) and the second eigenvector (Bev) produced from the second user matrix (MatB). At this time, if an eigenvector does not exist, the columns constituting each of the user matrices (MatA, MatB) can be exchanged to derive an eigenvector.
구체적으로, 메이트 선정부(105)는, 제1 고유 벡터(Aev)와 제2 고유 벡터(Bev)를 이용하여 메이트 거리(d(Aev, Bev))를 다음의 수학식 5에 따라 결정할 수 있다.Specifically, the mate selection unit (105) can determine the mate distance (d(Aev, Bev)) using the first eigenvector (Aev) and the second eigenvector (Bev) according to the following mathematical expression 5.
수학식 5에 따른 메이트 거리는 0에 가까울수록 사용자 A와 사용자 B가 서로 유사한 컨텐츠 평가 취향을 갖는 것으로 볼 수 있고, 0보다 클수록 서로 다른 평가 취향을 갖고 있는 것으로 볼 수 있다.According to mathematical expression 5, the closer the mate distance is to 0, the more similar the content evaluation tastes of users A and B are seen to be, and the greater the distance is to 0, the more different the evaluation tastes are seen to be.
메이트 선정부(105)는, 상술한 방식으로 사용자 맞춤형 추천 컨텐츠를 제공받을 특정 사용자와 메이트 거리가 가장 가까운 사용자를 메이트(mate)로 선정하고, 선정된 메이트를 사용자 맞춤형 추천 컨텐츠를 함께 즐길 사용자로서 사용자 단말(200)에 제공할 수 있다.The mate selection unit (105) can select a user who is closest to a specific user who will receive customized recommended content in the manner described above as a mate, and provide the selected mate to the user terminal (200) as a user with whom to enjoy customized recommended content together.
도 10은 도 1에 따른 컨텐츠 제공 서버의 하드웨어 구성을 예시적으로 나타낸 도면이다.FIG. 10 is a drawing exemplarily showing the hardware configuration of a content provision server according to FIG. 1.
도 10을 참조하면, 컨텐츠 제공 서버(100)는 적어도 하나의 프로세서(110); 및 적어도 하나의 프로세서(110)가 적어도 하나의 동작(operation)을 수행하도록 지시하는 명령어들(instructions)을 저장하는 메모리(memory)를 포함할 수 있다.Referring to FIG. 10, the content provision server (100) may include at least one processor (110); and a memory that stores instructions that instruct at least one processor (110) to perform at least one operation.
여기서 적어도 하나의 동작은 도 1 내지 도 9를 참조하여 설명한 컨텐츠 제공 서버(100)의 동작이나 기능 중 적어도 일부를 포함할 수 있다.Here, at least one operation may include at least some of the operations or functions of the content providing server (100) described with reference to FIGS. 1 to 9.
여기서 적어도 하나의 프로세서(110)는 중앙 처리 장치(central processing unit, CPU), 그래픽 처리 장치(graphics processing unit, GPU), 또는 본 발명의 실시예들에 따른 방법들이 수행되는 전용의 프로세서를 의미할 수 있다. 메모리(120) 및 저장 장치(160) 각각은 휘발성 저장 매체 및 비휘발성 저장 매체 중에서 적어도 하나로 구성될 수 있다. 예를 들어, 메모리(120)는 읽기 전용 메모리(read only memory, ROM) 및 랜덤 액세스 메모리(random access memory, RAM) 중 하나일 수 있고, 저장 장치(160)는, 플래시메모리(flash-memory), 하드디스크 드라이브(HDD), 솔리드 스테이트 드라이브(SSD), 또는 각종 메모리 카드(예를 들어, micro SD 카드) 등일 수 있다.Here, at least one processor (110) may mean a central processing unit (CPU), a graphics processing unit (GPU), or a dedicated processor on which methods according to embodiments of the present invention are performed. Each of the memory (120) and the storage device (160) may be configured with at least one of a volatile storage medium and a non-volatile storage medium. For example, the memory (120) may be one of a read only memory (ROM) and a random access memory (RAM), and the storage device (160) may be a flash memory, a hard disk drive (HDD), a solid state drive (SSD), or various memory cards (e.g., a micro SD card).
또한, 컨텐츠 제공 서버(100)는, 무선 네트워크를 통해 통신을 수행하는 송수신 장치(transceiver)(130)를 포함할 수 있다. 또한, 컨텐츠 제공 서버(100)는 입력 인터페이스 장치(140), 출력 인터페이스 장치(150), 저장 장치(160) 등을 더 포함할 수 있다. 컨텐츠 제공 서버(100)에 포함된 각각의 구성 요소들은 버스(bus)(170)에 의해 연결되어 서로 통신을 수행할 수 있다.In addition, the content providing server (100) may include a transceiver (130) that performs communication via a wireless network. In addition, the content providing server (100) may further include an input interface device (140), an output interface device (150), a storage device (160), etc. Each component included in the content providing server (100) may be connected by a bus (170) and communicate with each other.
컨텐츠 제공 서버(100)의 예를 들면, 통신 가능한 데스크탑 컴퓨터(desktop computer), 랩탑 컴퓨터(laptop computer), 노트북(notebook), 스마트폰(smart phone), 태블릿 PC(tablet PC), 모바일폰(mobile phone), 스마트 워치(smart watch), 스마트 글래스(smart glass), e-book 리더기, PMP(portable multimedia player), 휴대용 게임기, 네비게이션(navigation) 장치, 디지털 카메라(digital camera), DMB(digital multimedia broadcasting) 재생기, 디지털 음성 녹음기(digital audio recorder), 디지털 음성 재생기(digital audio player), 디지털 동영상 녹화기(digital video recorder), 디지털 동영상 재생기(digital video player), PDA(Personal Digital Assistant) 등일 수 있다.Examples of the content providing server (100) may include a desktop computer, a laptop computer, a notebook, a smart phone, a tablet PC, a mobile phone, a smart watch, a smart glass, an e-book reader, a portable multimedia player (PMP), a portable game console, a navigation device, a digital camera, a digital multimedia broadcasting (DMB) player, a digital audio recorder, a digital audio player, a digital video recorder, a digital video player, a PDA (Personal Digital Assistant), etc.
본 발명에 따른 방법들은 다양한 컴퓨터 수단을 통해 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 컴퓨터 판독 가능 매체에 기록되는 프로그램 명령은 본 발명을 위해 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다.The methods according to the present invention may be implemented in the form of program commands that can be executed through various computer means and recorded on a computer-readable medium. The computer-readable medium may include program commands, data files, data structures, etc., alone or in combination. The program commands recorded on the computer-readable medium may be those specially designed and configured for the present invention or may be known and available to those skilled in the art of computer software.
컴퓨터 판독 가능 매체의 예에는 롬(ROM), 램(RAM), 플래시 메모리(flash memory) 등과 같이 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함될 수 있다. 프로그램 명령의 예에는 컴파일러(compiler)에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터(interpreter) 등을 사용해서 컴퓨터에 의해 실행될 수 있는 고급 언어 코드를 포함할 수 있다. 상술한 하드웨어 장치는 본 발명의 동작을 수행하기 위해 적어도 하나의 소프트웨어 모듈로 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.Examples of computer-readable media may include hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions may include not only machine language codes generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter, and the like. The above-described hardware devices may be configured to operate with at least one software module to perform the operations of the present invention, and vice versa.
또한, 상술한 방법 또는 장치는 그 구성이나 기능의 전부 또는 일부가 결합되어 구현되거나, 분리되어 구현될 수 있다. In addition, the above-described method or device may be implemented by combining all or part of its configuration or function, or may be implemented separately.
상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다. Although the present invention has been described above with reference to preferred embodiments thereof, it will be understood by those skilled in the art that various modifications and changes may be made to the present invention without departing from the spirit and scope of the present invention as set forth in the claims below.
Claims (1)
다수의 사용자 단말들의 사용자들 각각에 대응하는 사용자 정보를 수신하고, 상기 사용자 정보 및 상기 사용자들이 문화예술 컨텐츠를 이용한 이용기록 정보를 포함하는 사용자 프로필 정보를 생성하여 관리하는 사용자 프로필 관리부;
등록된 다수의 문화예술 컨텐츠들 각각에 대응하는 컨텐츠 정보를 생성하여 관리하는 문화예술 컨텐츠 관리부;
상기 컨텐츠 정보에 포함된 상기 문화예술 컨텐츠들 각각에 대응하는 평가 정보를 기반으로 상기 문화예술 컨텐츠들에 대한 제1 사용자의 예측 선호도를 결정하고, 상기 예측 선호도를 기반으로 사용자 맞춤형 컨텐츠 후보군을 선정하고, 상기 사용자 맞춤형 컨텐츠 후보군에서 상기 제1 사용자를 위한 사용자 맞춤형 추천 컨텐츠를 선정하는 컨텐츠 추천부;
상기 사용자들 중에서 상기 사용자 맞춤형 추천 컨텐츠와 함께 즐길 메이트를 선정하는 메이트 선정부; 및
상기 제1 사용자의 사용자 단말로부터 가장 최근에 미리 설정된 시간 간격동안 녹음된 음성 신호를 수신하고, 상기 음성 신호에 기초하여 상기 제1 사용자의 사용자 감정을 결정하는 사용자 감정 트래킹부를 포함하고,
상기 컨텐츠 정보는,
상기 문화예술 컨텐츠들 각각에 대한 분위기, 장르, 소재, 및 수상 이력 중 적어도 하나와, 상기 문화예술 컨텐츠들 각각에 대하여 관람한 사용자의 감정 상태를 지시하는 추천 감정으로 구성된 감상 태그를 포함하고,
상기 사용자 감정 트래킹부는,
상기 음성 신호의 시간을 x축으로 하고, 상기 음성 신호의 주파수를 y축으로 하고, 상기 음성 신호의 진폭 크기를 미리 설정된 범위의 색상으로 표시하여 시각화함으로써, 스펙트로그램(spectrogram)을 획득하고, 상기 스펙트로그램을 미리 설정된 크기의 블록들로 블록화하고, 블록화된 상기 블록들 각각에 대응하는 화소값으로 변환하여 입력 이미지를 생성하고, 생성된 상기 입력 이미지를 미리 지도학습된 합성곱 신경망(Convolutional Neural network, CNN)에 입력하고, 상기 합성곱 신경망의 출력에 기초하여 제1 감정을 결정하고,
상기 음성 신호를 STT(Speech to Text) 변환하여 상기 음성 신호와 대응하는 음성 텍스트를 획득하고, 상기 음성 텍스트를 구성하는 단어들을 순환신경망(Recurrent Neural Network, RNN)을 이용하여 분석함으로써 제2 감정을 결정하고,
미리 다수의 사용자 감정들 각각에 대하여 미리 정의된 선택 정보를 참조하여 상기 제1 감정과 상기 제2 감정 중 하나의 감정을 선택하고, 선택된 감정을 상기 사용자 감정으로 결정하고,
상기 메이트 선정부는,
상기 제1 사용자와 대응하는 제1 사용자 행렬을 생성하고,
상기 제1 사용자와 구별되는 제2 사용자들과 대응하는 제2 사용자 행렬들을 생성하고,
상기 제1 사용자 행렬과 상기 제2 사용자 행렬들 사이에 미리 정의된 메이트 거리를 산출하고,
산출된 상기 메이트 거리에 기초하여 상기 제2 사용자들 중에서 상기 제1 사용자와 함께 컨텐츠를 즐길 메이트를 선정하는, 컨텐츠 제공 서버.As a content provision server that provides customized cultural and artistic content curation and recommends mates to view with the user,
A user profile management unit that receives user information corresponding to each user of a plurality of user terminals, and creates and manages user profile information including the user information and the user's usage history information using cultural and artistic content;
A cultural arts content management department that creates and manages content information corresponding to each of the many registered cultural arts contents;
A content recommendation unit that determines a predicted preference of a first user for the cultural and artistic contents based on evaluation information corresponding to each of the cultural and artistic contents included in the content information, selects a user-customized content candidate group based on the predicted preference, and selects a user-customized recommended content for the first user from the user-customized content candidate group;
A mate selection unit that selects a mate to enjoy with the customized recommended content among the above users; and
Including a user emotion tracking unit that receives a voice signal recorded during the most recent preset time interval from the user terminal of the first user and determines the user emotion of the first user based on the voice signal;
The above content information is:
It includes an appreciation tag composed of at least one of the atmosphere, genre, material, and award history for each of the above cultural and artistic contents, and a recommended emotion indicating the emotional state of the user who viewed each of the above cultural and artistic contents.
The above user emotion tracking part,
By visualizing the time of the voice signal as the x-axis, the frequency of the voice signal as the y-axis, and the amplitude size of the voice signal as a color within a preset range, a spectrogram is obtained, the spectrogram is divided into blocks of a preset size, and each of the divided blocks is converted into a pixel value corresponding to the pixel value to generate an input image, and the generated input image is input to a pre-trained convolutional neural network (CNN), and a first emotion is determined based on the output of the convolutional neural network.
The above speech signal is converted into STT (Speech to Text) to obtain a speech text corresponding to the speech signal, and the words constituting the speech text are analyzed using a recurrent neural network (RNN) to determine the second emotion.
Selecting one of the first emotion and the second emotion by referring to predefined selection information for each of a plurality of user emotions in advance, and determining the selected emotion as the user emotion,
The above mate selection department is,
Generate a first user matrix corresponding to the first user,
Generate second user matrices corresponding to second users who are distinct from the first user,
Calculate a predefined mate distance between the first user matrix and the second user matrix,
A content providing server that selects a mate to enjoy content with the first user among the second users based on the calculated mate distance.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210176017A KR102716679B1 (en) | 2021-03-29 | 2021-12-09 | Method and device for providing customized cultural and art contents curation and for recommending mate playing the contents with user |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210040477A KR102339377B1 (en) | 2021-03-29 | 2021-03-29 | Method and device for providing customized cultural and art contents |
KR1020210176017A KR102716679B1 (en) | 2021-03-29 | 2021-12-09 | Method and device for providing customized cultural and art contents curation and for recommending mate playing the contents with user |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210040477A Division KR102339377B1 (en) | 2021-03-29 | 2021-03-29 | Method and device for providing customized cultural and art contents |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20220135150A KR20220135150A (en) | 2022-10-06 |
KR102716679B1 true KR102716679B1 (en) | 2024-10-11 |
Family
ID=78831786
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210040477A KR102339377B1 (en) | 2021-03-29 | 2021-03-29 | Method and device for providing customized cultural and art contents |
KR1020210176017A KR102716679B1 (en) | 2021-03-29 | 2021-12-09 | Method and device for providing customized cultural and art contents curation and for recommending mate playing the contents with user |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210040477A KR102339377B1 (en) | 2021-03-29 | 2021-03-29 | Method and device for providing customized cultural and art contents |
Country Status (1)
Country | Link |
---|---|
KR (2) | KR102339377B1 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102617004B1 (en) * | 2022-12-27 | 2023-12-27 | 쿠팡 주식회사 | Electronic device and method of providing recommended contents |
KR102724582B1 (en) * | 2023-01-13 | 2024-10-31 | 장윤주 | Customized artist search system |
KR102649926B1 (en) * | 2023-01-18 | 2024-03-22 | 쿠팡 주식회사 | Method of managing user's information and apparatus thereof |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101533083B1 (en) * | 2008-12-10 | 2015-07-02 | 삼성전자 주식회사 | Method and apparatus for providing location based contents, and electronic device |
KR20120104648A (en) * | 2010-10-26 | 2012-09-24 | 주식회사 케이티 | Apparatus and method for recommending person tailored contents and its system and method |
US9744234B2 (en) * | 2010-11-05 | 2017-08-29 | Novartis Ag | Methods of treating ankylosing spondylitis using IL-17 antagonists |
KR20190097500A (en) * | 2018-02-12 | 2019-08-21 | 주식회사파크엘아이씨티 | Method and apparatus for providing of content |
KR20200091328A (en) * | 2019-01-22 | 2020-07-30 | 삼성전자주식회사 | Electronic device and controlling method of electronic device |
-
2021
- 2021-03-29 KR KR1020210040477A patent/KR102339377B1/en active IP Right Grant
- 2021-12-09 KR KR1020210176017A patent/KR102716679B1/en active IP Right Grant
Also Published As
Publication number | Publication date |
---|---|
KR20220135150A (en) | 2022-10-06 |
KR102339377B1 (en) | 2021-12-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Mehta et al. | Recent trends in deep learning based personality detection | |
KR102716679B1 (en) | Method and device for providing customized cultural and art contents curation and for recommending mate playing the contents with user | |
US11868732B2 (en) | System for minimizing repetition in intelligent virtual assistant conversations | |
US20240080531A1 (en) | Profiling media characters | |
CN109063163B (en) | Music recommendation method, device, terminal equipment and medium | |
CN107357875B (en) | Voice search method and device and electronic equipment | |
US11334804B2 (en) | Cognitive music selection system and method | |
CN109992650A (en) | For providing the personalized cognition session proxy seen clearly in operation | |
CN111046286A (en) | Object recommendation method and device and computer storage medium | |
CN111310019A (en) | Information recommendation method, information processing method, system and equipment | |
CN112364234B (en) | Automatic grouping system for online discussion | |
US10770072B2 (en) | Cognitive triggering of human interaction strategies to facilitate collaboration, productivity, and learning | |
CN113806588A (en) | Method and device for searching video | |
US12067474B2 (en) | Co-informatic generative adversarial networks for efficient data co-clustering | |
JP6958552B2 (en) | Information processing equipment, information processing methods, and programs | |
CN112131345A (en) | Text quality identification method, device, equipment and storage medium | |
Zhang et al. | Image tweet popularity prediction with convolutional neural network | |
Vo et al. | Multimodal mixture density boosting network for personality mining | |
Yu et al. | Speaking style based apparent personality recognition | |
CN112699311A (en) | Information pushing method, storage medium and electronic equipment | |
CN117708428A (en) | Recommendation information prediction method and device and electronic equipment | |
Wang et al. | Beyond text: Marketing strategy in a world turned upside down | |
Chang et al. | Using Machine Learning to Extract Insights from Consumer Data | |
Santos | An efficient method for modelling tourists’ length of stay | |
Mushtaq et al. | Vision and Audio-based Methods for First Impression Recognition Using Machine Learning Algorithms: A Review |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |