JP6604194B2 - Music selection support device, music selection support program, and music selection support method - Google Patents

Music selection support device, music selection support program, and music selection support method Download PDF

Info

Publication number
JP6604194B2
JP6604194B2 JP2015252353A JP2015252353A JP6604194B2 JP 6604194 B2 JP6604194 B2 JP 6604194B2 JP 2015252353 A JP2015252353 A JP 2015252353A JP 2015252353 A JP2015252353 A JP 2015252353A JP 6604194 B2 JP6604194 B2 JP 6604194B2
Authority
JP
Japan
Prior art keywords
music
song
music selection
data
karaoke
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2015252353A
Other languages
Japanese (ja)
Other versions
JP2017116742A (en
Inventor
佑一 高木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Client Computing Ltd
Original Assignee
Fujitsu Client Computing Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Client Computing Ltd filed Critical Fujitsu Client Computing Ltd
Priority to JP2015252353A priority Critical patent/JP6604194B2/en
Publication of JP2017116742A publication Critical patent/JP2017116742A/en
Application granted granted Critical
Publication of JP6604194B2 publication Critical patent/JP6604194B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Reverberation, Karaoke And Other Acoustics (AREA)

Description

本発明は、選曲支援装置、選曲支援プログラムおよび選曲支援方法に関する。   The present invention relates to a music selection support device, a music selection support program, and a music selection support method.

現在、カラオケ店に設置されたカラオケ機では、タッチパネル型の楽曲検索端末を用いた選曲が主流である。利用者は、曲名や歌手名から所望の楽曲を検索して選曲したり、人気ランキングのリストから選曲したりする。   Currently, in karaoke machines installed in karaoke shops, music selection using a touch panel type music search terminal is the mainstream. The user searches for and selects a desired music piece from the song title or singer name, or selects a song from a popular ranking list.

また、このような楽曲検索端末を含むカラオケシステムにおいては、選曲の操作を容易にするために、各利用者が個別に任意の楽曲データや選曲履歴等を保存(会員登録が必要)できる等、様々な便利な機能が設けられているものもある。   In addition, in a karaoke system including such a music search terminal, each user can individually save arbitrary music data, music selection history, etc. (member registration is required) in order to facilitate the operation of music selection. Some are equipped with various convenient functions.

更に、利用者が携帯端末において事前に作成した楽曲リストから選曲を行うことで、カラオケ端末に楽曲の指定を送信できるようにした技術も提案されている(例えば、特許文献1を参照)。   Furthermore, a technique has also been proposed in which a user can transmit a song designation to a karaoke terminal by selecting a song from a song list created in advance on a portable terminal (see, for example, Patent Document 1).

一方、複数人のメンバでカラオケを楽しむ場合、
・カラオケ同伴者(達)が知らない楽曲を選曲してしまい、場がしらけてしまう
・カラオケ同伴者(達)と自分の歌いたい楽曲が重複してしまう
といった状況が往々にして発生する。
On the other hand, when multiple members enjoy karaoke,
・ Sometimes there is a situation where the music accompanying the karaoke companion (s) selects a song that the karaoke companion does not know, and the place is frustrated.

この点、複数の利用者によって一括予約された複数のカラオケ曲リストに共通して含まれる曲と共通して含まれない曲とを区別して表示する技術が提案されており(例えば、特許文献2を参照)、カラオケ同伴者が知らない楽曲を意図せずに選曲してしまうことは避けることができる。   In this regard, a technique for distinguishing and displaying songs commonly included in a plurality of karaoke song lists collectively reserved by a plurality of users and songs not commonly included has been proposed (for example, Patent Document 2). ), It is possible to avoid unintentionally selecting music that the karaoke companion does not know.

また、参加メンバの優先順位や過去に歌った曲に基づいて演奏曲リストを出力する技術が提案されており(例えば、特許文献3を参照)、楽曲が重複した場合の調整についても触れられている。   Further, a technique for outputting a performance song list based on priorities of participating members and songs sung in the past has been proposed (see, for example, Patent Document 3), and adjustment in the case of overlapping songs is also mentioned. Yes.

特開2003−241771号公報JP 2003-241771 A 特開2013−73102号公報JP2013-73102A 特開2006−10988号公報JP 2006-10988 A

上述した楽曲が重複した場合の調整技術では、参加メンバの優先順位として、立場の強い利用者(例えば上位職)を優先するというような利用者間の関係性をあらかじめ指定登録する手法がとられているため、毎回メンバが変わるような場合にはスムーズな運用が行えないという問題があった。   In the adjustment technique in the case where the above-mentioned music is duplicated, as a priority order of the participating members, a method of pre-designating and registering a relationship between users, such as giving priority to a strong user (for example, a senior job), is taken. Therefore, there is a problem that smooth operation cannot be performed when the member changes every time.

また、過去に歌った回数が多いほど歌える優先度が高まるため、新規にその曲を歌うために何度もその曲を歌いこんだり聴きこんだりなどして練習をしている者に歌う機会が訪れないという問題もあった。   Also, since the priority of singing increases as the number of times it has been sung in the past, there is an opportunity to sing to those who are practicing by singing and listening to the song many times in order to sing a new song There was also a problem of not visiting.

また、機械的に提示されたリストに拘束されずに利用者間のコミュニケーションにより決定を委ねる場合、往々にして譲り合いが発生し、かえってその場の雰囲気がギクシャクしたり、重複する度に利用者間で調整が必要になるという問題もあった。   Also, when decisions are entrusted by communication between users without being bound by a mechanically presented list, a concession often occurs, and the atmosphere of the place becomes jerky or overlaps between users every time they overlap. There was also a problem that adjustment was necessary.

そこで、開示の形態は、一側面では、カラオケに参加する利用者に対し利用者個々の行動に基づいた選曲支援を行うことを目的とする。   In view of this, an aspect of the disclosed embodiment aims to provide music selection support based on individual user actions for users participating in karaoke.

開示の形態は、カラオケに参加する複数の利用者の端末装置から、前記利用者が個々の楽曲に対して行った視聴の態様を示すデータを取得する手段と、前記データから前記複数の利用者に共通する楽曲が存在する場合に、前記データの示す視聴の態様に基づいて優先順位付けを行う手段と、前記データおよび前記優先順位付けの結果に基づいて選曲の候補を提示する手段と、を備える。   A form of disclosure includes means for acquiring data indicating a mode of viewing performed by the user for each piece of music from terminal devices of a plurality of users participating in karaoke, and the plurality of users from the data. And means for prioritizing based on the viewing mode indicated by the data, and means for presenting music selection candidates based on the data and the result of prioritization. Prepare.

開示の形態は、カラオケに参加する利用者に対し利用者個々の行動に基づいた選曲支援を行うことができる。   The form of an indication can perform the music selection support based on a user's individual action with respect to the user who participates in karaoke.

一実施形態にかかる選曲支援システムの構成例を示す図である。It is a figure which shows the structural example of the music selection assistance system concerning one Embodiment. 端末装置、サーバ装置およびカラオケ機器の機能構成例を示す図である。It is a figure which shows the function structural example of a terminal device, a server apparatus, and karaoke equipment. 端末装置、サーバ装置およびカラオケ機器のハードウェア構成例を示す図である。It is a figure which shows the hardware structural example of a terminal device, a server apparatus, and karaoke equipment. 端末装置における処理例を示すフローチャートである。It is a flowchart which shows the process example in a terminal device. 行動とポイントおよび付加フラグの対応の例を示す図である。It is a figure which shows the example of a response | compatibility of action, a point, and an addition flag. カラオケ機器における処理例を示すフローチャートである。It is a flowchart which shows the process example in a karaoke apparatus. サーバ装置から端末装置を介してカラオケ機器が楽曲情報を取得する例を示す図である。It is a figure which shows the example from which a karaoke apparatus acquires music information via a terminal device from a server apparatus. 固有IDによる楽曲のマッチングの例を示す図である。It is a figure which shows the example of the matching of the music by unique ID. 固有IDにより紐付けされた楽曲それぞれのポイントの比較の例を示す図である。It is a figure which shows the example of the comparison of the point of each music linked | related with unique ID. 付加フラグによる補正の例を示す図である。It is a figure which shows the example of correction | amendment by an additional flag. カラオケ機器から端末装置への選曲候補リストの送信の例を示す図である。It is a figure which shows the example of transmission of the music selection candidate list from a karaoke apparatus to a terminal device. 端末装置での選曲候補リストの表示の例を示す図である。It is a figure which shows the example of a display of the music selection candidate list in a terminal device.

以下、本発明の好適な実施形態につき説明する。   Hereinafter, preferred embodiments of the present invention will be described.

<構成>
図1は一実施形態にかかる選曲支援システムの構成例を示す図である。図1において、利用者が所持するスマートフォン、タブレット、携帯電話等の端末装置1A、1B、・・は、インターネット等のネットワーク2に接続可能となっており、ネットワーク2にはクラウドサービスを提供するサーバ装置3が接続されている。また、カラオケ店4にはカラオケ機器5が設置されている。
<Configuration>
FIG. 1 is a diagram illustrating a configuration example of a music selection support system according to an embodiment. In FIG. 1, terminal devices 1A, 1B,... Such as smartphones, tablets, and mobile phones possessed by a user can be connected to a network 2 such as the Internet, and the network 2 is a server that provides a cloud service. A device 3 is connected. The karaoke shop 4 is provided with karaoke equipment 5.

端末装置1A、1B、・・は、利用者により楽曲の試聴に用いられる際に、利用者が楽曲に対して行った視聴の態様を示すデータを取得し、データをネットワーク2を介してクラウドサービスを提供するサーバ装置3に送信して保管する。また、端末装置1A、1B、・・は、利用者がカラオケ店4でカラオケを楽しむ際に、サーバ装置3からネットワーク2を介してデータを取得し、無線通信(赤外線、近距離無線等)によりカラオケ機器5にデータを与える。なお、端末装置1A、1B、・・として、利用者が自宅等でカラオケを楽しめるゲーム機や個人用カラオケシステムやPC(Personal Computer)等も含まれる。この場合、ゲーム機等で取得されサーバ装置3に保管された、利用者が楽曲に対して行った視聴の態様を示すデータが、利用者が持ち歩くスマートフォン等を介してカラオケ機器5に与えられる。   When the terminal devices 1A, 1B,... Are used for listening to music by the user, the terminal devices 1A, 1B,. Is transmitted to the server device 3 that provides Further, the terminal devices 1A, 1B,... Acquire data from the server device 3 via the network 2 when the user enjoys karaoke at the karaoke store 4, and perform wireless communication (infrared, short-range wireless, etc.). Data is given to the karaoke equipment 5. As the terminal devices 1A, 1B,..., Game machines, personal karaoke systems, PCs (Personal Computers) and the like that allow users to enjoy karaoke at home or the like are also included. In this case, the data acquired by the game machine or the like and stored in the server device 3 indicating the mode of viewing performed on the music by the user is given to the karaoke device 5 via a smartphone carried by the user.

図2は端末装置1(1A、1B、・・)、サーバ装置3およびカラオケ機器5の機能構成例を示す図である。図2において、端末装置1には、音楽再生アプリ(アプリケーションプログラム)11と、カラオケ選曲支援アプリ12とが設けられている。音楽再生アプリ11は、楽曲を再生して利用者による視聴を可能とする機能を有している。また、音楽再生アプリ11は、歌詞を表示する機能も有していることを想定しているが、歌詞の表示のためのアプリを別に設けてもよい。   FIG. 2 is a diagram illustrating a functional configuration example of the terminal device 1 (1A, 1B,...), The server device 3, and the karaoke equipment 5. In FIG. 2, the terminal device 1 is provided with a music playback application (application program) 11 and a karaoke music selection support application 12. The music playback application 11 has a function of playing back music and enabling viewing by the user. The music playback application 11 is assumed to have a function of displaying lyrics, but an app for displaying lyrics may be provided separately.

カラオケ選曲支援アプリ12は、行動記録部13と選曲指示部14とを備えている。行動記録部13は、利用者が楽曲に対して行った視聴の態様を示すデータを取得してクラウドサービスに送信する機能を有している。選曲指示部14は、カラオケ店4(図1)でカラオケに参加する際に、クラウドサービスを提供するサーバ装置3からデータを取得してカラオケ機器5に送信する機能を有している。   The karaoke song selection support application 12 includes an action recording unit 13 and a song selection instruction unit 14. The action recording unit 13 has a function of acquiring data indicating a mode of viewing performed by the user on the music and transmitting the data to the cloud service. The music selection instruction unit 14 has a function of acquiring data from the server device 3 that provides a cloud service and transmitting it to the karaoke device 5 when participating in karaoke at the karaoke store 4 (FIG. 1).

行動記録部13は、カメラ制御部131とマイク制御部132と楽曲ID取得部133と歌声検出部134と鼻歌・口パク検出部135と歌詞参照検出部136とフラグ・ポイント管理部137とクラウドデータ入出力部138とを備えている。   The action recording unit 13 includes a camera control unit 131, a microphone control unit 132, a music ID acquisition unit 133, a singing voice detection unit 134, a nose singing / mouth patch detection unit 135, a lyrics reference detection unit 136, a flag / point management unit 137, and cloud data. And an input / output unit 138.

カメラ制御部131は、端末装置1の内部または外部に接続されたカメラを制御し、フロントカメラにより自分撮り状態の撮像画像を取得する機能を有している。マイク制御部132は、端末装置1の内部または外部に接続されたマイクを制御し、音声信号を取得する機能を有している。楽曲ID取得部133は、音楽再生アプリ11から再生中の楽曲IDを取得する機能を有している。   The camera control unit 131 has a function of controlling a camera connected to the inside or the outside of the terminal device 1 and acquiring a captured image in a self-portrait state with the front camera. The microphone control unit 132 has a function of controlling a microphone connected to the inside or the outside of the terminal device 1 and acquiring an audio signal. The music ID acquisition unit 133 has a function of acquiring the music ID being played from the music playback application 11.

歌声検出部134は、マイク制御部132により取得した音声信号から、利用者が楽曲に合わせて歌を歌っていることを検出する機能を有している。楽曲のリズム、音程および歌詞が大まかに合致する音声信号がマイクから取得された場合は、歌っていると判断することができる。また、歌声検出部134は、楽曲の再生音量が利用者にとって視聴に耐えるだけの音量であるか否かを検出する機能も有している。鼻歌・口パク検出部135は、マイク制御部132により取得した音声信号とカメラ制御部131により取得した撮像画像から、利用者が楽曲に合わせて鼻歌を歌っているか(口の動きはない)、口パク(音声は発していないが口だけが動く)をしているかを検出する機能を有している。楽曲のリズムおよび音程が大まかに合致し、歌詞が一致しない音声信号がマイクから取得された場合は、鼻歌であると判断することができる。歌声または鼻歌ではなく、楽曲のリズムと大まかに合致する口の動きのある撮像画像が取得された場合は、口パクであると判断することができる。歌詞参照検出部136は、カメラ制御部131により取得した撮像画像から、利用者が楽曲に合わせて歌詞を目で追っていることを検出する機能を有している。再生中の歌詞部分の表示位置を音楽再生アプリ11等から取得することで、より精度よく楽曲に合わせて歌詞を目で追っていることを検出することができる。   The singing voice detection unit 134 has a function of detecting from the voice signal acquired by the microphone control unit 132 that the user is singing a song along with the music. If an audio signal that roughly matches the rhythm, pitch, and lyrics of the music is acquired from the microphone, it can be determined that the song is singing. The singing voice detection unit 134 also has a function of detecting whether or not the playback volume of the music is a volume that can withstand viewing by the user. The nose singing / mouth patch detecting unit 135 determines whether the user is singing a nose according to the music from the audio signal acquired by the microphone control unit 132 and the captured image acquired by the camera control unit 131 (no movement of the mouth). It has a function to detect whether or not it is mouth-packed (no sound is emitted but only the mouth moves). When the rhythm and pitch of the music roughly match and an audio signal that does not match the lyrics is acquired from the microphone, it can be determined that the song is a nose song. If a captured image having a mouth movement that roughly matches the rhythm of the music is acquired instead of a singing voice or a nose song, it can be determined that the mouth is a mouthpiece. The lyrics reference detection unit 136 has a function of detecting from the captured image acquired by the camera control unit 131 that the user is following the lyrics according to the music. By acquiring the display position of the lyric part being played from the music playback application 11 or the like, it is possible to detect that the lyrics are being followed with the eye more accurately according to the music.

フラグ・ポイント管理部137は、歌声検出部134、鼻歌・口パク検出部135および歌詞参照検出部136の検出結果に基づき、楽曲ごとにポイントおよびフラグを付与する機能を有している。ポイントおよびフラグの詳細については後述する。クラウドデータ入出力部138は、処理の開始時にサーバ装置3から利用者の楽曲ごとのポイントおよびフラグの状態を示すデータを取得してフラグ・ポイント管理部137に与えるとともに、所定の処理の区切り(楽曲の終了時等)において最新のデータをサーバ装置3に送信する機能を有している。   The flag / point management unit 137 has a function of assigning points and flags for each piece of music based on the detection results of the singing voice detection unit 134, the nose song / mouth patch detection unit 135, and the lyrics reference detection unit 136. Details of the points and flags will be described later. The cloud data input / output unit 138 obtains data indicating the point and flag status for each user song from the server device 3 at the start of the processing, gives the data to the flag / point management unit 137, and delimits predetermined processing ( It has a function of transmitting the latest data to the server device 3 at the end of the music.

また、選曲指示部14は、相互認識部141とクラウドデータ取得部142とデータ送信部143とデータ受信部144と候補リスト表示部145と選曲受付部146と選曲送信部147とを備えている。   The music selection instruction unit 14 includes a mutual recognition unit 141, a cloud data acquisition unit 142, a data transmission unit 143, a data reception unit 144, a candidate list display unit 145, a music selection reception unit 146, and a music selection transmission unit 147.

相互認識部141は、カラオケ機器5との間で赤外線や近距離無線等により通信を行って認識し合い、その後の処理につなげる機能を有している。クラウドデータ取得部142は、サーバ装置3から利用者の楽曲ごとのポイントおよびフラグの最新の状態を示すデータを取得する機能を有している。データ送信部143は、クラウドデータ取得部142が取得したデータを赤外線や近距離無線等によりカラオケ機器5に送信する機能を有している。   The mutual recognition unit 141 has a function of recognizing each other by communicating with the karaoke equipment 5 by infrared rays, short-range wireless, or the like, and connecting to subsequent processing. The cloud data acquisition unit 142 has a function of acquiring data indicating the latest state of points and flags for each piece of music of the user from the server device 3. The data transmission unit 143 has a function of transmitting the data acquired by the cloud data acquisition unit 142 to the karaoke device 5 by infrared rays, short-range wireless, or the like.

データ受信部144は、カラオケ機器5から赤外線や近距離無線等により選曲候補リストのデータを受信する機能を有している。候補リスト表示部145は、データ受信部144により受信した選曲候補リストのデータに基づき、選曲候補リストを端末装置1の画面上に表示する機能を有している。選曲受付部146は、画面上に表示された選曲候補リスト上から利用者による選曲(カラオケ機器5に演奏させる楽曲の選択)を受け付ける機能を有している。選曲送信部147は、選曲受付部146により受け付けた楽曲の演奏の指示を赤外線や近距離無線等によりカラオケ機器5に送信する機能を有している。   The data receiving unit 144 has a function of receiving music selection candidate list data from the karaoke device 5 by infrared rays, short-range radio, or the like. The candidate list display unit 145 has a function of displaying the music selection candidate list on the screen of the terminal device 1 based on the data of the music selection candidate list received by the data receiving unit 144. The music selection receiving unit 146 has a function of receiving music selection (selection of music to be performed by the karaoke device 5) by the user from the music selection candidate list displayed on the screen. The music selection transmission unit 147 has a function of transmitting a musical performance instruction received by the music selection reception unit 146 to the karaoke device 5 using infrared rays, short-range wireless, or the like.

サーバ装置3は、データ入出力部31とデータベース32とを備えている。データ入出力部31は、端末装置1から受信した利用者の楽曲ごとのポイントおよびフラグの最新の状態を示すデータをデータベース32に格納するとともに、端末装置1からの要求に応じて、該当する利用者の同データをデータベース32から読み出して送信(応答)する機能を有している。   The server device 3 includes a data input / output unit 31 and a database 32. The data input / output unit 31 stores, in the database 32, data indicating the latest points and flags for each user's music received from the terminal device 1, and in response to a request from the terminal device 1, The same data is read from the database 32 and transmitted (response).

カラオケ機器5は、カラオケ制御アプリ51とカラオケ選曲支援アプリ52とを備えている。カラオケ制御アプリ51は、カラオケ機器としての基本的な機能を提供する部分であり、選曲を受け付けて演奏を行う機能を有している。カラオケ選曲支援アプリ52は、利用者ごとに選曲候補リストを提示することで、利用者による選曲の支援を行う機能を有している。   The karaoke device 5 includes a karaoke control application 51 and a karaoke song selection support application 52. The karaoke control application 51 is a part that provides basic functions as a karaoke device, and has a function of receiving music selection and performing. The karaoke music selection support application 52 has a function of supporting music selection by the user by presenting a music selection candidate list for each user.

カラオケ選曲支援アプリ52は、相互認識部521とデータ受信部522と楽曲振分部523と結果送信部524と選曲受信部525とを備えている。   The karaoke music selection support application 52 includes a mutual recognition unit 521, a data reception unit 522, a music distribution unit 523, a result transmission unit 524, and a music selection reception unit 525.

相互認識部521は、端末装置1との間で赤外線や近距離無線等により通信を行って認識し合い、その後の処理につなげる機能を有している。データ受信部522は、端末装置1から利用者の楽曲ごとのポイントおよびフラグの最新の状態を示すデータを赤外線や近距離無線等により受信する機能を有している。楽曲振分部523は、カラオケに参加する複数の利用者のデータに基づき、楽曲が重複する場合にはポイントおよびフラグに基づいて優先度を判断し、利用者ごとに選曲候補リストを生成する機能を有している。結果送信部524は、楽曲振分部523により生成された選曲候補リストのデータを赤外線や近距離無線等により該当する利用者の端末装置1に送信する機能を有している。選曲受信部525は、端末装置1からカラオケ演奏する選曲の指示を受信し、カラオケ制御アプリ51に指示を伝える機能を有している。   The mutual recognition unit 521 has a function of recognizing each other by communicating with the terminal device 1 by infrared rays, short-range wireless, or the like, and leading to subsequent processing. The data receiving unit 522 has a function of receiving, from the terminal device 1, data indicating the latest point and flag state of each user's music by infrared rays, short-range wireless, or the like. The music distribution unit 523 determines the priority based on the points and flags when the music overlaps based on the data of a plurality of users participating in karaoke, and generates a music selection candidate list for each user have. The result transmission unit 524 has a function of transmitting data of the music selection candidate list generated by the music distribution unit 523 to the corresponding user terminal device 1 by infrared rays, short-range wireless, or the like. The music selection receiving unit 525 has a function of receiving an instruction of music selection for performing karaoke performance from the terminal device 1 and transmitting the instruction to the karaoke control application 51.

図3は端末装置1、サーバ装置3およびカラオケ機器5のハードウェア構成例を示す図である。図3において、端末装置1等は、バス107を介して相互に接続されたCPU(Central Processing Unit)101、ROM(Read Only Memory)102、RAM(Random Access Memory)103、HDD(Hard Disk Drive)/SSD(Solid State Drive)104、接続I/F(Interface)105、通信I/F106を備えている。CPU101は、RAM103をワークエリアとしてROM102またはHDD/SSD104等に格納されたプログラムを実行することで、端末装置1等の動作を統括的に制御する。接続I/F105は、端末装置1等の内部または外部に接続される機器とのインタフェースである。内部または外部に接続される機器としては、カメラ、マイク、モニタ、スピーカ等がある。通信I/F106は、ネットワークを介して他の情報処理装置と通信を行うためのインタフェースである。   FIG. 3 is a diagram illustrating a hardware configuration example of the terminal device 1, the server device 3, and the karaoke equipment 5. In FIG. 3, a terminal device 1 or the like includes a CPU (Central Processing Unit) 101, a ROM (Read Only Memory) 102, a RAM (Random Access Memory) 103, and an HDD (Hard Disk Drive) connected to each other via a bus 107. / SSD (Solid State Drive) 104, connection I / F (Interface) 105, and communication I / F 106 are provided. The CPU 101 performs overall control of the operation of the terminal device 1 and the like by executing a program stored in the ROM 102 or the HDD / SSD 104 or the like using the RAM 103 as a work area. The connection I / F 105 is an interface with a device connected inside or outside such as the terminal device 1 or the like. Devices that are connected internally or externally include a camera, a microphone, a monitor, a speaker, and the like. The communication I / F 106 is an interface for communicating with other information processing apparatuses via a network.

図2で説明した端末装置1等の機能は、CPU101において所定のプログラムが実行されることで実現される。プログラムは、記録媒体を経由して取得されるものでもよいし、ネットワークを経由して取得されるものでもよいし、ROM組込でもよい。   The functions of the terminal device 1 and the like described with reference to FIG. 2 are realized by executing a predetermined program in the CPU 101. The program may be acquired via a recording medium, may be acquired via a network, or may be embedded in a ROM.

<動作>
図4は上記の実施形態における端末装置1における処理例を示すフローチャートである。この処理は、楽曲の試聴中における利用者の行動により、楽曲ごとにポイントおよびフラグを付与し、視聴の態様を示すデータを取得するものである。
<Operation>
FIG. 4 is a flowchart showing an example of processing in the terminal device 1 in the above embodiment. In this process, a point and a flag are assigned to each piece of music according to the user's action while listening to the piece of music, and data indicating a viewing mode is acquired.

図5は行動とポイントおよび付加フラグの対応の例を示す図である。この例では、行動「楽曲を聴いているだけ」の場合に3ポイントを加算し、「聴フラグ」の付加と、「聴フラグ」へ1ポイントを加算するものとしている。「聴フラグ」は聴いているだけであることを示している。3ポイントの加算としたのは、楽曲を聴いているだけでカラオケで歌うための練習をしているわけでは無いと考えられるためである。   FIG. 5 is a diagram showing an example of correspondence between actions, points, and additional flags. In this example, 3 points are added when the action is “listening to music”, and “pointing flag” is added and 1 point is added to “listening flag”. The “listening flag” indicates that the user is only listening. The reason for the addition of 3 points is that it is considered that they are not practicing to sing at karaoke just by listening to music.

行動「曲に合わせ口パク/鼻歌」の場合は、5ポイントを加算し、「歌フラグ」を付加するものとしている。「歌フラグ」は何らかの態様で歌っていたことを示している。5ポイントの加算としたのは、カラオケの練習をしている可能性はあるが、ハッキリとは歌っていないため、実際に歌うよりは数値は低めとするためである。   In the case of the action “Mouth Park / Nose Song”, 5 points are added and a “Song Flag” is added. “Singing flag” indicates that the song was sung in some manner. The reason for adding 5 points is that although there is a possibility of practicing karaoke, since it is not singing clearly, the numerical value is lower than actually singing.

行動「曲に合わせて歌う」の場合は、10ポイントを加算し、「歌フラグ」を付加するものとしている。10ポイントの加算としたのは、実際に声を出して歌っていることにより、カラオケの練習をしている可能性高と判断できるからである。   In the case of the action “sing along with a song”, 10 points are added and a “song flag” is added. The reason for the addition of 10 points is that it is possible to determine that there is a high possibility of practicing karaoke by actually singing aloud.

行動「曲と歌詞に合わせて歌う」の場合は、15ポイントを加算し、「歌フラグ」を付加するものとしている。15ポイントの加算としたのは、声を出して歌うことに加え、歌詞を参照しているため、さらにカラオケの練習をしている可能性が高いと判断できるからである。   In the case of the action “sing along with music and lyrics”, 15 points are added and a “song flag” is added. The reason for adding 15 points is that in addition to singing aloud and referring to the lyrics, it can be determined that there is a high possibility of practicing karaoke.

このように、カラオケで歌う練習のための視聴としての積極性に応じて高いポイントを付与するようにしている。なお、ポイントの数値はあくまでも例示であり、例示のポイントに限定されるものではない。また、行動の分類は例示のものに限られない。   Thus, a high point is given according to the aggressiveness as viewing for the practice of singing in karaoke. In addition, the numerical value of a point is an illustration to the last, and is not limited to the point of illustration. Moreover, the classification | category of action is not restricted to an illustration.

図4に戻り、音楽再生アプリ11が起動されてカラオケ選曲支援アプリ12の行動記録部13が処理を開始すると、カメラ制御部131およびマイク制御部132により裏(バックグラウンド)でカメラ(フロントカメラ)とマイクを起動する(ステップS101)。   Returning to FIG. 4, when the music playback application 11 is activated and the action recording unit 13 of the karaoke music selection support application 12 starts processing, the camera (front camera) is behind (background) by the camera control unit 131 and the microphone control unit 132. Then, the microphone is activated (step S101).

次いで、音楽再生アプリ11により楽曲が起動されると、楽曲ID取得部133により音楽再生アプリ11から楽曲IDを取得する(ステップS102)。   Next, when the music playback application 11 starts the music, the music ID acquisition unit 133 acquires the music ID from the music playback application 11 (step S102).

次いで、クラウドデータ入出力部138によりサーバ装置3からクラウド上のデータ(利用者の楽曲ごとのポイントおよびフラグの状態を示すデータ)を取得(ロード)する(ステップS103)。   Next, the cloud data input / output unit 138 acquires (loads) data on the cloud (data indicating the point and flag state of each user's music) from the server device 3 (step S103).

次いで、歌声検出部134、鼻歌・口パク検出部135および歌詞参照検出部136により検出される、利用者の楽曲の試聴中の行動を記憶領域に保存(セーブ)する(ステップS104)。   Next, the user's behavior during listening to the music detected by the singing voice detection unit 134, the nasal song / mouth patch detection unit 135, and the lyrics reference detection unit 136 is saved in the storage area (step S104).

次いで、楽曲が終了すると(ステップS105)、記憶領域に保存していた楽曲の試聴中の行動を取得(ロード)する(ステップS106)。   Next, when the music ends (step S105), the behavior during the trial listening of the music stored in the storage area is acquired (loaded) (step S106).

以下、フラグ・ポイント管理部137は、楽曲の試聴中の行動に応じて、利用者に対し楽曲ごとにポイントやフラグの追加を行う。   Hereinafter, the flag / point management unit 137 adds points and flags to the user for each piece of music in accordance with the behavior of the music being listened to.

先ず、フラグ・ポイント管理部137は、歌声検出部134により曲に合致する利用者の歌声を検出したか否か判断する(ステップS107)。なお、検出は楽曲の試聴中に何度となく行われるため、検出の頻度や割合が所定の閾値を超えた場合に歌声を検出したと判断する。   First, the flag / point management unit 137 determines whether or not the singing voice detecting unit 134 has detected a user's singing voice that matches the song (step S107). Since the detection is performed many times during the listening to the music, it is determined that the singing voice has been detected when the detection frequency or rate exceeds a predetermined threshold.

曲に合致する利用者の歌声を検出したと判断した場合(ステップS107のYes)、フラグ・ポイント管理部137は、歌詞参照検出部136により利用者の歌詞の参照を検出したか否か判断する(ステップS108)。なお、検出は楽曲の試聴中に何度となく行われるため、検出の頻度や割合が所定の閾値を超えた場合に歌詞の参照を検出したと判断する。   If it is determined that the user's singing voice that matches the song has been detected (Yes in step S107), the flag / point management unit 137 determines whether the lyrics reference detection unit 136 has detected the user's lyrics reference. (Step S108). Since detection is performed many times during the trial listening of the music, it is determined that the reference to the lyrics has been detected when the detection frequency or ratio exceeds a predetermined threshold.

利用者の歌詞の参照を検出したと判断した場合(ステップS108のYes)、フラグ・ポイント管理部137は利用者の当該楽曲に対して例えば「15ポイント」を追加し(ステップS109)、「歌フラグ」を追加する(ステップS113)。   If it is determined that the user's lyrics reference is detected (Yes in step S108), the flag / point management unit 137 adds, for example, "15 points" to the user's song (step S109). A “flag” is added (step S113).

また、利用者の歌詞の参照を検出しなかったと判断した場合(ステップS108のNo)、例えば「10ポイント」を追加し(ステップS110)、「歌フラグ」を追加する(ステップS113)。   If it is determined that the user's lyrics reference has not been detected (No in step S108), for example, "10 points" is added (step S110), and "song flag" is added (step S113).

また、曲に合致する利用者の歌声を検出しなかったと判断した場合(ステップS107のNo)、フラグ・ポイント管理部137は、鼻歌・口パク検出部135により曲に合致する鼻歌や口パクを検出したか否か判断する(ステップS111)。なお、検出は楽曲の試聴中に何度となく行われるため、検出の頻度や割合が所定の閾値を超えた場合に鼻歌や口パクを検出したと判断する。   If it is determined that the user's singing voice that matches the song has not been detected (No in step S107), the flag / point management unit 137 causes the nose song / mouth pack detection unit 135 to select a nasal song or mouth pack that matches the song. It is determined whether or not it has been detected (step S111). Since the detection is performed many times during the trial listening of the music, it is determined that the nose singing or the mouth patch is detected when the detection frequency or ratio exceeds a predetermined threshold.

曲に合致する鼻歌や口パクを検出したと判断した場合(ステップS111のYes)、例えば「5ポイント」を追加し(ステップS112)、「歌フラグ」を追加する(ステップS113)。   If it is determined that a nose song or mouthpiece matching the song is detected (Yes in step S111), for example, “5 points” is added (step S112), and “song flag” is added (step S113).

また、曲に合致する鼻歌や口パクを検出しなかったと判断した場合(ステップS111のNo)、フラグ・ポイント管理部137は、歌声検出部134により楽曲の再生音量が視聴に耐えるだけの音量であるか否かを検出することにより、楽曲の試聴のみであるか否か判断する(ステップS114)。なお、検出は楽曲の試聴中に何度となく行われるため、検出の頻度や割合が所定の閾値を超えた場合に楽曲の試聴を検出したと判断する。   In addition, when it is determined that no nasal song or mouth-packing that matches the song has been detected (No in step S111), the flag / point management unit 137 uses the singing voice detection unit 134 so that the playback volume of the song can withstand viewing. By detecting whether or not there is, it is determined whether or not it is only the sample listening (step S114). Since the detection is performed many times during the trial listening of the music, it is determined that the trial listening of the music is detected when the detection frequency or rate exceeds a predetermined threshold.

楽曲の試聴のみであると判断した場合(ステップS114のYes)、フラグ・ポイント管理部137は、例えば「3ポイント」を追加し(ステップS115)、「聴フラグ」の追加および「聴フラグ」のポイントを「1ポイント」追加する(ステップS116)。楽曲の試聴のみでないと判断した場合(ステップS114のNo)、ポイントおよびフラグの付与は行わない。   If it is determined that the music is only for listening (Yes in step S114), the flag / point management unit 137 adds, for example, “3 points” (step S115), adds “listening flag” and “listening flag”. “1 point” is added as a point (step S116). If it is determined that the music is not just being listened to (No in step S114), points and flags are not given.

なお、楽曲の試聴のみの場合については、利用者が歌詞を目で追っているか否かを区別していないが、それらを区別し、歌詞を目で追いながら視聴している場合には、単に視聴している場合よりも追加するポイントを増やしてもよい。   In the case of only listening to music, it is not distinguished whether or not the user is following the lyrics, but if they are distinguished and watching while watching the lyrics, they are simply watching. You may add more points than if you are.

その後、フラグ・ポイント管理部137は、当該楽曲についてポイントやフラグが追加されたデータにおいて「聴フラグ」と「歌フラグ」が同居するか否か判断する(ステップS117)。   Thereafter, the flag / point management unit 137 determines whether or not the “listening flag” and the “song flag” coexist in the data in which points and flags are added for the music (step S117).

「聴フラグ」と「歌フラグ」が同居すると判断した場合(ステップS117のYes)、フラグ・ポイント管理部137は、「聴フラグ」のポイントの補正として、例えば3倍にする(ステップS118)。蓄積されたデータの中で、同じ楽曲について「聴フラグ」と「歌フラグ」が同居しているということは、その利用者は単に歌っているだけではなく、カラオケの練習を積極的に行っていると評価することができるためである。「聴フラグ」と「歌フラグ」が同居しないと判断した場合(ステップS117のNo)、「聴フラグ」のポイントの補正は行わない。   If it is determined that the “listening flag” and the “song flag” coexist (Yes in step S117), the flag / point management unit 137, for example, triples the correction of the “listening flag” point (step S118). In the accumulated data, the “listening flag” and “song flag” coexist for the same song. This means that the user is not just singing, but is actively practicing karaoke. It is because it can be evaluated that it is. When it is determined that the “listening flag” and the “song flag” do not coexist (No in step S117), the point of the “listening flag” is not corrected.

次いで、クラウドデータ入出力部138によりサーバ装置3に対して楽曲のポイントとフラグの最新のデータを送信し、クラウド上のデータを更新する(ステップS119)。   Next, the cloud data input / output unit 138 transmits the latest music point and flag data to the server device 3 to update the data on the cloud (step S119).

その後、音楽再生アプリ11を続けて使用する場合(ステップS120のYes)は、楽曲の起動(ステップS102)の待機から処理を繰り返し、音楽再生アプリ11を続けて使用しない場合(ステップS120のNo)は、行動記録部13の処理を終了する。   Thereafter, when the music playback application 11 is continuously used (Yes in step S120), the process is repeated from the standby of the music activation (step S102), and when the music playback application 11 is not continuously used (No in step S120). Ends the process of the action recording unit 13.

なお、上述した処理フローはあくまでも一例であり、処理に矛盾が生じない範囲で処理の順序を変えてもよいし、同様の処理結果を得られる他の処理に変更してもよい。   Note that the processing flow described above is merely an example, and the processing order may be changed within a range in which no contradiction occurs in the processing, or may be changed to another processing that can obtain a similar processing result.

次に、図6は上記の実施形態におけるカラオケ機器5における処理例を示すフローチャートである。すなわち、端末装置1を所持した利用者がカラオケ店4のカラオケ機器5の前に集まってカラオケを行う場合の処理例である。   Next, FIG. 6 is a flowchart showing a processing example in the karaoke device 5 in the above embodiment. That is, it is a processing example in the case where the user who possesses the terminal device 1 gathers in front of the karaoke equipment 5 of the karaoke shop 4 and performs karaoke.

図6において、端末装置1の相互認識部141とカラオケ機器5の相互認識部521は、赤外線や近距離無線等により通信を行い、相互に認識を行う(ステップS201)。   In FIG. 6, the mutual recognition unit 141 of the terminal device 1 and the mutual recognition unit 521 of the karaoke device 5 communicate with each other by infrared rays, short-range wireless, or the like (step S201).

次いで、カラオケ機器5のカラオケ選曲支援アプリ52は、端末装置1のクラウドデータ取得部142およびデータ送信部143とカラオケ機器5のデータ受信部522により、サーバ装置3から利用者の楽曲ごとの合計ポイントを示すデータ(楽曲履歴情報)を取得する(ステップS202)。なお、利用者の楽曲ごとの合計ポイントを示すデータはデータの取得時に計算してもよいし、予めサーバ装置3において保持させておいてもよい。図7はサーバ装置3から端末装置1A、1Bを介してカラオケ機器5が楽曲情報を取得する例を示している。なお、AさんとBさんの2人について示しているが、参加者の人数は3人以上でもかまわないことはいうまでもない。参加者の端末装置1を介して各利用者のデータを取得することで、個人情報のセキュリティを確保することができる。   Next, the karaoke song selection support application 52 of the karaoke device 5 receives the total points for each song of the user from the server device 3 by the cloud data acquisition unit 142 and the data transmission unit 143 of the terminal device 1 and the data reception unit 522 of the karaoke device 5. Is obtained (music history information) (step S202). The data indicating the total points for each user's music may be calculated at the time of data acquisition, or may be stored in the server device 3 in advance. FIG. 7 shows an example in which the karaoke equipment 5 acquires music information from the server device 3 via the terminal devices 1A and 1B. In addition, although it has shown about two persons, Mr. A and Mr. B, it cannot be overemphasized that the number of participants may be three or more. By acquiring each user's data via the participant's terminal device 1, the security of personal information can be ensured.

次いで、図6に戻り、カラオケ選曲支援アプリ52の楽曲振分部523は、各利用者のデータに共通の楽曲(重複する楽曲)が存在するか否か判断する(ステップS203)。サーバ装置3から取得した各利用者のデータに含まれる楽曲IDは音楽再生アプリ11のベンダ等により付与のルールが異なるため、単純に一致するか否かによっては重複を判断することができない。そのため、基準となる固有ID(公的な団体等が定めたものであることが望ましい)と楽曲IDの対応関係を予め保持することにより、いったん固有IDに置き換えた上で重複の判断(マッチング)を行う。図8は固有IDによる楽曲のマッチングの例を示しており、横一例が同じ楽曲に付された固有IDと利用者Aさんの楽曲IDと利用者Bさんの楽曲IDを示している。なお、異なる楽曲に同じ楽曲IDが付与されることがある場合には、利用者から取得するデータの楽曲IDに、音楽再生アプリ11のベンダやアプリを識別する情報を付加してもよい。   Next, returning to FIG. 6, the music distribution unit 523 of the karaoke music selection support application 52 determines whether there is a common music (duplicated music) in each user's data (step S <b> 203). Since the music ID included in each user's data acquired from the server device 3 has different rules depending on the vendor of the music playback application 11, it is not possible to determine duplication depending on whether or not they simply match. For this reason, the correspondence between the unique ID as a reference (desired by a public organization or the like) and the song ID is held in advance, so that it is replaced with the unique ID and then duplicated (matching) I do. FIG. 8 shows an example of music matching by unique ID. The horizontal example shows the unique ID assigned to the same song, the song ID of user A, and the song ID of user B. When the same music ID may be given to different music, information for identifying the vendor or application of the music playback application 11 may be added to the music ID of the data acquired from the user.

また、利用者から取得するデータの楽曲IDに、楽曲の特徴量(音声信号の周波数や振幅の変化の特徴を示す情報)を付加し、固有IDと対応付けられた基準となる楽曲の特徴量と比較することで楽曲を特定してもよい。更に、利用者から取得するデータの楽曲IDに、曲名や歌手名(アーティスト名)等を識別する情報を付加し、固有IDと対応付けられた基準となる楽曲の曲名や歌手名等と比較することで楽曲を特定してもよい。   In addition, the feature amount of music (information indicating the characteristics of changes in the frequency and amplitude of the audio signal) is added to the song ID of the data acquired from the user, and the feature amount of the reference song associated with the unique ID is added. The music may be specified by comparing with. Further, information for identifying the song name, singer name (artist name), etc. is added to the song ID of the data acquired from the user and compared with the song name, singer name, etc. of the reference song associated with the unique ID. The music may be specified.

図6に戻り、共通の楽曲が存在すると判断した場合(ステップS203のYes)、楽曲振分部523は、共通の楽曲について、固有IDと各楽曲IDを紐付けて保持する(ステップS204)。   Returning to FIG. 6, when it is determined that a common music exists (Yes in step S203), the music distribution unit 523 associates and holds the unique ID and each music ID for the common music (step S204).

次いで、楽曲振分部523は、複数の利用者の間で共通する楽曲のそれぞれについての合計ポイントを比較し、優先度付けを行う(ステップS205)。図9は固有IDにより紐付けされた楽曲それぞれのポイントの比較の例を示す図である。例えば、固有ID「C87240」の楽曲の場合、Aさんの合計ポイントが「200」で、Bさんの合計ポイントが「300」であるため、Bさんの合計ポイントがAさんの合計ポイントを上回り、Bさんの優先度が高くなる。すなわち、この楽曲は、Bさんの選曲候補リストには優先度高の順番で追加され、Aさんの選曲候補リストには優先度低で追加されることになる。   Next, the music distribution unit 523 compares the total points for each of the music that is common among a plurality of users, and assigns priorities (step S205). FIG. 9 is a diagram showing an example of comparison of points of music pieces linked by a unique ID. For example, in the case of the song with the unique ID “C87240”, the total point of Mr. A is “200” and the total point of B is “300”, so the total point of B exceeds the total point of Mr. A. B's priority is higher. That is, this music is added to Mr. B's music selection candidate list in order of high priority, and is added to Mr. A's music selection candidate list with low priority.

なお、単に歌っている回数が多い方が保有ポイントが高くなるわけではなく、視聴回数に応じて合計ポイントが補正(図4のステップS118)されている場合がある。例えば、固有ID「D55879」の楽曲の場合、Aさんの合計ポイントが「136」で、Bさんの合計ポイントが「120」であるため、Aさんの合計ポイントがBさんの合計ポイントを上回り、Aさんの優先度が高くなる。図10はその楽曲についてのAさんとBさんの行動を示しており、歌った回数はAさんの10回に対してBさんが12回でBさんが若干上回っているが、聴いた回数はAさんが4回なのに対しBさんは0回であり、Aさんには補正のポイントが「36」加算されたことで、Aさんが合計ポイントで上回っている。すなわち、楽曲を数回聴いた後に音合わせのために歌ったAさんには、視聴回数分の補正が掛かり、歌っている回数では勝っていたBさんよりも合計ポイントが高くなっている。   Note that the number of possessed points does not increase when the number of times of singing is large, and the total points may be corrected according to the number of viewing times (step S118 in FIG. 4). For example, in the case of the song with the unique ID “D55879”, the total point of Mr. A is “136” and the total point of Mr. B is “120”, so the total point of Mr. A exceeds the total point of Mr. B. A's priority is higher. FIG. 10 shows the actions of Mr. A and Mr. B about the music. The number of times of singing was 12 times for Mr. B compared to 10 times for Mr. A. Mr. A has 4 times, while Mr. B has 0 times, and Mr. A has added “36” correction points, so Mr. A exceeds the total points. That is, Mr. A who sang for music matching after listening to the music several times is corrected for the number of times of viewing, and the total points are higher than Mr. B who has won the number of times of singing.

図6に戻り、共通の楽曲が存在しないと判断した場合(ステップS203のNo)、固有IDと各楽曲IDの紐付け(ステップS204)と合計ポイントの比較(ステップS205)は行わない。   Returning to FIG. 6, when it is determined that there is no common music (No in step S203), the unique ID is associated with each music ID (step S204) and the total points are not compared (step S205).

次いで、楽曲振分部523は、利用者ごとに楽曲候補優先度を抽出し(ステップS206)、利用者ごとに選曲候補リストを生成する(ステップS207)。例えば、カラオケに参加している他の利用者と重複する楽曲については、優先度の序列が1番以外の楽曲については序列に応じて所定ポイント(序列が下になるほど大きな値)を合計ポイントから差し引く。また、重複しない楽曲については合計ポイントのままとし、その利用者の行動から取得した全ての楽曲について、合計ポイントの高い順にソートして上位の所定数の楽曲を選曲候補リストにする。このように、利用者の普段の行動(楽曲利用)に応じて、優先度を決定することにより、その時々のメンバーに応じて優先度が割り出されるため、利用者間での関係性をあらかじめ登録等する必要が無い。また、選曲候補リストには重複の有無を示すフラグを付加してもよい。   Next, the music distribution unit 523 extracts the music candidate priority for each user (step S206), and generates a music selection candidate list for each user (step S207). For example, for music that overlaps with other users participating in karaoke, for songs other than the first in the priority order, a predetermined point (a larger value as the order is lower) is selected from the total points according to the order. Subtract. In addition, the music that does not overlap is left as the total points, and all the music acquired from the user's action is sorted in descending order of the total points, and the upper predetermined number of music is made the music selection candidate list. In this way, by determining the priority according to the user's usual behavior (music use), the priority is determined according to the member at that time, so the relationship between the users is determined in advance. There is no need to register. Moreover, you may add the flag which shows the presence or absence of duplication to a music selection candidate list | wrist.

次いで、結果送信部524により各利用者の端末装置1に選曲候補リストを送信し(ステップS208)、処理を終了する。図11はカラオケ機器5から端末装置1A、1Bへ選曲候補リストを送信する例を示している。   Next, the result transmission unit 524 transmits the song selection candidate list to the terminal device 1 of each user (step S208), and the process ends. FIG. 11 shows an example in which a song selection candidate list is transmitted from the karaoke device 5 to the terminal devices 1A and 1B.

端末装置1は、データ受信部144により選曲候補リストを受信すると、候補リスト表示部145により画面上に選曲候補リストを表示する。図12は端末装置1A、1Bでの選曲候補リストの表示の例を示している。なお、他の利用者との重複の有無を楽曲ごとに併せて表示してもよい。これにより、他のメンバが知らない楽曲を選曲してしまって場がしらけてしまうのを防止することができる。更に、選曲候補リストには他のメンバと共通する楽曲だけを表示するようにしてもよい。   When the data receiving unit 144 receives the song selection candidate list, the terminal device 1 causes the candidate list display unit 145 to display the song selection candidate list on the screen. FIG. 12 shows an example of display of a music selection candidate list on the terminal devices 1A and 1B. In addition, you may display the presence or absence of duplication with another user collectively for every music. As a result, it is possible to prevent the place from being messed up by selecting a song that other members do not know. Furthermore, only music that is shared with other members may be displayed in the music selection candidate list.

利用者は、端末装置1の画面に表示された選曲候補リストから所望の楽曲を選択すると、選曲受付部146により選曲が受け付けられ、選曲送信部147によりカラオケ機器5に選曲された楽曲のID(楽曲IDまたは固有ID)を送信する。カラオケ機器5の選曲受信部525は楽曲のIDを受信すると、カラオケ制御アプリ51に選曲の指示を行い、演奏が予約される。   When the user selects a desired song from the song selection candidate list displayed on the screen of the terminal device 1, the song selection reception unit 146 receives the song selection, and the song selection transmission unit 147 selects the ID of the song selected by the karaoke device 5 ( Music ID or unique ID) is transmitted. When the music selection receiving unit 525 of the karaoke device 5 receives the ID of the music, it instructs the karaoke control application 51 to select the music and reserves the performance.

<総括>
以上説明したように、本実施形態によれば、カラオケに参加する任意の利用者に対し利用者個々の行動に基づいた選曲支援を行うことができ、楽曲が重複した場合でも誰が歌うかを当事者間で相談する必要がなくなり、よりカラオケの場を盛り上げることができる。
<Summary>
As described above, according to the present embodiment, music selection support based on individual user behavior can be performed for any user participating in karaoke, and the party who sings even when the music overlaps There is no need to consult between them, and you can make the karaoke place more exciting.

以上、好適な実施の形態により説明した。ここでは特定の具体例を示して説明したが、特許請求の範囲に定義された広範な趣旨および範囲から逸脱することなく、これら具体例に様々な修正および変更を加えることができることは明らかである。すなわち、具体例の詳細および添付の図面により限定されるものと解釈してはならない。   In the above, it demonstrated by preferred embodiment. While specific embodiments have been illustrated and described herein, it will be apparent that various modifications and changes may be made thereto without departing from the broad spirit and scope as defined in the claims. . That is, it should not be construed as being limited by the details of the specific examples and the accompanying drawings.

以上の説明に関し、更に以下の項を開示する。
(付記1)
カラオケに参加する複数の利用者の端末装置から、前記利用者が個々の楽曲に対して行った視聴の態様を示すデータを取得する手段と、
前記データから前記複数の利用者に共通する楽曲が存在する場合に、前記データの示す視聴の態様に基づいて優先順位付けを行う手段と、
前記データおよび前記優先順位付けの結果に基づいて選曲の候補を提示する手段と、
を備えたことを特徴とする選曲支援装置。
(付記2)
前記端末装置からネットワーク上のサーバ装置に蓄積された前記データを、カラオケに参加する際に前記サーバ装置から前記端末装置を介して取得する、
ことを特徴とする付記1に記載の選曲支援装置。
(付記3)
前記選曲の候補を前記端末装置に送信して表示させる、
ことを特徴とする付記1または2に記載の選曲支援装置。
(付記4)
前記端末装置に表示された前記選曲の候補から利用者により選択された楽曲を演奏の対象となる楽曲として受け付ける、
ことを特徴とする付記3に記載の選曲支援装置。
(付記5)
前記視聴の態様は、優先順位が低い順に、曲を聴いているだけの態様、曲に合わせ口パクまたは鼻歌を歌っている態様、曲に合わせて歌っている態様、および、曲と歌詞に合わせて歌っている態様を含む、
ことを特徴とする付記1乃至4のいずれか一項に記載の選曲支援装置。
(付記6)
前記データから歌を歌っている態様と曲を聴いている態様とが検出された楽曲について、優先順位を高める補正を行う、
ことを特徴とする付記1乃至5のいずれか一項に記載の選曲支援装置。
(付記7)
カラオケに参加する複数の利用者の端末装置から、前記利用者が個々の楽曲に対して行った視聴の態様を示すデータを取得し、
前記データから前記複数の利用者に共通する楽曲が存在する場合に、前記データの示す視聴の態様に基づいて優先順位付けを行い、
前記データおよび前記優先順位付けの結果に基づいて選曲の候補を提示する、
処理をコンピュータに実行させることを特徴とする選曲支援プログラム。
(付記8)
前記端末装置からネットワーク上のサーバ装置に蓄積された前記データを、カラオケに参加する際に前記サーバ装置から前記端末装置を介して取得する、
ことを特徴とする付記7に記載の選曲支援プログラム。
(付記9)
前記選曲の候補を前記端末装置に送信して表示させる、
ことを特徴とする付記7または8に記載の選曲支援プログラム。
(付記10)
前記端末装置に表示された前記選曲の候補から利用者により選択された楽曲を演奏の対象となる楽曲として受け付ける、
ことを特徴とする付記9に記載の選曲支援プログラム。
(付記11)
前記視聴の態様は、優先順位が低い順に、曲を聴いているだけの態様、曲に合わせ口パクまたは鼻歌を歌っている態様、曲に合わせて歌っている態様、および、曲と歌詞に合わせて歌っている態様を含む、
ことを特徴とする付記7乃至10のいずれか一項に記載の選曲支援プログラム。
(付記12)
前記データから歌を歌っている態様と曲を聴いている態様とが検出された楽曲について、優先順位を高める補正を行う、
ことを特徴とする付記7乃至11のいずれか一項に記載の選曲支援プログラム。
(付記13)
カラオケに参加する複数の利用者の端末装置から、前記利用者が個々の楽曲に対して行った視聴の態様を示すデータを取得し、
前記データから前記複数の利用者に共通する楽曲が存在する場合に、前記データの示す視聴の態様に基づいて優先順位付けを行い、
前記データおよび前記優先順位付けの結果に基づいて選曲の候補を提示する、
処理をコンピュータが実行することを特徴とする選曲支援方法。
(付記14)
前記端末装置からネットワーク上のサーバ装置に蓄積された前記データを、カラオケに参加する際に前記サーバ装置から前記端末装置を介して取得する、
ことを特徴とする付記13に記載の選曲支援方法。
(付記15)
前記選曲の候補を前記端末装置に送信して表示させる、
ことを特徴とする付記13または14に記載の選曲支援方法。
(付記16)
前記端末装置に表示された前記選曲の候補から利用者により選択された楽曲を演奏の対象となる楽曲として受け付ける、
ことを特徴とする付記15に記載の選曲支援方法。
(付記17)
前記視聴の態様は、優先順位が低い順に、曲を聴いているだけの態様、曲に合わせ口パクまたは鼻歌を歌っている態様、曲に合わせて歌っている態様、および、曲と歌詞に合わせて歌っている態様を含む、
ことを特徴とする付記13乃至16のいずれか一項に記載の選曲支援方法。
(付記18)
前記データから歌を歌っている態様と曲を聴いている態様とが検出された楽曲について、優先順位を高める補正を行う、
ことを特徴とする付記13乃至17のいずれか一項に記載の選曲支援方法。
Regarding the above description, the following items are further disclosed.
(Appendix 1)
Means for acquiring data indicating the mode of viewing performed by the user for each piece of music from the terminal devices of a plurality of users participating in karaoke;
Means for prioritizing based on the viewing mode indicated by the data when there is a song common to the plurality of users from the data;
Means for presenting music selection candidates based on the data and the prioritization results;
A music selection support apparatus characterized by comprising:
(Appendix 2)
The data stored in the server device on the network from the terminal device is acquired from the server device via the terminal device when participating in karaoke.
The music selection support device according to Supplementary Note 1, wherein:
(Appendix 3)
Transmitting and displaying the music selection candidates to the terminal device;
The music selection support device according to Supplementary Note 1 or 2, wherein:
(Appendix 4)
Accepting a song selected by the user from the song selection candidates displayed on the terminal device as a song to be played;
The music selection support device according to Supplementary Note 3, wherein
(Appendix 5)
The mode of viewing is the mode in which the songs are listened to in order of priority, the mode in which the mouth or nose is sung in accordance with the song, the mode in which the song is sung in accordance with the song, and the song and lyrics. Including aspects of singing,
The music selection support device according to any one of Supplementary notes 1 to 4, characterized in that:
(Appendix 6)
For the music in which the mode of singing the song and the mode of listening to the song are detected from the data, correction for increasing the priority is performed.
The music selection support device according to any one of appendices 1 to 5, characterized in that:
(Appendix 7)
From the terminal devices of a plurality of users participating in karaoke, obtain data indicating the mode of viewing performed by the user for each piece of music,
When there is a song common to the plurality of users from the data, prioritization is performed based on the viewing mode indicated by the data,
Presenting music selection candidates based on the data and the prioritization results;
A music selection support program that causes a computer to execute processing.
(Appendix 8)
The data stored in the server device on the network from the terminal device is acquired from the server device via the terminal device when participating in karaoke.
The music selection support program according to appendix 7, wherein
(Appendix 9)
Transmitting and displaying the music selection candidates to the terminal device;
The music selection support program according to appendix 7 or 8, characterized in that.
(Appendix 10)
Accepting a song selected by the user from the song selection candidates displayed on the terminal device as a song to be played;
The music selection support program according to appendix 9, characterized in that.
(Appendix 11)
The mode of viewing is the mode in which the songs are listened to in order of priority, the mode in which the mouth or nose is sung in accordance with the song, the mode in which the song is sung in accordance with the song, and the song and lyrics. Including aspects of singing,
The music selection support program according to any one of appendices 7 to 10, characterized in that:
(Appendix 12)
For the music in which the mode of singing the song and the mode of listening to the song are detected from the data, correction for increasing the priority is performed.
The music selection support program according to any one of appendices 7 to 11, characterized in that:
(Appendix 13)
From the terminal devices of a plurality of users participating in karaoke, obtain data indicating the mode of viewing performed by the user for each piece of music,
When there is a song common to the plurality of users from the data, prioritization is performed based on the viewing mode indicated by the data,
Presenting music selection candidates based on the data and the prioritization results;
A music selection support method, characterized in that a computer executes processing.
(Appendix 14)
The data stored in the server device on the network from the terminal device is acquired from the server device via the terminal device when participating in karaoke.
The music selection support method according to Supplementary Note 13, wherein
(Appendix 15)
Transmitting and displaying the music selection candidates to the terminal device;
15. The music selection support method according to Supplementary Note 13 or 14, wherein
(Appendix 16)
Accepting a song selected by the user from the song selection candidates displayed on the terminal device as a song to be played;
The music selection support method according to Supplementary Note 15, wherein
(Appendix 17)
The mode of viewing is the mode in which the songs are listened to in the order of priority, the mode in which the mouth or nose is sung in accordance with the song, the mode in which the song is sung in accordance with the song, and the song and lyrics. Including aspects of singing,
The music selection support method according to any one of supplementary notes 13 to 16, wherein:
(Appendix 18)
For the music in which the mode of singing the song and the mode of listening to the song are detected from the data, a correction for increasing the priority is performed.
18. The music selection support method according to any one of supplementary notes 13 to 17, characterized in that:

1、1A、1B 端末装置
11 音楽再生アプリ
12 カラオケ選曲支援アプリ
13 行動記録部
131 カメラ制御部
132 マイク制御部
133 楽曲ID取得部
134 歌声検出部
135 鼻歌・口パク検出部
136 歌詞参照検出部
137 フラグ・ポイント管理部
138 クラウドデータ入出力部
14 選曲指示部
141 相互認識部
142 クラウドデータ取得部
143 データ送信部
144 データ受信部
145 候補リスト表示部
146 選曲受付部
147 選曲送信部
2 ネットワーク
3 サーバ装置
31 データ入出力部
32 データベース
4 カラオケ店
5 カラオケ機器
51 カラオケ制御アプリ
52 カラオケ選曲支援アプリ
521 相互認識部
522 データ受信部
523 楽曲振分部
524 結果送信部
525 選曲受信部
DESCRIPTION OF SYMBOLS 1, 1A, 1B terminal device 11 Music reproduction application 12 Karaoke music selection support application 13 Action recording part 131 Camera control part 132 Microphone control part 133 Musical song ID acquisition part 134 Singing voice detection part 135 Rhythm / mouth patch detection part 136 Lyrics reference detection part 137 Flag / point management unit 138 Cloud data input / output unit 14 Music selection instruction unit 141 Mutual recognition unit 142 Cloud data acquisition unit 143 Data transmission unit 144 Data reception unit 145 Candidate list display unit 146 Music selection reception unit 147 Music selection transmission unit 2 Network 3 Server device 31 data input / output unit 32 database 4 karaoke store 5 karaoke equipment 51 karaoke control application 52 karaoke music selection support application 521 mutual recognition unit 522 data reception unit 523 music distribution unit 524 result transmission unit 525 music selection reception unit

Claims (8)

カラオケに参加する複数の利用者の端末装置から、前記利用者が個々の楽曲に対して行った視聴の態様を示すデータを取得する手段と、
前記データから前記複数の利用者に共通する楽曲が存在する場合に、前記データの示す視聴の態様に基づいて優先順位付けを行う手段と、
前記データおよび前記優先順位付けの結果に基づいて選曲の候補を提示する手段と、
を備えたことを特徴とする選曲支援装置。
Means for acquiring data indicating the mode of viewing performed by the user for each piece of music from the terminal devices of a plurality of users participating in karaoke;
Means for prioritizing based on the viewing mode indicated by the data when there is a song common to the plurality of users from the data;
Means for presenting music selection candidates based on the data and the prioritization results;
A music selection support apparatus characterized by comprising:
前記端末装置からネットワーク上のサーバ装置に蓄積された前記データを、カラオケに参加する際に前記サーバ装置から前記端末装置を介して取得する、
ことを特徴とする請求項1に記載の選曲支援装置。
The data stored in the server device on the network from the terminal device is acquired from the server device via the terminal device when participating in karaoke.
The music selection support apparatus according to claim 1.
前記選曲の候補を前記端末装置に送信して表示させる、
ことを特徴とする請求項1または2に記載の選曲支援装置。
Transmitting and displaying the music selection candidates to the terminal device;
The music selection support apparatus according to claim 1, wherein the music selection support apparatus is a music selection support apparatus.
前記端末装置に表示された前記選曲の候補から利用者により選択された楽曲を演奏の対象となる楽曲として受け付ける、
ことを特徴とする請求項3に記載の選曲支援装置。
Accepting a song selected by the user from the song selection candidates displayed on the terminal device as a song to be played;
The music selection support device according to claim 3.
前記視聴の態様は、優先順位が低い順に、曲を聴いているだけの態様、曲に合わせ口パクまたは鼻歌を歌っている態様、曲に合わせて歌っている態様、および、曲と歌詞に合わせて歌っている態様を含む、
ことを特徴とする請求項1乃至4のいずれか一項に記載の選曲支援装置。
The mode of viewing is a mode in which songs are listened to in order of priority, a mode in which a mouth or a nose is sung in accordance with a song, a mode in which a song is sung in accordance with a song, and a song and lyrics. Including aspects of singing,
The music selection support apparatus according to any one of claims 1 to 4, wherein
前記データから歌を歌っている態様と曲を聴いている態様とが検出された楽曲について、優先順位を高める補正を行う、
ことを特徴とする請求項1乃至5のいずれか一項に記載の選曲支援装置。
For the music in which the mode of singing the song and the mode of listening to the song are detected from the data, correction for increasing the priority is performed.
The music selection support device according to any one of claims 1 to 5, wherein
カラオケに参加する複数の利用者の端末装置から、前記利用者が個々の楽曲に対して行った視聴の態様を示すデータを取得し、
前記データから前記複数の利用者に共通する楽曲が存在する場合に、前記データの示す視聴の態様に基づいて優先順位付けを行い、
前記データおよび前記優先順位付けの結果に基づいて選曲の候補を提示する、
処理をコンピュータに実行させることを特徴とする選曲支援プログラム。
From the terminal devices of a plurality of users participating in karaoke, obtain data indicating the mode of viewing performed by the user for each piece of music,
When there is a song common to the plurality of users from the data, prioritization is performed based on the viewing mode indicated by the data,
Presenting music selection candidates based on the data and the prioritization results;
A music selection support program that causes a computer to execute processing.
カラオケに参加する複数の利用者の端末装置から、前記利用者が個々の楽曲に対して行った視聴の態様を示すデータを取得し、
前記データから前記複数の利用者に共通する楽曲が存在する場合に、前記データの示す視聴の態様に基づいて優先順位付けを行い、
前記データおよび前記優先順位付けの結果に基づいて選曲の候補を提示する、
処理をコンピュータが実行することを特徴とする選曲支援方法。
From the terminal devices of a plurality of users participating in karaoke, obtain data indicating the mode of viewing performed by the user for each piece of music,
When there is a song common to the plurality of users from the data, prioritization is performed based on the viewing mode indicated by the data,
Presenting music selection candidates based on the data and the prioritization results;
A music selection support method, characterized in that a computer executes processing.
JP2015252353A 2015-12-24 2015-12-24 Music selection support device, music selection support program, and music selection support method Expired - Fee Related JP6604194B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015252353A JP6604194B2 (en) 2015-12-24 2015-12-24 Music selection support device, music selection support program, and music selection support method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015252353A JP6604194B2 (en) 2015-12-24 2015-12-24 Music selection support device, music selection support program, and music selection support method

Publications (2)

Publication Number Publication Date
JP2017116742A JP2017116742A (en) 2017-06-29
JP6604194B2 true JP6604194B2 (en) 2019-11-13

Family

ID=59234704

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015252353A Expired - Fee Related JP6604194B2 (en) 2015-12-24 2015-12-24 Music selection support device, music selection support program, and music selection support method

Country Status (1)

Country Link
JP (1) JP6604194B2 (en)

Also Published As

Publication number Publication date
JP2017116742A (en) 2017-06-29

Similar Documents

Publication Publication Date Title
US20220391060A1 (en) Methods for displaying and providing multimedia resources
US20060224260A1 (en) Scan shuffle for building playlists
JP6535497B2 (en) Music recommendation system, program and music recommendation method
CN102970427A (en) Method for playing songs by mobile phone
CN106052704A (en) Method and device for recommending routes
JP5472159B2 (en) Information terminal, server, connection destination determination method and program
JP5218791B2 (en) Post data determination device, karaoke device, server device, and post data determination program
JP2010078926A (en) Duet partner extracting system
CN110097895A (en) A kind of absolute music detection method, device and storage medium
JP6604194B2 (en) Music selection support device, music selection support program, and music selection support method
JP7141929B2 (en) karaoke system
JP2009058806A (en) Request accepting system for karaoke
JP5615224B2 (en) Karaoke device and karaoke program
JP2012150244A (en) Musical piece recommendation device, method, and program
JP6785112B2 (en) Karaoke system, server device
JP6630628B2 (en) Karaoke system, recommended music presentation program
JP2009180952A (en) Karaoke system with electronic index book function
JP7093270B2 (en) Karaoke system, karaoke equipment
JP2012189731A (en) Musical piece selection device and musical piece selection program
JP6678535B2 (en) Karaoke system
JP7079650B2 (en) Karaoke system
JP6765980B2 (en) Karaoke system
JP7117216B2 (en) karaoke system
JP7068972B2 (en) Mobile terminals, programs
JP6818529B2 (en) Karaoke device, karaoke system

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20180706

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20180711

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20180717

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20180907

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181005

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190531

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190614

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190821

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190917

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190930

R150 Certificate of patent or registration of utility model

Ref document number: 6604194

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees