JP2021007213A - Control server, distribution system, method for control, and program - Google Patents

Control server, distribution system, method for control, and program Download PDF

Info

Publication number
JP2021007213A
JP2021007213A JP2020075125A JP2020075125A JP2021007213A JP 2021007213 A JP2021007213 A JP 2021007213A JP 2020075125 A JP2020075125 A JP 2020075125A JP 2020075125 A JP2020075125 A JP 2020075125A JP 2021007213 A JP2021007213 A JP 2021007213A
Authority
JP
Japan
Prior art keywords
state
camera
virtual space
distributor
virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020075125A
Other languages
Japanese (ja)
Other versions
JP2021007213A5 (en
JP7360989B2 (en
Inventor
量生 川上
Kazuo Kawakami
量生 川上
俊博 清水
Toshihiro Shimizu
俊博 清水
尚 小嶋
Takashi Kojima
尚 小嶋
寛明 齊藤
Hiroaki Saito
寛明 齊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dwango Co Ltd
Original Assignee
Dwango Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2019120101A external-priority patent/JP6695482B1/en
Application filed by Dwango Co Ltd filed Critical Dwango Co Ltd
Priority to JP2020075125A priority Critical patent/JP7360989B2/en
Publication of JP2021007213A publication Critical patent/JP2021007213A/en
Publication of JP2021007213A5 publication Critical patent/JP2021007213A5/en
Application granted granted Critical
Publication of JP7360989B2 publication Critical patent/JP7360989B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

To perform a suitable camera blocking according to a situation in distribution of a video taken of an avatar in a virtual space.SOLUTION: A control server 20, which controls a virtual camera for imaging a virtual space, includes: a storage unit 23 for storing a finite automaton using each camera blocking as a state and using the situation of a virtual space as a shift condition; an analysis unit 21 for analyzing the situation of the virtual space; and a controller 22 for shifting the state of the camera blocking according to the finite automaton on the basis of the result of the analysis and controlling the virtual camera so that the camera blocking will correspond to the state after the shift.SELECTED DRAWING: Figure 3

Description

本発明は、制御サーバ、配信システム、制御方法及びプログラムに関する。 The present invention relates to control servers, distribution systems, control methods and programs.

仮想現実(VR)技術を利用し、仮想空間内のスタジオでの番組を仮想カメラで撮影した映像を配信するサービスが知られている。配信者は、仮想空間内でアバターとして番組に参加する。仮想空間内のスタジオを利用することで、遠隔地の複数の配信者が共同して番組を進行することもできる。また、視聴者もアバターとして番組に参加することもできる。 There is known a service that uses virtual reality (VR) technology to distribute a video of a program in a studio in a virtual space taken by a virtual camera. The distributor participates in the program as an avatar in the virtual space. By using the studio in the virtual space, multiple distributors in remote areas can jointly proceed with the program. Viewers can also participate in the program as avatars.

特許4625058号Patent No. 4625058

仮想空間内に複数のアバターが存在する番組では、参加しているアバター全員を撮影した映像や発言しているアバターのアップの映像など、番組の進行に応じてカメラ割りを変えると見やすい番組を配信できる。 For programs with multiple avatars in the virtual space, a program that is easy to see can be delivered by changing the camera allocation according to the progress of the program, such as a video of all participating avatars and a close-up video of the avatar speaking. it can.

しかしながら、状況に適したカメラ割りをするためには、仮想空間内の仮想カメラを操作するスタッフが必要である。1人または少人数で番組を生配信する場合は、カメラを操作する専門のスタッフはおらず、状況に応じたカメラ割りをすることが難しいという問題があった。 However, in order to allocate a camera suitable for the situation, a staff member who operates a virtual camera in the virtual space is required. When the program is delivered live by one person or a small number of people, there is no specialized staff to operate the camera, and there is a problem that it is difficult to allocate the camera according to the situation.

特許文献1には、ユーザの指示またはシナリオによりアバターを仮想空間内で自動的に行動させ、ユーザからの指示によって位置の異なる複数のカメラの撮影画像を切り替える技術が開示されている。特許文献1には、仮想空間内の複数の位置に配置されたカメラの撮影画像を切り替えることは開示されているが、カメラの切り替えは、ユーザの指示または仮想空間内の所定の位置及び時間を予め定めたシナリオに基づくものであり、状況に応じて自動的に切り替わるものではない。 Patent Document 1 discloses a technique in which an avatar is automatically made to act in a virtual space according to a user's instruction or a scenario, and images taken by a plurality of cameras having different positions are switched according to the instruction from the user. Patent Document 1 discloses that the captured images of cameras arranged at a plurality of positions in the virtual space are switched, but the switching of the cameras is performed by a user's instruction or a predetermined position and time in the virtual space. It is based on a predetermined scenario and does not switch automatically depending on the situation.

本発明は、上記に鑑みてなされたものであり、仮想空間を撮影した動画の配信において、状況に応じて適したカメラ割りを自動的に行うことを目的とする。 The present invention has been made in view of the above, and an object of the present invention is to automatically perform appropriate camera allocation according to a situation in the distribution of a moving image of a virtual space.

本発明の一態様の制御サーバは、仮想空間を撮影する仮想カメラを制御する制御サーバであって、複数のカメラ割りのそれぞれを状態とし、前記仮想空間の状況を遷移条件とした有限オートマトンを記憶する記憶部と、前記仮想空間の状況を解析する解析部と、解析結果に基づき、前記有限オートマトンに従ってカメラ割りの状態を遷移させて、遷移後の状態に応じたカメラ割りとなるように前記仮想カメラを制御する制御部と、を有する。 The control server of one aspect of the present invention is a control server that controls a virtual camera that shoots a virtual space, and stores a finite automaton in which each of a plurality of camera divisions is in a state and the state of the virtual space is a transition condition. Based on the analysis result, the storage unit, the analysis unit that analyzes the state of the virtual space, and the virtual state of the camera allocation are changed according to the finite automaton so that the camera allocation is made according to the state after the transition. It has a control unit that controls a camera.

本発明の一態様の配信システムは、仮想空間を撮影した映像を端末へ配信する配信システムであって、仮想空間を撮影した映像を端末へ配信する配信サーバと前記仮想空間を撮影する仮想カメラを制御する制御サーバを有し、前記制御サーバは、複数のカメラ割りのそれぞれを状態とし、前記仮想空間の状況を遷移条件とした有限オートマトンを記憶する記憶部と、前記仮想空間の状況を解析する解析部と、解析結果に基づき、前記有限オートマトンに従ってカメラ割りの状態を遷移させて、遷移後の状態に応じたカメラ割りとなるように前記仮想カメラを制御する制御部と、を備える。 The distribution system of one aspect of the present invention is a distribution system that distributes a video captured in a virtual space to a terminal, and includes a distribution server that distributes a video captured in the virtual space to the terminal and a virtual camera that captures the virtual space. The control server has a control server to control, and the control server analyzes the situation of the virtual space and a storage unit that stores a finite-state machine with each of a plurality of camera divisions as a state and a transition condition of the situation of the virtual space. It includes an analysis unit and a control unit that shifts the state of camera allocation according to the finite-state machine based on the analysis result and controls the virtual camera so that the camera allocation is made according to the state after the transition.

本発明によれば、仮想空間を撮影した動画の配信において、状況に応じて適したカメラ割りを自動的に行うことができる。具体的には、本発明によれば、有限オートマトンを用いてカメラ割りを制御することにより、VRコンテンツにおける配信者の挙動に応じて無限にシナリオ(カメラ割り)が増えることなく、効果のあるシナリオに絞られて演出上の効果が発揮される。 According to the present invention, in the distribution of a moving image of a virtual space, a suitable camera allocation can be automatically performed according to a situation. Specifically, according to the present invention, by controlling the camera allocation using the finite-state machine, the scenario (camera allocation) does not increase infinitely according to the behavior of the distributor in the VR content, and an effective scenario. The effect on the production is demonstrated by being narrowed down to.

図1は、本実施形態の番組配信システムの全体的な構成例を示すブロック図である。FIG. 1 is a block diagram showing an overall configuration example of the program distribution system of the present embodiment. 図2は、配信者がヘッドマウントディスプレイを装着した様子を示す図である。FIG. 2 is a diagram showing a state in which a distributor wears a head-mounted display. 図3は、制御サーバの構成例を示す機能ブロック図である。FIG. 3 is a functional block diagram showing a configuration example of the control server. 図4は、制御サーバの保持する有限オートマトンの一例を示す図である。FIG. 4 is a diagram showing an example of a finite automaton held by the control server. 図5は、制御サーバによる仮想カメラの制御処理の流れを示すフローチャートである。FIG. 5 is a flowchart showing the flow of control processing of the virtual camera by the control server. 図6は、仮想空間内のスタジオの一例を示す図である。FIG. 6 is a diagram showing an example of a studio in a virtual space. 図7は、仮想空間内のスタジオの全体を撮影した画面例を示す図である。FIG. 7 is a diagram showing an example of a screen in which the entire studio in the virtual space is photographed. 図8は、2人の配信者アバターを撮影した画面例を示す図である。FIG. 8 is a diagram showing an example of a screen in which two distributor avatars are photographed. 図9は、一方の配信者アバターのアップを撮影した画面例を示す図である。FIG. 9 is a diagram showing a screen example of a close-up shot of one of the distributor avatars. 図10は、他方の配信者アバターのアップを撮影した画面例を示す図である。FIG. 10 is a diagram showing a screen example in which the close-up of the other distributor avatar is photographed. 図11は、画面を分割して配信者アバターを表示した画面例を示す図である。FIG. 11 is a diagram showing a screen example in which the screen is divided and the distributor avatar is displayed. 図12は、ディスプレイオブジェクトの両脇に配信者アバターを配置した画面例を示す図である。FIG. 12 is a diagram showing a screen example in which distributor avatars are arranged on both sides of the display object.

[システム構成]
以下、本発明の一実施形態の番組配信システムについて図面を用いて説明する。
[System configuration]
Hereinafter, the program distribution system according to the embodiment of the present invention will be described with reference to the drawings.

本実施形態の番組配信システムは、配信者が3次元仮想空間内で配信者アバターとして番組に参加し、番組が進行する仮想空間を撮影した映像をライブ配信するシステムである。また、本実施形態の番組配信システムでは、視聴者も配信者と同じ仮想空間内に視聴者アバターとして番組に参加できる。 The program distribution system of the present embodiment is a system in which a distributor participates in a program as a distributor avatar in a three-dimensional virtual space, and a video of a virtual space in which the program progresses is lively distributed. Further, in the program distribution system of the present embodiment, the viewer can also participate in the program as a viewer avatar in the same virtual space as the distributor.

図1に示す本実施形態の番組配信システムは、配信サーバ10、制御サーバ20、配信者端末30、および視聴者端末40を備える。各装置は、ネットワークを介して接続されている。配信サーバ10と制御サーバ20は動画配信サービスを提供する事業者が用意する装置である。配信者端末30と視聴者端末40は、配信者および視聴者のそれぞれが自身で所有または用意する端末である。事業者から見れば、配信者と視聴者の双方が自社サービスを利用するユーザである。もちろん、事業者自身が配信者となってもよい。図1では、2台の配信者端末30と3台の視聴者端末40を図示しているが、各装置の台数をこれに限るものではない。 The program distribution system of the present embodiment shown in FIG. 1 includes a distribution server 10, a control server 20, a distributor terminal 30, and a viewer terminal 40. Each device is connected via a network. The distribution server 10 and the control server 20 are devices prepared by a business operator that provides a video distribution service. The distributor terminal 30 and the viewer terminal 40 are terminals owned or prepared by the distributor and the viewer, respectively. From the perspective of the business operator, both the distributor and the viewer are users who use the company's services. Of course, the business operator itself may be the distributor. Although FIG. 1 illustrates two distributor terminals 30 and three viewer terminals 40, the number of each device is not limited to this.

配信サーバ10は、ネットワークを介して、配信者端末30から配信者の音声および配信者アバターのモーションデータを受信する。例えば、2人の配信者が参加する番組であれば、2人の配信者それぞれの配信者端末30から2人の配信者それぞれの音声および配信者アバターのモーションデータを受信する。配信サーバ10は、モーションデータに基づいて配信者アバターの動きを制御する。モーションデータはアバターの表情を含んでもよい。 The distribution server 10 receives the voice of the distributor and the motion data of the distributor avatar from the distributor terminal 30 via the network. For example, in the case of a program in which two distributors participate, the voice of each of the two distributors and the motion data of the distributor avatar are received from the distributor terminals 30 of each of the two distributors. The distribution server 10 controls the movement of the distributor avatar based on the motion data. The motion data may include the facial expression of the avatar.

配信サーバ10は、音声および仮想カメラで仮想空間を撮影した映像(配信サーバ10がレンダリングした映像)を視聴者端末40へ配信する。配信サーバ10は、仮想空間をレンダリングするためのデータセットを視聴者端末40へ送信し、視聴者端末40が仮想空間をレンダリングしてもよい。配信サーバ10は、配信者端末30へ映像を配信してもよい。 The distribution server 10 distributes a video (video rendered by the distribution server 10) obtained by shooting a virtual space with a voice and a virtual camera to the viewer terminal 40. The distribution server 10 may transmit a data set for rendering the virtual space to the viewer terminal 40, and the viewer terminal 40 may render the virtual space. The distribution server 10 may distribute the video to the distributor terminal 30.

配信者端末30や視聴者端末40がヘッドマウントディスプレイ(HMD)などを備えたVR機能を有する端末であれば、配信サーバ10は、仮想空間を構築するためのデータセットを端末へ送信する。端末は、受信したデータセットに基づいて仮想空間を構築し、HMDで検知した視線方向に基づいて仮想空間をレンダリングして、HMDに映像を映す。なお、仮想空間のレンダリングは配信サーバ10が行ってもよい。例えば、配信サーバ10が端末から視線方向を受信し、配信サーバ10が受信した視線方向に基づいて仮想空間をレンダリングした映像を端末へ配信し、端末は受信した映像をHMDに映す。 If the distributor terminal 30 or the viewer terminal 40 is a terminal having a VR function equipped with a head-mounted display (HMD) or the like, the distribution server 10 transmits a data set for constructing a virtual space to the terminal. The terminal constructs a virtual space based on the received data set, renders the virtual space based on the line-of-sight direction detected by the HMD, and projects an image on the HMD. The distribution server 10 may render the virtual space. For example, the distribution server 10 receives the line-of-sight direction from the terminal, distributes the image obtained by rendering the virtual space based on the line-of-sight direction received by the distribution server 10 to the terminal, and the terminal displays the received image on the HMD.

配信サーバ10は、視聴者端末40からコメントを受信し、配信する映像にコメントを重畳させてもよい。 The distribution server 10 may receive a comment from the viewer terminal 40 and superimpose the comment on the video to be distributed.

番組に視聴者を参加させてもよい。例えば、視聴者が視聴者端末40に対して番組に参加する操作を行うと、配信サーバ10は、視聴者が番組に参加することを知らせる通知を視聴者端末40から受信する。配信サーバ10は、視聴者に対応する視聴者アバターを仮想空間内に配置する。視聴者が番組に参加しているときは、配信サーバ10は、視聴者の音声および視聴者アバターのモーションデータを視聴者端末40から受信し、モーションデータに基づいて視聴者アバターの動きを制御する。 Viewers may be involved in the program. For example, when the viewer performs an operation to participate in the program on the viewer terminal 40, the distribution server 10 receives a notification from the viewer terminal 40 notifying that the viewer participates in the program. The distribution server 10 arranges a viewer avatar corresponding to the viewer in the virtual space. When the viewer is participating in the program, the distribution server 10 receives the voice of the viewer and the motion data of the viewer avatar from the viewer terminal 40, and controls the movement of the viewer avatar based on the motion data. ..

制御サーバ20は、仮想空間での番組を撮影する仮想カメラを制御する装置である。制御サーバ20は、カメラ割りを状態とし、仮想空間の状況を遷移条件とした有限オートマトンに従って仮想空間内の仮想カメラを制御する。制御サーバ20は、状態の遷移に従って仮想空間内のレイアウト(オブジェクトの配置)を変更してもよい。制御サーバ20の詳細については後述する。本実施形態が用いる有限オートマトンとは、有限個の状態と遷移と動作の組み合わせからなる数学的に抽象化されたモデルである。有限個の「状態」のうちある時点では1つの状態しかとらず、何らかのイベントや条件によってある状態から別の状態へと移行する。ある状態から別の状態へ移行することを「遷移」と呼ぶ。有限オートマトンは、それぞれの状態から遷移しうる状態と、遷移のきっかけとなる条件を列挙することで定義される。 The control server 20 is a device that controls a virtual camera that shoots a program in a virtual space. The control server 20 controls the virtual camera in the virtual space according to the finite automaton with the camera allocation as the state and the state of the virtual space as the transition condition. The control server 20 may change the layout (arrangement of objects) in the virtual space according to the transition of the state. The details of the control server 20 will be described later. The finite automaton used in this embodiment is a mathematically abstracted model consisting of a finite number of combinations of states, transitions, and actions. Of the finite number of "states", only one state is taken at a certain time, and some event or condition shifts from one state to another. The transition from one state to another is called "transition". A finite automaton is defined by enumerating the states that can transition from each state and the conditions that trigger the transition.

配信者端末30は、配信者が番組を配信するために使用する端末である。配信者端末30として、VR機能を有するスマートフォンおよびパーソナルコンピュータなどの任意のコンピュータ機器を用いることができる。配信者端末30は、図2に示すように、配信者が装着するHMD31を備える。配信者端末30は、配信者からの入力を受け付けて、仮想空間内に配置される配信者アバターを操作するためのコントローラ32を備えてもよい。配信者端末30は、HMD31で検知する配信者の頭の動きおよびコントローラ32による操作に基づいて配信者アバターのモーションデータを生成する。 The distributor terminal 30 is a terminal used by the distributor to distribute a program. As the distributor terminal 30, any computer device such as a smartphone and a personal computer having a VR function can be used. As shown in FIG. 2, the distributor terminal 30 includes an HMD 31 worn by the distributor. The distributor terminal 30 may include a controller 32 for accepting input from the distributor and operating the distributor avatar arranged in the virtual space. The distributor terminal 30 generates motion data of the distributor avatar based on the movement of the distributor's head detected by the HMD 31 and the operation by the controller 32.

配信者端末30は、配信サーバ10から仮想空間を構築するためのデータセットを受信し、受信したデータに基づいて仮想空間を構築し、仮想空間をレンダリングして、HMD31に映像を映す。 The distributor terminal 30 receives a data set for constructing a virtual space from the distribution server 10, constructs the virtual space based on the received data, renders the virtual space, and projects an image on the HMD 31.

配信者端末30は、配信者の音声および配信者アバターのモーションデータを配信サーバ10へ送信する。配信者は、配信者アバターを動かしながら、他の配信者や視聴者と会話することで番組を進行する。 The distributor terminal 30 transmits the voice of the distributor and the motion data of the distributor avatar to the distribution server 10. The distributor advances the program by talking with other distributors and viewers while moving the distributor avatar.

なお、配信者端末30として、HMD31を備えず、カメラを内蔵またはカメラを接続した端末を用いてもよい。この場合、配信者端末30は、カメラで配信者を撮影し、配信者を撮影した映像から配信者アバターのモーションデータを生成する。配信者端末30は、配信サーバ10から仮想カメラで仮想空間内を撮影した映像を受信して表示する。 As the distributor terminal 30, a terminal that does not have the HMD 31 and has a built-in camera or a camera may be used. In this case, the distributor terminal 30 photographs the distributor with a camera and generates motion data of the distributor avatar from the video captured by the distributor. The distributor terminal 30 receives and displays an image captured in the virtual space by the virtual camera from the distribution server 10.

視聴者端末40は、視聴者が番組を視聴するために使用する端末である。視聴者端末40は、配信サーバ10から番組の映像を受信して表示できる機能を備える機器であれば、スマートフォン、タブレット端末、テレビシステム、パーソナルコンピュータなどの任意のコンピュータ機器を用いることができる。視聴者端末40は、視聴者から入力したコメントを配信サーバ10へ送信してもよい。 The viewer terminal 40 is a terminal used by a viewer to watch a program. The viewer terminal 40 can use any computer device such as a smartphone, a tablet terminal, a television system, or a personal computer as long as it is a device having a function of receiving and displaying a video of a program from the distribution server 10. The viewer terminal 40 may transmit the comment input from the viewer to the distribution server 10.

視聴者が視聴者アバターとして番組に参加する場合、視聴者端末40は、視聴者の音声および視聴者アバターのモーションデータを配信サーバ10へ送信する。 When the viewer participates in the program as a viewer avatar, the viewer terminal 40 transmits the voice of the viewer and the motion data of the viewer avatar to the distribution server 10.

[サーバ構成]
図3を参照し、制御サーバについて説明する。
[Server configuration]
The control server will be described with reference to FIG.

図3に示す制御サーバ20は、解析部21、制御部22、および記憶部23を備える。制御サーバ20は、複数のカメラ割りのそれぞれを状態として持ち、仮想空間の状況に応じて状態間を遷移させて、カメラ割りを自動的に制御する。 The control server 20 shown in FIG. 3 includes an analysis unit 21, a control unit 22, and a storage unit 23. The control server 20 has each of the plurality of camera allocations as a state, transitions between the states according to the situation of the virtual space, and automatically controls the camera allocation.

解析部21は、仮想空間の状況を解析する。解析対象の仮想空間の状況には、アバターの音声(配信者および視聴者の音声)を含めてもよい。例えば、解析部21は、発話したアバター、発話したアバターの順番、発話の音量、発話の長さ、発話の内容、アバターのポーズ、コメント数、番組に参加した視聴者アバターの数などを解析する。 The analysis unit 21 analyzes the situation in the virtual space. The audio of the avatar (audio of the distributor and the viewer) may be included in the situation of the virtual space to be analyzed. For example, the analysis unit 21 analyzes the avatars spoken, the order of the avatars spoken, the volume of the utterance, the length of the utterance, the content of the utterance, the pose of the avatar, the number of comments, the number of viewer avatars who participated in the program, and the like. ..

制御部22は、解析結果に基づき、有限オートマトンに従ってカメラ割りの状態を遷移させる。制御部22は、状態を遷移させると、遷移後の状態に紐付けられた仮想カメラの制御情報に基づいて仮想カメラを制御する。 Based on the analysis result, the control unit 22 changes the state of camera allocation according to the finite automaton. When the state is changed, the control unit 22 controls the virtual camera based on the control information of the virtual camera associated with the state after the transition.

制御部22は、例えば図4に示すような、有限オートマトンに従って仮想カメラを制御する。図4の例では、4つのカメラ割りの状態S1〜S4を持ち、制御部22の保持する状態は、状態S1〜S4間を条件A〜Hに従って遷移する。図4の有限オートマトンを用いた画面の遷移については後述する。 The control unit 22 controls the virtual camera according to a finite automaton, for example, as shown in FIG. In the example of FIG. 4, it has four camera split states S1 to S4, and the state held by the control unit 22 transitions between the states S1 to S4 according to the conditions A to H. The screen transition using the finite automaton of FIG. 4 will be described later.

記憶部23は、複数のカメラ割りのそれぞれを状態とし、仮想空間の状況を遷移条件とした有限オートマトンと、状態ごとの仮想カメラの制御情報を記憶する。 The storage unit 23 stores a finite automaton in which each of the plurality of camera divisions is set as a state and a state in the virtual space as a transition condition, and control information of the virtual camera for each state.

記憶部23は、複数種類の有限オートマトンを記憶してもよい。例えば、有限オートマトンの例としては、配信者アバターが1人の番組のカメラ割りの遷移を示す有限オートマトン、配信者アバターが2人の番組のカメラ割りの遷移を示す有限オートマトン、複数の配信者アバターが討論する番組のカメラ割りの遷移を示す有限オートマトン、配信者アバターが動画やゲーム画面を見ながら解説する番組のカメラ割りの遷移を示す有限オートマトンなど様々なものが考えられる。記憶部23は、上記に限らず、配信する番組に応じた有限オートマトンを記憶する。有限オートマトンは事業者が用意したものであってもよいし、配信者が作成したものであってもよい。 The storage unit 23 may store a plurality of types of finite automata. For example, examples of a finite-state machine include a finite-state machine in which the distributor avatar indicates the transition of the camera allocation of one program, a finite-state machine in which the distributor avatar indicates the transition of the camera allocation of two programs, and a plurality of distributor avatars. There are various possibilities, such as a finite-state machine that shows the transition of the camera allocation of the program that is discussed by, and a finite-state machine that shows the transition of the camera allocation of the program that the distributor avatar explains while watching the video or game screen. The storage unit 23 is not limited to the above, and stores a finite automaton according to the program to be distributed. The finite automaton may be prepared by the business operator or may be created by the distributor.

上記制御サーバ20には、例えば、中央演算処理装置(CPU)と、メモリと、ストレージと、通信装置と、入力装置と、出力装置とを備える汎用的なコンピュータシステムを用いることができる。このコンピュータシステムにおいて、CPUがメモリ上にロードされた所定のプログラムを実行することにより、制御サーバ20が実現される。このプログラムは磁気ディスク、光ディスク、半導体メモリ等のコンピュータ読み取り可能な記録媒体に記録することも、ネットワークを介して配信することもできる。制御サーバ20の機能を配信サーバ10が備えてもよい。 As the control server 20, for example, a general-purpose computer system including a central processing unit (CPU), a memory, a storage, a communication device, an input device, and an output device can be used. In this computer system, the control server 20 is realized by the CPU executing a predetermined program loaded in the memory. This program can be recorded on a computer-readable recording medium such as a magnetic disk, an optical disk, or a semiconductor memory, or can be distributed via a network. The distribution server 10 may include the functions of the control server 20.

[カメラ制御処理]
図5を参照し、制御サーバによる仮想カメラの制御処理の流れについて説明する。
[Camera control processing]
The flow of the control process of the virtual camera by the control server will be described with reference to FIG.

配信者は、番組配信前に、番組に適した有限オートマトンを選択しておく。もしくは、配信者は、番組用に複数の有限オートマトンを選択しておき、その中から、視聴者が有限オートマトンを選択してもよい。例えば、2人の配信者アバターが参加する番組において、各配信者アバターのそれぞれを重点的に映すカメラ割りの有限オートマトンを別々に用意しておく。スタジオ全体を重点的に映すカメラ割りの有限オートマトンを用意してもよい。視聴者は、番組を視聴する際に、自分の応援する配信者アバターをより重点的に映すカメラ割りの有限オートマトンを選択できる。各有限オートマトンでは、遷移条件のウエイトを配信者アバターごとに異ならせておく。視聴者の属性情報を収集しておき、制御サーバ20が視聴者の属性情報に基づいて有限オートマトンを選択してもよい。制御サーバ20は、配信先の視聴者端末40の種別に応じて適用する有限オートマトンを選択してもよい。 The distributor selects a finite automaton suitable for the program before distributing the program. Alternatively, the distributor may select a plurality of finite automata for the program, and the viewer may select the finite automaton from among them. For example, in a program in which two distributor avatars participate, a finite camera split automaton that focuses on each distributor avatar is prepared separately. A finite-state machine with a camera split that focuses on the entire studio may be prepared. When watching a program, the viewer can select a finite-state machine with a camera split that more emphasizes the distributor avatar that he / she supports. In each finite automaton, the weight of the transition condition is different for each distributor avatar. The finite automaton may be selected by the control server 20 based on the attribute information of the viewer by collecting the attribute information of the viewer. The control server 20 may select a finite automaton to be applied according to the type of the viewer terminal 40 of the distribution destination.

番組の配信を開始すると、ステップS11にて、解析部21は、仮想空間の状況を解析する。発話の解析に関して、アバターごとにウエイト付けを異ならせてもよい。例えば、解析部21は、配信者アバターと視聴者アバターとでは配信者アバターの発話により大きいウエイト付けをする。解析部21は、発話の解析結果をスコアに換算し、ウエイトに基づいてスコアを補正する。有限オートマトンでは、スコアに基づく遷移条件を設定しておく。 When the distribution of the program is started, in step S11, the analysis unit 21 analyzes the state of the virtual space. Regarding the analysis of utterances, the weighting may be different for each avatar. For example, the analysis unit 21 gives a larger weight to the utterance of the distributor avatar between the distributor avatar and the viewer avatar. The analysis unit 21 converts the analysis result of the utterance into a score and corrects the score based on the weight. In the finite automaton, transition conditions based on the score are set.

ステップS12にて、制御部22は、解析結果に基づき、現在の状態から別の状態への遷移条件が成立したか否かを判定する。遷移条件が成立していない場合、制御部22は、ステップS14に処理を進める。 In step S12, the control unit 22 determines whether or not the transition condition from the current state to another state is satisfied based on the analysis result. If the transition condition is not satisfied, the control unit 22 proceeds to step S14.

遷移条件が成立した場合、ステップS13にて、制御部22は、保持する状態を遷移条件を満たした先の状態へ遷移させるとともに、遷移後の状態に応じて仮想カメラを制御する。例えば、状態S1から状態S2へ遷移する条件Aが成立した場合、制御部22は、保持する状態を状態S2へ遷移させるとともに、状態S2に対応するカメラ割りとなるように仮想カメラを制御する。 When the transition condition is satisfied, in step S13, the control unit 22 shifts the held state to the state after the transition condition is satisfied, and controls the virtual camera according to the state after the transition. For example, when the condition A for transitioning from the state S1 to the state S2 is satisfied, the control unit 22 shifts the held state to the state S2 and controls the virtual camera so as to have a camera allocation corresponding to the state S2.

ステップS14にて、制御部22は、番組が終了したか否か判定する。番組の配信が続く場合はステップS11に戻り、処理を繰り返す。 In step S14, the control unit 22 determines whether or not the program has ended. If the distribution of the program continues, the process returns to step S11 and the process is repeated.

[仮想空間内の配置]
図6を参照し、番組を撮影する仮想空間について説明する。
[Arrangement in virtual space]
A virtual space for shooting a program will be described with reference to FIG.

図6に示す仮想空間内のスタジオは、2人の配信者アバター100,200が進行する番組を配信するために用意されたものである。スタジオ内には、2人の配信者アバター100,200が配置される。この番組には、視聴者アバター300A〜300Cも参加可能である。視聴者アバター300A〜300Cは、配信者アバター100,200の後ろ側に配置される。 The studio in the virtual space shown in FIG. 6 is prepared for distributing a program in which two distributor avatars 100 and 200 are in progress. Two distributor avatars 100 and 200 are placed in the studio. Viewer avatars 300A to 300C can also participate in this program. The viewer avatars 300A to 300C are arranged behind the distributor avatars 100 and 200.

また、図6では、ディスプレイオブジェクト400をスタジオ内に配置している。ディスプレイオブジェクト400は、視聴者からのコメント、静止画、動画、およびゲーム画面などをはめ込んで表示できる。配信者アバター100,200は、ディスプレイオブジェクト400に表示される動画などを見ながら番組を進行してもよい。なお、図6では、スタジオの床オブジェクト、壁オブジェクトなどの背景オブジェクトは図示していない。上記以外のオブジェクトをスタジオ内に配置してもよい。 Further, in FIG. 6, the display object 400 is arranged in the studio. The display object 400 can be fitted with comments from viewers, still images, moving images, game screens, and the like. The distributor avatars 100 and 200 may proceed with the program while watching the moving image displayed on the display object 400. Note that FIG. 6 does not show background objects such as studio floor objects and wall objects. Objects other than the above may be placed in the studio.

仮想空間内に配置された仮想カメラ500が仮想空間内のスタジオを撮影する。制御サーバ20が仮想カメラを制御し、配信サーバ10が仮想カメラで撮影された映像を配信する。 A virtual camera 500 arranged in the virtual space photographs a studio in the virtual space. The control server 20 controls the virtual camera, and the distribution server 10 distributes the video captured by the virtual camera.

[画面の遷移例]
図7ないし図10を参照し、図4に示した有限オートマトンを番組のカメラ割りの遷移を示す有限オートマトンとして用いたときの、番組の画面の遷移例について説明する。
[Screen transition example]
An example of a transition of a program screen when the finite automaton shown in FIG. 4 is used as a finite automaton showing a transition of a program camera allocation will be described with reference to FIGS. 7 to 10.

図4の有限オートマトンは、2人の配信者アバターが進行する番組用のカメラ割りの有限オートマトンである。図4の有限オートマトンにおいて、状態S1のカメラ割りはスタジオ全体を撮影するカメラ割りであり、状態S2のカメラ割りは2人の配信者アバター100,200がフレーム内に収まるカメラ割りであり、状態S3のカメラ割りは配信者アバター100のアップを映すカメラ割りであり、状態S4のカメラ割りは配信者アバター200のアップを映すカメラ割りである。 The finite automaton of FIG. 4 is a camera-split finite automaton for a program in which two distributor avatars proceed. In the finite automaton of FIG. 4, the camera allocation in the state S1 is the camera allocation for shooting the entire studio, the camera allocation in the state S2 is the camera allocation in which the two distributor avatars 100 and 200 fit in the frame, and the camera allocation in the state S3. The camera allocation of is a camera allocation that reflects the up of the distributor avatar 100, and the camera allocation of the state S4 is a camera allocation that reflects the up of the distributor avatar 200.

番組開始時は、状態S1からスタートする。状態S1では、仮想カメラで撮影された映像は、図7に示すように、仮想空間内のスタジオ全体を撮影した映像となる。 At the start of the program, it starts from the state S1. In the state S1, the image captured by the virtual camera is an image captured of the entire studio in the virtual space, as shown in FIG. 7.

状態S1のとき、条件Aが成立すると、状態S2へ遷移する。条件Aは、例えば、配信者アバター100,200のいずれかが発話した、という条件である。条件Aとして、オープニング音楽が終了した、所定時間経過した、などを設定してもよい。 When the condition A is satisfied in the state S1, the state transitions to the state S2. Condition A is, for example, a condition that one of the distributor avatars 100 and 200 has spoken. As the condition A, it may be set that the opening music has ended, a predetermined time has passed, and the like.

制御サーバ20は、状態S1のとき、配信者アバター100,200のいずれかの発話を検知すると、保持する状態を状態S1から状態S2へ遷移させるとともに、2人の配信者アバター100,200がフレーム内に収まるように、仮想カメラの位置、撮影方向、および画角等を制御する。状態S2へ遷移すると、図8に示すように、配信者アバター100,200の2人を撮影した映像となる。演出上の工夫の一環として、仮想カメラで撮影するとき仮想空間内のオブジェクトの位置は無視し、オブジェクトの位置を、見やすく、興趣性がある位置に変えて、仮想カメラによる撮影画面としてもよい。例えば、離れた位置に立つ2人の配信者アバター100,200を、近くで向い合せて、仮想カメラで撮影する。あるいは、同じ仮想空間にいる他のアバター、例えば視聴者アバターを、配信者アバター100,200を囲む位置に配置する。2人の配信者アバター100,200の間に他のアバターや仮想オブジェクトが存在し、配信者アバター100,200が隠れてしまう場合に、あえて障害となる仮想オブジェクト等を表示しない。 When the control server 20 detects the utterance of any of the distributor avatars 100 and 200 in the state S1, the state to be held is changed from the state S1 to the state S2, and the two distributor avatars 100 and 200 frame. The position, shooting direction, angle of view, etc. of the virtual camera are controlled so that the camera fits inside. When the transition to the state S2 occurs, as shown in FIG. 8, the images of the distributor avatars 100 and 200 are captured. As part of the ingenuity in the production, the position of the object in the virtual space may be ignored when shooting with the virtual camera, and the position of the object may be changed to a position that is easy to see and interesting, and the shooting screen may be created by the virtual camera. For example, two distributor avatars 100 and 200 standing at distant positions face each other close to each other and are photographed by a virtual camera. Alternatively, another avatar in the same virtual space, for example, a viewer avatar is placed at a position surrounding the distributor avatars 100 and 200. If another avatar or virtual object exists between the two distributor avatars 100, 200 and the distributor avatars 100, 200 are hidden, the virtual object or the like that is an obstacle is not displayed.

状態S2のとき、条件Bが成立すると状態S1に遷移し、条件Cが成立すると状態S3に遷移し、条件Eが成立すると状態S4に遷移する。 In the state S2, when the condition B is satisfied, the state transitions to the state S1, when the condition C is satisfied, the transition to the state S3, and when the condition E is satisfied, the transition to the state S4.

条件Cは、例えば、配信者アバター100が所定時間以上発話を続けた、という条件である。条件Eは、例えば、配信者アバター200が所定時間以上発話を続けた、という条件である。配信者アバター100,200の2人で会話している間は、状態S2とし、配信者アバター100,200のいずれかが所定時間以上続けて話すようになると、状態S3または状態S4に遷移する。 Condition C is, for example, a condition that the distributor avatar 100 continues to speak for a predetermined time or longer. The condition E is, for example, a condition that the distributor avatar 200 continues to speak for a predetermined time or longer. While the two distributor avatars 100 and 200 are talking, the state is set to S2, and when any of the distributor avatars 100 and 200 speaks continuously for a predetermined time or longer, the state transitions to the state S3 or the state S4.

制御サーバ20は、状態S2のとき、配信者アバター100が所定時間以上発話を続けたことを検知すると、保持する状態を状態S2から状態S3へ遷移させるとともに、配信者アバター100がアップで写るように、仮想カメラを制御する。状態S3へ遷移すると、図9に示すように、配信者アバター100のアップを撮影した映像となる。 When the control server 20 detects that the distributor avatar 100 has continued to speak for a predetermined time or longer in the state S2, the state to be held is changed from the state S2 to the state S3, and the distributor avatar 100 is captured in close-up. To control the virtual camera. When the state transitions to the state S3, as shown in FIG. 9, the image is obtained by shooting the close-up of the distributor avatar 100.

また、制御サーバ20は、状態S2のとき、配信者アバター200が所定時間以上発話を続けたことを検知すると、保持する状態を状態S2から状態S4へ遷移させるとともに、配信者アバター200がアップで写るように、仮想カメラを制御する。状態S4へ遷移すると、図10に示すように、配信者アバター200のアップを撮影した映像となる。 Further, when the control server 20 detects that the distributor avatar 200 has continued to speak for a predetermined time or longer in the state S2, the state to be held is changed from the state S2 to the state S4, and the distributor avatar 200 is up. Control the virtual camera so that it can be captured. When the transition to the state S4 occurs, as shown in FIG. 10, the image of the close-up of the distributor avatar 200 is obtained.

なお、状態S3,S4において、配信者アバター100,200のそれぞれの背景を別々に用意してもよい。例えば、状態S3,S4のそれぞれに背景オブジェクトを紐付けておき、状態S3,S4に遷移した際に、紐付けられた背景オブジェクトを指定の場所(配信者アバター100,200の後ろ)に出現させる。配信者アバター100の背景と配信者アバター200の背景とを異ならせることができる。 In the states S3 and S4, the backgrounds of the distributor avatars 100 and 200 may be prepared separately. For example, a background object is associated with each of the states S3 and S4, and when the state S3 and S4 are transitioned, the associated background object appears at a specified location (behind the distributor avatars 100 and 200). .. The background of the distributor avatar 100 and the background of the distributor avatar 200 can be different.

状態S3のとき、条件Hが成立すると状態S4に遷移し、状態S4のとき、条件Gが成立すると状態S3に遷移する。 In the state S3, when the condition H is satisfied, the state transitions to the state S4, and in the state S4, when the condition G is satisfied, the transition to the state S3 occurs.

条件Hは、例えば、配信者アバター200が発話した、という条件である。条件Gは、例えば、配信者アバター100が発話した、という条件である。配信者アバター100,200が話しているときに、相手の配信者アバター100,200が発話すると、仮想カメラは、相手の配信者アバター100,200を撮影するように制御される。条件H,Gとして、配信者アバター100,200が大きくうなずいた、などの配信者アバター100,200の動きを設定してもよい。 The condition H is, for example, a condition that the distributor avatar 200 has spoken. The condition G is, for example, a condition that the distributor avatar 100 has spoken. If the other party's distributor avatars 100, 200 speak while the distributor avatars 100, 200 are speaking, the virtual camera is controlled to shoot the other party's distributor avatars 100, 200. As conditions H and G, the movements of the distributor avatars 100 and 200, such as the distributor avatars 100 and 200 nodding loudly, may be set.

また、状態S3のとき、条件Dが成立すると状態S2に遷移し、状態S4のとき、条件Fが成立すると状態S2に遷移する。条件D,Fは、例えば、配信者アバター100,200が所定時間以上発話していない、という条件である。配信者アバター100,200の会話が一旦終了すると、配信者アバター100,200の2人を写した映像に戻す。あるいは、条件D,Fを、配信者アバター100,200のいずれかが「続いては」「では次の」などの番組を進行させる発話をした、という条件にして、番組のコーナーが変化する際に状態S2に遷移させて、配信者アバター100,200の2人を写すカメラ割りにしてもよい。もしくは、条件D,Fを、例えば、状態S3と状態S4との間の遷移の間隔が所定時間より短い、という条件として、配信者アバター100,200のアップを撮影した映像が頻繁に切り替わるときは、配信者アバター100,200の2人を写すカメラ割りに戻してもよい。 Further, in the state S3, when the condition D is satisfied, the state transitions to the state S2, and in the state S4, when the condition F is satisfied, the transition to the state S2 occurs. Conditions D and F are, for example, conditions that the distributor avatars 100 and 200 have not spoken for a predetermined time or longer. Once the conversation between the distributor avatars 100 and 200 is completed, the video returns to the video showing the two distributor avatars 100 and 200. Alternatively, when the corner of the program changes, the conditions D and F are set on the condition that one of the distributor avatars 100 and 200 makes an utterance to advance the program such as "following" and "next". The state may be changed to S2, and a camera split may be used to capture two people, the distributor avatars 100 and 200. Alternatively, when the images of the close-ups of the distributor avatars 100 and 200 are frequently switched under the conditions D and F, for example, the transition interval between the states S3 and the state S4 is shorter than the predetermined time. , You may return to the camera split that captures two people, the distributor avatars 100 and 200.

状態S2から状態S1に遷移する条件Bは、例えば、配信者アバター100,200の両方が手を振る動作をした、という条件である。番組終了前、配信者アバター100,200が手を振って視聴者にお別れの挨拶をすると、状態S1に遷移させてスタジオ全体の映像を配信した後、番組を終了する。条件Bとして、配信者アバター100,200の発話内容が終了の挨拶であった、番組終了時刻になった、などを設定してもよい。 The condition B for transitioning from the state S2 to the state S1 is, for example, a condition that both the distributor avatars 100 and 200 have waved their hands. Before the end of the program, when the distributor avatars 100 and 200 wave their hands to say goodbye to the viewer, the program is terminated after the transition to the state S1 and the distribution of the entire studio image. As the condition B, it may be set that the utterance content of the distributor avatars 100 and 200 is the end greeting, the program end time, and the like.

遷移条件は上記に限るものではない。仮想空間内の盛り上がりを遷移条件としてもよい。例えば、配信者たちの会話を解析し、会話の盛り上がり度合いを遷移条件としてもよいし、仮想空間にいる視聴者アバターの増加傾向を遷移条件としてもよいし、あるいは仮想空間にはいないが視聴だけをしている視聴者の増加傾向を遷移条件としてもよい。また、視聴者の応援状況を遷移条件としてもよい。例えば、視聴者たちの発言、応援の数、投稿されるコメントの数や内容、どちらを応援しているか、などを遷移条件としてもよい。 The transition conditions are not limited to the above. The excitement in the virtual space may be a transition condition. For example, the conversations of the distributors may be analyzed and the degree of excitement of the conversation may be used as a transition condition, the increasing tendency of the viewer avatars in the virtual space may be used as the transition condition, or only viewing although not in the virtual space. The increasing tendency of the number of viewers may be used as a transition condition. In addition, the support status of the viewer may be used as a transition condition. For example, the transition conditions may be the comments of the viewers, the number of cheers, the number and contents of comments posted, and which one is cheering.

このように、制御サーバ20が、単なる条件分岐でなく、状態の遷移を記した有限オートマトンに基づいて仮想カメラを制御することで、番組の進行に応じて、より自然で見やすい映像を配信できる。本発明がもたらす効果を他の局面から説明する。VR空間の配信コンテンツに限らず、例えばテレビ放送(地上波、BS放送など)される対談番組、バラエティ番組などでは、視聴者を飽きさせず興味を持たせ、盛り上がりを演出する進行(台本、カメラ割りを含む)はおのずとパターンが決まっていて、熟練した演出者やスイッチャーが最適な進行、特にカメラ割りを実行している。しかし、出演者がアドリブで発言をしたり、スタジオに居る観客の反応が盛り上がったりした場合には台本に無い進行を行うことがあり、この進行にはカメラ割りを含んでいる。一方、近年、個人で動画配信を行うことが盛んになっており、これら動画配信にはVR空間内に配信者アバターを配置したり、複数の配信者が共通の仮想空間中にアバターとして出現して対話や動作を行ったりすることも含まれている。この場合、先に説明したような演出効果が高い進行(台本、カメラ割りなど)を行なえば、配信番組やコンテンツの充実が可能である。しかし、個人で配信を行う場合には、テレビ放送における熟練した演出者、スイッチャーを配置することは困難である。そこで本実施形態では、あらかじめ、最適な演出効果を実現するためのシナリオ(カメラ割り)を有限オートマトンとして準備しておき、実際の配信者アバターの発言や視聴者の盛り上がりなどを見てカメラ割りを最適な状態へ遷移させる。これにより、あたかも熟練の演出者やスイッチャーの手で進行がなされているかのような、演出効果が高く興趣性も高いVR動画配信、VR動画コンテンツの生成が行える。 In this way, the control server 20 controls the virtual camera based on the finite automaton that describes the transition of the state, not just the conditional branching, so that a more natural and easy-to-see image can be delivered according to the progress of the program. The effects of the present invention will be described from another aspect. Not limited to the content distributed in the VR space, for example, in dialogue programs and variety programs that are broadcast on TV (terrestrial broadcasting, BS broadcasting, etc.), the progress (script, camera) that keeps the viewer interested and creates excitement. The pattern (including split) is naturally decided, and skilled directors and switchers perform the optimum progress, especially camera split. However, if the performer makes an ad-lib remark or the reaction of the audience in the studio is lively, the progress may not be in the script, and this progress includes camera allocation. On the other hand, in recent years, it has become popular to distribute videos individually, and in these video distributions, distributor avatars may be placed in the VR space, or multiple distributors may appear as avatars in a common virtual space. It also includes engaging in dialogue and actions. In this case, it is possible to enhance the distributed programs and contents by performing the progress (script, camera allocation, etc.) with a high effect as described above. However, in the case of individual distribution, it is difficult to assign a skilled director and switcher in television broadcasting. Therefore, in this embodiment, a scenario (camera allocation) for realizing the optimum effect is prepared in advance as a finite automaton, and the camera allocation is performed by observing the actual distributor avatar's remarks and the excitement of the viewer. Transition to the optimum state. As a result, it is possible to distribute VR video and generate VR video content, which have a high production effect and a high degree of interest, as if the progress was made by a skilled director or switcher.

図11に示すように、画面を分割し、分割したそれぞれの領域に、配信者アバター100,200のそれぞれを表示するカメラ割りの状態を保持してもよい。 As shown in FIG. 11, the screen may be divided, and the state of the camera allocation for displaying each of the distributor avatars 100 and 200 may be maintained in each of the divided areas.

さらに、図12に示すように、ディスプレイオブジェクト400の両脇に配信者アバター100,200を立たせて、ディスプレイオブジェクト400を映すカメラ割りの状態を保持してもよい。配信者は、配信者アバター100,200をディスプレイオブジェクト400の脇に動かす必要はない。状態にアバターやオブジェクトのレイアウトを紐付けておく。つまり、制御サーバ20は、状態に対応した仮想カメラの制御情報に加えてオブジェクトの配置を示すレイアウト情報を記憶しておく。状態が遷移したとき、制御サーバ20は、仮想カメラだけでなく、配信者アバター100,200やディスプレイオブジェクト400の位置を指定のレイアウトに合わせて変更する。 Further, as shown in FIG. 12, distributor avatars 100 and 200 may be erected on both sides of the display object 400 to maintain the state of the camera split for displaying the display object 400. The distributor does not need to move the distributor avatars 100, 200 to the side of the display object 400. Associate the layout of avatars and objects with the state. That is, the control server 20 stores layout information indicating the arrangement of objects in addition to the control information of the virtual camera corresponding to the state. When the state changes, the control server 20 changes the positions of not only the virtual camera but also the distributor avatars 100 and 200 and the display object 400 according to the specified layout.

また、制御サーバ20は、番組の配信先の端末の種別または性能に応じてレイアウトを変更してもよい。例えば、パーソナルコンピュータなどの画面サイズの大きな端末に配信するときは、配信者アバター100,200のモデルとして、通常の頭身のモデルを配置し、携帯端末など画面サイズの小さな端末に配信するときは、頭を多くデフォルメした頭身の小さなモデルを配置する。同じ番組を視聴する場合であっても、パーソナルコンピュータには通常の頭身のモデルの映像が配信され、携帯端末にはデフォルメした投信のモデルの映像が配信される。視聴に用いる端末の違いで異なる映像が配信される。 Further, the control server 20 may change the layout according to the type or performance of the terminal to which the program is distributed. For example, when delivering to a terminal with a large screen size such as a personal computer, a normal head and body model is arranged as a model of the distributor avatars 100 and 200, and when delivering to a terminal with a small screen size such as a mobile terminal. , Place a model with a small head and body with many deformed heads. Even when watching the same program, a video of a normal head and body model is delivered to a personal computer, and a video of a deformed investment trust model is delivered to a mobile terminal. Different videos are delivered depending on the terminal used for viewing.

制御サーバ20は、パーソナルコンピュータ用の有限オートマトンと携帯端末用の有限オートマトンを用意しておき、携帯端末用の有限オートマトンの状態には、配信者アバター100,200のモデルをデフォルメしたモデルに差し替える情報を紐付けておく。パーソナルコンピュータから視聴するときは、パーソナルコンピュータ用の有限オートマトンが選択され、携帯端末から視聴するときは、携帯端末用の有限オートマトンが選択される。携帯端末用の有限オートマトンの各状態には、デフォルメしたアバターのモデルを配置するレイアウト情報が紐付けられているので、携帯端末で番組を視聴したときにはデフォルメしたアバターが表示される。あるいは、モデルを差し替える代わりに、携帯端末用の有限オートマトンでは、パーソナルコンピュータ用の有限オートマトンよりも、配信者アバター100,200がよりアップに写るカメラ割りとしてもよい。 The control server 20 prepares a finite-state machine for a personal computer and a finite-state machine for a mobile terminal, and in the state of the finite-state machine for a mobile terminal, information for replacing the model of the distributor avatars 100 and 200 with a deformed model. Is linked. When viewing from a personal computer, a finite-state machine for a personal computer is selected, and when viewing from a mobile terminal, a finite-state machine for a mobile terminal is selected. Since layout information for arranging the deformed avatar model is associated with each state of the finite-state machine for the mobile terminal, the deformed avatar is displayed when the program is viewed on the mobile terminal. Alternatively, instead of replacing the model, the finite automaton for the mobile terminal may be a camera split in which the distributor avatars 100 and 200 are captured more closely than the finite automaton for the personal computer.

以上説明したように、本実施形態の番組配信システムの制御サーバ20は、複数のカメラ割りのそれぞれを状態とし、仮想空間の状況を遷移条件とした有限オートマトンを記憶しておく。制御サーバ20は、仮想空間の状況を解析し、解析結果に基づき、有限オートマトンに従ってカメラ割りの状態を遷移させて、遷移後の状態に応じたカメラ割りとなるように仮想カメラを制御する。制御サーバ20が、事前に決めた有限オートマトンに基づいて仮想カメラを制御することにより、不自然なカメラ割りの遷移を排除できるので、状況に応じて適したカメラ割りを行える。 As described above, the control server 20 of the program distribution system of the present embodiment stores a finite automaton in which each of the plurality of camera allocations is in a state and the state of the virtual space is a transition condition. The control server 20 analyzes the situation of the virtual space, changes the state of the camera allocation according to the finite automaton based on the analysis result, and controls the virtual camera so that the camera allocation is made according to the state after the transition. Since the control server 20 controls the virtual camera based on a predetermined finite automaton, it is possible to eliminate an unnatural transition of camera allocation, so that appropriate camera allocation can be performed according to the situation.

10…配信サーバ
20…制御サーバ
21…解析部
22…制御部
23…記憶部
30…配信者端末
31…HMD
32…コントローラ
40…視聴者端末
10 ... Distribution server 20 ... Control server 21 ... Analysis unit 22 ... Control unit 23 ... Storage unit 30 ... Distributor terminal 31 ... HMD
32 ... Controller 40 ... Viewer terminal

Claims (8)

仮想空間を撮影する仮想カメラを制御する制御サーバであって、
複数のカメラ割りのそれぞれを状態とし、前記仮想空間の状況を遷移条件とした有限オートマトンを記憶する記憶部と、
前記仮想空間の状況を解析する解析部と、
解析結果に基づき、前記有限オートマトンに従ってカメラ割りの状態を遷移させて、遷移後の状態に応じたカメラ割りとなるように前記仮想カメラを制御する制御部と、
を備える制御サーバ。
A control server that controls a virtual camera that shoots virtual space.
A storage unit that stores a finite automaton with each of the plurality of camera divisions as a state and the state of the virtual space as a transition condition.
An analysis unit that analyzes the situation in the virtual space,
Based on the analysis result, a control unit that shifts the state of the camera allocation according to the finite automaton and controls the virtual camera so that the camera allocation is made according to the state after the transition.
Control server with.
請求項1に記載の制御サーバであって、
前記状態に、前記仮想空間内のオブジェクトの配置情報を関連付けておき、
前記制御部は、遷移後の状態に応じて前記オブジェクトを配置する制御サーバ。
The control server according to claim 1.
The arrangement information of the object in the virtual space is associated with the state.
The control unit is a control server that arranges the object according to the state after the transition.
請求項2に記載の制御サーバであって、
前記オブジェクトは背景オブジェクトであり、前記状態に応じて前記仮想カメラで撮影される前記背景オブジェクトが異なる制御サーバ。
The control server according to claim 2.
The object is a background object, and a control server in which the background object photographed by the virtual camera differs depending on the state.
請求項1ないし3のいずれかに記載の制御サーバであって、
前記遷移条件は、前記仮想空間内のアバターの発話に関する条件である制御サーバ。
The control server according to any one of claims 1 to 3.
The transition condition is a control server that is a condition related to the utterance of an avatar in the virtual space.
仮想空間を撮影した映像を端末へ配信する配信システムであって、
仮想空間を撮影した映像を端末へ配信する配信サーバと前記仮想空間を撮影する仮想カメラを制御する制御サーバを有し、
前記制御サーバは、
複数のカメラ割りのそれぞれを状態とし、前記仮想空間の状況を遷移条件とした有限オートマトンを記憶する記憶部と、
前記仮想空間の状況を解析する解析部と、
解析結果に基づき、前記有限オートマトンに従ってカメラ割りの状態を遷移させて、遷移後の状態に応じたカメラ割りとなるように前記仮想カメラを制御する制御部と、
を備える配信システム。
It is a distribution system that distributes images of virtual space to terminals.
It has a distribution server that distributes the video of the virtual space to the terminal and a control server that controls the virtual camera that shoots the virtual space.
The control server
A storage unit that stores a finite automaton with each of the plurality of camera divisions as a state and the state of the virtual space as a transition condition.
An analysis unit that analyzes the situation in the virtual space,
Based on the analysis result, a control unit that shifts the state of the camera allocation according to the finite automaton and controls the virtual camera so that the camera allocation is made according to the state after the transition.
Delivery system with.
請求項5に記載の配信システムであって、
前記制御サーバは、前記端末の種別に応じて適用する有限オートマトンを変更する配信システム。
The distribution system according to claim 5.
The control server is a distribution system that changes a finite automaton to be applied according to the type of the terminal.
仮想空間を撮影する仮想カメラを制御する制御方法であって、
コンピュータが、
複数のカメラ割りのそれぞれを状態とし、前記仮想空間の状況を遷移条件とした有限オートマトンを記憶し、
前記仮想空間の状況を解析し、
解析結果に基づき、前記有限オートマトンに従ってカメラ割りの状態を遷移させて、遷移後の状態に応じたカメラ割りとなるように前記仮想カメラを制御する
を有する制御方法。
It is a control method that controls a virtual camera that shoots virtual space.
The computer
A finite automaton is stored with each of the multiple camera divisions as a state and the state of the virtual space as a transition condition.
Analyze the situation of the virtual space and
A control method having a control method in which the state of camera allocation is changed according to the finite automaton based on the analysis result, and the virtual camera is controlled so that the camera allocation is made according to the state after the transition.
仮想空間を撮影する仮想カメラを制御する制御サーバとしてコンピュータを動作させるプログラムであって、
複数のカメラ割りのそれぞれを状態とし、前記仮想空間の状況を遷移条件とした有限オートマトンを記憶する処理と、
前記仮想空間の状況を解析する処理と、
解析結果に基づき、前記有限オートマトンに従ってカメラ割りの状態を遷移させて、遷移後の状態に応じたカメラ割りとなるように前記仮想カメラを制御する処理と、
を前記コンピュータに実行させるプログラム。
A program that operates a computer as a control server that controls a virtual camera that shoots virtual space.
A process of storing a finite automaton with each of a plurality of camera divisions as a state and a transition condition of the virtual space situation, and
The process of analyzing the situation in the virtual space and
Based on the analysis result, the process of changing the state of the camera allocation according to the finite automaton and controlling the virtual camera so that the camera allocation is made according to the state after the transition.
A program that causes the computer to execute.
JP2020075125A 2019-06-27 2020-04-21 Control server, terminal, distribution system, control method, information processing method, and program Active JP7360989B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020075125A JP7360989B2 (en) 2019-06-27 2020-04-21 Control server, terminal, distribution system, control method, information processing method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019120101A JP6695482B1 (en) 2019-06-27 2019-06-27 Control server, distribution system, control method and program
JP2020075125A JP7360989B2 (en) 2019-06-27 2020-04-21 Control server, terminal, distribution system, control method, information processing method, and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2019120101A Division JP6695482B1 (en) 2019-06-27 2019-06-27 Control server, distribution system, control method and program

Publications (3)

Publication Number Publication Date
JP2021007213A true JP2021007213A (en) 2021-01-21
JP2021007213A5 JP2021007213A5 (en) 2022-07-04
JP7360989B2 JP7360989B2 (en) 2023-10-13

Family

ID=88242099

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020075125A Active JP7360989B2 (en) 2019-06-27 2020-04-21 Control server, terminal, distribution system, control method, information processing method, and program

Country Status (1)

Country Link
JP (1) JP7360989B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000516371A (en) * 1996-08-02 2000-12-05 マイクロソフト コーポレイション Methods and systems for virtual cinematography
JP2005295431A (en) * 2004-04-05 2005-10-20 Nippon Hoso Kyokai <Nhk> Program generating system, command generating apparatus, and program generating program
JP2008097233A (en) * 2006-10-10 2008-04-24 Matsushita Electric Ind Co Ltd Camera work controlling device and camera work controlling method
WO2018030206A1 (en) * 2016-08-10 2018-02-15 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Camerawork generating method and video processing device
JP2019071650A (en) * 2018-12-27 2019-05-09 キヤノン株式会社 Control device, control method, and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000516371A (en) * 1996-08-02 2000-12-05 マイクロソフト コーポレイション Methods and systems for virtual cinematography
JP2005295431A (en) * 2004-04-05 2005-10-20 Nippon Hoso Kyokai <Nhk> Program generating system, command generating apparatus, and program generating program
JP2008097233A (en) * 2006-10-10 2008-04-24 Matsushita Electric Ind Co Ltd Camera work controlling device and camera work controlling method
WO2018030206A1 (en) * 2016-08-10 2018-02-15 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Camerawork generating method and video processing device
JP2019071650A (en) * 2018-12-27 2019-05-09 キヤノン株式会社 Control device, control method, and program

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
岡本和憲、中野有紀子、西田豊明: "台本に基づく会話エージェントのジェスチャ自動生成", 2004年度人工知能学会全国大会(第18回)論文集, JPN6023018051, 4 June 2004 (2004-06-04), JP, pages 1 - 4, ISSN: 0005051772 *
計良拓行、大野義夫: "動的仮想3次元空間の表示アルゴリズム", 第99回グラフィックスとCAD研究会, vol. 99-2, JPN6023018050, 28 April 2000 (2000-04-28), JP, pages 7 - 12, ISSN: 0005051771 *

Also Published As

Publication number Publication date
JP7360989B2 (en) 2023-10-13

Similar Documents

Publication Publication Date Title
JP6695482B1 (en) Control server, distribution system, control method and program
US12036470B2 (en) Management of streaming video data
JP7135141B2 (en) Information processing system, information processing method, and information processing program
US7826644B2 (en) Method and system for immersing face images into a video sequence
CN110998505B (en) Synchronized holographic display and 3D object with physical video panel
US8834268B2 (en) Peripheral device control and usage in a broadcaster mode for gaming environments
US20120154510A1 (en) Smart Camera for Virtual Conferences
US10289193B2 (en) Use of virtual-reality systems to provide an immersive on-demand content experience
US20220083126A1 (en) Communication device, communication method, and communication program
US20140018157A1 (en) Reward-based features for videogame observers
WO2023035897A1 (en) Video data generation method and apparatus, electronic device, and readable storage medium
CN113518232A (en) Video display method, device, equipment and storage medium
KR20220126660A (en) Method and System for Providing Low-latency Network for Metaverse Education Platform with AR Face-Tracking
CN110730340B (en) Virtual audience display method, system and storage medium based on lens transformation
JP2023169282A (en) Computer program, server device, terminal device, and method
JP5632792B2 (en) Participation type content management apparatus, viewing terminal, participation type content management program, and viewing program
CN109754275A (en) Data object information providing method, device and electronic equipment
WO2020194973A1 (en) Content distribution system, content distribution method, and content distribution program
JP7360989B2 (en) Control server, terminal, distribution system, control method, information processing method, and program
US20240114181A1 (en) Information processing device, information processing method, and program
JP2011109371A (en) Server, terminal, program, and method for superimposing comment text on three-dimensional image for display
Engstrom et al. Producing collaborative video: developing an interactive user experience for mobile tv
Puopolo et al. The future of television: Sweeping change at breakneck speed
WO2023276252A1 (en) Information processing device, information processing method, and program
WO2023105750A1 (en) Information processing system, and information processing method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220624

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220624

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230425

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230509

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230602

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230905

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231002

R150 Certificate of patent or registration of utility model

Ref document number: 7360989

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150