JP7204984B1 - プログラム、方法、情報処理装置 - Google Patents
プログラム、方法、情報処理装置 Download PDFInfo
- Publication number
- JP7204984B1 JP7204984B1 JP2022104993A JP2022104993A JP7204984B1 JP 7204984 B1 JP7204984 B1 JP 7204984B1 JP 2022104993 A JP2022104993 A JP 2022104993A JP 2022104993 A JP2022104993 A JP 2022104993A JP 7204984 B1 JP7204984 B1 JP 7204984B1
- Authority
- JP
- Japan
- Prior art keywords
- user
- avatar
- degree
- setting
- change
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 55
- 230000010365 information processing Effects 0.000 title claims description 12
- 230000001815 facial effect Effects 0.000 claims abstract description 132
- 230000033001 locomotion Effects 0.000 claims abstract description 81
- 230000008859 change Effects 0.000 claims description 307
- 210000000214 mouth Anatomy 0.000 claims description 211
- 238000001228 spectrum Methods 0.000 claims description 142
- 230000008451 emotion Effects 0.000 claims description 100
- 210000001508 eye Anatomy 0.000 claims description 54
- 238000012937 correction Methods 0.000 claims description 24
- 230000004044 response Effects 0.000 claims description 18
- 210000004709 eyebrow Anatomy 0.000 claims description 16
- 210000005252 bulbus oculi Anatomy 0.000 claims description 6
- 210000001747 pupil Anatomy 0.000 claims description 4
- 210000000744 eyelid Anatomy 0.000 claims description 3
- 238000012545 processing Methods 0.000 description 45
- 230000008569 process Effects 0.000 description 29
- 238000009826 distribution Methods 0.000 description 28
- 238000004891 communication Methods 0.000 description 27
- 238000003860 storage Methods 0.000 description 25
- 238000001514 detection method Methods 0.000 description 16
- 230000035945 sensitivity Effects 0.000 description 16
- 230000006870 function Effects 0.000 description 13
- 238000010586 diagram Methods 0.000 description 10
- 230000004424 eye movement Effects 0.000 description 8
- 241000282412 Homo Species 0.000 description 7
- 230000009471 action Effects 0.000 description 7
- 230000008921 facial expression Effects 0.000 description 6
- 230000005540 biological transmission Effects 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 239000011521 glass Substances 0.000 description 5
- 230000002159 abnormal effect Effects 0.000 description 4
- 230000006399 behavior Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 4
- 238000002834 transmittance Methods 0.000 description 4
- 238000007667 floating Methods 0.000 description 3
- 230000005236 sound signal Effects 0.000 description 3
- 230000007423 decrease Effects 0.000 description 2
- 238000005401 electroluminescence Methods 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 238000007654 immersion Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 206010034719 Personality change Diseases 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 210000001061 forehead Anatomy 0.000 description 1
- 230000037308 hair color Effects 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 210000001331 nose Anatomy 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
Images
Landscapes
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
しかしながら、特許文献1の技術では、あくまで音声に基づいてアバターの口の形を変化させるに留まり、例えば、アバターの顔の部位のうち、口以外の部位の態様を変化させる際には、ユーザの音声からでは十分に変化の度合いを反映できず、アバターが不自然な動きになり、視聴者に違和感を与えてしまう恐れがある。
そのため、アバターの顔の部位の態様の変化をより一層自然に見せる技術が必要とされている。
<概要>
以下の実施形態では、アバターを操作する演者であるユーザの音声スペクトルに基づいて、アバターの口の態様を変化させる技術について説明する。
ここで、本開示にかかる技術を実現する際において適宜使用される装置等に関しては限定されず、ユーザの所持しているスマートフォン、タブレット端末などの端末装置の場合もあれば、据え置き型のPC(Personal Computer)より提示されることもある。
このとき、システム1は、演者に対応したアバター及び演者の音声を視聴者に提示し、アバターの口の態様を演者の発話に応じて変化させる程度の設定を、演者の発話の変化よりも低い程度とすることが可能に受け付ける。システム1は、当該処理を実行することで、アバターの口の態様を、演者の発話に応じて変化させることがあり得る。
これにより、アバターの口の態様の変化をより一層自然に見せることができる。
図1は、第1の実施の形態におけるシステム1の全体の構成を表している。
図2は、実施の形態1のシステム1を構成する端末装置10のブロック図である。図2に示すように、端末装置10は、複数のアンテナ(アンテナ111、アンテナ112)と、各アンテナに対応する無線通信部(第1無線通信部121、第2無線通信部122)と、操作受付部130(タッチ・センシティブ・デバイス1301およびディスプレイ1302を含む)と、音声処理部140と、マイク141と、スピーカ142と、位置情報センサ150と、カメラ160と、モーションセンサ170と、記憶部180と、制御部190と、を含む。端末装置10は、図2では特に図示していない機能及び構成(例えば、電力を保持するためのバッテリ、バッテリから各回路への電力の供給を制御する電力供給回路など)も有している。図2に示すように、端末装置10に含まれる各ブロックは、バス等により電気的に接続される。
また、カメラ160は、端末装置10を使用するユーザの身体の動きを取得する。具体的には、例えば、カメラ160は、ユーザの口の動き、顔の各部位(目、眉等)の動きを取得する。当該動きの取得は、既存のあらゆる技術を利用してよい。
ユーザが普段使用する設定は、例えば、アバターの態様の変化の度合いの基本設定、普段の配信でデフォルトとして表示させる感情、ユーザのセンシング感度等、アバターを使用して配信する際にユーザが調整可能なパラメータ、条件である。
・ウェアラブルデバイスの種類
・ウェアラブルデバイスのサイズ
・ウェアラブルデバイスの透過率
・電子的な情報取得の可否
ウェアラブルデバイス情報1803は、例えば、ユーザが着用している眼鏡、スマートグラス等のアイウェア、ヘッドマウントディスプレイ(HMD)等の各種器具、デバイスに関する各種情報を保持する。ウェアラブルデバイス情報1803に含まれる情報の詳細は、後述する。
図3は、サーバ20の機能的な構成を示す図である。図3に示すように、サーバ20は、通信部201と、記憶部202と、制御部203としての機能を発揮する。
・ユーザの氏名、識別ID
・ユーザに対応するアバターの情報
・ユーザが着用しているデバイス(眼鏡等)
具体的には、例えば、ユーザ情報取得モジュール2033は、ユーザが利用する端末装置10の記憶部180からユーザ情報1801を参照することにより、当該情報を取得しても良い。また、ユーザ情報取得モジュール2033は、後述するサーバ20の記憶部202に保持されているユーザ情報データベース2021を参照することにより当該情報を取得してもよい。他にも、ユーザ情報取得モジュール2033は、ユーザから直接ユーザに関する各種情報の入力を受け付けることで、当該情報を取得してもよい。
・アバターを識別するIDの情報
・アバターの属性(人間、人間以外等)の情報
・対応するユーザがデフォルトで設定している口、顔、またはそれ以外の身体の部位の態様の情報
・アバターごとに個別に設定されている、口、顔、またはそれ以外の身体の部位の専用の設定
具体的には、例えば、アバター情報取得モジュール2034は、各ユーザに紐づけられたアバターの情報を、アバター情報1802、またはユーザ情報データベース2021を参照することで取得してもよい。
また、ある局面において、サーバ20は、ユーザからアバターの口、顔、またはそれ以外の身体の部位の態様の変化の度合いに対する設定の入力を受け付け、当該設定をデフォルトとして再設定する操作を受け付けると、アバター情報1802等に保持しているアバター情報を更新する処理を行ってもよい。これにより、ユーザは、適宜アバターの態様の変化の度合いのうち、よく使用する設定をデフォルトとして設定でき、アバターの操作を容易に行うことができる。
・アバターの外観に関する情報(性別、瞳の色、髪型、口、顔の部位、またはそれ以外の身体の部位の大きさ、髪の色、肌の色等)
・アバターの口、顔、またはそれ以外の身体の部位の態様に関する情報(変化する態様の種類の多寡、変化する態様の変化量の多寡等)
ここで、サーバ20は、上記アバター情報を、コンテンツの種類と紐づけて記憶してもよい。具体的には、例えば、サーバ20は、ユーザがライブ配信等で提供するコンテンツの種類(雑談、歌、演技等)と、口、顔、その他の身体の部位に対する態様の変化の度合いの設定を紐づけておき、ユーザがどのコンテンツを提供するかを選択する操作を受け付けると、当該コンテンツに対応する設定をアバターに反映させてもよい。
これにより、ユーザは、ライブ配信中に適宜態様の変化の設定を変更し反映させることができるため、ライブ配信中に提供するコンテンツを切り替えても、ユーザに違和感なくアバターの態様の変化を見せることができる。
また、ある局面において、音声スペクトル取得モジュール2035は、ユーザの音声から母音の音声スペクトルの情報を取得してもよい。例えば、音声スペクトル取得モジュール2035は、予めユーザから入力する母音の設定を受け付けておき、その後、ユーザからの発声を、マイク141を介して受け付けることで、受け付けた母音の設定と取得した音声スペクトルとを関連付けて記憶する。
また、ある局面において、音声スペクトル取得モジュール2035は、子音に起因する音声の情報である「t」、「c」、「h」、「k」、「m」、「r」、「s」、「n」、「w」等の音を取得し、当該記憶した母音の情報と組み合わせることで、ユーザが発話した言葉を推定してもよい。
これにより、システム1では、ユーザの音声スペクトルのうち、母音に関する音声スペクトルを別に特徴付けして記憶することができるため、アバターの口の態様の動きをより正確に変化させることができる。
・アバターの口の態様がユーザの音声スペクトルから推定される発話の音声に対応した態様に変化するまでの所要時間の設定
・一定期間内にユーザの発話に基づいてアバターの動作を変更・更新する頻度(例えば、1秒間の更新数)の設定
ここで、ユーザの発話の変化について定義する。ユーザの発話の変化は、例えば、ユーザの発話の速度であり、下記に基づいて算出されてもよい。
・ユーザが発話した母音が変化する時間間隔(例えば、母音が「あ」から「い」に変化する際の時間間隔)
このとき、サーバ20は、子音に由来する音(c、k等)を同時に取得し、同一の母音を連続して取得した場合でも、別の単語を発話しているとして発話の速度を推定してもよい。
・所定期間内に発せられる母音の数
このとき、設定受付モジュール2038は、当該設定を、ユーザの発話の変化から推定されるアバターの変化の程度よりも低い程度とすることが可能に受け付けてもよい。例えば、設定受付モジュール2038は、予めユーザの音声スペクトルから推定された発話(母音)に対応するように口の態様を変化させる際の所要時間を受け付けておいてもよい。サーバ20は、受け付けた所要時間に基づいて、ユーザの音声スペクトルから、ユーザが母音を発話した時間の情報を取得し、予め設定された所要時間との比率を算出し、態様の変化量に乗算し、アバターの口の態様の変化量を算出する。サーバ20は、取得した発話時間と、変化量とに基づき、口の態様を変化させる。例えば、ユーザが所要時間「1秒」でアバターの口が「あ」の態様に変化する設定を入力したとする。例えば、完全に「あ」の態様になるときを「100」とし、「1秒」で「100」になるように設定する。
このとき、サーバ20は、1秒で態様が変化する際の度合い(口の変化量、速度)についても、ユーザから受けてつけておいてもよい。(すなわち、1秒間で口の態様が変化するうち、最初の0.5秒と残りの0.5秒とで態様の変化量に差分を設定してもよい)
サーバ20は、ユーザが1秒間「あ」の音を発声した場合には、上記の変化量の設定等に基づき、1秒かけてアバターの口の態様を「あ」の態様に変化させる。しかし、ユーザが「あ」の発声を「0.5秒」しかしなかった場合には、サーバ20は、アバターの口の態様の変化量を「50」まで変化させる処理を行ってもよい。
これにより、ユーザは、「あ」の音声を発声した場合に即時的にアバターを口の態様が「あ」になるのではなく、自身の発話時間に応じて徐々にアバターの口の態様を変化させることができる。また、所用時間を設定し、当該時間に満たない発話の場合に、口の態様の変化量を乗算して変化させることで、ユーザが軽く発話した際でもアバターの口の態様が大きく変化する(例えば、30程度の口の開きでもアバターの口の態様は100として変化する)ことを防ぐことができる。これにより、ユーザは、視聴者にユーザの発話とアバターの口の態様の変化とに生じる違和感を与えることを防ぐことができるため、より視聴者に没入感を与えることができる。
これにより、ユーザは、急に大声を上げた場合でも、アバターの口の態様に反映させることができ、より自然なアバターの動きを視聴者に見せることができる。
その後、サーバ20は設定受付モジュール2038により設定した情報をアバター変化モジュール2036に送信し、アバターの口の態様を、設定に応じて変化させ、その後、アバター提示モジュール2037により視聴者にアバター及びユーザの音声を提示する。
これにより、ユーザは、母音の変化よりゆるやかにアバターの口の態様を変化させることで、より自身の発話に合わせて滑らかにアバターの口の態様を変化させることができる。これにより、ユーザは、アバターの口の態様が繊細に動きすぎて不自然な動きにすることを防ぐことができるため、視聴者により自然な口の動きを提示することができ、視聴者の没入感を高めることができる。
これにより、ユーザは、眼鏡等を着用していても、アバターの態様の変化を自然に視聴者に提示することができる。
具体的には、例えば、変化補正モジュール2040は、ユーザが操作するアバターが人間、または人間とは態様の変化の様子が異なる人間以外のいずれかであるかの情報を取得し、当該情報に基づいて、アバターの態様の変化の程度を補正する処理を実行してもよい。例えば、ユーザが操作するアバターの属性が「竜」である場合には、目、口等の動きが、人間とは異なる挙動を示す可能性がある。その場合、変化補正モジュール2040は、当該「竜」の属性に基づいて、口角の変化量、眼球の変化量等を、アバターに沿った形に補正してもよい。
これにより、ユーザは、人間とは異なるアバターを操作していても、自身の発話、顔のセンシング結果に基づいて、より自然な動きを視聴者に提示することができる。
図4は、サーバ20が記憶するユーザ情報データベース2021、アバター情報データベース2022、ウェアラブルデバイス情報データベース2023のデータ構造を示す図である。
これにより、ユーザは、自身に対応するアバターに特有の口の態様の変化を即座に反映させ、視聴者に提示することができるため、より自然にアバターが動く様子を視聴者に見せることができる。
例えば、ユーザが人間以外の属性のアバター(モンスター、無機物、ロボット等)を使用しているとする。その場合、アバターの各種部位(口、顔、身体)の態様の変化は、ユーザの音声スペクトル、センシング結果とは完全に一致しない可能性がある。そのため、サーバ20は、上記に例示した専用プリセット(口)、または専用プリセット(顔)の設定をユーザから受け付けてよい。これにより、ユーザは、ライブ配信等の際に当該プリセットを選択することで、あらゆるアバターを使用した時でも、違和感なくユーザの音声スペクトル、センシング結果をアバターの態様の変化に反映させることができる。
これにより、ユーザは、自身に対応するアバターに特有の顔の態様の変化を即座に反映させ、視聴者に提示することができるため、より自然にアバターが動く様子を視聴者に見せることができる。
これにより、ユーザは、配信のたびに変化の程度の度合いを設定することなく、簡易に配信を始めることができる。
・ASMR(Autonomous Sensory Meridian Response)モード(ささやきモード)
口は専用プリセット(感度を低めにし、小声感を出す)を使用しつつ、表情については基本設定を使用する。または、専用の表情の設定を併用する。
・アクションゲーム配信モード
口は専用プリセット(感度を高めにし、オーバーリアクションになるようにする)を使用しつつ、表情についても感度を高めにする。
・ホラーゲーム配信モード
口は専用プリセット(感度を低めにし、検出する周波数の閾値を低く設定する)を使用しつつ、表情も同様の感度設定を行う。または、専用の設定を使用する。
・雑談モード(基本設定を使用)
このとき、サーバ20は、切り替えボタンを、視聴者には見えず、かつユーザには視認可能な状態でユーザに提示してもよい。また、サーバ20は、当該切り替えボタンの配置をユーザの操作により変更してもよい。
これにより、ユーザは、視聴者に提供するコンテンツに応じて、プリセットを使い分けることができ、より幅広い表現が可能となる。
・音楽ライブ配信時のマイク、楽器などの機材オブジェクト
・ゲーム配信時のゲーム機器のオブジェクト
・汎用的なオブジェクト(観葉植物、部屋の家具など)
これにより、サーバ20は、モードの切り替え時の読み込み処理を軽減でき、遅延などが生じ視聴者に違和感を与えることを防ぐことができる。
サーバ20は、当該保持している感情の設定の選択をユーザから受け付けると、当該感情に基づいてアバターの態様を変化させ、視聴者に提示してもよい。
これにより、ユーザは、普段の配信で使用する感情に応じたアバターの態様の変化を即座に設定することができ、簡易に配信を行うことができる。
属性は、例えば、下記の情報を含む
・人間
・人間とは異なる生物(動物、植物等)
・空想上の生物(竜、天使、悪魔等)
・機械
・不定形の存在(ファンタジーにおけるスライム、ゴースト等)
ある局面において、当該レコードは下位概念の情報として、定義された属性に特有の情報を保持していてもよい。具体的には、例えば、属性が「無機物」である場合には、「目が存在しない」といった下位概念を保持していてもよく、属性が「仮想生物」である場合には、「目が複数ある」等の情報を保持していてもよい。サーバ20は、当該属性の情報に基づいて、アバターの態様の変化の程度の度合いを補正するための情報を保持していてもよい。
これにより、ユーザは、人間以外のアバターを操作する際にも、適切に口、顔の態様を変化させることができる。
これにより、ユーザは、関連付けられている部位に対し、個別に態様の変化の程度の設定をすることがないため、態様の変化の程度の設定の手間を軽減することができる。
特殊部位は、上記に限られない。例えば、アバターとは異なる生物等のオブジェクトが周囲に配置されていてもよい。
また、ある局面において、サーバ20は、特殊部位ごとにユーザからの態様の変化の程度の設定を受け付けてもよい。例えば、特殊部位として、アバターの身体に接続されているものではなく、アバターの周囲に浮遊しているオブジェクトの態様が変化する場合等に、サーバ20は、当該オブジェクトそれぞれに対し、ユーザからの設定の入力を受け付けてもよい。ただし、サーバ20は、当該オブジェクトについても、アバターの部位(口、顔等)の設定を反映し態様を変化させてもよい。
これにより、ユーザは、人間以外のアバターを操作する場合でも、そのアバターの特性に合った操作を行うことができる。
ある局面において、サーバ20は、ユーザがHMD等のデバイスを着用しており、検出精度は低い場合でも、当該デバイスからユーザの目、または顔のセンシング結果が取得できる場合には、特に補正の処理を実行しないこととしてもよい。
サーバ20が保持するウェアラブルデバイスの情報は、他にも、マスク、眼帯等の情報であってもよい。その場合、サーバ20は、マスク、眼帯などで遮蔽されている部位について、センシング結果に基づいた態様の変化ではなく、ユーザの発話、または遮蔽されていない他の部位の設定を反映する等により、当該部位の動きをアバターに反映させてもよい。
これにより、ユーザは、配信時の自身の姿を気にすることなく、配信に臨むことができる。
以下、システム1が、ユーザの発話の音声スペクトルを取得し、取得した音声スペクトルに基づいて、ユーザに対応したアバターの口の態様を演者の発話に応じて変化させる際の一連の処理について説明する。
また、ある局面において、制御部190は、ユーザの音声から母音の音声スペクトルの情報を取得してもよい。例えば、制御部190は、予めユーザから入力する母音の設定を受け付けておき、その後、ユーザからの発声を、マイク141を介して受け付けることで、受け付けた母音の設定と取得した音声スペクトルとを関連付けて記憶する。
また、ある局面において、音声スペクトル取得モジュール2035は、子音に起因する音声の情報である「t」、「c」、「h」、「k」、「m」、「r」、「s」、「n」、「w」等の音を取得し、当該記憶した母音の情報と組み合わせることで、ユーザが発話した言葉を推定してもよい。
これにより、システム1では、ユーザの音声スペクトルのうち、母音に関する音声スペクトルを別に特徴付けして記憶することができるため、アバターの口の態様の動きをより正確に変化させることができる。
・一定期間内にユーザの発話に基づいてアバターの動作を変更・更新する頻度(例えば、1秒間の更新数)の設定
ここで、ユーザの発話の変化について定義する。ユーザの発話の変化は、例えば、ユーザの発話の速度であり、下記に基づいて算出されてもよい。
・ユーザが発話した母音が変化する時間間隔(例えば、母音が「あ」から「い」に変化する際の時間間隔)
このとき、制御部190は、子音に由来する音(c、k等)を同時に取得し、同一の母音を連続して取得した場合でも、別の単語を発話しているとして発話の速度を推定してもよい。
・所定期間内に発せられる母音の数
また、このとき、制御部190は、当該設定を、ユーザの発話の変化から推定されるアバターの変化の程度よりも低い程度とすることが可能に受け付けてもよい。例えば、制御部190は、予めユーザの音声スペクトルから推定された発話(母音)に対応するように口の態様を変化させる際の所要時間を受け付けておいてもよい。制御部190は、受け付けた所要時間に基づいて、ユーザの音声スペクトルから、ユーザが母音を発話した時間の情報を取得し、予め設定された所要時間との比率を算出し、態様の変化量に乗算し、アバターの口の態様の変化量を算出する。制御部190は、取得した発話時間と、変化量とに基づき、口の態様を変化させる。例えば、ユーザが所要時間「1秒」でアバターの口が「あ」の態様に変化する設定を入力したとする。例えば、完全に「あ」の態様になるときを「100」とし、「1秒」で「100」になるように設定する。
このとき、制御部190は、1秒で態様が変化する際の度合い(口の変化量、速度)についても、ユーザから受けてつけておいてもよい。(すなわち、1秒間で口の態様が変化するうち、最初の0.5秒と残りの0.5秒とで態様の変化量に差分を設定してもよい)
制御部190は、ユーザが1秒間「あ」の音を発声した場合には、上記の変化量の設定等に基づき、1秒かけてアバターの口の態様を「あ」の態様に変化させる。しかし、ユーザが「あ」の発声を「0.5秒」しかしなかった場合には、制御部190は、アバターの口の態様の変化量を「50」まで変化させる処理を行ってもよい。
これにより、ユーザは、「あ」の音声を発声した場合に即時的にアバターを口の態様が「あ」になるのではなく、自身の発話時間に応じて徐々にアバターの口の態様を変化させることができる。また、所用時間を設定し、当該時間に満たない発話の場合に、口の態様の変化量を乗算して変化させることで、ユーザが軽く発話した際でもアバターの口の態様が大きく変化する(例えば、30程度の口の開きでもアバターの口の態様は100として変化する)ことを防ぐことができる。これにより、ユーザは、視聴者にユーザの発話とアバターの口の態様の変化とに生じる違和感を与えることを防ぐことができるため、より視聴者に没入感を与えることができる。
これにより、ユーザは、急に大声を上げた場合でも、アバターの口の態様に反映させることができ、より自然なアバターの動きを視聴者に見せることができる。
例えば、制御部190は、ユーザの発話を一定の時間間隔で区切り、その時間間隔の最初と最後の母音に対応した口の態様にアバターを変化させる。例えば、制御部190は、1秒間で「あいうえお」と変化した場合、このうち「あいうえお」の初めの「あ」のタイミングの口の形状、および「お」の口の態様をアバターに反映させることとしてもよい。
他にも制御部190は、ユーザの発話をバッファとして一時メモリに保持する場合、「あ」から「お」へと、一定の時間間隔(例えば1秒間)をかけて変化させてもよい。また、制御部190は、ユーザの母音が変化する際に経過した時間よりも遅くアバターの口の態様が変化するように設定を受け付けてもよい。例えば、サーバ20は、ユーザの母音が「あ」から「う」に変化し、変化に1秒を要した際、アバターの口の態様が「あ」から「う」に変化するのに1.5秒の時間を要してもよい。また、このとき、サーバ20は、態様の変化を補完する処理を実行してもよい。すなわち、サーバ20は、アバターの態様を「あ」から即座に「う」に変化させるのではなく、「あ」と「う」の中間となる口の形を経由しながら口の態様を変化させてよい。
これにより、ユーザは、単語ごとに即座にアバターの口が切り替わるのではなく、実際の人の口の動きに近い態様でアバターの口の態様を変化させることができるため、視聴者がアバターを視聴する際の違和感を低減することができる。
このとき、制御部190は、ユーザから、程度の設定を、ユーザの発話速度よりも低く設定することが可能に受け付けてもよい。具体的には、例えば、制御部190は、ユーザから受け付けた発話の音声スペクトルから、ユーザの発話の速度を算出してもよい。その後、制御部190は、当該算出したユーザの発話の速度から、ユーザから受け付け可能なアバターの態様の単位時間あたりの変化量の上限値を設定することで、ユーザから程度の設定を、ユーザの発話速度よりも低く設定するように受け付ける。
これにより、ユーザは、自身の発話の変化よりも遅くアバターの変化の程度を設定でき、より滑らかにアバターの態様を変化させることができる。
これにより、ユーザは、より自身の発話に合わせて滑らかにアバターの口の態様を変化させることができ、視聴者により自然な口の動きを提示することができる。
ある局面において、端末装置10の制御部190は、アバターの口の態様を変化させる際、音声スペクトルの強弱、または高低からなる群の少なくとも1つに基づいて前記口の態様を変化させてもよい。
具体的には、例えば、制御部190は、音声スペクトルの下記のパラメータを分析することで、強弱および高低を判定する。
・音声スペクトルの強弱のパラメータ:デジベル(dB)
・音声スペクトルの高低のパラメータ:ヘルツ(Hz)
例えば、制御部190は、基準となる音声スペクトルのデシベルよりも大きい音声スペクトルを取得した際に、アバターの口の態様を、基準時の口の態様の変化よりも大きく変化させてもよい。
これにより、ユーザは、繊細な音声の変化に基づいて、アバターの態様を変化させることができ、視聴者に違和感を与えることを低減することができる。
これにより、ユーザは、通常とは異なる動作、発話を行っても、それに応じたアバターの態様の変化をすることができ、視聴者に、より没入感を与えることができる。
・顔の部位(眉、目尻、目頭、口角等)の態様を変化させる
・身体の部位(腕、手、肩等)の態様を変化させる
このほかにも、制御部190は、設定される範囲外の音声スペクトルを検出したことに応答して、視聴者が視聴する画面上に、所定のオブジェクトを表示してもよい。
これにより、制御部190は、例えば、ユーザが急に大声を上げる、金切声を上げる等した際に、顔の部位、身体の部位の態様の変化、オブジェクトの表示等により、よりユーザの感情を視聴者に伝えることができる。
このとき、感情の候補は、例えば、下記を含む。
・怒り、激昂
・喜び、楽しみ
・驚き、恐怖
・悲しみ、嘆き
・平穏、安らぎ
ここで、音声スペクトルから感情の候補を推定する処理について例示する。例えば、制御部190は、ユーザから予め感情に対応した音声スペクトルの情報を受け付け、記憶部180等に記憶しておくことで、ユーザの音声スペクトルとユーザの感情とを関連付けておいてよい。その後、制御部190は、ユーザから音声スペクトルを取得すると、当該取得した音声スペクトルと波形の類似している音声スペクトルと関連付けられた感情の候補を推定する。波形が類似している、とは、例えば、複数の音声スペクトルの波形同士の類似度を判定し、波形が所定の割合一致している、あるいは複数の音声スペクトルの波形同士が所定の割合乖離している(例えば、±10%の範囲等で一致している)ことを示す。
ある局面において、音声スペクトルからユーザの感情の候補を推定する方法として、学習済みモデルを利用してもよい。例えば、端末装置10は、複数のユーザの音声スペクトルと、当該ユーザに対応する感情とを関連付けた学習済みモデルを記憶部180に保持していてもよい。その後、端末装置10の制御部190は、ユーザから音声スペクトルの入力を受け付けると、学習済みモデルに基づいて、当該ユーザの音声スペクトルに対応する感情の候補を推定し、ユーザに提示してもよい。
これにより、ユーザは、発話から推定される感情に基づいてアバターの態様を変化させることができる。
例えば、制御部190は、ユーザから正確に音声スペクトルが取得できない場合、取得した音声スペクトルに類似する感情の候補が推定できない場合等に、ユーザから「平穏」の口の対応の設定を受け付けていると、アバターの口の態様を、「平穏」の感情に基づいた態様に変化させる。
これにより、ユーザは、感情が推定できない場合でも、アバターを予め設定した態様に変化させることができるため、視聴者への違和感を抑えることができる。
また、このとき、制御部190は、取得した音声スペクトルから推定した感情ではなく、ユーザに感情の候補を提示し、ユーザから選択された感情に基づいて、アバターの口とは異なる身体の部位を動作させてもよい。
これにより、ユーザは、自身の音声スペクトルから推定された感情に基づいて、アバターの口以外の部位も動作させることができ、より視聴者に没入感を与えることができる。
これにより、ユーザは、自身の発話速度が、あまりにもアバターの口の態様の変化の程度から推定される発話速度よりも乖離する場合には、発話速度に基づいてアバターの口の態様を変化させることができる。そのため、視聴者に違和感を与えることを低減することができる。
これにより、ユーザは、人間とは異なるアバターを操作していても、自身の発話、顔のセンシング結果に基づいて、より自然な動きを視聴者に提示することができる。
図6~図9は、本発明において開示される、システム1を利用し、アバターを操作する演者であるユーザがアバターを操作する際の各種画面例を示す図である。
設定画面601は、ユーザから各母音に対応した音声スペクトルの情報を取得し関連付ける際にユーザに表示される設定画面である。例えば、端末装置10の制御部190は、ユーザの音声スペクトルと関連付ける母音として「A」「I」「U」「E」「O」「N」の6文字の設定画面を当該画面に表示する。その際、制御部190は、現在ユーザの音声スペクトルと関連付けている母音の情報を、当該画面の上部に表示していてもよい。
また、制御部190は、設定画面601の下部に、ユーザが使用しているマイク141の情報を表示してもよい。制御部190は、ユーザが使用するマイク141の種類により周波数特性が異なる場合には、使用されるマイク141毎にユーザの音声スペクトルと母音の情報とを関連付けてもよい。
これにより、ユーザは、母音ごとに正確にアバターの口の態様を変化させることができる。
・口の切り替え速さ
口の切り替え速さは、ユーザから取得した音声スペクトルに対し、どの程度の時間で最大の大きさ(100)に到達するかの所要時間に関する情報である。
・目の動き:上方向の最大値
・目の動き:下方向の最大値
・目の動き:横方向の最大値
・目の動き:感度(端末のセンシング感度)
感度とは、ユーザの目等をセンシングした際に、アバターに反映させる感度のことを示す。具体的には、例えば、感度は、ユーザが真正面を向いている際の目等の位置の座標を「0」とした時に、左右方向に目等を移動させた際に、アバターの目等を実際の目等の移動量に対しどの程度反映させるかを設定するパラメータである。このとき、感度は、100の時に比例関数であり、0に近づくほど下に凸の関数であってもよい。つまり、感度100の場合は、ユーザの目の動きとアバターの目の動きは完全に同期しており、感度が50等の場合には、ユーザの目等が中心からあまり動かない場合にはアバターの目等の動きはユーザの目の移動距離よりも小さく反映され、目尻などに目が移動した場合には、アバターの目等の動きはユーザの目の移動距離よりも大きく反映される。これにより、ユーザがあまり目を動かさない場合に、アバターの目が即時的に反映され「ギョロギョロ」と動くことを防ぐことができる。
また、上記感度の設定は、目に限られない。目以外の顔の部位、身体の部位についても、同様の設定を受け付けてもよい。
このとき、端末装置10の制御部190は、ユーザから受け付け可能な変化の程度の設定として、ユーザの発話の変化よりも低い程度で受け付けてよい。例えば、制御部190は、ユーザの発話から推定さえるアバターの変化の度合い(オブジェクトの変化量、オブジェクトの変化速度)よりも低くなるよう、ユーザから当該設定を受け付けてもよい。このとき、制御部190は、ユーザが設定可能範囲にない数値等を設定しようとした場合には、所定のアラートを表示しても良いし、設定画面がスライダ式などの場合には、予めその数値にならないようにロックしていてもよい。
これにより、ユーザは、自身の発話の変化よりもアバターを緩やかに動かすことで、視聴者に与えるアバターの変化の度合いを滑らかにすることができ、より視聴者に没入感を与えることができる。
これにより、ユーザは、自身の設定によりアバターの態様を変化させる際に、事前に違和感などを確認することができる。
制御部190は、当該提示された設定の候補に対するユーザからの選択を受け付けることで、アバターの態様の変化、例えば、アバターの口の態様、口以外の顔の部位の態様を変化させてもよい。
これにより、ユーザは、発話から推定される感情に基づいて、アバターに様々な変化、動作をさせることができるため、視聴者により没入感を与えることができる。
これにより、ユーザは、発話に関係なく、演出等でアバターの態様を変化させようとしている時でも、簡易にアバターの態様を変化させることができる。
これにより、ユーザは、自身のアバターが人間とは異なる属性である場合にも、違和感のない態様の変化の設定を行うことができる。
また、ある局面において、制御部190は、アバターに特殊部位が存在する場合に、ユーザに対し、当該部位の態様の変化の度合いを設定するための画面を表示してもよい。制御部190は、例えば、他の部位の設定と同期する場合には、当該他のアバターの部位の変化の設定を反映してもよいし、ユーザに対し、別途詳細に態様の変化の度合いを設定する画面を提示してもよい。
これにより、ユーザは、自身のアバターに特殊な部位が存在する場合でも、自由に態様の変化の度合いを設定することができ、視聴者により没入感を与えることができる。
これにより、ユーザは、アバターに特殊部位が存在する場合でも、その態様の変化を確認しながら視聴者に配信を行うことができる。
これまでは、ユーザの発話の音声スペクトルから、アバターの口の態様を変化させる一連の処理について説明した。
第2の実施形態に係る発明では、ユーザの発話の音声スペクトル以外にも、ユーザのセンシング結果に基づいて、アバターの態様、例えば、1または複数の顔の部位の態様を変化させることができる。以下、当該一連の処理について説明する。なお、第1の実施形態と共通の構成を持つ部分(例えば、端末装置10、サーバ20等)についての説明は省略し、第2の実施形態に特有の構成、処理についてのみ説明する。
以下、システム1が、ユーザの顔の部位であって、1または複数の顔の部位の動きをセンシングし、センシングした1または複数の顔の部位の動きに基づいて、ユーザに対応するアバターの1または複数の顔の部位の態様を変化させる際の一連の処理について説明する。
このとき、端末装置10の制御部190は、ユーザの1または複数の顔の部位として、ユーザの眉、瞼、目頭、目尻、眼球、瞳孔、口からなる群の少なくとも1つをセンシングする。しかし、当該部位は限定されず、他の顔の部位(頬、額等)であってもよい。
・アバターの態様の変化量(例えば、目等の開閉の変化量等)
これにより、ユーザは、自身のセンシング結果にアバターの態様の変化を追随させる度合いを細かく調整でき、動きの違和感を視聴者に与えることを防ぐことができる。
これにより、ユーザは、自身のセンシング結果に応じて徐々にアバターの態様を変化させることができ、自然な動きを視聴者に見せることができる。これにより、ユーザは、視聴者にユーザの動作とアバターの態様の変化とに生じる違和感を与えることを防ぐことができるため、より視聴者に没入感を与えることができる。
・眉、目等の顔の部位のうち対になっている部位
・眉と目のように連動して動作する部位
・顔の部位と顔以外の身体の部位(肩、腕、足、首等)
他にも、制御部190は、後述するアバターの属性によって、顔の部位と顔以外の特殊部位とを関連付ける設定を受け付けてもよい。
これにより、ユーザは、複数の顔の部位のうち、対になっている部位、連動して動作する部位などに対し、個別に度合いを設定することがなく、簡易にアバターの態様を変化させ配信することができる。
これにより、ユーザは、センシング結果に基づいてアバターの顔の部位の態様を変化させる際、逐一追随の程度を設定せずともよく、より配信を簡易に行うことができる。
これにより、ユーザは、人間とは異なるアバターを操作していても、自身の発話、顔のセンシング結果に基づいて、より自然な動きを視聴者に提示することができる。
・ユーザが単位時間に発話した単語の量(発話の速度)
・ユーザの音声の大小の変化
・ユーザの音声の高低の変化
例えば、制御部190は、下記のような処理を実行することで、ユーザの発話の変化から推定されるアバターの変化の程度よりも低くアバターの態様を変化させる。
・ユーザから取得した音声スペクトルにおける母音の変化にかかわらず、一定の時間間隔で、口の動きをアバターに反映させる
制御部190は、当該取得した発話の変化の程度の情報に基づいて、センシング結果に追随する度合いの程度の設定可能な範囲を特定する。例えば、制御部190は、上記取得した発話の変化の程度から前述の変化量等が、当該発話の変化の程度を超えないようにユーザからの度合いの設定を受け付けることとしてもよい。
これにより、ユーザは、センシング結果だけでなく、音声スペクトルの情報に基づいてアバターの顔の態様を変化させることができ、より自然な動きでアバターを視聴者に見せることができる。
また、制御部190は、設定される範囲外の音声スペクトルを検出したことに応答して、予め定められた度合いの設定であって、第1の度合いの設定とは異なる第2の度合いの設定に基づいて、アバターの1または複数の顔の部位の態様を変化させてもよい。このとき、第2の度合いの設定は、例えば、ユーザが極端に高い周波数の声(金切声等)を発した場合等に、ユーザから受け付けた度合い(第1の度合い)の設定ではなく、予め設定されていた、当該周波数に対応した度合い(第2の度合い)を反映してアバターの顔の態様を変化させてもよい。
これにより、ユーザは、通常発声しない周波数の発声を行った場合でも、アバターの顔の態様を変化させることができ、視聴者により没入感を与えることができる。
・ユーザが口にマスク等を着用しており、口の動きをセンシングできない場合
・端末装置10のセンシング機能のエラーにより口の動きをセンシングできない場合
・外部環境により口の動きをセンシングできない場合
これにより、ユーザは、例えば、マスクを着用して配信しなければならない時などでも、アバターの口の態様を自身の発話に合わせて変化させることができる。
また、このとき、ユーザの感情を推定できない場合、制御部190は、ユーザが予め設定した設定に基づいて1または複数の顔の部位の態様を変化させてもよい。
例えば、制御部190は、ユーザの顔の部位のセンシングが正確に行えない場合、センシング結果に類似する感情の候補が推定できない場合等に、ユーザから「平穏」の口の対応の設定を受け付けていると、アバターの口の態様を、「平穏」の感情に基づいた態様に変化させる。
これにより、ユーザは、センシングが正確に行えない場合でも、感情の候補を選択することで、アバターの態様の変化にユーザの感情を反映させることができる。
これにより、ユーザは、関連付けて態様を変化させる部位に対し、極端に変化の度合いに差が生じた状態で態様を変化させることを防ぐことができる。
また、制御部190は、当該設定を対になる部位以外にも、頬と眉等、連動して変化する部位(特殊部位等も含んでいてもよい)に対して設定しても良い。
さらに、制御部190は、所定の通知をユーザに提示する際、度合いの差を、所定の範囲内に設定した場合の少なくとも1または複数の顔の部位が変化する様子をユーザに提示してもよい。例えば、制御部190は、上述した通知を表示する画面とは異なる画面上に、度合いの差が適正範囲(視聴者に違和感を与えない範囲)である場合のアバターの態様の変化の様子を表示してもよい。
これにより、ユーザは、自身が設定した態様の変化の程度の度合いが所定の閾値を超過した場合に、適切な数値に設定した場合の態様の変化の様子とともに確認することができる。
・角、尻尾、羽等、アバターが人間以外であった場合に備えている特殊部位
・アバターの顔とは異なる身体の部位(腕、肩、足など)
これにより、ユーザは、アバターが人間以外、また、無機物などであった場合にも、自身のセンシング結果に追随して態様を変化させることができる。
図11~図17は、第2の実施形態において開示される、ユーザのセンシング結果に基づいてアバターの態様を変化させる際の各種画面例を示す図である。
・ユーザの顔の部位のうち、センシングを実行する部位の選択
・センシングした部位のうち、関連付ける部位の選択
・変化の度合いの候補の選択
これにより、ユーザは、場合によりセンシング箇所を減らすこともでき、配信時の負荷を減らすことができる。
・口の切り替え速さ
・目の動き:上方向の最大値
・目の動き:下方向の最大値
・目の動き:横方向の最大値
・目の動き:感度
このとき、端末装置10の制御部190は、アバターの1または複数の顔の部位の態様を、センシングされた結果に追随させる度合いの設定として、演者の発話の変化の程度に関連付けられた範囲で設定可能に受け付けてよい。例えば、制御部190は、ユーザの発話から推定さえるアバターの変化の度合い(オブジェクトの変化量、オブジェクトの変化速度)よりも低くなるよう、ユーザから当該設定を受け付けてもよい。このとき、制御部190は、ユーザが設定可能範囲にない数値等を設定しようとした場合には、所定のアラートを表示しても良いし、設定画面がスライダ式などの場合には、予めその数値にならないようにロックしていてもよい。
これにより、ユーザは、自身の発話の変化よりもアバターを緩やかに動かすことで、視聴者に与えるアバターの変化の度合いを滑らかにすることができ、より視聴者に没入感を与えることができる。
これにより、ユーザは、自身の設定によりアバターの態様を変化させる際に、事前に違和感などを確認することができる。
制御部190は、ユーザから感情の候補の選択を受け付けると、当該感情に対応したアバターの態様の変化の程度の度合いを反映させる。
例えば、制御部190は、ユーザから予め、ユーザの感情に応じた顔の部位のセンシング結果を取得して関連付けておいてもよい。その後、制御部190は、カメラ160等を介してユーザの顔のセンシングを行い、当該関連付けた感情に含まれる顔のセンシング結果と全て、または一部が合致するかを判定する。その後、制御部190は、当該判定結果に基づいて、ユーザの感情の候補を提示し、ユーザからの選択を受け付け、当該選択された感情に基づいて、アバターの顔の態様を変化させてもよい。
また、このとき、ユーザの感情を推定できない場合、制御部190は、ユーザが予め設定した設定に基づいて1または複数の顔の部位の態様を変化させてもよい。
これにより、ユーザは、センシングが正確に行えない場合でも、感情の候補を選択することで、アバターの態様の変化にユーザの感情を反映させることができる。
例えば、制御部190は、ユーザが眼帯等を着用しており、片目のセンシングが困難、または不可能である場合、センシング結果を取得したもう一方の目の変化の度合いを反映させてもよい。これにより、ユーザは、眼帯などを着用している場合でも、ユーザに対応するアバターはその影響を受けずに態様を変化させることができる。
例えば、制御部190は、ウェアラブルデバイス情報1803、またはウェアラブルデバイス情報データベース2023を参照し、ユーザが着用しているウェアラブルデバイスの情報を取得する。その後、制御部190は、前述のサーバ20における変化補正モジュール2040と同様の処理を実行し、度合いの設定を補正してもよい。
例えば、制御部190は、ユーザが口にマスク等を着用しており、口の動きをセンシングできない場合には、前述したように、ユーザのセンシング結果ではなく、ユーザの発話の音声スペクトルから、アバターの口の態様を変化させてもよい。
これにより、ユーザは、例えば、マスクを着用して配信しなければならない時などでも、アバターの口の態様を自身の発話に合わせて変化させることができる。
これにより、ユーザは、自身が設定した態様の変化の程度の度合いが所定の閾値を超過した場合に、適切な数値に設定した場合の態様の変化の様子とともに確認することができる。
本実施形態の変形例について説明する。すなわち、以下のような態様を採用してもよい。
(1)情報処理装置であって、このプログラムが予めインストールされていてもよいし、事後的にインストールされてもよいし、このようなプログラムを外部の非一時的な記憶媒体に記憶させてもよいし、クラウドコンピューティングで動作させてもよい。
(2)方法であって、コンピュータを情報処理装置として機能させ、当該情報処理装置に、このプログラムが予めインストールされていてもよいし、事後的にインストールされてもよいし、このようなプログラムを外部の非一時的な記憶媒体に記憶させてもよいし、クラウドコンピューティングで動作させてもよい。
以上の各実施形態で説明した事項を以下に付記する。
プロセッサ29を備えるコンピュータ20によって実行されるプログラムであって、プログラムは、プロセッサ29に、演者の顔の部位であって、1または複数の顔の部位の動きをセンシングするステップ(S1001)と、センシングした1または複数の顔の部位の動きに基づいて、演者に対応するアバターの1または複数の顔の部位の態様を変化させるステップ(S1002)と、アバターの1または複数の顔の部位の態様を、センシングされた結果に追随させる度合いの設定を受け付けるステップ(S1003)と、を実行させ、変化させるステップ(S1002)において、度合いの設定に従って、アバターの1または複数の顔の部位の態様を変化させる、プログラム。
センシングするステップ(S1001)において、1または複数の顔の部位として、演者の眉、瞼、目頭、目尻、眼球、瞳孔、口からなる群の少なくとも1つをセンシングする、付記1に記載のプログラム。
設定を受け付けるステップ(S1003)において、アバターの1または複数の顔の部位のうち、関連付けられた所定の部位同士について、同一の設定を受け付ける、付記1または2に記載のプログラム。
プログラムは、プロセッサ29に、さらに、演者に対し、センシングされた結果に追随させる度合いの設定の1または複数の候補を提示するステップと、演者から1または複数の度合いの設定の候補の選択を受け付けるステップと、を実行させ、変化させるステップにおいて、選択を受け付けた度合いの設定に基づいて、アバターの1または複数の顔の部位の態様を変化させる、付記1から3のいずれかに記載のプログラム。
プログラムは、プロセッサ29に、さらに、演者の音声スペクトルを取得するステップと、取得した音声スペクトルから、演者の発話の変化の程度の情報を取得するステップと、を実行させ、度合いの設定を受け付けるステップにおいて、度合いの設定を、演者の発話の変化の程度に関連付けられた範囲で設定可能に受け付け、変化させるステップにおいて、度合いの設定に従って、アバターの1または複数の顔の部位の態様を変化させる、付記1から4のいずれかに記載のプログラム。
設定を受け付けるステップ(S1003)において、音声スペクトルを検出する周波数の範囲の設定を受け付けており、
変化させるステップ(S1002)において、設定される範囲の音声スペクトルを検出したことに応答して、度合いの第1の設定に基づいて、アバターの1または複数の顔の部位の態様を変化させる、付記5に記載のプログラム。
変化させるステップ(S1002)において、設定される範囲外の音声スペクトルを検出したことに応答して、予め定められた度合いの設定であって、第1の度合いの設定とは異なる第2の度合いの設定に基づいて、アバターの1または複数の顔の部位の態様を変化させる、付記6に記載のプログラム。
センシングするステップ(S1001)において、演者の口の動きがセンシングできない場合には、変化させるステップ(S1002)において、発話の変化の程度に基づいて、アバターの口の態様を変化させる、付記5に記載のプログラム。
設定を受け付けるステップ(S1003)において、演者からアバターの属性を受け付け、当該属性に基づいて、度合いを補正する、付記1から8のいずれかに記載のプログラム。
設定を受け付けるステップ(S1003)において、属性として、人間、または人間とは1または複数の顔の部位の態様の変化の様子が異なる人間以外のいずれかの情報を受け付け、当該属性に基づいて度合いを補正する、付記9に記載のプログラム。
プログラムは、プロセッサ29に、さらに、演者の1または複数の感情の候補を推定するステップと、推定した演者の1または複数の感情の候補を演者に提示するステップと、演者から、演者の1または複数の感情の候補のうち、1つの感情を選択するための入力操作を受け付けるステップと、を実行させ、変化させるステップ(S1002)において、演者から選択された感情に基づいて、演者に対応するアバターの1または複数の顔の部位の態様を変化させる、付記1から10のいずれかに記載のプログラム。
推定するステップにおいて、演者の感情を推定できない場合、変化させるステップ(S 1002)において、演者が予め設定した設定に基づいて1または複数の顔の部位の態様を変化させる、付記11に記載のプログラム。
プログラムは、プロセッサ29に、さらに、演者の1または複数の顔の部位のうち、関連づけられている部位の少なくとも1つセンシング結果が取得できない場合、センシング結果が取得できた部位の度合いを、関連付けられている、当該部位に適用するステップを実行させる、付記1から12のいずれかに記載のプログラム。
プログラムは、プロセッサ29に、さらに、演者が装着しているウェアラブルデバイスの情報を取得するステップと、当該取得したウェアラブルデバイスの情報に基づいて、度合いの設定を補正するステップと、を実行させる、付記1から13のいずれかに記載のプログラム。
度合いの設定を補正するステップにおいて、演者から、補正の度合いを調整するための入力操作を受け付ける、付記14に記載のプログラム。
プログラムは、プロセッサに、さらに、アバターの1または複数の顔の部位のうち、予め関連付けられている部位同士で、度合いの設定の差異が所定の閾値を超過した場合に、所定の通知を演者に提示するステップを実行させる、付記1から15のいずれかに記載のプログラム。
設定を受け付けるステップ(S1003)において、度合いの設定を受け付けた1または複数の顔の部位と関連する部位の度合いを、予め定められた値に設定する、付記1から16のいずれかに記載のプログラム。
所定の通知を演者に提示するステップにおいて、度合いの差が所定の閾値を超過した部位を異なる態様で当該数値とともに演者に提示する、付記16に記載のプログラム。
所定の通知を演者に提示するステップにおいて、プログラムは、度合いの差を、所定の範囲内に設定した場合の少なくとも1または複数の顔の部位が変化する様子を演者に提示する、付記18に記載のプログラム。
設定を受け付けるステップ(S1003)において、アバターの1または複数の部位ごとに、予め定められた範囲内で度合いの設定を受け付ける、付記1から19のいずれかに記載のプログラム。
プロセッサ29を備えるコンピュータ20によって実行される方法であって、方法は、プロセッサ29が、演者の顔の部位であって、1または複数の顔の部位の動きをセンシングするステップ(S 1001)と、センシングした1または複数の顔の部位の動きに基づいて、演者に対応するアバターの1または複数の顔の部位の態様を変化させるステップ(S1002)と、アバターの1または複数の顔の部位の態様を、センシングされた結果に追随させる度合いの設定を受け付けるステップ(S1003)と、を実行し、変化させるステップ(S1002)において、度合いの設定に従って、アバターの1または複数の顔の部位の態様を変化する、方法。
制御部203を備える情報処理装置20であって、制御部203が、演者の顔の部位であって、1または複数の顔の部位の動きをセンシングするステップ(S1001)と、センシングした1または複数の顔の部位の動きに基づいて、演者に対応するアバターの1または複数の顔の部位の態様を変化させるステップ(S1002)と、アバターの1または複数の顔の部位の態様を、センシングされた結果に追随させる度合いの設定を受け付けるステップ(S1003)と、を実行し、変化させるステップ(S1002)において、度合いの設定に従って、アバターの1または複数の顔の部位の態様を変化する、情報処理装置20。
Claims (22)
- プロセッサを備えるコンピュータによって実行されるプログラムであって、前記プログラムは、前記プロセッサに、
演者の顔の部位であって、1または複数の顔の部位の動きをセンシングするステップと、
前記センシングした前記1または複数の顔の部位の動きに基づいて、前記演者に対応するアバターの1または複数の顔の部位の態様を変化させるステップと、
前記アバターの前記1または複数の顔の部位の態様を、前記センシングされた結果に追随させる度合いの設定を受け付けるステップと、を実行させ、
前記変化させるステップにおいて、前記度合いの設定に従って、前記アバターの1または複数の顔の部位の態様を変化させる、プログラム。 - 前記センシングするステップにおいて、前記1または複数の顔の部位として、前記演者の眉、瞼、目頭、目尻、眼球、瞳孔、口からなる群の少なくとも1つをセンシングする、請求項1に記載のプログラム。
- 前記設定を受け付けるステップにおいて、前記アバターの前記1または複数の顔の部位のうち、関連付けられた所定の部位同士について、同一の設定を受け付ける、請求項1に記載のプログラム。
- 前記プログラムは、前記プロセッサに、さらに、前記演者に対し、前記センシングされた結果に追随させる度合いの設定の1または複数の候補を提示するステップと、
前記演者から前記1または複数の前記度合いの設定の候補の選択を受け付けるステップと、を実行させ、
前記変化させるステップにおいて、前記選択を受け付けた度合いの設定に基づいて、前記アバターの1または複数の顔の部位の態様を変化させる、請求項1に記載のプログラム。 - 前記プログラムは、前記プロセッサに、さらに、前記演者の音声スペクトルを取得するステップと、
前記取得した音声スペクトルから、前記演者の発話の変化の程度の情報を取得するステップと、を実行させ、
前記度合いの設定を受け付けるステップにおいて、前記度合いの設定を、前記演者の発話の変化の程度に関連付けられた範囲で設定可能に受け付け、
前記変化させるステップにおいて、前記度合いの設定に従って、前記アバターの1または複数の顔の部位の態様を変化させる、請求項1に記載のプログラム。 - 前記設定を受け付けるステップにおいて、前記音声スペクトルを検出する周波数の範囲の設定を受け付けており、
前記変化させるステップにおいて、前記設定される範囲の音声スペクトルを検出したことに応答して、前記度合いの第1の設定に基づいて、前記アバターの1または複数の顔の部位の態様を変化させる、請求項5に記載のプログラム。 - 前記変化させるステップにおいて、前記設定される範囲外の音声スペクトルを検出したことに応答して、予め定められた前記度合いの設定であって、前記度合いの第1の設定とは異なる度合いの第2の設定に基づいて、前記アバターの1または複数の顔の部位の態様を変化させる、請求項6に記載のプログラム。
- 前記センシングするステップにおいて、前記演者の口の動きがセンシングできない場合には、前記変化させるステップにおいて、前記発話の変化の程度に基づいて、前記アバターの口の態様を変化させる、請求項5に記載のプログラム。
- 前記設定を受け付けるステップにおいて、
前記演者から前記アバターの属性を受け付け、当該属性に基づいて、前記度合いを補正する、請求項1に記載のプログラム。 - 前記設定を受け付けるステップにおいて、前記属性として、人間、または人間とは1または複数の顔の部位の態様の変化の様子が異なる人間以外のいずれかの情報を受け付け、当該属性に基づいて前記度合いを補正する、請求項9に記載のプログラム。
- 前記プログラムは、前記プロセッサに、さらに、前記演者の1または複数の感情の候補
を推定するステップと、
前記推定した前記演者の1または複数の感情の候補を前記演者に提示するステップと、
前記演者から、前記演者の1または複数の感情の候補のうち、1つの感情を選択するための入力操作を受け付けるステップと、を実行させ、
前記変化させるステップにおいて、前記演者から選択された前記感情に基づいて、前記演者に対応するアバターの1または複数の顔の部位の態様を変化させる、請求項1に記載のプログラム。 - 前記推定するステップにおいて、前記演者の感情を推定できない場合、前記変化させるステップにおいて、前記演者が予め設定した設定に基づいて前記1または複数の顔の部位の態様を変化させる、請求項11に記載のプログラム。
- 前記プログラムは、前記プロセッサに、さらに、前記演者の1または複数の顔の部位のうち、関連づけられている部位の少なくとも1つセンシング結果が取得できない場合、センシング結果が取得できた部位の前記度合いを、前記関連付けられている、当該部位に適用するステップを実行させる、請求項1に記載のプログラム。
- 前記プログラムは、前記プロセッサに、さらに、前記演者が装着しているウェアラブルデバイスの情報を取得するステップと、
当該取得した前記ウェアラブルデバイスの情報に基づいて、前記度合いの設定を補正するステップと、を実行させる、請求項1に記載のプログラム。 - 前記度合いの設定を補正するステップにおいて、前記演者から、補正の度合いを調整するための入力操作を受け付ける、請求項14に記載のプログラム。
- 前記プログラムは、前記プロセッサに、さらに、前記アバターの1または複数の顔の部位のうち、予め関連付けられている部位同士で、前記度合いの設定の差異が所定の閾値を超過した場合に、所定の通知を前記演者に提示するステップを実行させる、請求項1に記載のプログラム。
- 前記設定を受け付けるステップにおいて、前記度合いの設定を受け付けた前記1または複数の顔の部位と関連する部位の度合いを、予め定められた値に設定する、請求項1に記載のプログラム。
- 前記所定の通知を前記演者に提示するステップにおいて、前記度合いの差が前記所定の閾値を超過した部位を異なる態様で当該数値とともに前記演者に提示する、請求項16に記載のプログラム。
- 前記所定の通知を前記演者に提示するステップにおいて、前記プログラムは、前記度合いの差を、前記所定の範囲内に設定した場合の前記アバターの1または複数の顔の部位が変化する様子を前記演者に提示する、請求項18に記載のプログラム。
- 前記設定を受け付けるステップにおいて、前記アバターの1または複数の部位ごとに、予め定められた範囲内で前記度合いの設定を受け付ける、請求項1に記載のプログラム。
- プロセッサを備えるコンピュータによって実行される方法であって、前記方法は、前記プロセッサが、
演者の顔の部位であって、1または複数の顔の部位の動きをセンシングするステップと、
前記センシングした前記1または複数の顔の部位の動きに基づいて、前記演者に対応するアバターの1または複数の顔の部位の態様を変化させるステップと、
前記アバターの前記1または複数の顔の部位の態様を、前記センシングされた結果に追随させる度合いの設定を受け付けるステップと、を実行し、
前記変化させるステップにおいて、前記度合いの設定に従って、前記アバターの1または複数の顔の部位の態様を変化する、方法。 - 制御部を備える情報処理装置であって、前記制御部が、
演者の顔の部位であって、1または複数の顔の部位の動きをセンシングするステップと、
前記センシングした前記1または複数の顔の部位の動きに基づいて、前記演者に対応するアバターの1または複数の顔の部位の態様を変化させるステップと、
前記アバターの前記1または複数の顔の部位の態様を、前記センシングされた結果に追随させる度合いの設定を受け付けるステップと、を実行し、
前記変化させるステップにおいて、前記度合いの設定に従って、前記アバターの1または複数の顔の部位の態様を変化する、情報処理装置。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022104993A JP7204984B1 (ja) | 2022-06-29 | 2022-06-29 | プログラム、方法、情報処理装置 |
JP2022211425A JP2024006906A (ja) | 2022-06-29 | 2022-12-28 | プログラム、方法、情報処理装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022104993A JP7204984B1 (ja) | 2022-06-29 | 2022-06-29 | プログラム、方法、情報処理装置 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022211425A Division JP2024006906A (ja) | 2022-06-29 | 2022-12-28 | プログラム、方法、情報処理装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP7204984B1 true JP7204984B1 (ja) | 2023-01-16 |
JP2024005023A JP2024005023A (ja) | 2024-01-17 |
Family
ID=84901090
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022104993A Active JP7204984B1 (ja) | 2022-06-29 | 2022-06-29 | プログラム、方法、情報処理装置 |
JP2022211425A Pending JP2024006906A (ja) | 2022-06-29 | 2022-12-28 | プログラム、方法、情報処理装置 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022211425A Pending JP2024006906A (ja) | 2022-06-29 | 2022-12-28 | プログラム、方法、情報処理装置 |
Country Status (1)
Country | Link |
---|---|
JP (2) | JP7204984B1 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7422910B1 (ja) | 2023-02-20 | 2024-01-26 | Kddi株式会社 | 情報処理装置、情報処理方法及びプログラム |
WO2024218970A1 (ja) * | 2023-04-21 | 2024-10-24 | 日本電信電話株式会社 | 仮想空間生成装置、仮想空間生成方法、及びプログラム |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018532216A (ja) | 2015-09-07 | 2018-11-01 | ソニー インタラクティブ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー | 画像正則化及びリターゲティングシステム |
JP2021170168A (ja) | 2020-04-14 | 2021-10-28 | グリー株式会社 | コンピュータプログラム、サーバ装置、端末装置、及び方法 |
-
2022
- 2022-06-29 JP JP2022104993A patent/JP7204984B1/ja active Active
- 2022-12-28 JP JP2022211425A patent/JP2024006906A/ja active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018532216A (ja) | 2015-09-07 | 2018-11-01 | ソニー インタラクティブ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー | 画像正則化及びリターゲティングシステム |
JP2021170168A (ja) | 2020-04-14 | 2021-10-28 | グリー株式会社 | コンピュータプログラム、サーバ装置、端末装置、及び方法 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7422910B1 (ja) | 2023-02-20 | 2024-01-26 | Kddi株式会社 | 情報処理装置、情報処理方法及びプログラム |
WO2024218970A1 (ja) * | 2023-04-21 | 2024-10-24 | 日本電信電話株式会社 | 仮想空間生成装置、仮想空間生成方法、及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
JP2024006906A (ja) | 2024-01-17 |
JP2024005023A (ja) | 2024-01-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108886532B (zh) | 用于操作个人代理的装置和方法 | |
JP6841167B2 (ja) | コミュニケーション装置、コミュニケーションロボットおよびコミュニケーション制御プログラム | |
JP7517390B2 (ja) | コミュニケーション支援プログラム、コミュニケーション支援方法、コミュニケーション支援システム、端末装置及び非言語表現プログラム | |
JP7204984B1 (ja) | プログラム、方法、情報処理装置 | |
US20210205987A1 (en) | System and method for dynamic robot configuration for enhanced digital experiences | |
JP2021044001A (ja) | 情報処理システム、制御方法、およびプログラム | |
WO2019040524A1 (en) | METHOD AND SYSTEM FOR MUSIC COMMUNICATION | |
CN109819167B (zh) | 一种图像处理方法、装置和移动终端 | |
US20190202061A1 (en) | System and method for detecting physical proximity between devices | |
US20190248012A1 (en) | System and method for dynamic program configuration | |
JP7194371B1 (ja) | プログラム、方法、情報処理装置 | |
JP2024063117A (ja) | コンピュータプログラム、サーバ装置、端末装置、及び方法 | |
CN113426129B (zh) | 自定义角色的相貌调整方法、装置、终端和存储介质 | |
WO2021210585A1 (ja) | コンピュータプログラム、サーバ装置、端末装置、及び方法 | |
JP7339420B1 (ja) | プログラム、方法、情報処理装置 | |
US20190278365A1 (en) | Control apparatus and process | |
US11301615B2 (en) | Information processing device using recognition difficulty score and information processing method | |
WO2018168247A1 (ja) | 情報処理装置、情報処理方法およびプログラム | |
JP2022033220A (ja) | コンピュータプログラム、サーバ装置、端末装置、及び方法 | |
US12097427B1 (en) | Alternate avatar controls | |
US20240203435A1 (en) | Information processing method, apparatus and computer program | |
US20240071363A1 (en) | Electronic device and method of controlling text-to-speech (tts) rate | |
JP2023106649A (ja) | 情報処理装置、情報処理方法及びコンピュータプログラム | |
CN118092630A (zh) | 可穿戴设备、面部图像重建方法及装置、存储介质 | |
CN118981266A (zh) | 计算机可读取的存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220629 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20220629 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220926 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221124 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221202 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221228 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7204984 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |