JP7152791B2 - クロスリンガル音声変換システムおよび方法 - Google Patents
クロスリンガル音声変換システムおよび方法 Download PDFInfo
- Publication number
- JP7152791B2 JP7152791B2 JP2020215179A JP2020215179A JP7152791B2 JP 7152791 B2 JP7152791 B2 JP 7152791B2 JP 2020215179 A JP2020215179 A JP 2020215179A JP 2020215179 A JP2020215179 A JP 2020215179A JP 7152791 B2 JP7152791 B2 JP 7152791B2
- Authority
- JP
- Japan
- Prior art keywords
- speech
- speaker
- features
- voice
- candidate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 72
- 238000006243 chemical reaction Methods 0.000 title claims description 34
- 230000001419 dependent effect Effects 0.000 claims description 96
- 238000013507 mapping Methods 0.000 claims description 79
- 230000006870 function Effects 0.000 claims description 77
- 238000010801 machine learning Methods 0.000 claims description 41
- 238000012549 training Methods 0.000 claims description 23
- 238000013519 translation Methods 0.000 claims description 12
- 230000001755 vocal effect Effects 0.000 claims description 4
- 238000010586 diagram Methods 0.000 description 15
- 230000008569 process Effects 0.000 description 15
- 239000000284 extract Substances 0.000 description 12
- 238000013528 artificial neural network Methods 0.000 description 9
- 208000009119 Giant Axonal Neuropathy Diseases 0.000 description 4
- 201000003382 giant axonal neuropathy 1 Diseases 0.000 description 4
- 230000003595 spectral effect Effects 0.000 description 4
- 230000002860 competitive effect Effects 0.000 description 3
- 230000002596 correlated effect Effects 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 230000033764 rhythmic process Effects 0.000 description 2
- 238000003860 storage Methods 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000000875 corresponding effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000013213 extrapolation Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000001568 sexual effect Effects 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/58—Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/003—Changing voice quality, e.g. pitch or formants
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/003—Changing voice quality, e.g. pitch or formants
- G10L21/007—Changing voice quality, e.g. pitch or formants characterised by the process used
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0475—Generative networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/005—Language recognition
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/16—Speech classification or search using artificial neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/02—Preprocessing operations, e.g. segment selection; Pattern representation or modelling, e.g. based on linear discriminant analysis [LDA] or principal components; Feature selection or extraction
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/42—Data-driven translation
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Theoretical Computer Science (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- Acoustics & Sound (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Quality & Reliability (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Computing Systems (AREA)
- Signal Processing (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Molecular Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Probability & Statistics with Applications (AREA)
- Electrically Operated Instructional Devices (AREA)
- Machine Translation (AREA)
- Circuit For Audible Band Transducer (AREA)
Description
この出願は、参照によって本明細書に組み込まれている、2019年12月30日に出願された米国仮出願特許第62/955227号の利益を主張する。
Claims (20)
- 機械学習システムによって実行されるクロスリンガル音声変換の方法であって、前記方法は、
音声特徴抽出器によって、第1の言語の第1の音声オーディオセグメントおよび第2の言語の第2の音声オーディオセグメントを受信することと、
前記音声特徴抽出器によって、前記第1の音声オーディオセグメントおよび前記第2の音声オーディオセグメントからそれぞれ、第1の音声の話者依存音響特徴および第2の音声の話者非依存言語特徴を含むオーディオ特徴を抽出することと、
敵対的生成ネットワーク(GAN)システムの生成器を介して、トレーニング済みデータセットから、前記第1の音声の話者依存音響特徴および前記第2の音声の話者非依存言語特徴を有する第3の音声候補であって、前記第2の言語を話す第3の音声候補を生成することと、
前記GANシステムの1つ以上の識別器を介して、前記第3の音声候補を前記第1の音声の話者依存音響特徴および前記第2の音声の話者非依存言語特徴を含むグラウンドトゥルースデータと比較することと、
前記第3の音声候補を改良するために、前記比較ステップの結果を前記生成器に返すことと、
を含む、方法。 - 前記話者依存音響特徴は、声道特性に関連する短時間分節的特徴を含み、前記話者非依存言語特徴は、2つ以上のセグメントにわたる音響特性に関連する超分節的特徴を含む、請求項1に記載の方法。
- 複数の第3の音声候補を生成することであって、各第3の音声候補は、異なるレベルの第1の音声の話者依存音響特徴および第2の音声の話者非依存言語特徴を含むことをさらに含む、請求項1に記載の方法。
- 音声翻訳中に使用するために前記複数の第3の音声候補のうちの1つ以上を選択することをさらに含む、請求項3に記載の方法。
- 選択された1つ以上の第3の音声候補を、前記機械学習システムに接続され、複数の異なるトレーニング済み第3の音声を含むデータベースに記憶することをさらに含む、請求項4に記載の方法。
- 前記GANシステムは、Variational Autoencoding Wasserstein GAN(VAW-GAN)システムまたはCycle-Consistent GAN(CycleGAN)システムである、請求項1に記載のシステム。
- 前記第1の音声は、前記第1の言語を話すオリジナルの俳優の音声であり、前記第2の音声は、前記第2の言語を話す声優である、請求項1に記載の方法。
- オリジナル版、前記オリジナルの俳優の音声による吹替版、または前記声優の音声による吹替版の選択を可能にする映画音声翻訳中に実施される、請求項7に記載の方法。
- 複数の第3の音声候補を生成することであって、各第3の音声候補は、異なるレベルの第1の音声の話者依存音響特徴および第2の音声の話者非依存言語特徴を含むことと、
異なるレベルの前記第1の音声の話者依存音響特徴および前記第2の音声の話者非依存言語特徴を含む複数の吹替版のオーディオファイルの生成において、前記複数の生成済み第3の音声候補を使用することと、
をさらに含む、請求項8に記載の方法。 - サイクル一貫性のある敵対的生成ネットワーク(CycleGAN)システムをトレーニングする方法であって、前記方法は、少なくとも敵対的損失およびサイクル一貫性損失関数を使用して順方向マッピング関数および逆方向マッピング関数を同時に学習することを含み、前記順方向マッピング関数は、
音声特徴抽出器によって、第1の言語の第1の音声オーディオセグメントを受信すること、
前記音声特徴抽出器によって、第1の音声の話者依存音響特徴を抽出すること、
前記第1の音声の話者依存音響特徴を前記CycleGANシステムの第1から第3への話者生成器に送信すること、
前記第1から第3への話者生成器によって、前記逆方向マッピング関数から第2の音声の話者非依存言語特徴を受信すること、
前記第1から第3への話者生成器によって、前記第1の音声の話者依存音響特徴および前記第2の音声の話者非依存言語特徴を使用して第3の音声候補を生成すること、および
前記CycleGANシステムの第1の識別器によって、前記第3の音声候補と前記第1の音声の話者依存音響特徴との間に矛盾があるかどうかを決定すること
を含み、
前記逆方向マッピング関数は、
前記特徴抽出器によって、第2の言語の第2の音声オーディオセグメントを受信すること、
前記特徴抽出器によって、前記第2の音声の話者非依存言語特徴を抽出すること、
前記第2の音声の話者非依存言語特徴を第2から第3への音声候補生成器に送信すること、
前記第2から第3への音声候補生成器によって、前記順方向マッピング関数から第1の音声の話者依存音響特徴を受信すること、
前記第2から第3への音声候補生成器によって、前記第2の音声の話者非依存言語特徴および前記第1の音声の話者依存音響特徴を使用して第4の音声候補を生成すること、および
第2識別器によって、前記第4の音声候補と前記第2の音声の話者非依存言語特徴との間に矛盾があるかどうかを決定すること
を含む、方法。 - 前記順方向マッピング関数は、前記第1の識別器が前記第3の音声候補と前記第1の音声の話者依存音響特徴とが一致しないと判定した場合に、前記方法をトリガして、続けて、
前記第3の音声候補を改良するために、第1の不一致情報を前記第1から第3への音声候補生成器に返し、
前記第3の音声候補を第3から第1への話者生成器に送信し、
変換済み第1の音声の話者依存音響特徴を生成し、
前記変換済み第1の音声の話者依存音響特徴を前記第1から第3への音声候補生成器に返し、
前記逆方向マッピング関数は、前記第2の識別器が前記第4の音声候補と前記第2の音声の話者非依存言語特徴とが一致しないと判定した場合に、前記方法をトリガして、続けて、
前記第4の音声候補を改良するために、第2の不一致情報を前記第2から第3への音声候補生成器に返し、
前記第4の音声候補を第3から第2への話者生成器に送信し、
変換済み第2の音声の話者非依存言語特徴を生成し、
前記変換済み第2の音声の話者非依存言語特徴を前記第2から第3への音声候補生成器に返す、請求項10に記載の方法。 - 前記第1の音声オーディオセグメントおよび前記第2の音声オーディオセグメントの各々の識別関連特徴を維持するための識別マッピング損失を採用することをさらに含む、請求項10に記載の方法。
- サーバコンピュータシステムのメモリに記憶され、少なくとも1つのプロセッサによって実装される機械学習システムであって、前記機械学習システムが、
音声特徴抽出器であって、
第1の言語の第1の音声オーディオセグメントおよび第2の言語の第2の音声オーディオセグメントを受信し、
前記第1の音声オーディオセグメントおよび前記第2の音声オーディオセグメントからそれぞれ、第1の音声の話者依存音響特徴および第2の音声の話者非依存言語特徴を含むオーディオ特徴を抽出する
ように構成された、音声特徴抽出器と、
1つ以上の生成器および1つ以上の識別器を備える敵対的生成ネットワーク(GAN)であって、前記1つ以上の生成器は、
抽出された特徴を受信し、
前記第1の音声の話者依存音響特徴および前記第2の音声の話者非依存言語特徴を有する第3の音声候補であって、前記第2の言語を話す第3の音声候補を生成する
ように構成され、
前記1つ以上の識別器は、
前記第3の音声候補を前記第1の音声の話者依存音響特徴および前記第2の音声の話者非依存言語特徴を含むグラウンドトゥルースデータと比較し、
前記第3の音声候補を改良するために、前記比較の結果を前記生成器に返す
ように構成される、敵対的生成ネットワーク(GAN)と、
を備える、機械学習システム。 - 前記話者依存音響特徴は、声道特性に関連する短時間分節的特徴を含み、前記話者非依存言語特徴は、2つ以上のセグメントにわたる音響特性に関連する超分節的特徴を含む、請求項13に記載のシステム。
- 前記1つ以上の生成器は、選択のための複数の第3の音声候補を生成するようにさらに構成される、請求項13に記載のシステム。
- 前記GANシステムは、Variational Autoencoding Wasserstein GAN(VAW-GAN)システムまたはCycle-Consistent GAN(CycleGAN)システムである、請求項13に記載のシステム。
- 前記機械学習システムに接続され、選択された1つ以上の第3の音声を記憶するように構成され、複数の異なるトレーニング済み第3の音声を含むデータベースをさらに備える、請求項13に記載のシステム。
- 前記第1の音声は、前記第1の言語を話すオリジナルの俳優の音声であり、前記第2の音声は、前記第2の言語を話す声優である、請求項13に記載のシステム。
- オリジナル版、オリジナル俳優の音声による吹替版、または声優の音声による吹替版の選択を可能にする映画音声翻訳のために構成される、請求項13に記載のシステム。
- 前記機械学習システムはさらに、
異なるレベルの前記第1の音声の話者依存音響特徴および前記第2の音声の話者非依存言語特徴を含む複数の吹替版のオーディオファイルを生成する
ように構成される、請求項13に記載のシステム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201962955227P | 2019-12-30 | 2019-12-30 | |
US62/955,227 | 2019-12-30 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021110943A JP2021110943A (ja) | 2021-08-02 |
JP7152791B2 true JP7152791B2 (ja) | 2022-10-13 |
Family
ID=74103885
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020215179A Active JP7152791B2 (ja) | 2019-12-30 | 2020-12-24 | クロスリンガル音声変換システムおよび方法 |
Country Status (8)
Country | Link |
---|---|
US (2) | US11797782B2 (ja) |
EP (2) | EP4270255A3 (ja) |
JP (1) | JP7152791B2 (ja) |
KR (1) | KR20210086974A (ja) |
CN (1) | CN113129914A (ja) |
DK (1) | DK3855340T3 (ja) |
ES (1) | ES2964322T3 (ja) |
HU (1) | HUE064070T2 (ja) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP4270255A3 (en) * | 2019-12-30 | 2023-12-06 | TMRW Foundation IP SARL | Cross-lingual voice conversion system and method |
US11600284B2 (en) * | 2020-01-11 | 2023-03-07 | Soundhound, Inc. | Voice morphing apparatus having adjustable parameters |
US12086532B2 (en) | 2020-04-07 | 2024-09-10 | Cascade Reading, Inc. | Generating cascaded text formatting for electronic documents and displays |
US11170154B1 (en) | 2021-04-09 | 2021-11-09 | Cascade Reading, Inc. | Linguistically-driven automated text formatting |
CN113539239B (zh) * | 2021-07-12 | 2024-05-28 | 网易(杭州)网络有限公司 | 语音转换方法、装置、存储介质及电子设备 |
US20240257802A1 (en) * | 2021-10-06 | 2024-08-01 | Cascade Reading, Inc. | Acoustic-based linguistically-driven automated text formatting |
US20230137652A1 (en) * | 2021-11-01 | 2023-05-04 | Pindrop Security, Inc. | Cross-lingual speaker recognition |
CN114283824B (zh) * | 2022-03-02 | 2022-07-08 | 清华大学 | 一种基于循环损失的语音转换方法及装置 |
CN115171651B (zh) * | 2022-09-05 | 2022-11-29 | 中邮消费金融有限公司 | 一种儿化音合成方法、装置、电子设备及存储介质 |
CN115312029B (zh) * | 2022-10-12 | 2023-01-31 | 之江实验室 | 一种基于语音深度表征映射的语音翻译方法及系统 |
CN116206622B (zh) * | 2023-05-06 | 2023-09-08 | 北京边锋信息技术有限公司 | 生成对抗网络的训练、方言转换方法、装置及电子设备 |
CN116741146B (zh) * | 2023-08-15 | 2023-10-20 | 成都信通信息技术有限公司 | 基于语义语调的方言语音生成方法、系统及介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009186820A (ja) | 2008-02-07 | 2009-08-20 | Hitachi Ltd | 音声処理システム、音声処理プログラム及び音声処理方法 |
JP2019101391A (ja) | 2017-12-07 | 2019-06-24 | 日本電信電話株式会社 | 系列データ変換装置、学習装置、及びプログラム |
JP2019109306A (ja) | 2017-12-15 | 2019-07-04 | 日本電信電話株式会社 | 音声変換装置、音声変換方法及びプログラム |
Family Cites Families (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100242129B1 (ko) * | 1997-06-18 | 2000-02-01 | 윤종용 | 복수 규격을 만족하는 광 디스크 |
US20120069974A1 (en) * | 2010-09-21 | 2012-03-22 | Telefonaktiebolaget L M Ericsson (Publ) | Text-to-multi-voice messaging systems and methods |
TWI413105B (zh) * | 2010-12-30 | 2013-10-21 | Ind Tech Res Inst | 多語言之文字轉語音合成系統與方法 |
GB2489473B (en) * | 2011-03-29 | 2013-09-18 | Toshiba Res Europ Ltd | A voice conversion method and system |
US9177549B2 (en) * | 2013-11-01 | 2015-11-03 | Google Inc. | Method and system for cross-lingual voice conversion |
WO2018090356A1 (en) * | 2016-11-21 | 2018-05-24 | Microsoft Technology Licensing, Llc | Automatic dubbing method and apparatus |
WO2018218081A1 (en) * | 2017-05-24 | 2018-11-29 | Modulate, LLC | System and method for voice-to-voice conversion |
US11538455B2 (en) * | 2018-02-16 | 2022-12-27 | Dolby Laboratories Licensing Corporation | Speech style transfer |
KR102473447B1 (ko) * | 2018-03-22 | 2022-12-05 | 삼성전자주식회사 | 인공지능 모델을 이용하여 사용자 음성을 변조하기 위한 전자 장치 및 이의 제어 방법 |
US20190354592A1 (en) * | 2018-05-16 | 2019-11-21 | Sharat Chandra Musham | Automated systems and methods for providing bidirectional parallel language recognition and translation processing with machine speech production for two users simultaneously to enable gapless interactive conversational communication |
CN109147758B (zh) * | 2018-09-12 | 2020-02-14 | 科大讯飞股份有限公司 | 一种说话人声音转换方法及装置 |
CN109671442B (zh) * | 2019-01-14 | 2023-02-28 | 南京邮电大学 | 基于STARGAN和x向量的多对多说话人转换方法 |
US10930263B1 (en) * | 2019-03-28 | 2021-02-23 | Amazon Technologies, Inc. | Automatic voice dubbing for media content localization |
CN110060691B (zh) * | 2019-04-16 | 2023-02-28 | 南京邮电大学 | 基于i向量和VARSGAN的多对多语音转换方法 |
US11854562B2 (en) * | 2019-05-14 | 2023-12-26 | International Business Machines Corporation | High-quality non-parallel many-to-many voice conversion |
US11715485B2 (en) * | 2019-05-17 | 2023-08-01 | Lg Electronics Inc. | Artificial intelligence apparatus for converting text and speech in consideration of style and method for the same |
KR102581346B1 (ko) * | 2019-05-31 | 2023-09-22 | 구글 엘엘씨 | 다국어 음성 합성 및 언어간 음성 복제 |
CN110246488B (zh) * | 2019-06-14 | 2021-06-25 | 思必驰科技股份有限公司 | 半优化CycleGAN模型的语音转换方法及装置 |
US20220405492A1 (en) * | 2019-07-22 | 2022-12-22 | wordly, Inc. | Systems, methods, and apparatus for switching between and displaying translated text and transcribed text in the original spoken language |
CN110459232A (zh) * | 2019-07-24 | 2019-11-15 | 浙江工业大学 | 一种基于循环生成对抗网络的语音转换方法 |
CN110600046A (zh) * | 2019-09-17 | 2019-12-20 | 南京邮电大学 | 基于改进的STARGAN和x向量的多对多说话人转换方法 |
KR20190114938A (ko) * | 2019-09-20 | 2019-10-10 | 엘지전자 주식회사 | 다국어 커뮤니케이션을 수행하기 위한 장치 및 방법 |
EP4270255A3 (en) * | 2019-12-30 | 2023-12-06 | TMRW Foundation IP SARL | Cross-lingual voice conversion system and method |
EP4334932A1 (en) * | 2021-05-05 | 2024-03-13 | Deep Media Inc. | Audio and video translator |
-
2020
- 2020-12-23 EP EP23192006.7A patent/EP4270255A3/en active Pending
- 2020-12-23 HU HUE20217111A patent/HUE064070T2/hu unknown
- 2020-12-23 ES ES20217111T patent/ES2964322T3/es active Active
- 2020-12-23 DK DK20217111.2T patent/DK3855340T3/da active
- 2020-12-23 EP EP20217111.2A patent/EP3855340B1/en active Active
- 2020-12-24 JP JP2020215179A patent/JP7152791B2/ja active Active
- 2020-12-28 CN CN202011581807.0A patent/CN113129914A/zh active Pending
- 2020-12-28 KR KR1020200184379A patent/KR20210086974A/ko active IP Right Grant
- 2020-12-30 US US17/138,642 patent/US11797782B2/en active Active
-
2023
- 2023-09-28 US US18/374,583 patent/US20240028843A1/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009186820A (ja) | 2008-02-07 | 2009-08-20 | Hitachi Ltd | 音声処理システム、音声処理プログラム及び音声処理方法 |
JP2019101391A (ja) | 2017-12-07 | 2019-06-24 | 日本電信電話株式会社 | 系列データ変換装置、学習装置、及びプログラム |
JP2019109306A (ja) | 2017-12-15 | 2019-07-04 | 日本電信電話株式会社 | 音声変換装置、音声変換方法及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
EP4270255A3 (en) | 2023-12-06 |
CN113129914A (zh) | 2021-07-16 |
US11797782B2 (en) | 2023-10-24 |
EP4270255A2 (en) | 2023-11-01 |
JP2021110943A (ja) | 2021-08-02 |
HUE064070T2 (hu) | 2024-02-28 |
US20240028843A1 (en) | 2024-01-25 |
US20210200965A1 (en) | 2021-07-01 |
EP3855340B1 (en) | 2023-08-30 |
DK3855340T3 (da) | 2023-12-04 |
EP3855340A2 (en) | 2021-07-28 |
ES2964322T3 (es) | 2024-04-05 |
KR20210086974A (ko) | 2021-07-09 |
EP3855340A3 (en) | 2021-08-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7152791B2 (ja) | クロスリンガル音声変換システムおよび方法 | |
EP3895159B1 (en) | Multi-speaker neural text-to-speech synthesis | |
EP3994683B1 (en) | Multilingual neural text-to-speech synthesis | |
KR20230018538A (ko) | 음성 대 음성 변환을 위한 시스템 및 방법 | |
EP4205109A1 (en) | Synthesized data augmentation using voice conversion and speech recognition models | |
Blaauw et al. | Data efficient voice cloning for neural singing synthesis | |
US9412359B2 (en) | System and method for cloud-based text-to-speech web services | |
JP7462739B2 (ja) | シーケンス-シーケンス・ニューラル・モデルにおける構造保持注意機構 | |
US20210327446A1 (en) | Method and apparatus for reconstructing voice conversation | |
CN112530400A (zh) | 基于深度学习的文本生成语音的方法、系统、装置及介质 | |
Kumar et al. | Towards building text-to-speech systems for the next billion users | |
CN116994553A (zh) | 语音合成模型的训练方法、语音合成方法、装置及设备 | |
Shah et al. | Nonparallel emotional voice conversion for unseen speaker-emotion pairs using dual domain adversarial network & virtual domain pairing | |
KR20240122776A (ko) | 뉴럴 음성 합성의 적응 및 학습 | |
CN113948062B (zh) | 数据转换方法及计算机存储介质 | |
KR102072627B1 (ko) | 음성 합성 장치 및 상기 음성 합성 장치에서의 음성 합성 방법 | |
CN117597728A (zh) | 使用未完全训练的文本到语音模型的个性化和动态的文本到语音声音克隆 | |
EP3113180B1 (en) | Method for performing audio inpainting on a speech signal and apparatus for performing audio inpainting on a speech signal | |
JP7146038B2 (ja) | 音声認識システム及び方法 | |
Yoon et al. | Enhancing Multilingual TTS with Voice Conversion Based Data Augmentation and Posterior Embedding | |
AU2023337867B2 (en) | Generating audio using auto-regressive generative neural networks | |
US20230223032A1 (en) | Method and apparatus for reconstructing voice conversation | |
US20240304175A1 (en) | Speech modification using accent embeddings | |
WO2024233462A1 (en) | Cross-lingual prosodic voice cloning in plurality of languages | |
WO2024167660A1 (en) | Speech translation with performance characteristics |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210416 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220415 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220426 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220519 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220830 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220922 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7152791 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |