JP7295839B2 - 音節に基づく自動音声認識 - Google Patents
音節に基づく自動音声認識 Download PDFInfo
- Publication number
- JP7295839B2 JP7295839B2 JP2020501252A JP2020501252A JP7295839B2 JP 7295839 B2 JP7295839 B2 JP 7295839B2 JP 2020501252 A JP2020501252 A JP 2020501252A JP 2020501252 A JP2020501252 A JP 2020501252A JP 7295839 B2 JP7295839 B2 JP 7295839B2
- Authority
- JP
- Japan
- Prior art keywords
- pattern
- standard
- patterns
- generated
- spelling
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 claims description 82
- 238000013507 mapping Methods 0.000 claims description 66
- 230000008569 process Effects 0.000 claims description 51
- 238000012549 training Methods 0.000 claims description 45
- 238000012545 processing Methods 0.000 claims description 32
- 230000006870 function Effects 0.000 claims description 8
- 238000013518 transcription Methods 0.000 claims description 8
- 230000035897 transcription Effects 0.000 claims description 8
- 238000009825 accumulation Methods 0.000 claims description 7
- 238000013179 statistical model Methods 0.000 claims description 4
- 238000003672 processing method Methods 0.000 claims 9
- 230000004931 aggregating effect Effects 0.000 claims 2
- 230000003190 augmentative effect Effects 0.000 claims 2
- 238000012367 process mapping Methods 0.000 claims 1
- 238000004891 communication Methods 0.000 description 19
- 239000000463 material Substances 0.000 description 13
- 230000005540 biological transmission Effects 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 238000013459 approach Methods 0.000 description 4
- 230000008901 benefit Effects 0.000 description 4
- 238000009499 grossing Methods 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 150000001875 compounds Chemical class 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 238000004519 manufacturing process Methods 0.000 description 3
- 239000007787 solid Substances 0.000 description 3
- 239000000470 constituent Substances 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 239000012925 reference material Substances 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 241000224489 Amoeba Species 0.000 description 1
- RYGMFSIKBFXOCR-UHFFFAOYSA-N Copper Chemical compound [Cu] RYGMFSIKBFXOCR-UHFFFAOYSA-N 0.000 description 1
- 241000143957 Vanessa atalanta Species 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 239000000969 carrier Substances 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000001149 cognitive effect Effects 0.000 description 1
- 230000001427 coherent effect Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
- NHDHVHZZCFYRSB-UHFFFAOYSA-N pyriproxyfen Chemical compound C=1C=CC=NC=1OC(C)COC(C=C1)=CC=C1OC1=CC=CC=C1 NHDHVHZZCFYRSB-UHFFFAOYSA-N 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 230000033764 rhythmic process Effects 0.000 description 1
- 230000031893 sensory processing Effects 0.000 description 1
- 238000012163 sequencing technique Methods 0.000 description 1
- 238000000638 solvent extraction Methods 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 235000005282 vitamin D3 Nutrition 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/183—Speech classification or search using natural language modelling using context dependencies, e.g. language models
- G10L15/187—Phonemic context, e.g. pronunciation rules, phonotactical constraints or phoneme n-grams
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/183—Speech classification or search using natural language modelling using context dependencies, e.g. language models
- G10L15/19—Grammatical context, e.g. disambiguation of the recognition hypotheses based on word sequence rules
- G10L15/197—Probabilistic grammars, e.g. word n-grams
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/28—Constructional details of speech recognition systems
- G10L15/34—Adaptation of a single recogniser for parallel processing, e.g. by use of multiple processors or cloud computing
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
- G10L2015/027—Syllables being the recognition units
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
- G10L2015/0631—Creating reference templates; Clustering
- G10L2015/0633—Creating reference templates; Clustering using lexical or orthographic knowledge sources
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Computational Linguistics (AREA)
- Acoustics & Sound (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Theoretical Computer Science (AREA)
- Probability & Statistics with Applications (AREA)
- Evolutionary Computation (AREA)
- Signal Processing (AREA)
- Machine Translation (AREA)
- Electrically Operated Instructional Devices (AREA)
Description
2.例示的な言語処理システムの概観
3.音節構造の概観
4.動作段階
4.1 訓練段階
4.1.1 発音辞書から音素配列パターンの学習
4.1.2 生成パターンから標準パターンへのマッピングの学習
4.1.3 標準音節と綴りパターンの関係の学習
4.1.4 音節発音空間でn‐グラムモデルの学習
4.1.5 音節綴り空間でn‐グラムモデルの学習
4.1.6 閾値およびオーバーライドの学習
4.2 認識段階
5.使用例
6.実施形態の利点
7.ハードウェア概略
実施形態において、方法は、音素配列規則および制約を反映した音節および音声の他の音節サイズの単位を用いて、話された音の入力ストリームを表す記号および他の非音声記号(生成ストリーム)を、標準発音のストリーム(標準ストリーム)に変換し、次に、標準ストリームを、綴りテキストの出力(綴りストリーム)に変換する。
図5Aは、音声および非音声音を表す記号ストリームを、綴りパターンの出力ストリームに変換するマッピングを訓練するための例示的なシステムを示している。
音声は、調音器官(つまり、あご、舌、唇など)の構成を変化させて生成される。子音は、声道に沿ったどこかで、狭窄を形成することによって生成され、一方、母音は、もっと開放した構成で生成される。狭窄と開放を交互に行うことで、音声信号に変調パターンを生じて、それは、何か他の音響および音素配列の合図も用いて、音節に感覚的に分割される。音節は、音声の基本的時間構造単位である。訓練がほとんどなくても、子供は、「意味を成さない」単語(例えば、「napkapity」)を含む未知の単語についてさえ、発話された音節数を数えうる。音節の「ビート」は、音声に特徴的なリズムを与えて、混同しうる代わりのものに焦点を当てた感覚処理が、各ビート内で、できるようにする。音節の内部構造(つまり、音素配列)が、その言語で容認される音素シーケンスを局所的に制約するので、認知効率は更に高められる。
本開示の実施形態は、訓練と認識の2つの段階に分けられる。両方の段階は、段階的な生成、標準および綴りの3つの記号ストリームで行われる。図4は、ストリームの関係を示している。最初のストリームは、訓練段階と認識段階の両方で最初の入力である生成402ストリームである。生成ストリームは、話者によって生成されて、音響信号の自動処理によって記号形に変換された入力音シーケンスを記号で表したものである。入力ストリームは、生成IVC403パターンおよびVN401パターンに分割される。
訓練段階において、システムは、オンセット、コーダ、音節、IVC、および、VNの許容パターン、並びに、生成ストリームのそのような各パターンと標準空間の1つ以上の対応するパターンの組との関連付けを学習する。更に、関連付けられた綴りパターンの組を、各標準音節について学習し、条件付き確率を、そのような各関連付けられたパターンに指定する。音節単位に基づいたn‐グラムコンテキストモデルも、音節発音および音節綴りパターンの両方に基づいて学習する。許容パターンとn‐グラムモデルの様々な組を、訓練材料を参照して学習する。図5Aに示すように、訓練材料は、発音辞書504、パラレルに文字起こしされた音声音ストリームのコーパス506、および、大規模な総語数コーパス508を含む。図5Bに示すように、発音辞書504は、音節表532、VNの組534、IVCの組536、音節コーダの組538、および、音節オンセットの組540を含む音素配列単位530の組のソースである。発音辞書504は、総語数コーパス508にも適用されて、音節分けした綴りの単語コーパス526、および、発音音節コーパス528を生成する。
オンセット、コーダ、音節(つまり、「音節表」)、IVCパターン、および、VNパターンの組を、発音辞書504を参照して学習する。辞書の各単語は標準発音を有し、代わりの発音も有しうる。図6は、音素配列パターンを発音辞書から学習する例示的な方法を示すフローチャートである。図6を参照すると、オンセット、コーダ、音節、IVCパターンおよびVNパターンの組は、nullに設定される600。発音辞書の各発音について、最初の母音の前の子音シーケンスは、オンセットの組に追加され602、最後の母音の後の子音シーケンスは、コーダの組に追加される。辞書に未処理の入力がない場合には、IVCパターンの組を、各コーダを各オンセットとシーケンスにすることによって生成する604。
話された単語の発音は標準から異なることが多い。多くの違いは、音節の端近くで(つまり、IVCパターン内で)生じる。例えば、「Did you see her?」という発話において、最初の2つの単語は、標準の/dIdyu/の代わりに/dIJu/と話されうる。/dy/の代わりに/J/と話されるのは、調音器官構成が関わって、規則的に生じるものである。他の違いは、コンテキストの音節中心部分への影響により生じる。
Aは、生成パターンの観察数であり、
Bは、対象パターンが生成パターンと関連付けられた回数であり、
Cは、生成パターンと関連付けられた異なる対象パターンの数である場合、
既に記載したように、発音辞書504は、音節分けした発音および対応する綴りパターンを含む。図8は、候補音節の綴りパターンへのマッピングを学習する例示的な方法を示すフローチャートである。更に、図8は、単語中の音節位置を考慮した各綴りパターンの条件付き確率を学習するのに用いる処理を示している。マッピングをnullとなるように初期化した後に800、残りの未処理入力がある間は801、発音辞書における各発音の各音節‐綴りの対を検査して、既にマッピングリストに加えられているか分かるようにする802。加えられている場合には、関連回数を1加えて、工程801で処理を継続する。加えられていない場合には、新しい対を、関連回数1で、追加し803、更に、工程801で処理を継続する。工程804において、処理すべき入力が残っていない場合には、関連回数を用いて、条件付き確率を以下のように計算する:
Aは、音節発音の観察数であり、
Bは、綴りパターンが音節発音と関連付けられた回数であり、
Cは、音節発音と関連付けられた異なる綴りパターンの数である場合、
近傍の音節の発音のコンテキストの影響を、音節発音のn‐グラムモデルを訓練することによって取得する。実施形態において、3‐グラムモデルを訓練する。これらのモデルを、大規模な総語数コーパス、文字起こしされた音声または書かれたテキストから取得した一連の文または句を用いて訓練する。総語数コーパスは、発音辞書を用いて、発音音節コーパスに変換されて、標準および任意の代わりの発音の両方を含む各単語の音節分けした発音を検索するようにする。n個の音節からなる各シーケンスは、n‐グラムを表し、本実施形態において、3つの音節からなる各シーケンスは、3‐グラムを表す。次に、各3‐グラムパターンについて、関連回数を累積する。回数を累積した後に、回数は、生成パターンから標準パターンへの条件付き確率を計算するのに用いた技術と同様の平滑化技術を用いて、確率に変換される。
近傍の音節の綴りのコンテキスト的影響も、n‐グラムモデルを訓練することによって取得する。実施形態において、3‐グラムモデルを訓練する。これらのモデルを、大規模な総語数コーパスを用いて訓練する。総語数コーパスを、発音辞書を用いて、音節分けした綴りのチャンクコーパスに変換し、各単語の音節分けした綴りを検索するようにする。次に、各n‐グラムパターンについて、関連回数を累積する。回数を累積した後に、回数は、生成パターンから標準パターンへの条件付き確率を計算するのに用いた技術と同様の平滑化技術を用いて、確率に変換される。
候補音節を構成して確率を指定する時に、いくつかは非常に低い確率を有する。実際、非常に低いので、綴りパターンにマッピングされた後に、これらの音節は選択されることがない。訓練後に、システムを試験して、その値より低い場合には特定の音節が出力結果に関わることがない確率閾値を決定する。この閾値を記録し、認識時に用いて、出力に影響しない候補を除外するようにする。
図9は、IVCパターンおよびVNパターンを生成ストリームから抽出する例示的な方法を示すフローチャートである。認識中に、図9に示した処理を用いて、入力生成記号ストリーム402を処理して、生成IVC403およびVN401パターンを抽出し、それらを、各々、標準IVC404およびVN400にマッピングする。抽出処理は、丁度受信した記号(B3)、その直前に受信した記号(B2)、および、その直前に受信した記号(B1)を含む3‐記号バッファを維持する。IVC累積バッファも維持される。
図16は、音節構造を用いて自動音声認識を行う例示的な方法を示している。
本明細書に記載のコンピュータによる処理は、マシンラーニング技術と言語学の知識を新しく、従来にはない組合せで用いて、生成された音声から抽出した音素および言語学記号を、標準綴りの正しいテキストに変換する。この自動音声テキスト変換システムの明確に異なる「バックエンド」の言語処理部は、現在の技術である「言語モデル」より計算効率が非常に高い。本発明は、効率的な「フロントエンド」の音響処理と組み合わされた場合に、話された単語を、分散した装置で、高い正確さと低い待ち時間で連続して文字起こしすることが可能になりうる。それは、自動音声認識を採用する全ての目的で価値のあるツールとなるもので、限定するものではないが、ボイス検索、分散した装置および機器のボイスコマンド制御、および、ボイスディクテーションを含む。正確なリアルタイムの字幕およびサブタイトルを記録またはライブ映像に生成するのに、特に有用である。
一実施形態によれば、本明細書に記載の技術は、1つ以上の専用計算装置によって実施される。専用計算装置は、ハードワイヤードされて技術を行うか、若しくは、技術を行うように持続的にプログラムされた1つ以上の特定用途向け集積回路(ASIC)またはフィールドプログラマブルゲートアレイ(FPGA)などのデジタル電子装置を含むか、若しくは、ファームウェア、メモリ、他の記憶装置、または、それらの組合せのプログラム命令に従って技術を行うようにプログラムされた1つ以上の汎用ハードウェアプロセッサを含みうる。更に、そのような専用計算装置は、カスタムハードワイヤードロジック、ASIC、または、FPGAを、カスタムプログラミングと組み合わせて、技術を実施しうる。専用計算装置は、デスクトップコンピュータシステム、ポータブルコンピュータシステム、手に持つ装置、ネットワーク装置、若しくは、ハードワイヤードおよび/またはプログラムロジックを組み込んで技術を行う任意の他の装置でありうる。
1704 プロセッサ
1712 表示部
1714 入力装置
1720 ネットワークリンク
Claims (30)
- データ処理方法において、
特定の言語で話された単語から生成された生成記号ストリームを、音響処理システムから計算システムで受信する工程と、
複数の生成パターンを、前記生成記号ストリームから抽出する工程と、
生成パターンから標準パターンへの1つ以上のマッピングについての条件付き確率を含むものである、保存された生成-標準マッピングデータを用いて、候補音節、および、各前記候補音節の確率を、前記複数の生成パターンから生成する工程と、
1つ以上の候補音節から綴りパターンへのマッピングについての条件付き確率を含むものである、保存された音節-綴りパターンマッピングデータを用いて、候補綴りパターン、および、各前記候補綴りパターンの確率を、前記候補音節から生成する工程と、
前記生成記号ストリームの綴り表記を、少なくとも部分的には各前記候補綴りパターンの前記確率に基づいて生成する工程と
を含む方法。 - 前記生成記号ストリームは、母音間子音(IVC)および母音近傍(VN)単位を含む音素配列単位へと分割されるものであり、その分割は、該生成記号ストリームの各記号について、
3‐記号バッファをゼロに、IVC累積バッファをゼロとなるように初期化して、生成記号を順に前記3‐記号バッファに追加する工程と、
記号を前記3‐記号バッファに追加した後に、該3‐記号バッファの中央の記号が母音であり、したがって、それらの3つの記号は、VNを含むかを決定して、前記VNを保存する工程と、
追加された記号が子音の場合は、前記子音を、前記IVC累積バッファに加える工程と、
次に追加された記号が子音ではない場合は、前記記号を前記IVC累積バッファに、IVCとして保存する工程と、
前記生成記号ストリームが続く限りは処理を継続する工程と
を順に行うことによって行われるものである、請求項1に記載のデータ処理方法。 - 前記生成記号ストリームは、母音間子音(IVC)単位および母音近傍(VN)単位を含む音素配列単位に分割された生成音素配列ストリームであり、前記候補音節を生成する工程は、前記生成音素配列ストリームを、標準音素配列ストリームにマッピングする工程を含み、その工程は、
処理待ち行列を、空となるように初期化する工程と、
生成IVCと生成VNの交互のストリームを受信する工程と、
アラインメントされた生成IVCおよび標準IVCの予め計算保存されたマッピングデータを用いる工程であって、生成IVCを1つ以上の標準IVCに、保存され関連付けられた条件付き確率と共にマッピングするものである工程と、
アラインメントされた生成および標準VNの保存されたマッピングデータを用いる工程であって、生成VNを1つ以上の標準VNに、保存され関連付けられた条件付き確率と共にマッピングするものである工程と
によって行われるものである、請求項1に記載のデータ処理方法。 - 前記マッピングされた標準音素配列ストリームを更に処理する工程を、
含み、その工程は、
各前記標準IVCが、直前の標準VNパターンの組の少なくとも1つの要素から整合して連続したものであるかを決定し、そのような標準VNパターンの少なくとも1つとも整合しない標準IVCを除外する工程と、
各前記標準VNが、直前の標準IVCパターンの組の少なくとも1つの要素から整合して連続したものであるかを決定し、そのような標準IVCパターンの少なくとも1つとも整合しない標準VNを除外する工程と、
整合しないIVCおよびVNを除外した後に、条件付き確率を再び正規化する工程と
によって行われるものである、請求項3に記載のデータ処理方法。 - 前記候補音節を生成する工程は、
整合した標準IVCパターンを、音節のコーダ‐オンセットシーケンスへと分割する工程と、
分割された整合した標準IVCパターンのコーダ部分を用いて、残りのIVCパターンおよびVNパターンから増やされたオンセットを通る整合した経路を完成する工程であり、各前記整合した経路は候補音節を形成するものである工程と、
保存された音節表にない候補音節を除外する工程と、
各前記候補音節の確率を計算する工程と、
前記候補音節を保存する工程と
を含むものである、請求項1に記載のデータ処理方法。 - 各前記候補音節について確率を生成する工程は、
特定の生成記号の組の各候補音節について、
前記候補音節についての前記VNの確率を、前記生成-標準マッピングデータの保存計算された確率から特定する工程、
前記候補音節のオンセットの確率を、前記オンセットがそれに基づきうる各標準IVCについての前記生成-標準マッピングデータの保存計算された確率に基づいて特定する工程と、
前記候補音節のコーダの確率を、前記コーダがそれに基づきうる各標準IVCについての前記生成-標準マッピングデータの保存計算された確率に基づいて特定する工程と、
前記VNの前記確率、前記オンセットの前記確率、および、前記コーダの前記確率を集計して、音節確率値とする工程と、
前記特定の生成記号の組について、前記候補音節の前記音節確率値の合計を正規化する工程と
を含むものである、請求項5に記載のデータ処理方法。 - 候補音節を綴りパターンにマッピングする工程は、
アラインメントされた標準音節分けした発音および綴り音節パターンを含むデータを保存する工程と、
待ち行列を、空となるように初期化して、前記候補音節を順に提供し、学習保存された音節分けした綴りパターンの組にマッピングする工程と、
前記パターンと関連付けられた単語位置コードを用いて、無効パターンを除外する工程と、
前記マッピングされた綴りパターンを保存する工程と
を含むものである、請求項1に記載のデータ処理方法。 - 音節位置制約、および、統計モデルを適用して、出力綴りパターンを選択する工程を、更に含み、その工程は、
綴りパターンを、待ち行列を通して、重なる音節のシーケンスが順次処理される複数の音節サイズの単位のスライディングウインドウの形態で順に処理する工程と、
綴りパターンの組を受信した時に、各綴りパターンの組に対応するn‐グラムモデルに保存されたデータを参照する工程と、
n‐グラムモデルの条件付き確率を合計して、経路確率を生成する工程と、
前記経路確率を保存する工程と
によって行われるものである、請求項1に記載のデータ処理方法。 - アラインメントされた生成パターンおよび標準パターンを含むデータを保存する工程と、
前記保存されたマッピングデータの生成パターンおよび標準パターンの各組合せについて、前記標準パターンの確率を、該保存されたマッピングデータの前記組合せの発生回数に対応する値と、異なる生成パターンの前記標準パターンの発生回数に対応する値との関数として、計算する工程と、
前記生成パターンおよび前記標準パターンの組合せを、対応する前記生成-標準マッピングデータの前記組合せの計算した確率と共に保存する工程と
を更に含む、請求項1に記載のデータ処理方法。 - アラインメントされた音節分け標準発音および綴りパターンを含むデータを保存する工程と、
前記保存されたマッピングデータの音節分け標準発音および綴りパターンの各組合せについて、前記パターンの確率を、該保存されたマッピングデータの前記組合せの発生回数に対応する値と、該保存されたマッピングデータの前記音節分け標準発音の発生回数に対応する値との関数として、計算する工程と、
前記音節分け標準発音および綴りパターンの組合せを、対応する前記生成-標準マッピングデータの前記組合せの計算した確率と共に保存する工程と
を更に含む、請求項1に記載のデータ処理方法。 - 文字起こしされた特定の言語で話されたか、または、書かれた音声を含む総語数コーパスを保存する工程と、
特定の言語の単語の音節分けした発音および対応する綴りパターン含む発音辞書を保存する工程と、
前記発音辞書を用いて、前記総語数コーパスを、音節分けした綴りのチャンクコーパスに変換する工程と、
前記音節分けした綴りのチャンクコーパスを用いて、各n‐グラムパターンについて関連回数を累積して、各候補綴り音節パターンについて確率を生成する工程と
を更に含む、請求項1に記載のデータ処理方法。 - 文字起こしされた特定の言語で話されたか、または、書かれた音声を含む総語数コーパスを保存する工程と、
特定の言語の単語の音節分けした発音および対応する綴りパターン含む発音辞書を保存する工程と、
前記発音辞書を用いて、前記総語数コーパスを、発音音節コーパスに変換する工程と、
前記発音音節コーパスを用いて、各n‐グラムパターンについて関連回数を累積して、各候補発音音節パターンについて確率を生成する工程と
を更に含む、請求項1に記載のデータ処理方法。 - 訓練中に、与えられた候補綴りパターンが、対象綴りパターンに一致しない最も尤度が高い綴りパターンであり、
与えられた候補綴りパターンを含む多音節シーケンスの拡張コンテキストを保存する工程と、
認識時に、各候補綴りパターンをマッチングして、任意の保存された多音節シーケンスに一致するか分かるようにする工程と、
一致した場合には、与えられた候補綴りパターンをキーとして、多音節シーケンスの前記拡張コンテキストおよび、対象綴りパターンを保存する工程と
を更に含む、請求項1に記載のデータ処理方法。 - 音節分けが単語位置表記を含み、オンセット最大化の原則を用いて実行される場合には、その音節分け標準発音パターンにアラインメントされた綴りパターンを含む発音辞書を保存する工程を、
更に含む、請求項7に記載のデータ処理方法。 - 生成記号ストリームは、コンピュータシステムのデジタル方式でプログラムされたロジックを用いて、テレビ番組のオーディオ入力から生成されるものであり、
前記生成記号ストリームの綴り表記を、前記テレビ番組を表示している表示装置に、該テレビ番組の字幕として表示させる工程を、
更に含む、請求項1に記載のデータ処理方法。 - システムにおいて、
1つ以上のプロセッサと、
命令を保存するメモリと
を含み、前記命令は、前記1つ以上のプロセッサによって実行された場合に、
特定の言語で話された単語から生成された生成記号ストリームを、音響処理システムから受信する処理と、
複数の生成パターンを、前記生成記号ストリームから抽出する処理と、
生成パターンから標準パターンへの1つ以上のマッピングについての条件付き確率を含むものである、保存された生成-標準マッピングデータを用いて、候補音節、および、各前記候補音節の確率を、前記複数の生成パターンから生成する処理と、
1つ以上の候補音節から標準パターンへのマッピングについての条件付き確率を含むものである、保存された音節-綴りパターンマッピングデータを用いて、候補綴りパターン、および、各前記候補綴りパターンの確率を、前記候補音節から生成する処理と、
前記生成記号ストリームの綴り表記を、少なくとも部分的には各前記候補綴りパターンの前記確率に基づいて生成する処理と
を行わせるものであるシステム。 - 前記生成記号ストリームは、母音間子音(IVC)単位および母音近傍(VN)単位を含む音素配列単位へと分割されるものであり、その分割は、該生成記号ストリームの各記号について、
3‐記号バッファをゼロに、IVC累積バッファをゼロとなるように初期化して、生成記号を順に前記3‐記号バッファに追加する処理と、
記号を前記3‐記号バッファに追加した後に、該3‐記号バッファの中央の記号が母音であり、したがって、それらの3つの記号は、VNを含むかを決定して、前記VNを保存する処理と、
追加された記号が子音の場合は、前記子音を、前記IVC累積バッファに加える処理と、
次に追加された記号が子音ではない場合は、前記記号を前記IVC累積バッファに、IVCとして保存する処理と、
前記生成記号ストリームが続く限りは処理を継続する処理と
を順に行うことによって行われるものである、請求項16に記載のシステム。 - 前記生成記号ストリームは、母音間子音(IVC)単位および母音近傍(VN)単位を含む音素配列単位に分割された生成音素配列ストリームであり、前記候補音節を生成する工程は、前記生成音素配列ストリームを、標準音素配列ストリームにマッピングする処理を含み、
その処理は、
処理待ち行列を、空となるように初期化する処理と、
生成IVCと生成VNの交互のストリームを前記生成音素配列ストリーム内で受信する処理と、
アラインメントされた生成IVCおよび標準IVCの予め計算保存されたマッピングデータを用いる処理であって、生成IVCを1つ以上の標準IVCに、保存され関連付けられた条件付き確率と共にマッピングするものである処理と、
アラインメントされた生成および標準VNの保存されたマッピングデータを用いる処理であって、生成VNを1つ以上の標準VNに、保存され関連付けられた条件付き確率と共にマッピングするものである処理と
によって行われるものである、請求項16に記載のシステム。 - 前記命令は、前記1つ以上のプロセッサによって実行された場合に、前記マッピングされた標準音素配列ストリームを更に処理する処理を、
行わせ、その処理は、
各前記標準IVCが、直前の標準VNパターンの組の少なくとも1つの要素から整合して連続したものであるかを決定し、そのような標準VNパターンの少なくとも1つとも整合しない標準IVCを除外する処理と、
各前記標準VNが、直前の標準IVCパターンの組の少なくとも1つの要素から整合して連続したものであるかを決定し、そのような標準IVCパターンの少なくとも1つとも整合しない標準VNを除外する処理と、
整合しないIVCおよびVNを除外した後に、条件付き確率を再び正規化する処理と
によって行われるものである、請求項18に記載のシステム。 - 前記候補音節を生成する処理は、
整合した標準IVCパターンを、音節のコーダ‐オンセットシーケンスへと分割する処理と、
分割された整合した標準IVCパターンのコーダ部分を用いて、残りのIVCパターンおよびVNパターンから増やされたオンセットを通る整合した経路を完成する処理であり、各前記整合した経路は候補音節を形成するものである処理と、
保存された音節表にない候補音節を除外する処理と、
各前記候補音節の確率を計算する処理と、
前記候補音節を保存する処理と
を含むものである、請求項16に記載のシステム。 - 各前記候補音節について確率を生成する処理は、
特定の生成記号の組に対応する各候補音節について、
前記候補音節ついての前記VNの確率を、前記生成-標準マッピングデータの保存計算された確率から特定する処理、
前記候補音節のオンセットの確率を、前記オンセットがそれに基づきうる各標準IVCについての前記生成-標準マッピングデータの保存計算された確率に基づいて特定する処理と、
前記音節のコーダの確率を、前記コーダがそれに基づきうる各標準IVCについての前記生成から標準へのマッピングの保存計算された確率に基づいて特定する処理と、
前記VNの前記確率、前記オンセットの前記確率、および、前記コーダの前記確率を集計して、音節確率値とする処理と、
前記特定の生成記号の組について、前記候補音節の前記音節確率値の合計を正規化する処理と
を含むものである、請求項20に記載のシステム。 - 候補音節を綴りパターンにマッピングする処理は、
アラインメントされた標準音節分けした発音および綴り音節パターンを含むデータを保存する処理と、
待ち行列を、空となるように初期化して、前記候補音節を順に提供し、学習保存された音節分けした綴りパターンの組にマッピングする処理と、
前記パターンと関連付けられた単語位置コードを用いて、無効パターンを除外する処理と、
前記マッピングされた綴りパターンを保存する処理と
を含むものである、請求項16に記載のシステム。 - 前記命令は、前記1つ以上のプロセッサによって実行された場合に、音節位置制約、および、統計モデルを適用して、出力綴りパターンを選択する処理を、
更に行わせ、その処理は、
綴りパターンを、待ち行列を通して、重なる音節のシーケンスが順次処理される複数の音節サイズの単位のスライディングウインドウの形態で順に処理する処理と、
綴りパターンの組を受信した時に、各綴りパターンの組に対応するn‐グラムモデルに保存されたデータを参照する処理と、
n‐グラムモデルの条件付き確率を合計して、経路確率を生成する処理と、
前記経路確率を保存する処理と
によって行われるものである、請求項16に記載のシステム。 - 前記命令は、前記1つ以上のプロセッサによって実行された場合に、
アラインメントされた生成パターンおよび標準パターンを含むデータを保存する処理と、
前記保存されたマッピングデータの生成パターンおよび標準パターンの各組合せについて、前記標準パターンの確率を、該保存されたマッピングデータの前記組合せの発生回数に対応する値と、異なる生成パターンの前記標準パターンの発生回数に対応する値との関数として、計算する処理と、
前記生成パターンおよび標準パターンの組合せを、対応する前記生成-標準マッピングデータの前記組合せの計算した確率と共に保存する処理と
を更に行わせるものである、請求項16に記載のシステム。 - 前記命令は、前記1つ以上のプロセッサによって実行された場合に、
アラインメントされた音節分け標準発音および綴りパターンを含むデータを保存する処理と、
前記保存されたマッピングデータの音節分け標準発音および綴りパターンの各組合せについて、前記パターンの確率を、該保存されたマッピングデータの前記組合せの発生回数に対応する値と、該保存されたマッピングデータの前記音節分け標準発音の発生回数に対応する値との関数として、計算する処理と、
前記音節分け標準発音および綴りパターンの組合せを、対応する前記生成-標準マッピングデータの前記組合せの計算した確率と共に保存する処理と
を更に行わせるものである、請求項16に記載のシステム。 - 前記命令は、前記1つ以上のプロセッサによって実行された場合に、
文字起こしされた特定の言語で話されたか、または、書かれた音声を含む総語数コーパスを保存する処理と、
特定の言語の単語の音節分けした発音および対応する綴りパターン含む発音辞書を保存する処理と、
前記発音辞書を用いて、前記総語数コーパスを、音節分けした綴りのチャンクコーパスに変換する処理と、
前記音節分けした綴りのチャンクコーパスを用いて、各n‐グラムパターンについて関連回数を累積して、各候補綴り音節パターンについて確率を生成する処理と
を更に行わせるものである、請求項16記載のシステム。 - 前記命令は、前記1つ以上のプロセッサによって実行された場合に、
文字起こしされた特定の言語で話されたか、または、書かれた音声を含む総語数コーパスを保存する処理と、
特定の言語の単語の音節分けした発音および対応する綴りパターン含む発音辞書を保存する処理と、
前記発音辞書を用いて、前記総語数コーパスを、発音音節コーパスに変換する処理と、
前記発音音節コーパスを用いて、各n‐グラムパターンについて関連回数を累積して、各候補発音音節パターンについて確率を生成する処理と
を更に行わせるものである、請求項16に記載のシステム。 - 前記命令は、前記1つ以上のプロセッサによって実行された場合に、
訓練中に、与えられた候補綴りパターンが、対象綴りパターンに一致しない最も尤度が高い綴りパターンであり、
与えられた候補綴り音節パターンを含む多音節シーケンスの拡張コンテキストを保存する処理と、
認識時に、各候補綴り音節パターンをマッチングして、任意の保存された多音節シーケンスに一致するか分かるようにする処理と、
一致した場合には、与えられた候補綴りパターンをキーとして、多音節シーケンスの前記拡張コンテキストおよび、対象綴りパターンを保存する処理と
を更に行わせるものである、請求項16記載のシステム。 - 前記命令は、前記1つ以上のプロセッサによって実行された場合に、
音節分けが単語位置表記を含み、オンセット最大化の原則を用いて実行される場合には、その音節分け標準発音パターンにアラインメントされた綴りパターンを含む発音辞書を保存する処理を、
更に行わせるものである、請求項21に記載のシステム。 - 生成記号ストリームは、コンピュータシステムのデジタル方式でプログラムされたロジックを用いて、テレビ番組のオーディオ入力から生成されるものであり、
前記命令は、前記1つ以上のプロセッサによって実行された場合に、
前記生成記号ストリームの綴り表記を、前記テレビ番組を表示している表示装置に、該テレビ番組の字幕として表示させる処理を、
更に行わせるものである、請求項16に記載のシステム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201762530802P | 2017-07-10 | 2017-07-10 | |
US62/530,802 | 2017-07-10 | ||
PCT/US2018/041395 WO2019014183A1 (en) | 2017-07-10 | 2018-07-10 | AUTOMATIC SPEECH RECOGNITION BASED ON SYLLABE |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020527253A JP2020527253A (ja) | 2020-09-03 |
JP7295839B2 true JP7295839B2 (ja) | 2023-06-21 |
Family
ID=64903340
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020501252A Active JP7295839B2 (ja) | 2017-07-10 | 2018-07-10 | 音節に基づく自動音声認識 |
Country Status (6)
Country | Link |
---|---|
US (2) | US10916235B2 (ja) |
EP (1) | EP3652732B1 (ja) |
JP (1) | JP7295839B2 (ja) |
KR (1) | KR20200026295A (ja) |
CN (1) | CN110870004B (ja) |
WO (1) | WO2019014183A1 (ja) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190221208A1 (en) * | 2018-01-12 | 2019-07-18 | Kika Tech (Cayman) Holdings Co., Limited | Method, user interface, and device for audio-based emoji input |
CN112750425B (zh) * | 2020-01-22 | 2023-11-03 | 腾讯科技(深圳)有限公司 | 语音识别方法、装置、计算机设备及计算机可读存储介质 |
CN111667828B (zh) * | 2020-05-28 | 2021-09-21 | 北京百度网讯科技有限公司 | 语音识别方法和装置、电子设备和存储介质 |
CN114079797A (zh) * | 2020-08-14 | 2022-02-22 | 阿里巴巴集团控股有限公司 | 直播字幕生成方法及装置和服务端、直播客户端及直播系统 |
TWI755328B (zh) * | 2021-05-24 | 2022-02-11 | 中華電信股份有限公司 | 孩童聲音偵測系統、方法及電腦可讀媒介 |
US20220382973A1 (en) * | 2021-05-28 | 2022-12-01 | Microsoft Technology Licensing, Llc | Word Prediction Using Alternative N-gram Contexts |
CN117524198B (zh) * | 2023-12-29 | 2024-04-16 | 广州小鹏汽车科技有限公司 | 语音识别方法、装置及车辆 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001195087A (ja) | 2000-01-06 | 2001-07-19 | Mitsubishi Electric Corp | 音声認識システム |
Family Cites Families (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US3812291A (en) * | 1972-06-19 | 1974-05-21 | Scope Inc | Signal pattern encoder and classifier |
US6108627A (en) * | 1997-10-31 | 2000-08-22 | Nortel Networks Corporation | Automatic transcription tool |
US6138099A (en) * | 1998-10-19 | 2000-10-24 | International Business Machines Corp. | Automatically updating language models |
US7747434B2 (en) * | 2000-10-24 | 2010-06-29 | Speech Conversion Technologies, Inc. | Integrated speech recognition, closed captioning, and translation system and method |
US6985861B2 (en) * | 2001-12-12 | 2006-01-10 | Hewlett-Packard Development Company, L.P. | Systems and methods for combining subword recognition and whole word recognition of a spoken input |
KR100467590B1 (ko) * | 2002-06-28 | 2005-01-24 | 삼성전자주식회사 | 발음 사전 갱신 장치 및 방법 |
US7558732B2 (en) * | 2002-09-23 | 2009-07-07 | Infineon Technologies Ag | Method and system for computer-aided speech synthesis |
KR100486733B1 (ko) * | 2003-02-24 | 2005-05-03 | 삼성전자주식회사 | 음소 결합정보를 이용한 연속 음성인식방법 및 장치 |
US8412521B2 (en) * | 2004-08-20 | 2013-04-02 | Multimodal Technologies, Llc | Discriminative training of document transcription system |
KR100679042B1 (ko) * | 2004-10-27 | 2007-02-06 | 삼성전자주식회사 | 음성인식 방법 및 장치, 이를 이용한 네비게이션 시스템 |
US20070061143A1 (en) * | 2005-09-14 | 2007-03-15 | Wilson Mark J | Method for collating words based on the words' syllables, and phonetic symbols |
US8135590B2 (en) * | 2007-01-11 | 2012-03-13 | Microsoft Corporation | Position-dependent phonetic models for reliable pronunciation identification |
US9959870B2 (en) * | 2008-12-11 | 2018-05-01 | Apple Inc. | Speech recognition involving a mobile device |
GB0920480D0 (en) * | 2009-11-24 | 2010-01-06 | Yu Kai | Speech processing and learning |
US20110238412A1 (en) * | 2010-03-26 | 2011-09-29 | Antoine Ezzat | Method for Constructing Pronunciation Dictionaries |
CN103250148A (zh) * | 2010-11-04 | 2013-08-14 | 莱根达姆普罗维塔有限责任公司 | 用于转录或者转译成音形拼字法的方法和系统 |
US8676574B2 (en) * | 2010-11-10 | 2014-03-18 | Sony Computer Entertainment Inc. | Method for tone/intonation recognition using auditory attention cues |
US8756061B2 (en) * | 2011-04-01 | 2014-06-17 | Sony Computer Entertainment Inc. | Speech syllable/vowel/phone boundary detection using auditory attention cues |
US8825481B2 (en) * | 2012-01-20 | 2014-09-02 | Microsoft Corporation | Subword-based multi-level pronunciation adaptation for recognizing accented speech |
US9899026B2 (en) * | 2012-05-31 | 2018-02-20 | Elwha Llc | Speech recognition adaptation systems based on adaptation data |
CN103578464B (zh) * | 2013-10-18 | 2017-01-11 | 威盛电子股份有限公司 | 语言模型的建立方法、语音辨识方法及电子装置 |
CN103578465B (zh) * | 2013-10-18 | 2016-08-17 | 威盛电子股份有限公司 | 语音辨识方法及电子装置 |
US9589562B2 (en) * | 2014-02-21 | 2017-03-07 | Microsoft Technology Licensing, Llc | Pronunciation learning through correction logs |
KR102117082B1 (ko) * | 2014-12-29 | 2020-05-29 | 삼성전자주식회사 | 음성 인식 방법 및 음성 인식 장치 |
CN113140215A (zh) * | 2015-01-16 | 2021-07-20 | 三星电子株式会社 | 用于执行话音识别的方法和设备 |
-
2018
- 2018-07-10 EP EP18832817.3A patent/EP3652732B1/en active Active
- 2018-07-10 WO PCT/US2018/041395 patent/WO2019014183A1/en unknown
- 2018-07-10 KR KR1020207003761A patent/KR20200026295A/ko active Search and Examination
- 2018-07-10 JP JP2020501252A patent/JP7295839B2/ja active Active
- 2018-07-10 CN CN201880046009.2A patent/CN110870004B/zh active Active
- 2018-07-10 US US16/031,637 patent/US10916235B2/en active Active
-
2021
- 2021-02-08 US US17/169,858 patent/US20210193117A1/en not_active Abandoned
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001195087A (ja) | 2000-01-06 | 2001-07-19 | Mitsubishi Electric Corp | 音声認識システム |
Also Published As
Publication number | Publication date |
---|---|
EP3652732A1 (en) | 2020-05-20 |
EP3652732A4 (en) | 2021-03-17 |
WO2019014183A1 (en) | 2019-01-17 |
US10916235B2 (en) | 2021-02-09 |
CN110870004A (zh) | 2020-03-06 |
EP3652732C0 (en) | 2023-08-16 |
EP3652732B1 (en) | 2023-08-16 |
US20210193117A1 (en) | 2021-06-24 |
CN110870004B (zh) | 2023-09-12 |
JP2020527253A (ja) | 2020-09-03 |
KR20200026295A (ko) | 2020-03-10 |
US20190013009A1 (en) | 2019-01-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7295839B2 (ja) | 音節に基づく自動音声認識 | |
JP4791984B2 (ja) | 入力された音声を処理する装置、方法およびプログラム | |
US20180137109A1 (en) | Methodology for automatic multilingual speech recognition | |
US11227579B2 (en) | Data augmentation by frame insertion for speech data | |
CN117099157A (zh) | 用于端到端自动语音识别置信度和删除估计的多任务学习 | |
JP7544989B2 (ja) | ルックアップテーブルリカレント言語モデル | |
JP2019012095A (ja) | 音素認識辞書生成装置および音素認識装置ならびにそれらのプログラム | |
US20150073796A1 (en) | Apparatus and method of generating language model for speech recognition | |
WO2000031723A1 (en) | Method and apparatus for very large vocabulary isolated word recognition in a parameter sharing speech recognition system | |
US20140142925A1 (en) | Self-organizing unit recognition for speech and other data series | |
Tombaloğlu et al. | Deep Learning Based Automatic Speech Recognition for Turkish | |
Pellegrini et al. | Automatic word decompounding for asr in a morphologically rich language: Application to amharic | |
Rasipuram et al. | Grapheme and multilingual posterior features for under-resourced speech recognition: a study on scottish gaelic | |
Mehra et al. | Improving word recognition in speech transcriptions by decision-level fusion of stemming and two-way phoneme pruning | |
Azim et al. | Large vocabulary Arabic continuous speech recognition using tied states acoustic models | |
Razavi et al. | An HMM-based formalism for automatic subword unit derivation and pronunciation generation | |
US12080283B2 (en) | Multilingual re-scoring models for automatic speech recognition | |
Manjunath et al. | Articulatory and excitation source features for speech recognition in read, extempore and conversation modes | |
Mabokela | A multilingual ASR of Sepedi-English code-switched speech for automatic language identification | |
EP3718107B1 (en) | Speech signal processing and evaluation | |
US20240185844A1 (en) | Context-aware end-to-end asr fusion of context, acoustic and text presentations | |
Biczysko | Automatic Annotation of Speech: Exploring Boundaries within Forced Alignment for Swedish and Norwegian | |
CN113421587B (zh) | 语音评测的方法、装置、计算设备及存储介质 | |
US20240153495A1 (en) | Multi-Output Decoders for Multi-Task Learning of ASR and Auxiliary Tasks | |
US20240185841A1 (en) | Parameter-efficient model reprogramming for cross-lingual speech recognition |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20200629 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20200629 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210706 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220707 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220720 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20220928 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230116 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230510 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230609 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7295839 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |