JP2000250401A - Method and device for learning language, and medium where program is recorded - Google Patents
Method and device for learning language, and medium where program is recordedInfo
- Publication number
- JP2000250401A JP2000250401A JP11048712A JP4871299A JP2000250401A JP 2000250401 A JP2000250401 A JP 2000250401A JP 11048712 A JP11048712 A JP 11048712A JP 4871299 A JP4871299 A JP 4871299A JP 2000250401 A JP2000250401 A JP 2000250401A
- Authority
- JP
- Japan
- Prior art keywords
- data
- language
- language data
- memory
- voice
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Electrically Operated Instructional Devices (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は、外国語等を学習す
るための技術に関し、言語を耳から聞くだけでなく、目
で確認できるようにするための技術に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a technique for learning a foreign language or the like, and more particularly to a technique for enabling a language to be recognized not only by ear but also by eyes.
【0002】[0002]
【従来の技術】外国語等を学習する方法の一つとして、
従来では、テープレコーダ等の録音再生装置によって再
生した外国語の音声を耳で聞いたり、外国語の文章を発
声して録音再生装置に録音して、これを再生するという
方法がある。2. Description of the Related Art As one of the methods for learning a foreign language, etc.,
Conventionally, there is a method in which a foreign language sound reproduced by a recording / reproducing device such as a tape recorder is heard by ear, or a sentence in a foreign language is uttered and recorded on the recording / reproducing device, and reproduced.
【0003】[0003]
【発明が解決しようとする課題】しかしながら、前記の
ようにテープレコーダ等の録音再生装置を用いた言語学
習方法では、学習者の聴覚だけをたよりにしているた
め、模範音声の抑揚や単語間の間のとりかた等を正確に
把握することが難しく、また、模範音声と自分の音声と
の比較も容易ではなかった。However, in the language learning method using a recording / reproducing device such as a tape recorder as described above, since only the learner's hearing is relied upon, the inflection of the model voice and the inter-word It was difficult to grasp how to settle down accurately, and it was not easy to compare the model voice with one's own voice.
【0004】本発明は、この問題を解決した言語学習方
法、言語学習装置およびプログラムを記録した媒体を提
供することを目的としている。[0004] It is an object of the present invention to provide a language learning method, a language learning apparatus, and a medium in which a program is recorded, which solves this problem.
【0005】[0005]
【課題を解決するための手段】前記目的を達成するため
に、本発明の請求項1の言語学習方法は、単語、語句ま
たは文章の文字データと該単語、語句、または文章の音
声データとを一組の言語データとして入力する段階と、
前記入力された言語データを、その音声データの波形が
文字データに対応するように表示する段階と、前記波形
表示された音声データをアナログの音声信号に変換して
再生する段階とを含んでいる。In order to achieve the above object, a language learning method according to claim 1 of the present invention is characterized in that character data of a word, phrase or sentence and voice data of the word, phrase or sentence are converted. Inputting as a set of language data;
Displaying the input language data such that the waveform of the audio data corresponds to the character data; and converting the waveform-displayed audio data into an analog audio signal and reproducing the analog audio signal. .
【0006】また、本発明の請求項2の言語学習装置
は、メモリと、単語、語句または文章の文字データと前
記単語、語句、または文章の音声データとを一組の言語
データとして前記メモリに入力するデータ入力手段と、
表示装置と、前記メモリに入力されている言語データ
を、その音声データの波形に文字データが対応するよう
に前記表示装置に表示させる言語データ表示手段と、D
/A変換器と、前記表示装置に波形表示された音声デー
タを前記D/A変換器に出力して再生させる再生手段と
を備えている。According to a second aspect of the present invention, there is provided a language learning apparatus, comprising: a memory; character data of a word, phrase, or sentence; and voice data of the word, phrase, or sentence, as one set of language data. Data input means for inputting,
A display device; language data display means for displaying language data input to the memory on the display device so that character data corresponds to a waveform of the audio data;
A / A converter, and a reproducing unit for outputting the audio data waveform-displayed on the display device to the D / A converter and reproducing the audio data.
【0007】また、本発明の請求項3の言語学習装置
は、単語、語句または文章の文字データと、前記単語、
語句、または文章の音声データとを一組とする言語デー
タが予め記憶されている記憶装置と、外部から入力され
るアナログの音声信号をディジタルの音声データに変換
するとともに該音声データを文字データに変換し、前記
音声データおよび文字データを一組の言語データとして
出力する言語データ生成手段と、メモリと、前記記憶装
置に記憶されている言語データまたは前記言語データ生
成手段から出力される言語データを前記メモリに入力す
る言語データ入力手段と、表示装置と、前記メモリに入
力されている言語データを、その音声データの波形が文
字データに対応するように前記表示装置に表示させる言
語データ表示手段と、前記表示装置に表示されている言
語データを加工するデータ加工手段と、D/A変換器
と、前記表示装置に波形表示された音声データを前記D
/A変換器に出力して再生させる再生手段と、前記表示
装置に表示されている言語データを前記記憶装置に保存
する言語データ保存手段とを備えている。Further, according to a third aspect of the present invention, there is provided a language learning apparatus, comprising: character data of a word, a phrase or a sentence;
A storage device in which language data as a set of voice data of a phrase or a sentence is stored in advance, and an analog voice signal input from the outside is converted into digital voice data, and the voice data is converted into character data. A language data generating unit that converts and outputs the voice data and the character data as a set of language data; a memory; and language data stored in the storage device or language data output from the language data generating unit. Language data input means for inputting to the memory, a display device, and language data display means for displaying the language data input to the memory on the display device so that the waveform of the audio data corresponds to the character data. Data processing means for processing language data displayed on the display device, a D / A converter, Wherein D audio data form displayed
A reproducing unit that outputs the data to the / A converter and reproduces the data; and a language data storage unit that stores the language data displayed on the display device in the storage device.
【0008】また、本発明の請求項4のプログラムを記
録した媒体は、コンピュータを、単語、語句または文章
の文字データと該単語、語句、または文章の音声データ
とを一組の言語データとしてメモリに入力する言語デー
タ入力手段と、前記メモリに入力された言語データを、
その音声データの波形に文字データが対応するように表
示装置に表示させる言語データ表示手段と、前記波形表
示された音声データをD/A変換器へ出力して再生させ
る再生手段として機能させるためのプログラムが記録さ
れている。[0008] Further, a medium on which the program according to claim 4 of the present invention is recorded is a computer which stores a computer as character data of a word, phrase or sentence and voice data of the word, phrase or sentence as a set of language data. Language data input means for inputting, and language data input to the memory,
Language data display means for displaying the character data corresponding to the waveform of the audio data on a display device; and reproduction means for outputting the waveform-displayed audio data to a D / A converter for reproduction. The program has been recorded.
【0009】[0009]
【発明の実施の形態】以下、図面に基づいて本発明の実
施形態を説明する。図1は、実施形態の言語学習装置2
0の構成を示している。Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 shows a language learning device 2 according to the embodiment.
0 is shown.
【0010】図1において、記憶装置21は、ハードデ
ィスク、フロッピーディスク、CDROM、MO等の記
憶媒体およびその媒体の情報を読み書きするための駆動
装置とからなり、外国語等の単語や語句あるいは文章の
内容を示す一連の文字データと、この単語や語句あるい
は文章を口頭で発したときの音声信号をディジタル化し
て得られた一連の音声データとを一組とする言語データ
が記憶されている。なお、音声データと文字データは予
め単語および無音区間単位に対応付けされた状態で記憶
されている。In FIG. 1, a storage device 21 comprises a storage medium such as a hard disk, a floppy disk, a CDROM, and an MO, and a drive for reading and writing information on the medium, and stores words, phrases or sentences in a foreign language or the like. Language data is stored as a set of a series of character data indicating the contents and a series of voice data obtained by digitizing a voice signal when the word, phrase or sentence is spoken orally. Note that the voice data and the character data are stored in advance in a state where they are associated with words and silent sections.
【0011】また、この言語学習装置20には、学習者
の生の音声や、ラジオ、ビデオの出力信号から言語デー
タを得るために、外部から入力されたアナログの音声信
号に基づいて言語データを生成する言語データ生成部2
2を有している。Further, in order to obtain language data from a student's raw voice, radio and video output signals, the language learning device 20 converts language data based on an analog voice signal input from the outside. Language data generator 2 to be generated
Two.
【0012】この言語データ生成部22は、外部からマ
イク等を介して入力されるアナログの音声信号をディジ
タルの音声データに変換するA/D変換器23と、A/
D変換器23からの音声データを有音区間(単語区間)
と無音区間とに区分けする区間分け手段24と、区間分
け手段24によって区間分けされた音声データの有音区
間に対する音声認識を行なって文字データに変換する音
声認識手段25とを備え、A/D変換器23からの音声
データと音声認識手段25からの文字データとを一組の
言語データとして出力する。The language data generation unit 22 includes an A / D converter 23 for converting an analog audio signal input from outside via a microphone or the like into digital audio data,
Voice data from the D converter 23 is converted into a sound section (word section).
And a voice recognition section 25 for performing voice recognition on a voiced section of the voice data sectioned by the section classification section 24 and converting the voice data into character data. The voice data from the converter 23 and the character data from the voice recognition means 25 are output as a set of language data.
【0013】区間分け手段24は、例えばA/D変換器
23からの出力される一連の音声データについて自己相
関法や零交差計数法等を用いて信号のピッチを抽出し、
この抽出したピッチに基づいて、一連の音声データを無
声区間、有声区間、無音区間に分け、無音区間を挟まず
に無声区間と有声区間との組合せで連続する部分を有音
区間とする。The section dividing means 24 extracts a signal pitch from a series of audio data output from the A / D converter 23 by using an autocorrelation method, a zero-crossing counting method, or the like.
Based on the extracted pitch, a series of voice data is divided into a voiceless section, a voiced section, and a voiceless section, and a continuous part of the combination of the voiceless section and the voiced section without interposing the voiceless section is defined as a voiced section.
【0014】ここで、例えば図2に示す音声信号のう
ち、無声区間Vaとは周波数が高い部分(子音部分)を
示し、有声区間Vbとは周波数の低い部分(母音部分)
を示し、無音区間Nとはピッチが抽出できない低レベル
部分(雑音部分)を示し、図2のように無声区間Va、
有声区間Vbが無音区間Nを挟まずに複数個連続した区
間を有音区間Vとする。この有音区間Vは、文章の単語
部分に相当している。言語データ入力手段26は、記憶
装置21に記憶されている言語データや、言語データ生
成部22からの言語データのうち、操作部27の操作に
応じて任意の言語データをメモリ28に入力する。な
お、このメモリ28は複数組の言語データを記憶できる
ようになっている。Here, for example, in the audio signal shown in FIG. 2, the unvoiced section Va indicates a high frequency part (consonant part), and the voiced section Vb indicates a low frequency part (vowel part).
And a silent section N indicates a low-level portion (noise portion) from which a pitch cannot be extracted, and as shown in FIG.
A plurality of sections in which the voiced section Vb is continuous without interposing the silent section N is referred to as a voiced section V. The sound section V corresponds to a word portion of a sentence. The language data input means 26 inputs arbitrary language data from the language data stored in the storage device 21 and the language data from the language data generation unit 22 to the memory 28 in accordance with the operation of the operation unit 27. Note that the memory 28 can store a plurality of sets of language data.
【0015】データ加工手段29は、操作部27の操作
に応じて、メモリ28に入力されている言語データに対
する単語および無音区間単位でのレベルの増幅、減衰処
理、削除、複写、移動等の編集処理や、話速変換処理等
を行う。The data processing means 29 edits the levels of words and silence sections in the language data input to the memory 28 in accordance with the operation of the operation unit 27, such as amplification, attenuation processing, deletion, copying, and movement. Processing and speech speed conversion processing are performed.
【0016】また、言語データ保存手段30は、操作部
27の操作に応じてメモリ28の言語データを記憶装置
21に記憶保存する。The language data storage means 30 stores the language data in the memory 28 in the storage device 21 in accordance with the operation of the operation section 27.
【0017】言語データ表示手段31は、メモリ28に
入力されている言語データを、その音声データの波形に
文字データが対応するように、表示装置32の画面上に
表示する。The language data display means 31 displays the language data input to the memory 28 on the screen of the display device 32 so that the character data corresponds to the voice data waveform.
【0018】再生手段33は、メモリ28内の言語デー
タの音声データを操作部26の操作に応じてD/A変換
器34に出力する。The reproducing means 33 outputs the audio data of the language data in the memory 28 to the D / A converter 34 according to the operation of the operation unit 26.
【0019】D/A変換器34は、音声データをアナロ
グの音声信号に変換して増幅器35に出力し、増幅器3
5は音声信号を増幅して図示しないスピーカやヘッドフ
ォンに出力する。The D / A converter 34 converts the audio data into an analog audio signal, outputs the analog audio signal to the amplifier 35,
Reference numeral 5 amplifies the audio signal and outputs it to a speaker or headphones (not shown).
【0020】なお、上記の言語学習装置20の構成要件
のうち、前記各手段24〜26、29〜31、33は、
コンピュータによって機能させることができる。The above-mentioned means 24 to 26, 29 to 31, and 33 out of the components of the language learning apparatus 20 are as follows:
It can be operated by computer.
【0021】この場合、記憶装置21、A/D変換器2
3、表示装置32、D/A変換器34等を備えたコンピ
ュータに、前記各手段24〜26、29〜31、33と
して機能させるためのプログラムが記録された媒体(フ
ロッピーティスク、CDROM等)を用いて、その各プ
ログラムをコンピュータにロードして起動すればよい。In this case, the storage device 21, the A / D converter 2
3. A medium (floppy disk, CDROM, etc.) in which a program for causing a computer having a display device 32, a D / A converter 34, and the like to function as each of the units 24-26, 29-31, 33 is recorded. , Each program may be loaded into a computer and activated.
【0022】次に、この言語学習装置20で外国語を学
習する場合について説明する。始めに、記憶装置21に
記憶されている言語データのうち、例えば模範となる音
声の言語データを操作部27によって選択すると、その
言語データがメモリ28に入力され、図3の(a)に示
すように、言語データ表示手段31によってこの言語デ
ータのうちの音声データの波形が表示装置32の第1の
表示領域32aに表示され、その言語データのうちの文
字データが音声データの波形に対応付けされて表示され
る。Next, a case where a foreign language is learned by the language learning apparatus 20 will be described. First, for example, when language data of a model voice is selected from the language data stored in the storage device 21 by the operation unit 27, the language data is input to the memory 28, and is shown in FIG. As described above, the language data display means 31 displays the waveform of the audio data of the language data in the first display area 32a of the display device 32, and associates the character data of the language data with the waveform of the audio data. Is displayed.
【0023】ここで、操作部27によって第1の表示領
域32aの言語データの再生を指定すると、再生手段3
3によって、メモリ28に記憶されている音声データが
D/A変換器34に出力され、アナログの音声信号に変
換されて増幅器35で増幅され、模範となる外国語の音
声がスピーカやヘッドフォンから出力される。Here, when reproduction of language data in the first display area 32a is designated by the operation unit 27, the reproduction means 3
3, the audio data stored in the memory 28 is output to the D / A converter 34, converted into an analog audio signal and amplified by the amplifier 35, and a model foreign language audio is output from the speaker or the headphone. Is done.
【0024】このように模範となる言語データの音声デ
ータの波形と文字データとを表示した状態で、学習者が
操作部27の操作によって外部入力を指定し、模範とな
る外国語の文章をマイク(図示せず)等の前で発声しこ
の音声信号をA/D変換器23に入力すると、この音声
信号が音声データに変換され、その音声データが有音区
間と無音区間に区分けされ、音声認識手段25によって
文字データに変換され、この一連の音声データと文字デ
ータとが、一組の言語データとしてメモリ28に入力さ
れる。In the state where the waveform of the voice data of the language data and the character data as the model are displayed, the learner specifies the external input by operating the operation unit 27, and the sample of the foreign language as the model is recorded in the microphone. (Not shown) and input this audio signal to the A / D converter 23, this audio signal is converted into audio data, and the audio data is divided into a sound section and a silent section, The data is converted into character data by the recognition means 25, and the series of voice data and character data are input to the memory 28 as a set of language data.
【0025】このため、図4に示すように、前記した第
1の表示領域32aとは別の表示領域32bに、この学
習者等によって入力された言語データが、その音声デー
タの波形と文字データとが対応付けされた状態で表示さ
れる。For this reason, as shown in FIG. 4, the language data input by the learner or the like is displayed in a display area 32b different from the first display area 32a, and the waveform of the voice data and the character data are displayed. Are displayed in a state where they are associated with each other.
【0026】このように、入力された学習対象の言語デ
ータが、その音声データの波形と文字データとが対応す
るように表示され、その音声データを再生することがで
きるので、テキストを見ずに文章を確認でき、しかも、
聴覚だけでなく、音声データの波形により単語の発声の
強弱や単語間の間のとりかた等を視覚的に確認すること
ができる。As described above, the input language data to be learned is displayed so that the waveform of the voice data and the character data correspond to each other, and the voice data can be reproduced. You can check the sentences, and
In addition to hearing, it is possible to visually confirm the strength of the utterance of words and the spacing between words, etc., based on the waveform of audio data.
【0027】また、模範となる音声の波形と自分が入力
した音声の波形とが文字とともに同一画面上に表示され
るので、この波形の違いを視覚的に比較することがで
き、その比較結果から自分の発声状態を確認、矯正する
ことができる。Further, since the waveform of the model voice and the waveform of the voice input by the user are displayed on the same screen together with the characters, the difference between the waveforms can be visually compared. You can check and correct your utterance status.
【0028】例えば、図4に示しているように、単語
「diffcult」について、模範の音声では、最初
のピークのレベルが他のピークより大きいのに対し、自
分の音声では最初のピークと2番目のピークのレベルと
がほぼ同じで、アクセントが不明瞭であることが判る。
また、単語「for」、「to」および「the」につ
いて、模範の音声のレベルに対して自分の音声がレベル
がかなり大きくなっていて、「for」以降がやや単調
になっていることが判る。For example, as shown in FIG. 4, for the word "diffult", the level of the first peak is higher than the other peaks in the model voice, while the first peak and the second peak are in the own voice. It can be seen that the level of the peak is almost the same and the accent is unclear.
In addition, for the words “for”, “to”, and “the”, the level of the own voice is considerably higher than the level of the model voice, and it is understood that the level after “for” is slightly monotonous. .
【0029】なお、単語の発音やイントネーションに著
しい誤りが有る場合には、音声認識が正しく行われずに
その単語の波形データに対応する位置に正しい文字が表
示されないので、発音に誤りがあったことが判る。If there is a significant error in the pronunciation or intonation of a word, speech recognition is not performed correctly, and a correct character is not displayed at a position corresponding to the waveform data of the word. I understand.
【0030】このような比較を行ってから、その比較結
果を確認するために、操作部27によって第2の表示領
域32bの言語データの再生を指定すると、再生手段3
3によって、メモリ28に記憶されている音声データが
D/A変換器34に出力され、アナログの音声信号に変
換されて増幅器35で増幅され、学習者が入力した音声
がスピーカやヘッドフォンから出力される。After performing such a comparison, when the operation unit 27 designates the reproduction of the language data in the second display area 32b in order to confirm the result of the comparison, the reproduction unit 3
3, the audio data stored in the memory 28 is output to the D / A converter 34, converted into an analog audio signal, amplified by the amplifier 35, and the audio input by the learner is output from the speakers or headphones. You.
【0031】また、第1の表示領域32aの言語データ
と第2の表示領域32bの言語データとを交互に指定す
ることによって、自分が入力した音声と模範となる音声
とを交互に再生することができ、聞き比べが容易に行え
る。Also, by alternately designating the language data of the first display area 32a and the language data of the second display area 32b, the voice inputted by the user and the model voice are alternately reproduced. Can be easily compared.
【0032】また、前記したように、自分の音声のうち
模範の音声よりレベルが高い「for」、「to」、
「the」について、データ加工手段29によって図5
のようにレベルを小さくすることができる。また、模範
の音声の単語間の間が短くて聞きにくい場合には、無音
区間の延長処理を行うことで聞きやすくすることができ
る。Further, as described above, the "for", "to",
For “the”, FIG.
The level can be reduced as follows. In addition, when the distance between words of the model voice is short and it is difficult to hear, it is possible to make it easier to hear by extending the silent section.
【0033】このようにデータを加工した後に、再び自
分が入力した音声を再生することで、レベルを下げたこ
とによる効果を確認することができる。After the data has been processed in this way, the effect of lowering the level can be confirmed by replaying the voice input by the user.
【0034】そして、前記比較結果および加工後の音声
を確認した後、発声を矯正しながら音声を再度入力し
て、模範の音声と比較するという動作を繰り返すこと
で、自分の音声を模範の音声に近づけることができる。
なお、模範の音声に対するデータの加工も前記同様に可
能である。After confirming the comparison result and the processed voice, the operation of correcting the utterance, inputting the voice again, and comparing with the model voice is repeated, so that the user's own voice is model voice. Can be approached.
It is to be noted that data processing of the model voice is also possible in the same manner as described above.
【0035】また、加工処理のうち、音声データに対し
て削除、複写、移動等を行った場合には、それに応じて
文字データも削除、複写、移動され、逆に文字データに
対して削除、複写、移動等を行った場合には、それに応
じて音声データも削除、複写、移動される。When audio data is deleted, copied, or moved during the processing, character data is also deleted, copied, or moved accordingly. When copying, moving, etc., the audio data is also deleted, copied, or moved accordingly.
【0036】このように、一つの文章(単語や語句でも
よい)について、自分の音声を模範の音声に近づけるこ
とができた後、言語データ保存手段30によってメモリ
28内の言語データを記憶装置21に保存することがで
き、この保存した言語データを再度メモリ28に入力し
て学習することもできる。As described above, for one sentence (which may be a word or a phrase), the user's own voice can be approximated to the model voice, and the language data in the memory 28 is stored in the storage device 21 by the language data storage means 30. The stored language data can be input to the memory 28 again for learning.
【0037】また、前記説明では、学習者が発した音声
を言語データ発生部22に入力していたが、ラジオやビ
デオから出力される外国語の音声を言語データ発生部2
2に入力し、その言語データから不要な有音区間や無音
区間を削除して、模範の言語データとして記憶装置21
に記憶し、学習に利用することもできる。In the above description, the voice uttered by the learner is input to the language data generator 22. However, the voice of the foreign language output from the radio or the video is output to the language data generator 2.
2 and deletes unnecessary voiced and silent sections from the language data and stores them as model language data in the storage device 21.
And can be used for learning.
【0038】[0038]
【発明の効果】以上のように、本発明では、メモリに入
力された学習対象の言語データを、その音声データの波
形と文字データとが対応するように表示装置に表示し、
その音声データを再生させることができる。As described above, according to the present invention, the language data to be learned input to the memory is displayed on the display device so that the waveform of the voice data and the character data correspond to each other.
The audio data can be reproduced.
【0039】このため、テキスト等を見ることなく、学
習する言語とその音声波形を表示画面上で確認でき、聞
取りだけでは困難であった単語の発声の強弱や単語間の
間のとりかた等を視覚的に確認することができ、効率的
な言語学習が行える。For this reason, the language to be learned and its speech waveform can be confirmed on the display screen without looking at the text and the like, and the utterance of words and the method of spacing between words, etc., which were difficult only by listening, can be confirmed. Can be visually confirmed, and efficient language learning can be performed.
【0040】また、予め記憶装置に記憶されている言語
データや、外部からの音声信号から生成した言語データ
をメモリに入力して表示装置に表示することができるの
で、模範の音声と学習者の音声とを画面上で視覚的に比
較することができ、その比較結果から自分の発声状態を
確認、矯正することができ、さらにその矯正結果も逐次
確認でき、より効率的な言語学習が行える。Further, language data stored in advance in the storage device or language data generated from an external voice signal can be input to the memory and displayed on the display device. It is possible to visually compare the voice with the voice on the screen, confirm and correct the utterance state of the user based on the comparison result, and further confirm the correction result one by one, so that more efficient language learning can be performed.
【図1】本発明の実施形態の構成を示すブロック図FIG. 1 is a block diagram showing a configuration of an embodiment of the present invention.
【図2】信号と各区間との対応図FIG. 2 is a diagram showing a correspondence between a signal and each section.
【図3】実施形態の表示画面の例を示す図FIG. 3 is a view showing an example of a display screen according to the embodiment;
【図4】実施形態の表示画面の例を示す図FIG. 4 is a view showing an example of a display screen according to the embodiment;
【図5】実施形態の表示画面の例を示す図FIG. 5 is a view showing an example of a display screen according to the embodiment;
20 言語学習装置 21 記憶装置 22 言語データ生成部 23 A/D変換器 24 区間分け手段 25 音声認識手段 26 言語データ入力手段 27 操作部 28 メモリ 29 データ加工手段 30 言語データ保存手段 31 言語データ表示手段 32 表示装置 33 再生手段 34 D/A変換器 Reference Signs List 20 language learning device 21 storage device 22 language data generation unit 23 A / D converter 24 section dividing means 25 voice recognition means 26 language data input means 27 operation unit 28 memory 29 data processing means 30 language data storage means 31 language data display means 32 display device 33 reproducing means 34 D / A converter
【手続補正書】[Procedure amendment]
【提出日】平成11年4月8日(1999.4.8)[Submission date] April 8, 1999 (1999.4.8)
【手続補正1】[Procedure amendment 1]
【補正対象書類名】図面[Document name to be amended] Drawing
【補正対象項目名】全図[Correction target item name] All figures
【補正方法】変更[Correction method] Change
【補正内容】[Correction contents]
【図2】 FIG. 2
【図3】 FIG. 3
【図1】 FIG.
【図4】 FIG. 4
【図5】 FIG. 5
Claims (4)
語、語句、または文章の音声データとを一組の言語デー
タとして入力する段階と、 前記入力された言語データを、その音声データの波形が
文字データに対応するように表示する段階と、 前記波形表示された音声データをアナログの音声信号に
変換して再生する段階とを含む言語学習方法。1. A step of inputting character data of a word, phrase, or sentence and voice data of the word, phrase, or sentence as a set of language data, and converting the input language data into a waveform of the voice data. A language learning method comprising the steps of: displaying an audio signal corresponding to character data; and converting the waveform-displayed audio data into an analog audio signal and reproducing the analog audio signal.
または文章の音声データとを一組の言語データとして前
記メモリに入力するデータ入力手段と、 表示装置と、 前記メモリに入力されている言語データを、その音声デ
ータの波形に文字データが対応するように前記表示装置
に表示させる言語データ表示手段と、 D/A変換器と、 前記表示装置に波形表示された音声データを前記D/A
変換器に出力して再生させる再生手段とを備えた言語学
習装置。2. A memory, character data of a word, phrase or sentence and said word, phrase,
Or, data input means for inputting voice data of a sentence into the memory as a set of language data, a display device, and converting the language data input to the memory into a character data corresponding to a waveform of the voice data. Language data display means for displaying the data on the display device, a D / A converter, and audio / data waveform-displayed on the display device.
A language learning device comprising: a reproducing unit that outputs the data to a converter and reproduces the data.
記単語、語句、または文章の音声データとを一組とする
言語データが予め記憶されている記憶装置と、 外部から入力されるアナログの音声信号をディジタルの
音声データに変換するとともに該音声データを文字デー
タに変換し、前記音声データおよび文字データを一組の
言語データとして出力する言語データ生成手段と、 メモリと、 前記記憶装置に記憶されている言語データまたは前記言
語データ生成手段から出力される言語データを前記メモ
リに入力する言語データ入力手段と、 表示装置と、 前記メモリに入力されている言語データを、その音声デ
ータの波形が文字データに対応するように前記表示装置
に表示させる言語データ表示手段と、 前記表示装置に表示されている言語データを加工するデ
ータ加工手段と、 D/A変換器と、 前記表示装置に波形表示された音声データを前記D/A
変換器に出力して再生させる再生手段と、 前記表示装置に表示されている言語データを前記記憶装
置に保存する言語データ保存手段とを備えた言語学習装
置。3. A storage device in which character data of a word, phrase, or sentence and speech data of the word, phrase, or sentence as a set are stored in advance, and an analog input from the outside. A language data generating means for converting the audio signal into digital audio data, converting the audio data into character data, and outputting the audio data and the character data as a set of language data; a memory; and a storage device. Language data input means for inputting language data which has been input or language data output from the language data generating means into the memory; a display device; A language data display means for displaying on the display device corresponding to the character data; and a language data displayed on the display device. A data processing means for processing the data, D / A converter and the audio data waveform displayed on the display device D / A
A language learning apparatus comprising: a reproducing unit that outputs to a converter to reproduce the language data; and a language data storage unit that stores language data displayed on the display device in the storage device.
たは文章の音声データとを一組の言語データとしてメモ
リに入力する言語データ入力手段と、 前記メモリに入力された言語データを、その音声データ
の波形に文字データが対応するように表示装置に表示さ
せる言語データ表示手段と、 前記波形表示された音声データをD/A変換器へ出力し
て再生させる再生手段として機能させるためのプログラ
ムを記録した媒体。4. A language data input means for inputting character data of a word, phrase, or sentence and voice data of the word, phrase, or sentence into a memory as a set of language data; Language data display means for displaying the displayed language data on a display device so that the character data corresponds to the waveform of the audio data, and reproduction means for outputting the waveform-displayed audio data to a D / A converter for reproduction. A medium on which a program for functioning as a computer is recorded.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP11048712A JP2000250401A (en) | 1999-02-25 | 1999-02-25 | Method and device for learning language, and medium where program is recorded |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP11048712A JP2000250401A (en) | 1999-02-25 | 1999-02-25 | Method and device for learning language, and medium where program is recorded |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2000250401A true JP2000250401A (en) | 2000-09-14 |
Family
ID=12810931
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP11048712A Pending JP2000250401A (en) | 1999-02-25 | 1999-02-25 | Method and device for learning language, and medium where program is recorded |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2000250401A (en) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002132128A (en) * | 2000-10-27 | 2002-05-09 | Alps System Integration Co Ltd | Learning/teaching system having edition function using information system |
JP2002156897A (en) * | 2000-11-17 | 2002-05-31 | Fuji Xerox Co Ltd | Pronunciation learning system |
KR20030064116A (en) * | 2002-01-25 | 2003-07-31 | 주식회사 엠티컴 | Methods for analyzing human voice and systems thereof |
KR100548604B1 (en) * | 2003-05-06 | 2006-01-31 | 엘지전자 주식회사 | Image display device having language learning function and learning method thereof |
JP2006178214A (en) * | 2004-12-22 | 2006-07-06 | Yamaha Corp | Language learning system |
JP2011028282A (en) * | 2010-09-11 | 2011-02-10 | Makoto Goto | Pronunciation learning device and pronunciation learning program |
JP2011215643A (en) * | 2011-07-19 | 2011-10-27 | Yamaha Corp | Speech feature quantity calculation device |
KR101460447B1 (en) * | 2013-07-25 | 2014-11-12 | 포항공과대학교 산학협력단 | Apparatus of learning intonations for learning foreign language and method thereof |
-
1999
- 1999-02-25 JP JP11048712A patent/JP2000250401A/en active Pending
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002132128A (en) * | 2000-10-27 | 2002-05-09 | Alps System Integration Co Ltd | Learning/teaching system having edition function using information system |
JP2002156897A (en) * | 2000-11-17 | 2002-05-31 | Fuji Xerox Co Ltd | Pronunciation learning system |
KR20030064116A (en) * | 2002-01-25 | 2003-07-31 | 주식회사 엠티컴 | Methods for analyzing human voice and systems thereof |
KR100548604B1 (en) * | 2003-05-06 | 2006-01-31 | 엘지전자 주식회사 | Image display device having language learning function and learning method thereof |
JP2006178214A (en) * | 2004-12-22 | 2006-07-06 | Yamaha Corp | Language learning system |
JP4543919B2 (en) * | 2004-12-22 | 2010-09-15 | ヤマハ株式会社 | Language learning device |
JP2011028282A (en) * | 2010-09-11 | 2011-02-10 | Makoto Goto | Pronunciation learning device and pronunciation learning program |
JP2011215643A (en) * | 2011-07-19 | 2011-10-27 | Yamaha Corp | Speech feature quantity calculation device |
KR101460447B1 (en) * | 2013-07-25 | 2014-11-12 | 포항공과대학교 산학협력단 | Apparatus of learning intonations for learning foreign language and method thereof |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7280968B2 (en) | Synthetically generated speech responses including prosodic characteristics of speech inputs | |
JP4558308B2 (en) | Voice recognition system, data processing apparatus, data processing method thereof, and program | |
WO2004063902B1 (en) | Speech training method with color instruction | |
WO2007055233A1 (en) | Speech-to-text system, speech-to-text method, and speech-to-text program | |
US6148285A (en) | Allophonic text-to-speech generator | |
US20120219932A1 (en) | System and method for automated speech instruction | |
AU2003200507B2 (en) | Method and apparatus for rapid language acquisition | |
JP3859612B2 (en) | Conference recording and transcription system | |
Tseng | ILAS Chinese spoken language resources | |
US7308407B2 (en) | Method and system for generating natural sounding concatenative synthetic speech | |
JP2000250401A (en) | Method and device for learning language, and medium where program is recorded | |
JP2004212665A (en) | Apparatus and method for varying speaking speed | |
JP6291808B2 (en) | Speech synthesis apparatus and method | |
Sha | Using TTS voices to develop audio materials for listening comprehension: A digital approach | |
JP2006178334A (en) | Language learning system | |
JPH0756494A (en) | Pronunciation training device | |
US7092884B2 (en) | Method of nonvisual enrollment for speech recognition | |
JP2002525663A (en) | Digital voice processing apparatus and method | |
JPS6057898A (en) | Voice registration system | |
JPS6184771A (en) | Voice input device | |
JP2000181333A (en) | Pronunciation training support device, its method and program recording medium therefor | |
JP6957069B1 (en) | Learning support system | |
JP7288530B1 (en) | system and program | |
JP6260227B2 (en) | Speech synthesis apparatus and method | |
JP6159436B2 (en) | Reading symbol string editing device and reading symbol string editing method |