JP2714239B2 - Character processor - Google Patents

Character processor

Info

Publication number
JP2714239B2
JP2714239B2 JP2229674A JP22967490A JP2714239B2 JP 2714239 B2 JP2714239 B2 JP 2714239B2 JP 2229674 A JP2229674 A JP 2229674A JP 22967490 A JP22967490 A JP 22967490A JP 2714239 B2 JP2714239 B2 JP 2714239B2
Authority
JP
Japan
Prior art keywords
candidate
word
speech
learning
priority
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2229674A
Other languages
Japanese (ja)
Other versions
JPH04111044A (en
Inventor
英一朗 戸島
雄二 小林
大記 鈴木
和世 池田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2229674A priority Critical patent/JP2714239B2/en
Publication of JPH04111044A publication Critical patent/JPH04111044A/en
Application granted granted Critical
Publication of JP2714239B2 publication Critical patent/JP2714239B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Machine Translation (AREA)
  • Document Processing Apparatus (AREA)

Description

【発明の詳細な説明】 [産業上の利用分野] 本発明は、仮名漢字変換により漢字仮名混り文を入力
する文字処理装置に関する。
Description: TECHNICAL FIELD The present invention relates to a character processing device for inputting a kana-kana mixed sentence by kana-kanji conversion.

[従来の技術] 現在、日本ワードプロセッサなどの文字処理装置は漢
字仮名混り文の入力を仮名漢字変換を使って行なうこと
が一般的である。
[Related Art] At present, a character processing apparatus such as a Japanese word processor generally inputs a sentence mixed with kanji and kana using kana-kanji conversion.

仮名漢字変換は辞書を参照することにより、入力され
た読み列を漢字に変換するものである。辞書においては
各単語に対して名詞、サ変名詞、副詞、形容詞、形容動
詞等の品詞情報が記述されており、仮名漢字変換は読み
列を解析して可能な文節候補を作成し、それらを組み合
わせて変換候補を決定し、尤もらしい順に提示する。そ
して、提示された変換候補の中からオペレータが望む候
補を選択する。
The kana-kanji conversion converts an input reading sequence into kanji by referring to a dictionary. The dictionary describes part-of-speech information such as nouns, sa-nouns, adverbs, adjectives, and adjective verbs for each word, and kana-kanji conversion analyzes the reading sequence to create possible phrase candidates and combines them. Conversion candidates, and present the conversion candidates in plausible order. Then, a candidate desired by the operator is selected from the presented conversion candidates.

例えば、読み列「しようがわるい」に対しては「使用
が」「仕様が」「使用」「仕様」「死」「悪い」「和」
「類」「側」「画」「用が」「用」などの文節候補が作
成され、これらを組み合わせた「使用が悪い」「仕様が
悪い」「使用側類」「使用が和類」などが変換候補とし
て出力表示される。オペレータはこのように提示された
変換候補の中から自分の望む「仕様が悪い」を選択確定
することになるわけである。
For example, for the reading column “Impossible”, “Use”, “Specification”, “Use”, “Specification”, “Death”, “Bad”, “Sum”
Clause candidates such as "class", "side", "image", "use", and "use" are created, and these are combined to make "bad use", "poor specifications", "use side class", "use Japanese", etc. Is output and displayed as a conversion candidate. The operator selects and confirms his / her desired “bad specification” from the conversion candidates presented in this way.

ところで、「しようがわるい」と入力する度に毎回
「仕様が悪い」を選択させるのでは操作が煩雑に過ぎる
ので、一度選択操作を行なうと次回からはその通りに変
換される学習機能というものが提供されるのが一般的で
ある。
By the way, the operation is too complicated if you select "poor specifications" every time you input "Impossible", so there is a learning function that will be converted as it is from the next time if you select once. It is generally provided.

この学習機能の最も単純なものは各単語に学習フラグ
を1ビット用意し、単語が選択されたときに学習フラグ
をONし、仮名漢字変換時には学習フラグがONになってい
る単語を優先的に変換するという仕掛により実現でき
る。ただし、これだけでは、変換候補の中の2つの単語
を交互に使用した場合、両方の単語の学習フラグがONに
なってしまう。その結果、片方の単語だけが常に第1位
に変換され、他方の単語については学習効果が得られな
くなるので、ある単語の学習フラグをONすると同時に対
立候補(選択単語よりも高い優先度で変換された候補)
の学習フラグをOFFするという処理も一般に行なわれて
いる。
The simplest function of this learning function is to prepare a 1-bit learning flag for each word, turn on the learning flag when a word is selected, and give priority to words that have the learning flag turned on during kana-kanji conversion. It can be realized by the mechanism of conversion. However, with only this, when two words in the conversion candidates are used alternately, the learning flags of both words are turned ON. As a result, only one word is always converted to the first place, and the learning effect is not obtained for the other word. Therefore, the learning flag of a certain word is turned on, and at the same time, an alternative candidate (conversion with a higher priority than the selected word) Candidates)
The process of turning off the learning flag is generally performed.

[発明が解決しようとしている課題] ところが、選択単語と対立候補の特性が異なる場合、
対立候補の学習OFFが不必要な場合もある。従来は一律
に対立候補の学習をOFFするので、もし学習OFFが不必要
な状況においては、その対立候補の学習を不必要に消し
てしまったことになる。
[Problem to be solved by the invention] However, if the selected word and the alternative candidate have different characteristics,
In some cases, learning OFF of conflict candidates is unnecessary. Conventionally, the learning of the contending candidate is uniformly turned off, so if the learning does not need to be turned off, the learning of the contending candidate is unnecessarily erased.

例えば、「そうさしよう」と入力した場合を考える。
「操作しよう」「操作仕様」などの変換候補があり、
「操作しよう」は自立語+付属語のパターンとして変換
され、「操作仕様」は自立語+自立語のパターン(すな
わち、複合語)として変換されている。一般に付属語は
自立語よりも優先的に変換されるので、学習が何もされ
ていない状態では「操作しよう」が第1候補として変換
される。しかし、何らかの事情で(恐らく、「仕様」に
ついて述べた文章を入力して)、「仕様」の学習フラグ
がONであれば「操作仕様」が優先的に変換される。この
とき「仕様」を「しよう」に変更すると、「しよう」の
学習フラグがONになると同時に「仕様」の学習フラグが
OFFとなってしまう。これにより、次回から「そうさし
よう」と入力した場合は期待通りに「操作しよう」と変
換できるが、単に「しよう」と入力した場合には、学習
フラグがOFFされているため、「仕様」が第1候補では
変換されなくなってしまう。通常はより標準頻度の高い
「使用」が変換される。なお、付属語の「しよう」は単
独文節としては変換されない。
For example, consider the case where "Let's do it" is input.
There are conversion candidates such as "Let's operate" and "Operation specifications"
"Let's operate" is converted as a pattern of independent words + auxiliary words, and "operation specification" is converted as a pattern of independent words + independent words (that is, a compound word). In general, an attached word is converted with higher priority than an independent word, so that “Let's operate” is converted as a first candidate when no learning is performed. However, for some reason (probably by inputting a text describing "specifications"), if the learning flag of "specifications" is ON, the "operational specifications" are preferentially converted. At this time, if "Specification" is changed to "Let's go", the learning flag of "Let's go on"
It turns off. As a result, if "Let's say" is input next time, it can be converted to "Let's operate" as expected, but if you just type "Let's say", the learning flag is turned off. Are not converted in the first candidate. Normally, "use", which has a higher standard frequency, is converted. Note that the adjunct "shou" is not converted as a single phrase.

[課題を解決するための手段(及び作用)」 本発明によれば、文字処理装置に、読みを入力する入
力手段と、各単語に対して、単語の読みと、表記と、品
詞と、他の単語とは独立にオン・オフ状態を設定可能な
2値の学習フラグとを対応づけて記憶する記憶手段と、
前記記憶手段を参照し、該記憶手段を参照し、前記入力
手段より入力された読みを持つ同音の単語の中から、品
詞の優先関係において優先すべき品詞の単語及び学習フ
ラグがオンである単語を優先させて、第1候補の単語を
決定し、当該第1候補の単語の表記を表示する第1候補
表示手段と、前記第1候補以外の候補の表記を表示する
次候補表示手段と、該次候補表示手段または前記第1候
補表示手段により表記が表示された候補より1つの候補
を選択する選択手段と、該選択手段により選択された単
語の学習フラグをオンにする学習手段と、前記優先関係
に基づいて、前記選択された単語の品詞と、当該選択さ
れた単語より上位の候補の各単語の品詞とのいずれが優
先されるかを判別する判別手段と、該判別手段により判
別の結果、前記上位の候補の各々につき、前記選択され
た単語の品詞より当該上位の候補の単語の品詞が優先さ
れると判別された場合は、当該上位の候補の単語の学習
フラグをオフとし、当該上位の候補の単語の品詞より前
記選択された単語の品詞が優先とされると判別された場
合は、当該上位の候補の単語の学習フラグを不変とする
ように制御する抑制手段とを有することにより、あるい
は、文字処理装置に、読みを入力する入力手段と、各単
語に対して、単語の読みと、表記と、品詞と、他の単語
とは独立にオン・オフ状態を設定可能な2値の学習フラ
グとを対応づけて記憶する記憶手段と、共起関係にある
複数の単語の組を用例として記憶する用例記憶手段と、
前記入力手段より入力された読みに対して、前記記憶手
段及び前記用例記憶手段を参照し、品詞の優先関係にお
いて優先すべき品詞の単語、用例の適用される単語及び
学習フラグがオンである単語を優先させて、第1候補の
単語を決定し、当該第1候補の単語の表記を表示する第
1候補表示手段と、前記第1候補より下位の候補の表記
を表示する次候補表示手段と、該次候補表示手段または
前記第1候補表示手段により表記が表示された候補より
1つの候補を選択する選択手段と、該選択手段により選
択された単語の学習フラグをオンにする学習手段と、前
記優先関係に基づいて、前記選択された単語の品詞と、
当該選択された単語より上位の候補の各単語の品詞との
いずれが優先されるかを判別する判別手段と、前記選択
された単語より上位の候補の各単語に対して、用例が適
用されているか否かを判定する判定手段と、該判定手段
により判定の結果及び前記判定手段による判別の結果に
基づいて、前記上位の候補の各々につき、前記選択され
た単語の品詞が当該上位の候補の単語の品詞より優先さ
れると判別された場合、及び前記選択された単語の品詞
が当該上位の候補の単語の品詞より優先されないと判別
され、かつ当該上位の候補の単語に用例が適用されてい
ないと判定された場合に、当該上位の候補の学習フラグ
を不変とし、前記選択された単語の品詞が当該上位の候
補の単語の品詞より優先されないと判別され、かつ当該
上位の候補の単語に用例が適用されていると判定された
場合に、当該上位の候補の単語の学習フラグオフとする
ように制御する抑制手段とを有することにより、選択さ
れた候補の学習フラグをオンにするとともに、それ以外
の候補のうち、学習フラグをオフにする必要のある候補
の学習フラグをオフにし、学習フラグをオフにする必要
のない候補の学習フラグを不変とし、選択された候補以
外の候補の学習フラグを不必要に変更することを防止す
る。
[Means for Solving the Problem (and Action)] According to the present invention, input means for inputting a reading to a character processing apparatus, and for each word, reading of a word, notation, part of speech, Storage means for storing a binary learning flag in which an on / off state can be set independently of the word in association with the word;
With reference to the storage unit, referring to the storage unit, from the same-sound words having the pronunciation input from the input unit, the words of the part-of-speech to be given priority in the part-of-speech priority relationship and the words for which the learning flag is on A first candidate display means for determining a first candidate word and displaying the notation of the first candidate word, a next candidate display means for displaying the notation of candidates other than the first candidate, Selecting means for selecting one candidate from the candidates displayed by the next candidate displaying means or the first candidate displaying means; learning means for turning on a learning flag of the word selected by the selecting means; A determining unit that determines which of the part of speech of the selected word and the part of speech of each candidate word higher than the selected word has priority based on the priority relationship; Result, above For each of the candidates, if it is determined that the part of speech of the higher candidate word has priority over the part of speech of the selected word, the learning flag of the higher candidate word is turned off, and the higher candidate word is turned off. If it is determined that the part of speech of the selected word is given priority over the part of speech of the word of the word, a suppression unit that controls the learning flag of the word of the higher candidate to be invariable, or Input means for inputting a reading into a character processing device, and for each word, a binary learning which can set on / off states independently of word reading, notation, part of speech, and other words A storage unit that stores a flag in association with an example, an example storage unit that stores a set of a plurality of words having a co-occurrence relationship as an example,
With respect to the reading input from the input unit, referring to the storage unit and the example storage unit, the word of the part of speech to be given priority in the part of speech priority relationship, the word to which the example is applied, and the word for which the learning flag is on A first candidate display means for determining the word of the first candidate and displaying the notation of the word of the first candidate, and a next candidate display means for displaying the notation of a candidate lower than the first candidate. Selecting means for selecting one of the candidates displayed by the next candidate displaying means or the first candidate displaying means, and learning means for turning on a learning flag of the word selected by the selecting means; A part of speech of the selected word based on the priority relationship;
A determination unit that determines which of the parts of speech of each of the higher-ranked candidates is higher than the selected word, and an example is applied to each of the higher-ranked candidates of the selected word. Determining means for determining whether or not each of the high-order candidates is based on the result of the determination by the determining means and the result of the determination by the determining means. If it is determined that the part of speech of the word is prioritized over the part of speech of the word, or if the part of speech of the selected word is not prioritized over the part of speech of the word of the top candidate, and the example is applied to the word of the top candidate When it is determined that there is no part of the word, the learning flag of the upper candidate is made invariant, and the part of speech of the selected word is determined not to have priority over the part of speech of the upper candidate word, and the word of the upper candidate is determined. When it is determined that the example is applied, by suppressing the learning flag of the upper candidate word to be turned off, the learning flag of the selected candidate is turned on, Among the candidates other than the candidate, the learning flag of the candidate whose learning flag needs to be turned off is turned off, and the learning flag of the candidate that does not need to be turned off is kept unchanged, and the learning flag of the candidate other than the selected candidate is set as the learning flag. Is prevented from being changed unnecessarily.

[実施例] 以下図面を参照しながら本発明を詳細に説明する。EXAMPLES Hereinafter, the present invention will be described in detail with reference to the drawings.

第1図は本発明に係る文字処理装置の全体構成の一例
である。
FIG. 1 is an example of the overall configuration of a character processing device according to the present invention.

図示の構成において、CPUは、マイクロプロセッサで
あり、文字処理のための演算、論理判断等を行ない、ア
ドレスバスAB、コントロールバスCB、データバスDBを介
して、それらのバスに接続された各構成要素を制御す
る。
In the configuration shown in the figure, a CPU is a microprocessor, performs calculations for character processing, performs logical judgment, and the like, and is connected to those components via an address bus AB, a control bus CB, and a data bus DB. Control elements.

アドレスバスABはマイクロプロセッサCPUの制御の対
象とする構成要素を指示するアドレス信号を転送する。
コントロールバスCBはマイクロプロセッサCPUの制御の
対象とする各構成要素のコントロール信号を転送して印
加する。データバスDBは各構成機器相互間のデータの転
送を行なう。
The address bus AB transfers an address signal indicating a component to be controlled by the microprocessor CPU.
The control bus CB transfers and applies a control signal of each component to be controlled by the microprocessor CPU. The data bus DB transfers data between the components.

つぎにROMは、読出し専用の固定メモリであり、第20
図〜第27図につき後述するマイクロプロセッサCPUによ
る制御の手順を記憶させておく。
Next, the ROM is a fixed read-only memory.
The procedure of control by the microprocessor CPU, which will be described later with reference to FIGS. To 27, is stored.

また、RAMは、1ワード16ビットの構成の書込み可能
のランダムアクセスメモリであって、各構成要素からの
各種データの一時記憶に用いる。IBUFはキー入力された
キーデータを記憶する入力バッファであり、OBUFは仮名
漢字変換された結果を一時的に記憶する出力バッファで
ある。DICは仮名漢字変換を行なうための辞書である。Y
DICは単語間の共起関係を記述した用例辞書である。BCT
BLは変換途中の文節候補を記憶する文節候補テーブルで
ある。CTBL1は文節とそれに後続する付属語間の接続規
則を記憶した文節接続マトリックスである。CTBL2は文
節とそれに後続する接尾語間の接続規則を記憶した文節
接続マトリックスである。CTBL3は接頭語とそれに後続
する文節間の接続規則を記憶した文節接続マトリックス
である。TBUFはテキストバッファであり、入力編集中の
テキストデータが記憶される。DOBUFは同音語バッファ
であり、テキストバッファTBUFに記憶される文字に同音
語候補が存在するときはその候補が記憶される。
The RAM is a writable random access memory having a structure of one word and 16 bits, and is used for temporarily storing various data from each component. IBUF is an input buffer for storing keyed key data, and OBUF is an output buffer for temporarily storing the result of Kana-Kanji conversion. DIC is a dictionary for performing kana-kanji conversion. Y
DIC is an example dictionary that describes co-occurrence relationships between words. BCT
BL is a phrase candidate table that stores phrase candidates during conversion. CTBL1 is a phrase connection matrix that stores a connection rule between a phrase and a subsequent attached word. CTBL2 is a phrase connection matrix that stores the connection rules between a phrase and a suffix following it. CTBL3 is a phrase connection matrix that stores the connection rules between the prefix and the subsequent phrases. TBUF is a text buffer in which text data being input and edited is stored. DOBUF is a homophone buffer, and if a homophone candidate exists for a character stored in the text buffer TBUF, the candidate is stored.

KBはキーボードであって、アルファベットキー、ひら
がなキー、カタカナキー等の文字記号入力キー、及び、
変換キー、次候補キー、選択キー等の本文字処理装置に
対する各種機能を指示するための各種のファンクション
キーを備えている。
KB is a keyboard, and character symbol input keys such as alphabet keys, hiragana keys, katakana keys, and
It has various function keys such as a conversion key, a next candidate key, and a selection key for instructing various functions to the character processing apparatus.

DISKは文書データを記憶するための外部記憶部であ
り、テキストバッファTBUF上に作成された文書の保管を
行ない、保管された文書はキーボードの指示により、必
要な時呼び出される。
DISK is an external storage unit for storing document data. The DISK stores a document created in the text buffer TBUF, and the stored document is called up when necessary according to a keyboard instruction.

CRはカーソルレジスタである。CPUにより、カーソル
レジスタの内容を読み書きである。後述するCRTコント
ローラCRTCは、ここに蓄えられたアドレスに対応する表
示装置CRT上の位置にカーソルを表示する。
CR is a cursor register. The CPU reads and writes the contents of the cursor register. A CRT controller CRTC described later displays a cursor at a position on the display device CRT corresponding to the address stored here.

DBUFは表示用バッファメモリで、表示すべきデータの
パターンを蓄える。テキストの内容を表示するときはテ
キストバッファTBUFの内容に応じて表示パターンがDBUF
に作成されることにより、表示されることになる。
DBUF is a display buffer memory for storing patterns of data to be displayed. When displaying text contents, the display pattern is DBUF according to the contents of the text buffer TBUF.
Will be displayed.

CRTCはカーソルレジスタCR及びバッファDBUFに蓄えら
れた内容を表示器CRTに表示する役割を担う。
The CRTC plays a role of displaying the contents stored in the cursor register CR and the buffer DBUF on the display CRT.

またCRTは陰極線管等を用いた表示装置であり、その
表示装置CRTにおけるドット構成の表示パターンおよび
カーソルの表示をCRTコントローラで制御する。
The CRT is a display device using a cathode ray tube or the like, and a display pattern of a dot configuration and a display of a cursor on the display device CRT are controlled by a CRT controller.

さらに、CGはキャラクタジェネレータであって、表示
装置CRTに表示する文字、記号のパターンを記憶するも
のである。
Further, CG is a character generator for storing patterns of characters and symbols to be displayed on the display device CRT.

かかる各構成要素からなる本発明に係る文字処理装置
においては、キーボードKBからの各種の入力に応じて作
動するものであって、キーボードKBからの入力が供給さ
れると、まず、インタラプト信号がマイクロプロセッサ
CPUに送られ、そのマイクロプロセッサCPUがROM内に記
憶してある各種の制御信号を読出し、それらの制御信号
に従って各種の制御が行なわれる。
In the character processing device according to the present invention comprising such components, the apparatus operates in response to various inputs from the keyboard KB. When an input from the keyboard KB is supplied, first, an interrupt signal is generated by a microcontroller. Processor
Sent to the CPU, the microprocessor CPU reads out various control signals stored in the ROM, and performs various controls according to the control signals.

第2図は従来の文字処理装置による変換選択操作の例
を示した図である。2−1はまず初期画面を示したもの
である。画面上部はテキスト及び入力中の読みが表示さ
れる画面であり、下部は候補一覧が表示される画面であ
る。カーソルはアンダラインで示される。2−2は読み
列「しようがわるい」を入力した時の画面を示してい
る。入力読み列はアンダラインが付いて表示され、カー
ソルは入力読み列の次に表示されている。ここで変換キ
ーを打鍵すると2−3の画面になり、読み列「しようが
わるい」が「使用が悪い」と変換されている。「しよ
う」には「使用」「仕様」などの候補があるが、一般に
「使用」の方が頻度が高いので第1候補に変換される。
オペレータは「仕様が悪い」という変換を望んだとし
て、次候補キーを打鍵すると2−4の画面になる。ここ
で「しよう」の変換候補が表示される。第1候補は「使
用」であり、第2候補は「仕様」である。現在の候補は
第2候補の「仕様」であり、2が反転表示している。こ
こで選択キーを打鍵すると、2−5の画面になる。第2
候補の「仕様」が確定してテキストデータの中に格納さ
れ、同時に「仕様」の学習フラグがONとなり、優先度が
向上する。次に「そうさしよう」と入力すると2−6の
画面になり、更に変換キーを打鍵すると2−7の画面に
なる。「仕様」が学習されているので、「操作仕様」が
第1候補として表示されている。ここで次候補キーを打
鍵すると2−8の画面になり、「しよう」の第2候補と
して付属語「しよう」が表示される。ここで選択キーを
打鍵すると2−9の画面となり、「しよう」が確定して
テキストデータに格納される。同時に付属語「しよう」
の学習フラグがONとなり、自立語「仕様」の学習フラグ
はOFFとなる。次にもう一度「しようがわるい」と入力
すると2-10の画面になり、更に変換キーを打鍵すると2-
11の画面の様に変換結果が表示される。「仕様」の学習
フラグがOFFとなっているので、この変換結果は2−3
の画面と全く同じである。「仕様が悪い」を入力するに
は更に次候補キーを打鍵して2-12の画面の様に変換候補
を表示する必要がある。以上の様に「仕様が悪い」と
「操作しよう」を交互に入力しているかぎり、必ず候補
一覧から目的の候補を選択する作業が必要である。
FIG. 2 is a diagram showing an example of a conversion selection operation by a conventional character processing device. 2-1 shows the initial screen first. The upper part of the screen is a screen on which texts and readings during input are displayed, and the lower part is a screen on which a candidate list is displayed. The cursor is indicated by an underline. 2-2 shows a screen when the reading column "Impossible" is input. The input reading is displayed with an underline, and the cursor is displayed next to the input reading. Here, when the conversion key is depressed, a screen of 2-3 is displayed, and the reading sequence "Impossible" is converted to "Poor use". There are candidates such as "use" and "specifications" for "shall", but "use" is generally converted to the first candidate because it has a higher frequency.
When the operator presses the next candidate key, assuming that the conversion is “poor in specification”, a screen 2-4 is displayed. Here, a conversion candidate of "Let's" is displayed. The first candidate is “use”, and the second candidate is “specification”. The current candidate is the “spec” of the second candidate, and 2 is highlighted. Here, when the selection key is pressed, a screen 2-5 is displayed. Second
The "specification" of the candidate is determined and stored in the text data, and at the same time, the learning flag of "specification" is turned ON, and the priority is improved. Next, when "Let's do it" is input, the screen of 2-6 is displayed, and when the conversion key is further pressed, the screen of 2-7 is displayed. Since “specifications” have been learned, “operation specifications” are displayed as first candidates. Here, when the next candidate key is touched, the screen of 2-8 is displayed, and the auxiliary word "shou" is displayed as the second candidate of "shou". Here, when the selection key is depressed, the screen of 2-9 is displayed, and "Let's" is determined and stored in the text data. At the same time, supposed word
Is turned on, and the learning flag of the independent word "specification" is turned off. Next, when you enter "Impossible" again, the screen of 2-10 is displayed, and if you press the conversion key further, 2-
The conversion result is displayed as in the screen of 11. Since the learning flag of “specifications” is OFF, this conversion result is 2-3
The screen is exactly the same. In order to input "bad specification", it is necessary to further press the next candidate key to display conversion candidates as shown in the screen 2-12. As described above, as long as "bad specifications" and "let's operate" are alternately input, it is necessary to always select the target candidate from the candidate list.

第3図は従来の文字処理装置による変換選択操作の別
の例を示した図である。3−1は初期画面である。3−
2は読み列「ごはたのしい」を入力した時の画面を示し
ている。ここで変換キーを打鍵すると3−3の画面な
り、読み列「ごはたのしい」が「五は楽しい」と変換さ
れている。「ご」には「五」「碁」などの候補がある
が、一般に「五」の方が頻度が高いので第1候補に変換
される。オペレータは「碁は楽しい」という変換を望ん
だとして、次候補キーを打鍵すると3−4の画面にな
る。ここで「ご」の変換候補が表示される。第1候補は
「五」であり、第2候補は「碁」である。ここで選択キ
ーを打鍵すると、3−5の画面になる。第2候補の
「碁」が確定してテキストデータの中に格納され、同時
に「碁」の学習フラグがONとなり、優先度が向上する。
次に「スペインごでは」と入力すると3−6の画面にな
り、更に変換キーを打鍵すると3−7の画面になる。
「碁」が学習されているので、「(スペイン語では)碁
では」が第1候補として表示されている。ここで次候補
キーを打鍵すると3−8の画面になり、「ごでは」の第
2候補として接尾語「語では」が表示される。ここで選
択キーを打鍵すると3−9の画面となり、「語では」が
確定してテキストデータに格納される。同時に接尾語
「語では」の学習フラグがONとなり、名詞「碁」の学習
フラグはOFFとなる。次にもう一度「ごは」と入力する
と3-10の画面になり、更に変換キーを打鍵すると3-11の
画面の様に変換結果が表示される。「碁」の学習フラグ
がOFFとなっているので、この変換結果は3−3の画面
と全く同じである。「碁は楽しい」を入力するには更に
次候補キーを打鍵して3-12の画面の様に変換候補を表示
する必要がある。以上の様に「碁は楽しい」と「スペイ
ン語では」を交互に入力しているかぎり、必ず候補一覧
から目的の候補を選択する作業が必要である。
FIG. 3 is a diagram showing another example of the conversion selection operation by the conventional character processing device. 3-1 is an initial screen. 3-
Reference numeral 2 denotes a screen when the reading column “Fun fun” is input. Here, when the conversion key is depressed, the screen of 3-3 is displayed, and the reading sequence "Fun is fun" is converted to "Five is fun". Although “go” includes candidates such as “go” and “go”, “go” is generally converted to the first candidate because it has a higher frequency. Assuming that the operator desires the conversion “Go is fun”, the next candidate key is pressed to display the screen 3-4. Here, the conversion candidate of “go” is displayed. The first candidate is “five” and the second candidate is “go”. Here, when the selection key is pressed, a screen 3-5 is displayed. The second candidate “Go” is determined and stored in the text data, and at the same time, the “Go” learning flag is turned on, and the priority is improved.
Next, when "Spanish" is input, the screen of 3-6 is displayed, and when the conversion key is further pressed, a screen of 3-7 is displayed.
Since "go" has been learned, "in Go (in Spanish)" is displayed as the first candidate. Here, when the next candidate key is pressed, the screen of 3-8 is displayed, and the suffix “word” is displayed as the second candidate of “go”. Here, when the selection key is depressed, a screen 3-9 is displayed, and "in words" is determined and stored in the text data. At the same time, the learning flag for the suffix “in the word” is turned on, and the learning flag for the noun “go” is turned off. Next, when "Go" is input again, the screen of 3-10 is displayed, and when the conversion key is further pressed, the conversion result is displayed as in the screen of 3-11. Since the learning flag of "go" is OFF, this conversion result is exactly the same as the screen of 3-3. In order to input "Go is fun", it is necessary to hit the next candidate key and display the conversion candidates as shown in the screen 3-12. As described above, as long as "Go is fun" and "In Spanish" are alternately input, it is necessary to always select the target candidate from the candidate list.

第4図は従来の文字処理装置による変換選択操作の3
番目の例を示した図である。4−1は初期画面である。
4−2は読み列「はかる」を入力した時の画面を示して
いる。ここで変換キーを打鍵すると4−3の画面にな
り、読み列「はかる」が「計る」と変換されている。
「はかる」には「計る」「測る」「謀る」などの候補が
あるが、一般に「計る」の方が頻度が高いので第1候補
に変換される。オペレータは「謀る」という変換を望ん
だとして、次候補キーを2回打鍵すると4−4の画面に
なる。ここで「はかる」の変換候補が表示される。第1
候補は「計る」、第2候補は「測る」、第3候補は「謀
る」である。ここで選択キーを打鍵すると、4−5の画
面になる。第3候補の「謀る」が確定してテキストデー
タの中に格納され、同時に「謀る」の学習フラグがONと
なり、優先度が向上する。次に「しんちょうをはかる」
と入力すると4−6の画面になり、更に変換キーを打鍵
すると4−7の画面になる。「身長を計る」「身長を測
る」という用例が用例辞書中に存在するので、「謀る」
が学習されているにもかかわらず、「身長を計る」が第
1候補として表示されている。なお、「計る」が「測
る」よりも優先して変換されるのは「計る」の頻度の方
が一般に高いからである。ここで次候補キーを打鍵する
と4−8の画面になり、「はかる」の第2候補として同
じく用例の存在する「測る」が表示される。ここで選択
キーを打鍵すると4−9の画面となり、「測る」が確定
してテキストデータに格納される。同時に「測る」の学
習フラグがONとなり、「謀る」の学習フラグはOFFとな
る。次にもう一度「はかる」と入力すると4-10の画面に
なり、更に変換キーを打鍵すると4-11の画面の様に変換
結果が表示される。「謀る」の学習フラグがOFFとなっ
ているので、「謀る」は第1候補としては変換されず、
先程学習された「測る」が第1候補として変換されてい
る。「謀る」を入力するには更に次候補キーを2回打鍵
して4-12の画面の様に変換候補を表示する必要がある。
もしここで「謀る」を選択すると、「測る」の学習フラ
グも同時のOFFとなり、「しんちょうをはかる」は「身
長を計る」と変換される様になる。以上の様に「謀る」
と「身長を測る」を交互に入力しているかぎり、必ず候
補一覧から目的の候補を選択する作業が必要である。
FIG. 4 shows a third example of the conversion selecting operation by the conventional character processing device.
It is a figure showing the example of the. 4-1 is an initial screen.
4-2 shows a screen at the time of inputting the reading string "measure". Here, when the conversion key is pressed, the screen of 4-3 is displayed, and the reading sequence "measure" is converted to "measure".
“Measure” includes candidates such as “measure”, “measure”, and “conspire”, but since “measure” is generally more frequent, it is converted to the first candidate. Assuming that the operator desires the conversion of “conspire”, if the next candidate key is pressed twice, a screen 4-4 is displayed. Here, a conversion candidate of “measure” is displayed. First
The candidate is "measure", the second candidate is "measure", and the third candidate is "rebel". Here, when the selection key is pressed, a screen 4-5 is displayed. The third candidate “conspiracy” is determined and stored in the text data, and at the same time, the learning flag of “conspiracy” is turned on, and the priority is improved. Next, "Measure Shincho"
Is displayed, the screen of 4-6 is displayed, and when the conversion key is further pressed, the screen of 4-7 is displayed. Examples of "measuring height" and "measuring height" exist in the example dictionary, so
Although "has been learned", "measure height" is displayed as the first candidate. The reason why “measure” is converted prior to “measure” is that the frequency of “measure” is generally higher. Here, when the next candidate key is pressed, a screen 4-8 is displayed, and "measure", which also has an example, is displayed as a second candidate of "measure". Here, when the selection key is depressed, the screen of 4-9 is displayed, and "measure" is determined and stored in the text data. At the same time, the learning flag of "measure" is turned on, and the learning flag of "believe" is turned off. Next, if you input "Measure" again, the screen of 4-10 will be displayed, and if you press the conversion key further, the conversion result will be displayed like the screen of 4-11. Since the learning flag of “Take” is OFF, “Take” is not converted as the first candidate,
“Measure” learned earlier is converted as a first candidate. In order to input "conspiracy", it is necessary to further tap the next candidate key twice to display the conversion candidates as shown in the screen 4-12.
If you select "Conspire" here, the learning flag for "Measure" will also be turned off at the same time, and "Measure Shincho" will be converted to "Measure height". "Conspire" as above
As long as "measuring height" and "measuring height" are input alternately, it is necessary to always select a target candidate from the candidate list.

第5図は本発明に係る文字処理装置による変換選択操
作の例を示した図である。5−1は初期画面である。5
−2は読み列「しようがわるい」を入力した時の画面を
示している。ここで変換キーを打鍵すると5−3の画面
になり、読み列「しようがわるい」が「使用が悪い」と
変換されている。「しよう」には「使用」「仕様」など
の候補があるが、一般に「使用」の方が頻度が高いので
第1候補に変換される。オペレータは「仕様が悪い」と
いう変換を望んだとして、次候補キーを打鍵すると5−
4の画面になる。ここで「しよう」の変換候補が表示さ
れる。第1候補は「使用」であり、第2候補は「仕様」
である。現在の候補は第2候補の「仕様」である。ここ
で選択キーを打鍵すると、5−5の画面になる。第2候
補の「仕様」が確定してテキストデータの中に格納さ
れ、同時に「仕様」の学習フラグがONとなり、優先度が
向上する。次に「そうさしよう」と入力すると5−6の
画面になり、更に変換キーを打鍵すると5−7の画面に
なる。「仕様」が学習されているので、「操作仕様」が
第1候補として表示されている。ここで次候補キーを打
鍵すると5−8の画面になり、「しよう」の第2候補と
して付属語「しよう」が表示される。ここで選択キーを
打鍵すると5−9の画面となり、「しよう」が確定して
テキストデータに格納される。同時に付属語「しよう」
の学習フラグがONとなるが、第2図と異なり、自立語
「仕様」の学習フラグはOFFとはならず、ONのままであ
る。次にもう一度「しようがわるい」と入力すると5-10
の画面になり、更に変換キーを打鍵すると5-11の画面の
様に変換結果が表示される。「仕様」の学習フラグがON
のままなので、この変換結果は以前のオペレータの選択
操作通りである。更に読み列「そうさしよう」を入力す
ると、5-12の画面になり、変換キーを打鍵すると5-13の
画面の様に、以前の選択通りに「操作しよう」が第1候
補で変換される。これ以降は「仕様が悪い」と「操作し
よう」を繰り返して入力してももはや選択操作を行なう
必要はなくなる。
FIG. 5 is a diagram showing an example of a conversion selection operation by the character processing device according to the present invention. 5-1 is an initial screen. 5
Reference numeral -2 denotes a screen when the reading column "Impossible" is input. Here, when the conversion key is pressed, the screen of 5-3 is displayed, and the reading sequence "Impossible" has been converted to "Poor use". There are candidates such as "use" and "specifications" for "shall", but "use" is generally converted to the first candidate because it has a higher frequency. When the operator presses the next candidate key, assuming that the conversion of “specification is bad” is desired, 5-
The screen shown in Fig. 4 is displayed. Here, a conversion candidate of "Let's" is displayed. The first candidate is “use” and the second candidate is “specification”
It is. The current candidate is the "spec" of the second candidate. Here, when the selection key is pressed, a screen 5-5 is displayed. The “specification” of the second candidate is determined and stored in the text data. At the same time, the learning flag of “specification” is turned on, and the priority is improved. Next, when "Let's do it" is input, the screen of 5-6 is displayed, and when the conversion key is further pressed, the screen of 5-7 is displayed. Since “specifications” have been learned, “operation specifications” are displayed as first candidates. Here, when the next candidate key is touched, a screen 5-8 is displayed, and the auxiliary word "shou" is displayed as a second candidate of "shou". Here, when the selection key is depressed, the screen of 5-9 is displayed, "Let's" is determined and stored in the text data. At the same time, supposed word
Is turned on, but unlike FIG. 2, the learning flag of the independent word "specification" is not turned off but remains on. Next, enter "Impossible" again 5-10
When you press the conversion key again, the conversion result is displayed as shown in the screen of 5-11. "Specification" learning flag is ON
, The conversion result is the same as the previous operator's selection operation. Furthermore, if you input the reading line "Let's do it", the screen of 5-12 will be displayed, and if you press the conversion key, "Let's operate" will be converted as the first choice as the previous selection as the screen of 5-13 You. After this, it is no longer necessary to perform the selection operation even if "Let's operate" and "Let's operate" are repeatedly input.

第6図は本発明に係る文字処理装置による変換選択操
作の別の例を示した図である。6−1は初期画面であ
る。6−2は読み列「ごはたのしい」を入力した時の画
面を示している。ここで変換キーを打鍵すると6−3の
画面になり、読み列「ごはたのしい」が「五は楽しい」
と変換されている。「ご」には「五」「碁」などの候補
があるが、一般に「五」の方が頻度が高いので第1候補
に変換される。オペレータは「碁は楽しい」という変換
を望んだとして、次候補キーを打鍵すると6−4の画面
になる。ここで「ご」の変換候補が表示される。第1候
補は「五」であり、第2候補は「碁」である。ここで選
択キーを打鍵すると、6−5の画面になる。第2候補の
「碁」が確定してテキストデータの中に格納され、同時
に「碁」の学習フラグがONとなり、優先度が向上する。
次に「スペインごでは」と入力すると6−6の画面にな
り、更に変換キーを打鍵すると6−7の画面になる。
「碁」が学習されているので、「(スペイン語では)碁
では」が第1候補として表示されている。ここで次候補
キーを打鍵すると6−8の画面になり、「ごでは」の第
2候補として接尾語「語では」が表示される。ここで選
択キーを打鍵すると6−9の画面となり、「語では」が
確定してテキストデータに格納される。同時に接尾語
「語では」の学習フラグがONなるが、第3図と異なり、
名詞「碁」の学習フラグはONのままである。次にもう一
度「ごは」と入力すると6-10の画面になり、更に変換キ
ーを打鍵すると6-11の画面の様に変換結果が表示され
る。「碁」の学習フラグがONのままなので、この変換結
果は以前のオペレータの選択操作通りである。更に読み
列「スペインごでは」を入力すると、6-12の画面にな
り、変換キーを打鍵すると6-13の画面の様に、以前の選
択通りに「スペイン語では」が第1候補で変換される。
これ以降は「碁は楽しい」と「スペイン語では」を繰り
返して入力してももはや選択操作を行なう必要はなくな
る。
FIG. 6 is a diagram showing another example of the conversion selection operation by the character processing device according to the present invention. 6-1 is an initial screen. 6-2 shows a screen at the time of inputting the reading sequence "Fun fun". If you press the conversion key here, the screen changes to 6-3.
Has been converted. Although “go” includes candidates such as “go” and “go”, “go” is generally converted to the first candidate because it has a higher frequency. Assuming that the operator desires the conversion “Go is fun”, the next candidate key is pressed, and a screen 6-4 is displayed. Here, the conversion candidate of “go” is displayed. The first candidate is “five” and the second candidate is “go”. Here, when the selection key is pressed, a screen 6-6 is displayed. The second candidate “Go” is determined and stored in the text data, and at the same time, the “Go” learning flag is turned on, and the priority is improved.
Next, when "Spanish" is input, the screen of 6-6 appears, and when the conversion key is further pressed, the screen of 6-7 appears.
Since "go" has been learned, "in Go (in Spanish)" is displayed as the first candidate. Here, when the next candidate key is pressed, the screen of 6-8 is displayed, and the suffix "word" is displayed as a second candidate of "go". Here, when the selection key is depressed, the screen of 6-9 is displayed, and "in words" is determined and stored in the text data. At the same time, the learning flag of the suffix "in word" is turned on, but unlike FIG.
The learning flag for the noun “go” remains ON. Next, when "Go" is input again, the screen of 6-10 is displayed, and when the conversion key is further pressed, the conversion result is displayed as in the screen of 6-11. Since the “go” learning flag remains ON, the result of this conversion is as selected by the previous operator. Furthermore, if you input the reading column "Spain Go", the screen of 6-12 will be displayed, and if you press the conversion key, "Spanish" will be converted as the first choice as previously selected as the screen of 6-13 Is done.
After this, there is no longer any need to perform the selection operation even if "Go is fun" and "In Spanish" are repeatedly input.

第7図は本発明に係る文字処理装置による変換選択操
作の3番目の例を示した図である。7−1は初期画面で
ある。7−2は読み列「はかる」を入力した時の画面を
示している。ここで変換キーを打鍵すると7−3の画面
になり、読み列「はかる」が「計る」と変換されてい
る。「はかる」には「計る」「測る」「謀る」などの候
補があるが、一般に「計る」の方が頻度が高いので第1
候補に変換される。オペレータは「謀る」という変換を
望んだとして、次候補キーを2回打鍵すると7−4の画
面になる。ここで「はかる」の変換候補が表示される。
第1候補は「計る」、第2候補は「測る」、第3候補は
「謀る」である。ここで選択キーを打鍵すると、7−5
の画面になる。第3候補の「謀る」が確定してテキスト
データの中に格納され、同時に「謀る」の学習フラグが
ONとなり、優先度が向上する。次に「しんちょうをはか
る」と入力すると7−6の画面になり、更に変換キーを
打鍵すると7−7の画面になる。「身長を計る」「身長
を測る」という用例が用例辞書中に存在するので、「謀
る」が学習されているにもかかわらず、「身長を計る」
が第1候補として表示されている。ここで次候補キーを
打鍵すると7−8の画面になり、「はかる」の第2の候
補として同じく用例の存在する「測る」が表示される。
ここで選択キーを打鍵すると7−9の画面となり、「測
る」が確定してテキストデータに格納される。同時に
「測る」の学習フラグがONとなるが、第4図と異なり、
「謀る」の学習フラグはONのままである。同時に用例
「身長を計る」が抑制され、これ以降は「身長は計る」
という用例は使用されなくなる。次にもう一度「はか
る」と入力すると7-10の画面になり、更に変換キーを打
鍵すると7-11の画面の様に変換結果が表示される。「謀
る」の学習フラグがONのままなので、この変換結果は以
前のオペレータの選択操作通りである。更に読み列「し
んちょうをはかる」を入力すると、7-12の画面になり、
変換キーを打鍵すると7-13の画面の様に、以前の選択通
りに「身長を測る」が第1候補で変換される。これ以降
は「謀る」と「身長を測る」と繰り返して入力してもも
はや選択操作を行なう必要はなくなる。
FIG. 7 is a diagram showing a third example of the conversion selection operation by the character processing device according to the present invention. 7-1 is an initial screen. 7-2 shows a screen at the time of inputting the reading string "Measure". When the user presses the conversion key, the screen changes to screen 7-3, and the reading string "Measure" is converted to "Measure". There are candidates for "measure" such as "measure", "measure", and "conspire", but in general, "measure" is more frequent, so
Converted to a candidate. Assuming that the operator desires the conversion of "conspiracy", if the next candidate key is pressed twice, a screen 7-4 is displayed. Here, a conversion candidate of “measure” is displayed.
The first candidate is “measure”, the second candidate is “measure”, and the third candidate is “mare”. If you hit the select key here, 7-5
Screen. The third candidate “conspiracy” is determined and stored in the text data.
Becomes ON, and the priority improves. Next, the screen of FIG. 7-6 is displayed when "Measure Shincho" is input, and the screen of 7-7 is displayed by further inputting the conversion key. Examples of "measure height" and "measure height" exist in the example dictionary, so "measure height" despite learning "conspiracy"
Is displayed as the first candidate. Here, when the next candidate key is pressed, a screen 7-8 is displayed, and "Measure", which also has an example, is displayed as a second candidate of "Measure".
Here, when the selection key is depressed, a screen 7-9 is displayed, and "measure" is determined and stored in the text data. At the same time, the learning flag of "measure" is turned on, but unlike FIG.
The learning flag of "Take" remains ON. At the same time, the example "measure height" is suppressed, and after this, "measure height"
Will no longer be used. Next, if you input "Measure" again, the screen of 7-10 will be displayed, and if you press the conversion key further, the conversion result will be displayed like the screen of 7-11. Since the learning flag of “to devise” remains ON, this conversion result is as selected by the previous operator. Furthermore, when you input the reading line "Measure Shincho", the screen of 7-12 will be displayed,
When the user presses the conversion key, "measuring height" is converted as the first candidate as previously selected, as shown in the screen 7-13. From then on, even if you repeatedly input "Mr." and "Measure height", you no longer need to perform the selection operation.

第8図は入力バッファIBUF、出力バッファOBUFの構成
を示した図である。
FIG. 8 is a diagram showing a configuration of the input buffer IBUF and the output buffer OBUF.

IBUF、OBUFともに同じ構成である。最初の2バイトは
各バッファのサイズ情報であり、バッファに格納されて
いる文字数から1を減じたものを2倍した数値が入る。
入力バッファの末尾にある「 」はそこで変換キーが打
鍵されたことを意味する。各文字は1文字2バイトで構
成されJIS X 0208コード等で格納される。
Both IBUF and OBUF have the same configuration. The first two bytes are size information of each buffer, and contain a value obtained by doubling a value obtained by subtracting 1 from the number of characters stored in the buffer.
The "" at the end of the input buffer means that the conversion key was hit there. Each character is composed of 2 bytes per character and stored in JIS X 0208 code or the like.

第9図は辞書DICの構成を示した図である。「読み」
「表記」「品詞」「標準頻度」「品詞細分類」「学習」
のフィールドから構成される。
FIG. 9 is a diagram showing a configuration of the dictionary DIC. "reading"
"Notation""Part of speech""Standardfrequency""Part of speech classification""Learning"
Field.

「読み」には単語の読み、「表記」には単語の表記、
「品詞」には単語の品詞が格納される。
"Yomi" is a word reading, "Notation" is a word notation,
The “part of speech” stores the part of speech of a word.

「標準頻度」は頻度情報等のその単語自体の尤もらし
さを示す情報が1〜5の値で格納される。尤度値5は最
も尤もらしいという意味であり、値が小さくなるにつれ
疑わしいと解釈される。尤度値0は全く考えられないと
いうことを意味するので単語尤度の値としては存在しな
い。
In the “standard frequency”, information indicating the likelihood of the word itself such as frequency information is stored as a value of 1 to 5. A likelihood value of 5 means most likely and is interpreted as suspicious as the value decreases. Since the likelihood value 0 means that it cannot be considered at all, it does not exist as a word likelihood value.

「品詞細分類」にはその単語の品詞を更に細分類した
情報が格納される。例えば、接頭語は更に何種類かに細
分類され、品詞フィールドに接頭語と記入した場合には
接頭語の細分類情報を品詞細分類に記述する。接頭語
「逆」に対しては「接頭語23」という細分類コードを割
り振っている。名詞の場合には「抽象概念」「物品」
「行動」などの細分類情報が格納される。特に細分類情
報が存在しない品詞の場合(例えば、ラ行5段)には値
は入らない。
In the “part of speech classification”, information obtained by further subdividing the part of speech of the word is stored. For example, prefixes are further subdivided into several types. When a prefix is entered in the part of speech field, the subclassification information of the prefix is described in the part of speech subclassification. For the prefix "reverse", a sub-classification code of "prefix 23" is assigned. In the case of a noun, "abstract concept""article"
The sub-classification information such as "action" is stored. In particular, in the case of a part of speech in which there is no detailed classification information (for example, 5 lines in a row), no value is entered.

「学習」は学習フラグであり、その単語が学習されて
いるかどうかを1ビットで示す。学習フラグがONになっ
ている単語は優先的に変換されることになる。ある単語
の状態は学習されているが、あるいは学習されていない
かの2状態しか存在しないので、これはすなわち、短期
学習方式である。
“Learning” is a learning flag, and indicates by one bit whether or not the word has been learned. Words for which the learning flag is ON are preferentially converted. This is a short-term learning method, because there are only two states, whether a word is learned or not.

第10図は用例辞書YDICの構成を示した図である。「第
1単語」」「第2単語」「助詞」「用例抑制」のフィー
ルドから構成される。
FIG. 10 is a diagram showing a configuration of the example dictionary YDIC. It is composed of fields of “first word”, “second word”, “particle”, and “example suppression”.

「第1単語」「第2単語」には共起する単語のペアを
記述する。
A pair of co-occurring words is described in “first word” and “second word”.

「助詞」には単語のペアを結び付ける助詞を記述す
る。
"Particles" describe particles that connect word pairs.

「用例抑制」にはその用例を使用して良いかどうか示
す情報が1ビットで格納される。0は抑制されないこと
を意味し、1は抑制されることを意味する。初期状態は
0であり、その用例を使用しても構わないことを意味す
る。
In “example suppression”, information indicating whether the example can be used is stored in one bit. 0 means not suppressed and 1 means suppressed. The initial state is 0, which means that the example may be used.

図中に示される用例は「身長を/計る」「水深を/計
る」「身長を/測る」「委員会に/諮る」「推進を/図
る」となり、このパターンと一致した読み列が入力され
たときは、この用例辞書に示される表記が優先的に変換
される。
The example shown in the figure is "measuring height / measuring", "measuring / measuring water depth", "measuring / measuring height", "consulting / committing", "promoting / measuring", and a reading sequence matching this pattern is input. , The notation shown in this example dictionary is converted preferentially.

第11図は文節候補テーブルBCTBLの概念を示した図で
ある。文節候補テーブルは入力読みの解析の結果、考え
られる文節候補をバイナリートリーで表現したものであ
る。図中、横線は子ポインタを意味し、縦線は弟ポイン
タを意味する。弟ポインタはある読み位置から始まる他
の文節候補(通常はより短い候補)をリンクし、子ポイ
ンタはその文節に引き続く文節候補をリンクする。
FIG. 11 is a diagram showing the concept of the phrase candidate table BCTBL. The phrase candidate table is a representation of possible phrase candidates as a result of the analysis of the input reading in a binary tree. In the figure, a horizontal line indicates a child pointer, and a vertical line indicates a younger pointer. The younger brother pointer links other phrase candidates (usually shorter candidates) starting from a certain reading position, and the child pointer links a phrase candidate following the phrase.

入力読み列「しようがわるい」の先頭部分は「使用
が」「仕様が」「使用」「仕様」「死」などの解釈が存
在し、これらは順に弟ポインタ(縦線)でリンクされて
いる。
At the beginning of the input reading string “Impossible”, there are interpretations such as “Use”, “Specification”, “Use”, “Specification”, and “Death”, and these are linked in order by a younger brother pointer (vertical line) .

「使用が」に引き続く文節は「悪い」が考えられ、子
ポインタでリンクされている。
The clause following "Use" is considered "bad" and is linked by a child pointer.

この様な文節候補テーブルができ上がると、「使用が
悪い」「仕様が悪い」「使用側類」「使用が和類」など
と文節候補列を作成することは容易である。
When such a phrase candidate table is completed, it is easy to create a phrase candidate sequence such as “bad use”, “poor specification”, “consideration type”, “use type”, and the like.

第12図は文節候補テーブルBCTBLの具体的構成を示し
た図である。
FIG. 12 is a diagram showing a specific configuration of the phrase candidate table BCTBL.

「自立語」は文節候補の自立語が存在する辞書上の先
頭位置へポインタを格納する。
The “independent word” stores a pointer to a head position on the dictionary where the independent word of the phrase candidate exists.

「付属語列」は2バイトで構成され、文節候補の自立
語に引き続く付属語列を特定する領域である。先頭1バ
イトが入力バッファ上の付属語列先頭文字をインデック
スし、次の1バイトが入力バッファ上の付属語列の末尾
文字をインデックスする。例えば、第8図に示す入力バ
ッファのとき、「が」を表現するには第1バイトに6、
第2バイトに6を設定する。付属語列が存在しないとき
は図中で「φ」で示している。
The "attachment word string" is an area which is composed of 2 bytes and specifies an attachment word string following the independent word of a phrase candidate. The first byte indexes the first character of the adjunct string in the input buffer, and the next byte indexes the last character of the adjunct string in the input buffer. For example, in the case of the input buffer shown in FIG.
Set 6 in the second byte. When there is no attached word string, it is indicated by “φ” in the figure.

「弟リンク」はその文節候補と同じ読み位置から始ま
る別の文節候補をリンクする。
The “brother link” links another phrase candidate starting from the same reading position as the phrase candidate.

「子リンク」はその文節候補に引き続く文節候補をリ
ンクする。
The “child link” links a phrase candidate that follows the phrase candidate.

なお、リンクは値0のときに終端することを意味す
る。
Note that the link is terminated when the value is 0.

例えば、文節候補0(使用が)が弟リンクは1であ
り、文節候補1(仕様が)をリンクする。文節候補0
(新聞屋に)の子リンクは100であり、文節候補100(悪
い)をリンクする。文節候補100の子リンクは0であ
り、そこで入力読みが終端していることが分かる。
For example, the phrase candidate 0 (use) has a younger brother link of 1, and the phrase candidate 1 (specification) is linked. Phrase candidate 0
The child link of (to the newspaper shop) is 100, and links the phrase candidate 100 (bad). The child link of the phrase candidate 100 is 0, which indicates that the input reading is terminated.

「自立部タイプ」はその文節の自立部のタイプを記述
する。これは隣接文節間の接続可能性を判定するときに
使用される。例えば、0:抽象概念を示す名詞、1:人間を
示す名詞、2:サ変名詞、3:地名語幹、4:形容詞、などと
記述される。
"Independent part type" describes the type of the independent part of the phrase. This is used to determine the possibility of connection between adjacent clauses. For example, 0: a noun indicating an abstract concept, 1: a noun indicating a human, 2: a noun, 3: a place name stem, 4: an adjective, and the like.

「文節タイプ」はその文節のタイプを記述する。これ
は隣接文節間の接続可能性を判定するときに使用され
る。例えば、0:抽象概念を示す名詞で終了する文節、1:
人間を示す名詞で終了する文節、2:サ変語幹で終了する
分析、3:地名語幹で終了する文節、4:形容詞終止形で終
了する文節、5:格助詞「に」で終了する文節、6:格助詞
「が」で終了する文節、などと記述される。
“Clause type” describes the type of the clause. This is used to determine the possibility of connection between adjacent clauses. For example, 0: a clause ending with a noun indicating an abstract concept, 1:
Phrases ending with nouns indicating humans, 2: Analysis ending with sa-variable stems, 3: Phrases ending with place-name stems, 4: Phrases ending with adjectives, 5: Phrases ending with case particles `` Ni '', 6 : A phrase that ends with the case particle "ga".

第13図は文節間の接続可能性を判定する文節接続マト
リックスの構成を示した図である。
FIG. 13 is a diagram showing the configuration of a phrase connection matrix for determining the possibility of connection between phrases.

第13図の(1)は文節とそれに後続する付属語の接続
可能性を判定するCTBL1である。1は接続可を意味し、
0は接続不可を意味する。例えば、文節タイプ=2の文
節の後に付属語125の文節は後続し得るが、文節タイプ
=3の文節の後に付属語125の文節は後続し得ないこと
がこれで分かる。
(1) in FIG. 13 is a CTBL1 for determining the possibility of connection between a phrase and an attached word that follows it. 1 means connectable,
0 means that connection is not possible. For example, it can be seen that the phrase of the auxiliary word 125 can follow the phrase of the phrase type = 2, but the phrase of the auxiliary word 125 cannot follow the phrase of the phrase type = 3.

(2)は文節とそれに後続する接尾語の接続可能性を
判定するCTBL2である。1は接続可を意味し、0は接続
不可を意味する。例えば、文節タイプ=3の文節の後に
接尾語15の文節は後続し得るが、文節タイプ=2の文節
の後に接尾語15の文節は後続し得ないことがこれで分か
る。
(2) is CTBL2 which determines the connection possibility of a phrase and a suffix following it. 1 means that connection is possible, and 0 means that connection is impossible. For example, it can be seen that a clause of suffix 15 can follow a clause of clause type = 3, but a clause of suffix 15 cannot follow a clause of clause type = 2.

(3)は接頭語とそれに後続する文節の接続可能性を
判定するCTBL3である。1は接続可を意味し、0は接続
不可を意味する。例えば、接頭語23の文節の後に自立部
タイプ=2の文節は後続し得るが、接頭語23の文節の文
節の後に自立部タイプ=3の文節は後続し得ないことが
これで分かる。
(3) is CTBL3 for determining the possibility of connection between the prefix and the following clause. 1 means that connection is possible, and 0 means that connection is impossible. For example, it can be seen that a clause of prefix 23 can be followed by a clause of freestanding type = 2, but a clause of a clause of prefix 23 cannot be followed by a clause of freestanding type = 3.

第14図はテキストバッファTBUFの構成を示した図であ
る。
FIG. 14 shows the structure of the text buffer TBUF.

テキストバッファは文字の羅列から構成され、各文字
は2バイトで構成される。各文字のMSBは同音語フラグ
であり、0は通常文字、1が同音語を意味する。残りの
15ビットは通常文字のときは文字コードを表現し、同音
語のときは同音語番号を表現する。文字コードは例え
ば、JIS X 0208コードを使用する。同音語番号は第15図
に示す同音語バッファDOBUF上のどの同音語であるかを
示す番号である。
The text buffer is composed of a sequence of characters, and each character is composed of 2 bytes. The MSB of each character is a homophone flag, where 0 means a normal character and 1 means a homophone. Remaining
The 15 bits represent a character code for normal characters and a homophone number for homophones. As the character code, for example, JIS X 0208 code is used. The homophone number is a number indicating which homophone in the homophone buffer DOBUF shown in FIG.

第15図は同音語バッファDOBUFの構成を示した図であ
る。各同音語には同音語番号が付いており、それによっ
て識別される。
FIG. 15 is a diagram showing the structure of the homophone buffer DOBUF. Each homonym has a homonym number and is identified by it.

各同音語は「読み」「候補総数」「現候補番号」「第
i候補情報」からなる。
Each homonym is composed of “reading”, “total number of candidates”, “current candidate number”, and “i-th candidate information”.

「読み」はその同音語の読みを格納する。 "Reading" stores the reading of the same phonetic word.

「候補総数」はその同音に含まれる候補の総数を格納
する。
The “total number of candidates” stores the total number of candidates included in the same sound.

「現候補番号」はその同音語の現在表示されている候
補番号が格納される。変換直後初値に第1候補が表示さ
れるから「1」が格納される。
The "current candidate number" stores the currently displayed candidate number of the same phonetic word. Since the first candidate is displayed as the initial value immediately after the conversion, “1” is stored.

「第i候補情報」は各候補の「表記」「単語アドレ
ス」「適用意味分類」が格納される。
In the “i-th candidate information”, “notation”, “word address”, and “applied meaning classification” of each candidate are stored.

「表記」にはその候補の表記が格納される。 The “notation” stores the notation of the candidate.

「単語アドレス」にはその単語候補が辞書DIC上に存
在するアドレスを格納する。
The "word address" stores an address at which the word candidate exists on the dictionary DIC.

「適用可能用例番号」には、その候補に適用され得る
用例の用例番号を格納する。ここには、抑制されている
用例の番号も同様に記述する。一般には、その候補に適
用され得る用例は複数個存在するので、「適用可能用例
番号」は1候補につき複数個存在することもある。ま
た、全く存在しないときもある。
The “applicable example number” stores an example number of an example that can be applied to the candidate. Here, the number of the suppressed example is also described. In general, since there are a plurality of examples that can be applied to the candidate, a plurality of “applicable example numbers” may exist for each candidate. In some cases, it does not exist at all.

第16図は文尤度の計算例を示した図である。文尤度は
文節候補列である文の尤もらしさを表現するものであ
り、値が大きいほど尤もらしいことを意味する。
FIG. 16 is a diagram showing a calculation example of sentence likelihood. The sentence likelihood expresses the likelihood of a sentence that is a phrase candidate sequence, and the larger the value, the more likely it is.

文尤度は、文節尤度の和、文節間尤度の和、用例尤度
の和を全て加算することにより計算される。
The sentence likelihood is calculated by adding all of the sum of phrase likelihoods, the sum of inter-segment likelihoods, and the sum of example likelihoods.

文節尤度は各文節候補の尤もらしさを表現するもので
あり、値が大きいほど尤もらしいことを意味する。文節
尤度はその文節の自立語の辞書DICに記載されている標
準頻度が使用される。もし、学習フラグのONのときは更
に26が加算される。
The phrase likelihood expresses the likelihood of each phrase candidate, and the larger the value, the more likely it is. As the phrase likelihood, a standard frequency described in a dictionary DIC of an independent word of the phrase is used. If the learning flag is ON, 26 is further added.

文節間尤度は隣接する文節候補間の接続の尤もらしさ
を表現するものであり、本実施例では後続文節が付属語
のとき0、先行文節が接頭語のとき−10、後続文節が接
尾語のとき−10、その他のとき−20とする。このように
定めることにより、付属語は自立語より優先的に変換さ
れ、接頭語、接尾語は名詞より優先的に変換されること
になる。例えば、その文がn文節で構成されていたと
し、その全てが上記のその他の場合であれば、文節間は
(n−1)あるので、文節間尤度の和は−20(n−1)
となる。
The inter-phrase likelihood expresses the likelihood of connection between adjacent phrase candidates. In this embodiment, the following phrase is 0 when the subsequent phrase is an adjunct, −10 when the preceding phrase is a prefix, and suffix is In this case, it is -10, and in other cases, it is -20. With this definition, the attached word is converted before the independent word, and the prefix and the suffix are converted before the noun. For example, if the sentence is composed of n clauses, and all of them are in the other cases described above, there is (n-1) between the clauses, and the sum of the likelihoods between the clauses is -20 (n-1 )
Becomes

用例尤度は各文節間に適用されている、用例の一つ一
つについて文尤度に加算される。30からその用例の適用
する際に飛び越す文節の数の10倍を減じたものが用例尤
度となる。
The example likelihood is added to the sentence likelihood for each example used between each phrase. The example likelihood is obtained by subtracting 10 times the number of segments skipped when the example is applied from 30.

第17図は、第16図の文尤度の計算例を読み列「そうさ
しよう」について状況別に説明した図である。
FIG. 17 is a diagram illustrating a calculation example of the sentence likelihood of FIG. 16 for the reading sequence “Let's do it” for each situation.

第17図の(1)は特に学習がされていない場合の「操
作/しよう」の計算例であり、文尤度は8である。
(1) in FIG. 17 is a calculation example of “operation / let's go” when learning is not particularly performed, and the sentence likelihood is 8.

(2)は特に学習がされていない場合の「操作/仕
様」の計算例であり、文尤度は−12である。
(2) is a calculation example of “operation / specification” when learning is not particularly performed, and the sentence likelihood is −12.

(3)は付属語「しよう」だけが学習がされている場
合の「操作/しよう」の計算例であり、文尤度は34であ
る。
(3) is a calculation example of “operation / letter” when only the attached word “letter” is learned, and the sentence likelihood is 34.

(4)は自立語「仕様」だけが学習されている場合の
「操作/仕様」の計算例であり、文尤度は14である。
(4) is a calculation example of “operation / specification” when only the independent word “specification” is learned, and the sentence likelihood is 14.

すなわち、学習が何もない状態では「操作しよう」と
変換され、「仕様」のみが学習されている状態では「操
作仕様」と変換され、「しよう」のみが学習されている
状態では「操作しよう」と変換され、「しよう」と「仕
様」が両方学習されている状態では「操作しよう」と変
換されることが分かる。
In other words, when there is no learning, it is converted to "Let's operate", when only "Specifications" is learned, it is converted to "Operation specifications", and when only "Let's learn" is learned, "Let's operate" It can be seen that when both "Let's" and "Specification" are learned, it is converted to "Let's operate".

第18図は、第16図の文尤度の計算例を読み列「スペイ
ンご」について状況別に説明した図である。
FIG. 18 is a diagram for explaining a calculation example of the sentence likelihood of FIG. 16 for the reading sequence “Spain” according to the situation.

第18図の(1)は特に学習がされていない場合の「ス
ペイン/語」の計算例であり、文尤度は−2である。
(1) in FIG. 18 is a calculation example of “Spain / language” when learning is not particularly performed, and the sentence likelihood is −2.

(2)は特に学習がされていない場合の「スペイン/
碁」の計算例であり、文尤度は−14である。
(2) is "Spain /
This is a calculation example of “go”, and the sentence likelihood is −14.

(3)は接尾語「語」だけが学習されている場合の
「スペイン/語」の計算例であり、文尤度は24である。
(3) is a calculation example of “Spain / word” when only the suffix “word” is learned, and the sentence likelihood is 24.

(4)は自立語「碁」だけが学習されている場合の
「スペイン/碁」の計算例であり、文尤度は15である。
(4) is a calculation example of “Spain / Go” when only the independent word “Go” is learned, and the sentence likelihood is 15.

すなわち、学習が何もない状態では「スペイン語」と
変換され、「碁」のみが学習されている状態では「スペ
イン碁」と変換され、「語」のみが学習されている状態
では「スペイン語」と変換され、「碁」と「語」が両方
学習されている状態では「スペイン語」と変換されるこ
とが分かる。
In other words, if there is no learning, it is converted to "Spanish", if only "Go" is learned, it is converted to "Spanish Go", and if only "word" is learned, it is converted to "Spanish" It can be seen that when both "go" and "word" are learned, they are converted to "Spanish".

第19図は、第16図の文尤度の計算例を読み列「しんち
ょうをはかる」について状況別に説明した図である。な
お、用例として「身長を測る」が登録されているものと
する。
FIG. 19 is a diagram for explaining a calculation example of the sentence likelihood in FIG. 16 for a reading sequence “measurement” for each situation. It is assumed that “measuring height” is registered as an example.

第19図の(1)は特に学習がされていない場合の「身
長を/測る」の計算例であり、文尤度は18である。
(1) in FIG. 19 is a calculation example of “measuring / height” when learning is not particularly performed, and the sentence likelihood is 18.

(2)は特に学習がされていない場合の「身長を/謀
る」の計算例であり、文尤度は−15である。
(2) is a calculation example of “height / involvement” when no particular learning has been performed, and the sentence likelihood is −15.

(3)は「測る」だけが学習されている場合の「身長
を/測る」の計算例であり、文尤度は44である。
(3) is a calculation example of “height / measure” when only “measure” is learned, and the sentence likelihood is 44.

(4)は「謀る」だけが学習されている場合の「身長
を/謀る」の計算例であり、文尤度は11である。
(4) is a calculation example of “height / involve” when only “involve” is learned, and the sentence likelihood is 11.

すなわち、学習が何もない状態では「身長を/測る」
と変換され、「謀る」のみが学習されている状態では
「身長を/測る」と変換され、「測る」のみが学習され
ている状態では「身長を/測る」と変換され、「謀る」
と「測る」が両方学習されている状態では「身長を/測
る」と変換されることが分かる。
In other words, if there is no learning, "measure / height"
In the state where only "meaning" is learned, it is converted to "height / measure", and in the state where only "measurement" is learned, it is converted to "height / measure", and "meaning"
It can be seen that in the state where both "measurement" and "measurement" are learned, "height / measurement" is converted.

上述の実施例の動作を第20図〜第27図に示すフローチ
ャートに従って説明する。
The operation of the above embodiment will be described with reference to the flowcharts shown in FIGS.

第20図はキー入力を取り込み、処理を行なう部分のフ
ローチャートである。
FIG. 20 is a flow chart of a part for taking in a key input and performing processing.

ステップ20-1はキーボードからのデータを取り込む処
理である。ステップ20-2で取り込まれたキーの種別を判
定し、各キーの処理ルーチンに分岐する。
Step 20-1 is a process for taking in data from the keyboard. In step 20-2, the type of the key taken in is determined, and the process branches to a processing routine for each key.

変換キーであったときはステップ20-3に分岐し、ステ
ップ20-3において第21図に詳述するように仮名漢字変換
の変換処理が行なわれる。次候補キーであったときはス
テップ20-4において、第26図に詳述する次候補処理を行
なう。選択キーであったときはステップ20-5において第
27図に詳述する選択処理を行なう。その他のキーのとき
はステップ20-6に分岐し、挿入、削除等の通常の文字処
理装置において行なわれるその他の処理が行なわれる。
その後ステップ20-1にループする。
If the key is a conversion key, the flow branches to step 20-3, and in step 20-3, conversion processing of kana-kanji conversion is performed as described in detail in FIG. If it is the next candidate key, in step 20-4, the next candidate process described in detail in FIG. 26 is performed. If it is a selection key, go to step 20-5.
The selection processing detailed in FIG. 27 is performed. In the case of another key, the process branches to step 20-6, where other processes such as insertion and deletion performed in a normal character processing device are performed.
Thereafter, the process loops to step 20-1.

第21図はステップ20-3の「変換処理」を詳細化したフ
ローチャートである。
FIG. 21 is a detailed flowchart of the “conversion process” in step 20-3.

ステップ21-1において、第22図に詳述する文節候補作
成処理を行ない、文節候補テーブルBCTBLを作成する。
In step 21-1, a phrase candidate creation process described in detail in FIG. 22 is performed to create a phrase candidate table BCTBL.

ステップ21-2において、第23図に詳述する第1候補決
定処理を行なう。
In step 21-2, a first candidate determination process described in detail in FIG. 23 is performed.

ステップ21-3において、決定された第1候補に基づい
て同音語バッファ及び変換結果を作成し、出力する。
In step 21-3, a homophone buffer and a conversion result are created and output based on the determined first candidate.

第22図はステップ21-1の「文節候補作成処理」を詳細
化したフローチャートである。
FIG. 22 is a detailed flowchart of the “phrase candidate creation process” in step 21-1.

ステップ22-1において、入力バッファインデックス
i、文節候補テーブルインデックスjを0に初期設定す
る。
In step 22-1, the input buffer index i and the phrase candidate table index j are initialized to 0.

ステップ22-2においてiの示す入力バッファ中の読み
に基づき、辞書をサーチし、単語候補を求める。
In step 22-2, a dictionary is searched based on the reading in the input buffer indicated by i to obtain word candidates.

ステップ22-3において、見つかった単語候補に対して
接続する付属語列を解析する形態素解析処理を行なう。
この結果、文節候補が得られる。
At step 22-3, a morphological analysis process is performed to analyze the attached word string connected to the found word candidate.
As a result, a phrase candidate is obtained.

ステップ22-4において、形態素解析の結果に基づき、
その文節の自立部タイプ、文節タイプを決定する。
In step 22-4, based on the result of the morphological analysis,
The independent part type and phrase type of the phrase are determined.

ステップ22-5において、文節接続マトリックスを参照
し、隣接文節の接続可能性を調べる。隣接文節と接続し
得る文節のみを残す。また、文節候補テーブル上での子
リンク、弟リンクを決定する。
In step 22-5, the connection possibility of the adjacent phrase is checked by referring to the phrase connection matrix. Only the phrase that can be connected to the adjacent phrase is left. Further, a child link and a younger brother link on the phrase candidate table are determined.

ステップ22-6において得られた文節候補を文節候補テ
ーブルに格納する。格納する時はj+1番目のエントリ
ーに格納する。また、必要な情報を設定する。例えば、
この文節候補を子、あるいは弟とする文節候補について
は、子リンク、弟リンクを設定する。格納後jの値をカ
ウントアップする。
The phrase candidates obtained in step 22-6 are stored in the phrase candidate table. When storing, it is stored in the (j + 1) th entry. Also, set necessary information. For example,
A child link and a younger brother link are set for the phrase candidate whose child or younger brother is this phrase candidate. After storage, the value of j is counted up.

ステップ22-7において文節テーブルからターミネート
していない文節候補、すなわち、子リンクがまだ決まっ
ていない文節候補を見つけその次の読み位置をiに代入
する。
In step 22-7, a phrase candidate that has not been terminated, that is, a phrase candidate for which a child link has not yet been determined, is found from the phrase table, and the next reading position is substituted for i.

ステップ22-8において、全ての文節候補の子リンクが
決定しているかどうか判定し、決定していないものがあ
ればステップ22-2に分岐する。そうでなければリターン
する。
In step 22-8, it is determined whether child links of all the phrase candidates have been determined. If there is any child link that has not been determined, the flow branches to step 22-2. Otherwise return.

第23図はステップ21-2の「第1候補決定処理」を詳細
化したフローチャートである。
FIG. 23 is a detailed flowchart of the “first candidate determination process” in step 21-2.

ステップ23-1において、最尤文尤度を処理上許される
最小値、例えば、−32767に初期設定する。
In step 23-1, the maximum likelihood sentence likelihood is initialized to a minimum value allowed in processing, for example, -32767.

ステップ23-2において文節候補テーブルより文節候補
列を1つ取り出す。
In step 23-2, one phrase candidate sequence is extracted from the phrase candidate table.

ステップ23-3において、第24図に詳述するようにその
取り出された文節候補列に適用可能な用例を検索し、用
例尤度の和である「用例尤度和」を算出する。
In step 23-3, as described in detail in FIG. 24, an example applicable to the extracted phrase candidate sequence is searched, and a “sum of example likelihood” that is a sum of example likelihoods is calculated.

ステップ23-4において、文節候補列の文尤度を第16図
に示す様に算出する。
In step 23-4, the sentence likelihood of the phrase candidate sequence is calculated as shown in FIG.

ステップ23-5において、算出された文尤度が最尤文尤
度より尤もらしいか、具体的には大きいかを判定し、大
きいときはステップ23-6において最尤文尤度を算出され
た文尤度に更新する。また、ステップ23-7において現在
の文節候補列を最尤文尤度に対応した文節候補列として
記憶する。
In step 23-5, it is determined whether the calculated sentence likelihood is more likely than the maximum likelihood sentence likelihood, specifically, whether the sentence likelihood is larger. If the sentence likelihood is larger, the sentence likelihood for which the maximum likelihood sentence likelihood is calculated in step 23-6 is determined. Update every time. In step 23-7, the current phrase candidate sequence is stored as a phrase candidate sequence corresponding to the maximum likelihood sentence likelihood.

ステップ23-8において文節候補テーブルから別の文節
候補列が取り出せるかどうかを判定し、取り出せるとき
はステップ23-2に分岐する。そうでないときはリターン
する。
In step 23-8, it is determined whether another clause candidate sequence can be extracted from the clause candidate table, and if it can be extracted, the process branches to step 23-2. If not, return.

これにより、最尤文尤度を算出するもとになった文節
候補列が第1候補として決定される。
Thereby, the phrase candidate sequence from which the maximum likelihood sentence likelihood is calculated is determined as the first candidate.

第24図はステップ23-3の「用例尤度和の算出」を詳細
化したフローチャートである。
FIG. 24 is a detailed flowchart of “calculation of example likelihood sum” in step 23-3.

ステップ24-1において、用例尤度和をまず0に初期設
定する。
In step 24-1, the example likelihood sum is first initialized to zero.

ステップ24-2において、文節候補列から1文節を基準
文節として取り出す。以下の処理ではこの基準文節に関
係する用例の尤度を求めることになる。
In step 24-2, one phrase is extracted from the phrase candidate sequence as a reference phrase. In the following processing, the likelihood of the example related to this reference clause is obtained.

ステップ24-3において基準文節を取り出せたかどうか
判定し、取り出せなかったときはリターンする。
In step 24-3, it is determined whether or not the reference clause can be extracted. If the reference clause cannot be extracted, the process returns.

ステップ24-4において最尤用例尤度を0に初期設定す
る。
In step 24-4, the maximum likelihood example likelihood is initialized to zero.

ステップ24-5において、基準文節とペアになる文節を
文節候補列から取り出す。
In step 24-5, a phrase that is paired with the reference phrase is extracted from the phrase candidate sequence.

ステップ24-6において、基準文節のペア文節を取り出
すことができなかったときは、それ以上の基準文節の処
理を諦め、ステップ24-9に分岐する。
In step 24-6, if the pair clause of the reference clause cannot be extracted, the processing of the reference clause is abandoned, and the process branches to step 24-9.

ステップ24-7において、第25図に詳述するように、基
準文節とペア文節の間の用例が適用されているかどうか
を調べ、その適用状況に応じて用例尤度を設定する。
In step 24-7, as detailed in FIG. 25, it is checked whether or not the example between the reference clause and the paired clause is applied, and the example likelihood is set according to the application status.

ステップ24-8において、求まった用例尤度が最尤用例
尤度より尤もらしい(すなわち大きいか)どうかを調
べ、尤もらしければ(すなわち大きければ)、用例尤度
の値を最尤用例尤度に代入する。その後ステップ24-5に
分岐し、別のペアについて用例尤度を求める。
In step 24-8, it is checked whether or not the obtained example likelihood is more likely than the maximum likelihood example likelihood (that is, whether it is larger). substitute. Thereafter, the flow branches to step 24-5, and an example likelihood is obtained for another pair.

ステップ24-9において、基準文節の処理が終ったの
で、次の基準文節の処理に移るが、未処理の文節が残っ
ているかどうか判定する。残っていないときはそのまま
リターンするが、残っているときはステップ24-10に分
岐し、前回求まった最尤用例尤度を用例尤度和に加算す
る。その後、ステップ24-2にループし、次の基準文節を
取り出す。
In step 24-9, since the processing of the reference clause has been completed, the processing shifts to the processing of the next reference clause, but it is determined whether or not an unprocessed clause remains. If not, the process returns as it is. However, if there is, the process branches to step 24-10, and the maximum likelihood example likelihood obtained last time is added to the example likelihood sum. Thereafter, the process loops to step 24-2 to retrieve the next reference clause.

第25図はステップ24-7の「用例尤度の値設定」を詳細
化したフローチャートである。
FIG. 25 is a detailed flowchart of “set example likelihood value” in step 24-7.

ステップ25-1において、基準文節とペア文節の2文節
間に適用される用例があるかどうか、を判断する。この
ときは、抑制されている用例は適用しないよう処理す
る。
In step 25-1, it is determined whether there is an example applied between the two clauses of the reference clause and the pair clause. At this time, processing is performed so that the suppressed example is not applied.

適用用例がないときはステップ25-2に分岐し、用例尤
度に0を代入し、リターンする。
If there is no application example, the process branches to step 25-2, substituting 0 for the example likelihood, and returning.

適用用例があるときはステップ25-3に分岐し、用例尤
度として30を代入する。
If there is an application example, the flow branches to step 25-3, and 30 is substituted as the example likelihood.

ステップ25-4において2文節間の距離、すなわち、飛
び越す文節の数を求め、その値に10を乗じて用例尤度か
ら減算する。もし、隣接する2文節であれば、飛び越す
文節は0であるので、用例尤度から0を減じることにな
る。
In step 25-4, the distance between two clauses, that is, the number of skipped clauses is obtained, and the value is multiplied by 10 and subtracted from the example likelihood. If there are two adjacent clauses, the number of skipped clauses is 0, and thus 0 is subtracted from the example likelihood.

ステップ25-5において上記計算された用例尤度の値が
負になっていないかどうか判定し、負のときはステップ
25-6において0になるように補正し、リターンする。負
でないときは値をいじらずにそのままリターンする。
In step 25-5, it is determined whether or not the value of the calculated example likelihood is not negative.
Correct so that it becomes 0 in 25-6, and return. If it is not negative, return without changing the value.

第26図はステップ20-4の「次候補処理」を詳細化した
フローチャートである。
FIG. 26 is a detailed flowchart of “next candidate process” in step 20-4.

ステップ26-1において、次候補を見るべき同音語の同
音語番号をテキストバッファTBUFより求める。
In step 26-1, the phoneme number of the phoneme to be viewed next is obtained from the text buffer TBUF.

ステップ26-2において、同音語番号から同音語バッフ
ァの位置を求めて、現候補番号をカウントアップする。
In step 26-2, the position of the homophone buffer is obtained from the homophone number, and the current candidate number is counted up.

ステップ26-3において、候補一覧を表示する。 At step 26-3, a candidate list is displayed.

第27図はステップ20-5の「選択処理」を詳細化したフ
ローチャートである。
FIG. 27 is a detailed flowchart of the “selection process” in step 20-5.

ステップ27-1において、選択すべき同音語の同音語番
号をテキストバッファTBUFより求める。
In step 27-1, the homophone number of the homophone to be selected is obtained from the text buffer TBUF.

ステップ27-2において、同音語番号から同音語バッフ
ァの位置を求めて、現候補番号の示す候補情報から表記
を取り出し、テキストバッファTBUFに確定文字として設
定する。
In step 27-2, the position of the homophone buffer is obtained from the homophone number, the notation is extracted from the candidate information indicated by the current candidate number, and set as a confirmed character in the text buffer TBUF.

ステップ27-3において、同様に、現候補番号の示す候
補情報から単語アドレスを求め、その示された単語の学
習フラグをONする。
In step 27-3, similarly, a word address is obtained from the candidate information indicated by the current candidate number, and the learning flag of the indicated word is turned on.

ステップ27-4において、同様に、現候補番号を示す候
補情報から適用可能用例番号を求め、その示された用例
の用例抑制フラグをOFFにする。
In step 27-4, similarly, an applicable example number is obtained from the candidate information indicating the current candidate number, and the example suppression flag of the indicated example is turned off.

ステップ27-5において、選択された候補と対立する候
補、すなわち、候補一覧上で選択候補よりも上位に表示
される候補を1つずつ取り出す。
In step 27-5, candidates that conflict with the selected candidate, that is, candidates that are displayed higher than the selected candidate on the candidate list are extracted one by one.

ステップ27-6において、全ての対立候補について処理
が終り、これ以上取り出せなくなれば、リターンする。
In step 27-6, if the processing is completed for all the contending candidates, and no more can be taken out, the process returns.

ステップ27-7において、選択候補及び対立候補の属す
るカテゴリーすなわち品詞を調べ、対立候補のカテゴリ
ーが選択候補のカテゴリーよりも優先度の低いカテゴリ
ーであれば、対立候補の学習フラグを操作せずにそのま
まステップ27-5にループする。例えば、選択候補が接頭
語で対立候補が名詞のときはステップ27-5にループす
る。また、選択候補が付属語で対立候補が名詞、動詞な
どの自立語であればステップ27-5にループする。
In step 27-7, the category to which the selection candidate and the alternative candidate belong, that is, the part of speech, is examined, and if the category of the alternative candidate is a category having a lower priority than the category of the selection candidate, the learning flag of the alternative candidate is not manipulated as it is. Loop to step 27-5. For example, if the selection candidate is a prefix and the alternative candidate is a noun, the process loops to step 27-5. If the selected candidate is an adjunct and the opposing candidate is an independent word such as a noun or a verb, the process loops to step 27-5.

ステップ27-8において、選択候補に用例が適用されて
いるかどうかを判定し、用例が適用されていないときは
ステップ27-10に分岐する。
In step 27-8, it is determined whether or not the example is applied to the selection candidate. If the example is not applied, the flow branches to step 27-10.

選択候補に用例が適用されているとき、ステップ27-9
において、対立候補に用例が適用されているかどうかを
判定し、用例が適用されているときはステップ27-10に
分岐する。選択候補に用例が適用されているが、対立候
補には用例が適用されていないとき、対立候補の学習フ
ラグを操作せずにそのままステップ27-5にループする。
Step 27-9 when the example is applied to the selection candidate
In, it is determined whether or not the example is applied to the opposing candidate. If the example is applied, the process branches to step 27-10. When the example is applied to the selection candidate but the example is not applied to the opposing candidate, the process directly loops to step 27-5 without operating the learning flag of the opposing candidate.

選択候補に用例が適用されないとき、或いは、選択候
補、対立候補の両方に用例が適用されているとき、ステ
ップ27-10において、まず、対立候補に適用される用例
の用例抑制フラグをONし、その用例が今後使用されない
様にする。
When the example is not applied to the selection candidate, or when the example is applied to both the selection candidate and the opposition candidate, in step 27-10, first, the example suppression flag of the example applied to the opposition candidate is turned on, Prevent the example from being used in the future.

次にステップ27-11において、対立候補の学習フラグ
をOFFする。その後、ステップ27-5にループする。
Next, in step 27-11, the learning flag of the conflict candidate is turned off. Thereafter, the process loops to step 27-5.

[他の実施例] 以上の説明において、付属語と自立語が対立する場
合、名詞と接尾語或いは接頭語が対立する場合、用例の
適用されている候補と用例の適用されていない候補が対
立する場合、の3つの場合について、対立候補の短期学
習OFF処理を説明した。
[Other Embodiments] In the above description, when an adjunct and an independent word conflict, when a noun and a suffix or prefix conflict, a candidate to which an example is applied and a candidate to which no example is applied conflict. In the three cases described above, the short-term learning OFF processing of the conflict candidate has been described.

本実施例の本質は、選択単語の学習の際に補正される
情報(学習情報)の範囲を最小限にとどめようというも
のである。従って、本発明は短期学習に限定されず、他
の学習に対しても容易に適用でき、顕著な効果を期待で
きる。
The essence of this embodiment is to minimize the range of information (learning information) corrected when learning a selected word. Therefore, the present invention is not limited to short-term learning, but can be easily applied to other learning, and significant effects can be expected.

例えば、学習方式が頻度学習方式の場合にも、本発明
は適用可能である。このときは、選択単語の頻度がカウ
ントアップされ、その頻度値が最大値に達したとき、対
立する単語の頻度をカウントダウンすることになるが、
カウントダウンするまでもなく選択単語が第1候補で変
換できるかどうか判定(具体的には、両者の頻度値を比
較)し、変換できるときは対立単語の頻度カウントダウ
ン処理を行なわないよう構成すれば良い。
For example, the present invention is also applicable when the learning method is a frequency learning method. In this case, the frequency of the selected word is counted up, and when the frequency value reaches the maximum value, the frequency of the conflicting word is counted down,
It is sufficient to determine whether the selected word can be converted as the first candidate without counting down (specifically, compare the frequency values of both), and if the conversion can be performed, the frequency countdown processing of the contradictory word may not be performed. .

例えば、学習方式が、学習された単語を辞書の形式で
登録していく方式(学習辞書方式)のときも、本発明は
適用可能である。このときは、選択単語を学習辞書に登
録し、同時に対立する単語を学習辞書から追い出すこと
になるが、追い出す必要性があるかどうかを判定してか
ら、対立単語の追い出し処理を行なうよう構成すれば良
い。
For example, the present invention is also applicable when the learning method is a method of registering learned words in a dictionary format (learning dictionary method). In this case, the selected word is registered in the learning dictionary, and at the same time, the opposing words are expelled from the learning dictionary. Good.

また、学習した単語の辞書上でのアドレスを記憶する
方式(学習単語アドレス記憶方式)も考えられる。この
ときは、選択単語のアドレスを学習データとして記憶
し、対立する単語のアドレスを削除することになるが、
削除する必要性があるかどうかを判定してから、対立単
語アドレスの削除処理を行なうよう構成すれば良い。
Further, a method of storing addresses of learned words on a dictionary (learning word address storage method) is also conceivable. In this case, the address of the selected word is stored as learning data, and the address of the conflicting word is deleted.
After determining whether or not there is a need to delete, it is sufficient to perform a process of deleting the conflicting word address.

[発明の効果] 以上説明したように、本発明によれば、選択された候
補の学習フラグをオンにするとともに、それ以外の候補
のうち、学習フラグをオフにする必要のある候補の学習
フラグをオフにし、学習フラグをオフにする必要のない
候補の学習フラグを不変とするようにしたので、選択さ
れた候補以外の候補の学習フラグを不必要に変更するこ
とを防止でき、ある単語に対してオンされた学習フラグ
による学習効果が、不必要に消えてしまうことが防止で
きるという効果がある。
[Effect of the Invention] As described above, according to the present invention, the learning flag of the selected candidate is turned on, and the learning flag of the candidate that needs to be turned off among the other candidates is set. Is turned off, and the learning flag of the candidate that does not need to be turned off is made invariable, so that it is possible to prevent the learning flag of the candidate other than the selected candidate from being changed unnecessarily. On the other hand, there is an effect that the learning effect by the learning flag turned on can be prevented from unnecessarily disappearing.

これにより変換率の高い、快適な文字処理装置を実現
することができる。
As a result, a comfortable character processing device with a high conversion rate can be realized.

【図面の簡単な説明】[Brief description of the drawings]

第1図は本発明に係る文字処理装置の全体構成のブロッ
ク図、 第2図〜第4図は従来装置における変換・学習の操作例
を示した図、 第5図〜第7図は本発明における変換・学習の操作例を
示した図、 第8図は本発明における入力バッファIBUFと出力バッフ
ァOBUFの構成を示した図、 第9図は本発明における仮名漢字変換用辞書DICの構成
を示した図、 第10図は本発明における用例辞書YDICの構成を示した
図、 第11図は本発明における文節候補テーブルBCTBLの記憶
内容を概念的に示した図、 第12図は本発明における文節候補テーブルBCTBLの構成
を示した図、 第13図は本発明いおける文節接続マトリックスCTBL1、C
TBL2、CTBL3の構成を示した図、 第14図は本発明におけるテキストバッファTBUFの構成を
示した図、 第15図は本発明における同音語バッファDOBUFの構成を
示した図、 第16図は本発明における尤度計算の方式を示した図、 第17図〜第19図は本発明における尤度計算の例を示した
図、 第20図〜第27図は本発明文字処理装置の動作を示すフロ
ーチャート。 DISK……外部記憶部 CPU……マイクロプロセッサ ROM……読出し専用メモリ RAM……ランダムアクセスメモリ IBUF……入力バッファ OBUF……出力バッファ DIC……仮名漢字変換用辞書 YDIC……用例辞書 BCTBL……文節候補テーブル CBUF1……文節接続マトリックス1(文節×付属語用) CBUF2……テキストバッファ2(文節×接尾語用) CBUF3……テキストバッファ3(接頭語×文節用) TBUF……テキストバッファ DOBUF……同音語バッファ
FIG. 1 is a block diagram of the overall configuration of a character processing device according to the present invention, FIGS. 2 to 4 are diagrams showing examples of conversion and learning operations in a conventional device, and FIGS. 5 to 7 are the present invention. Fig. 8 shows an example of the conversion / learning operation in Fig. 8, Fig. 8 shows the configuration of the input buffer IBUF and output buffer OBUF in the present invention, and Fig. 9 shows the configuration of the kana-kanji conversion dictionary DIC in the present invention. 10, FIG. 10 is a diagram showing the configuration of the example dictionary YDIC in the present invention, FIG. 11 is a diagram conceptually showing the storage contents of the phrase candidate table BCTBL in the present invention, and FIG. 12 is a phrase in the present invention. FIG. 13 shows the structure of the candidate table BCTBL. FIG. 13 shows the clause connection matrices CTBL1 and C in the present invention.
FIG. 14 is a diagram showing a configuration of a text buffer TBUF in the present invention, FIG. 15 is a diagram showing a configuration of a homophone buffer DOBUF in the present invention, and FIG. FIGS. 17 to 19 show an example of the likelihood calculation in the present invention, and FIGS. 20 to 27 show the operation of the character processing device of the present invention. flowchart. DISK: External storage unit CPU: Microprocessor ROM: Read-only memory RAM: Random access memory IBUF: Input buffer OBUF: Output buffer DIC: Kana-kanji conversion dictionary YDIC: Example dictionary BCTBL: Clause Candidate table CBUF1 ... Phrase connection matrix 1 (for phrase x suffix) CBUF2 ... Text buffer 2 (for phrase x suffix) CBUF3 ... Text buffer 3 (for prefix x phrase) TBUF ... Text buffer DOBUF ... Homophone buffer

Claims (4)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】読みを入力する入力手段と、 各単語に対して、単語の読みと、表記と、品詞と、他の
単語とは独立にオン・オフ状態を設定可能な2値の学習
フラグとを対応づけて記憶する記憶手段と、 前記記憶手段を参照し、該記憶手段を参照し、前記入力
手段より入力された読みを持つ同音の単語の中から、品
詞の優先関係において優先すべき品詞の単語及び学習フ
ラグがオンである単語を優先させて、第1候補の単語を
決定し、当該第1候補の単語の表記を表示する第1候補
表示手段と、 前記第1候補以外の候補の表記を表示する次候補表示手
段と、 該次候補表示手段または前記第1候補表示手段により表
記が表示された候補より1つの候補を選択する選択手段
と、 該選択手段により選択された単語の学習フラグをオンに
する学習手段と、 前記優先関係に基づいて、前記選択された単語の品詞
と、当該選択された単語より上位の候補の各単語の品詞
とのいずれが優先されるかを判別する判別手段と、 該判別手段による判別の結果、前記上位の候補の各々に
つき、前記選択された単語の品詞より当該上位の候補の
単語の品詞が優先されると判別された場合は、当該上位
の候補の単語の学習フラグをオフとし、当該上位の候補
の単語の品詞より前記選択された単語の品詞が優先され
ると判別された場合は、当該上位の候補の単語の学習フ
ラグを不変とするように制御する抑制手段とを具備した
ことを特徴とする文字処理装置。
An input means for inputting a reading, a binary learning flag for each word, which can set on / off states independently of reading of a word, notation, part of speech, and other words. And a storage unit for storing in association with the following, and referring to the storage unit, referring to the storage unit, and giving priority to a part of speech priority relationship among words of the same sound having a reading input from the input unit. First candidate display means for determining the first candidate word by giving priority to the word of the part of speech and the word for which the learning flag is on, and displaying the notation of the first candidate word; and a candidate other than the first candidate Next candidate display means for displaying the notation of the following; selecting means for selecting one candidate from the candidates displayed by the next candidate display means or the first candidate display means; Learning means for turning on the learning flag A determination unit configured to determine which of the part of speech of the selected word and the part of speech of each candidate word higher than the selected word has priority based on the priority relationship; As a result of the determination, if it is determined that the word class of the word of the higher candidate is given priority over the word class of the selected word for each of the higher candidates, the learning flag of the word of the higher candidate is turned off. And when it is determined that the part of speech of the selected word is given priority over the part of speech of the word of the upper candidate, suppressing means for controlling the learning flag of the word of the upper candidate to be unchanged. A character processing device comprising:
【請求項2】読みを入力する入力手段と、 各単語に対して、単語の読みと、表記と、品詞と、他の
単語とは独立にオン・オフ状態を設定可能な2値の学習
フラグとを対応づけて記憶する記憶手段と、 共起関係にある複数の単語の組を用例として記憶する用
例記憶手段と、 該用例記憶手段及び前記記憶手段を参照し、前記入力手
段より入力された読みを持つ同音の単語の中から、品詞
の優先関係において優先すべき品詞の単語、用例の適用
される単語及び学習フラグがオンである単語を優先させ
て、第1候補の単語を決定し、当該第1候補の単語の表
記を表示する第1候補表示手段と、 前記第1候補より下位の候補の表記を表示する次候補表
示手段と、 該次候補表示手段または前記第1候補表示手段により表
記が表示された候補より1つの候補を選択する選択手段
と、 該選択手段により選択された単語の学習フラグをオンに
する学習手段と、 前記優先関係に基づいて、前記選択された単語の品詞
と、当該選択された単語より上位の候補の各単語の品詞
とのいずれが優先されるかを判別する判別手段と、 前記選択された単語より上位の候補の各単語に対して、
用例が適用されているか否かを判定する判定手段と、 該判定手段による判定の結果及び前記判別手段による判
別の結果に基づいて、前記上位の候補の各々につき、前
記選択された単語の品詞が当該上位の候補の単語の品詞
より優先されると判別された場合、及び前記選択された
単語の品詞が当該上位の候補の単語の品詞より優先され
ないと判別され、かつ当該上位の候補の単語に用例が適
用されていないと判定された場合に、当該上位の候補の
学習フラグを不変とし、前記選択された単語の品詞が当
該上位の候補の単語の品詞より優先されないと判別さ
れ、かつ当該上位の候補の単語に用例が適用されている
と判定された場合に、当該上位の候補の単語の学習フラ
グをオフとするように制御する抑制手段とを具備したこ
とを特徴とする文字処理装置。
2. An input means for inputting a reading, a binary learning flag capable of setting on / off states independently of reading, notation, part of speech, and other words for each word. And an example storage means for storing a set of a plurality of words having a co-occurrence relationship as an example. The example storage means and the storage means are referred to and input from the input means. A word of a part-of-speech word to be prioritized in a part-of-speech priority relationship, a word to which an example is applied, and a word for which a learning flag is on are prioritized from words having the same pronunciation, and a word of a first candidate is determined. First candidate display means for displaying the notation of the word of the first candidate, next candidate display means for displaying the notation of a candidate lower than the first candidate, and the next candidate display means or the first candidate display means. Notation is one of the displayed candidates Selecting means for selecting a complement; learning means for turning on a learning flag of the word selected by the selecting means; part of speech of the selected word based on the priority relation; A determination unit that determines which of the parts of speech of each candidate word is prioritized; and for each candidate word higher than the selected word,
Determining means for determining whether or not the example is applied; and, based on a result of the determination by the determining means and a result of the determination by the determining means, a part of speech of the selected word is determined for each of the top candidates. When it is determined that priority is given to the part of speech of the word of the upper candidate, and that the part of speech of the selected word is not given priority to the part of speech of the word of the upper candidate, and When it is determined that the example is not applied, the learning flag of the upper candidate is made invariable, and it is determined that the part of speech of the selected word does not take precedence over the part of speech of the upper candidate word, and Character processing means for controlling the learning flag of the upper candidate word to be turned off when it is determined that the example is applied to the candidate word. Equipment.
【請求項3】前記優先関係において、付属語を自立語よ
り優先させることを特徴とする請求項1または2に記載
の文字処理装置。
3. The character processing device according to claim 1, wherein in the priority relation, an auxiliary word is prioritized over an independent word.
【請求項4】前記優先関係において、接頭語及び接尾語
を名詞より優先させることを特徴とする請求項1または
2に記載の文字処理装置。
4. The character processing apparatus according to claim 1, wherein a prefix and a suffix are prioritized over a noun in the priority relation.
JP2229674A 1990-08-30 1990-08-30 Character processor Expired - Fee Related JP2714239B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2229674A JP2714239B2 (en) 1990-08-30 1990-08-30 Character processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2229674A JP2714239B2 (en) 1990-08-30 1990-08-30 Character processor

Publications (2)

Publication Number Publication Date
JPH04111044A JPH04111044A (en) 1992-04-13
JP2714239B2 true JP2714239B2 (en) 1998-02-16

Family

ID=16895910

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2229674A Expired - Fee Related JP2714239B2 (en) 1990-08-30 1990-08-30 Character processor

Country Status (1)

Country Link
JP (1) JP2714239B2 (en)

Also Published As

Publication number Publication date
JPH04111044A (en) 1992-04-13

Similar Documents

Publication Publication Date Title
US5418718A (en) Method for providing linguistic functions of English text in a mixed document of single-byte characters and double-byte characters
JP2714239B2 (en) Character processor
JP2675912B2 (en) Character processor
JP2899087B2 (en) Character processor
JP2714238B2 (en) Character processor
JP3847801B2 (en) Character processing apparatus and processing method thereof
JPS59100941A (en) Kana (japanese syllabary)-kanji (chinese character) converter
JP3278148B2 (en) Character processing apparatus and method
JPS61175855A (en) Kana to kanji converting device
JP2698458B2 (en) Character processor
JPH08241315A (en) Word registering mechanism for document processor
JPH0962667A (en) Kana/kanji converter and kana/kanji conversion method
JPH0877159A (en) Learning method
JPH0638261B2 (en) Character processing apparatus and method
JPH0638260B2 (en) Character processing apparatus and method
JPH052263U (en) Kana-Kanji converter
JPH1097536A (en) User dictionary registration system in machine translation
JPH0447443A (en) Character processor
JPH0628064B2 (en) Character processor
JPH04160668A (en) Character processor
JPH07141353A (en) Character processor
JPH0447451A (en) Character processor
JPH0628062B2 (en) Character processing apparatus and method
JPH0468466A (en) Kana / kanji converting device
JPH0385669A (en) Retrieval replacing device with function for analyzing declensional kana ending

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees