Skip to content

Latest commit

 

History

History
42 lines (23 loc) · 5.79 KB

2.2_Words.md

File metadata and controls

42 lines (23 loc) · 5.79 KB

2.2 词(Words

在我们谈论处理词之前,我们需要先确认下到底什么算作一个单词。让我们先看一个具体的语料库(corpus)(复数 corpora),一个计算机可读的文本或语音集合。例如 Brown 语料库(Brown corpus)是布朗大学在 1963-64 年间(Kucera and Francis, 1967)1收集的 500 篇不同体裁(报纸、小说、非小说、学术等)的英语书面文本样本集合,共有约 100 万个词。下面来自该语料库的句子中有多少个词?

He stepped out into the hall, was delighted to encounter a water brother.

如果我们不把标点符号算作词,那么这个句子就有 13 个词,否则就有 15 个。我们是否把句号(“.”)、逗号(“,”)等当作词,要视任务而定。标点符号对于寻找边界(逗号、句号、冒号)和分析含义(问号、感叹号、引号)至关重要。对于某些任务,如词性标注(part-of-speech tagging)或解析(parsing)或语音合成(speech synthesis),我们有时会把标点符号当作单独的词来处理。

Switchboard 语料库是在 20 世纪 90 年代初收集到的美国陌生人之间的英语电话对话的集合,它包含了 2430 次平均每次 6 分钟的对话,共计 240 个小时的语音和约 300 万个单词(Godfrey et al., 1992)2。这样的口语化文本没有标点符号,但在定义词语方面却带来了更复杂的问题。我们来看看 Switchboard 中的一个表达,一个表达译者注:utterance,以下均使用 utterance)是一个句子的口语化版本:

I do uh main- mainly business data processing

这个 utterance 有两种类型的卡顿译者注:disfluency,或者叫不流利)。main- 这种断开的词叫做片段fragment)。像 uhum 这样的词叫填充词fillers)或填充停顿filled pauses)。我们是否应该认为这些也是词呢?同样,这取决于具体应用。如果我们要建立一个语音转录(speech transcription)系统,我们最终可能想要要去掉这种卡顿。

但我们有时也会保留卡顿。其实在语音识别中,像 uhum 这样的卡顿对预测接下来的词很有帮助,因为它们可能预示着说话人重新组织语言或想法,所以对于语音识别来说,它们会被当作常规单词来对待。由于人们卡顿的习惯不同,所以它们也可以成为识别说话人的线索。事实上 Clark 和 Fox Tree(2002)3表明,uhum 有不同的含义。你认为它们分别是什么含义?

They 这样的大写单词和像 they 这样的非大写单词是同一个词吗?在某些任务(语音识别)中,这些词被归为一类,而对于词性标注或命名实体识别(named-entity tagging)来说,大写作为一个很有用的特征是被保留的。

那像 catscat 这样的变形形式(inflected forms)呢?这两个词的词素lemma)都是 cat,但却是不同的词形(wordform)。词素是一组具有相同词干(stem)、相同主词性和相同词义的词汇形式(lexical form)。词形是该词的完整变形或派生(derived)形式。对于像阿拉伯语这样形态复杂(morphologically complex)的语言,我们经常需要进行词形还原(lemmatization)。然而对于英语中的许多任务,词形就足够了。

英语有多少个单词?要回答这个问题,我们需要区分词型(type)和词例(token)。Type 是指语料库中不同单词的数量,如果用 $V$ 来表示词汇表中词的集合,那么 type 的数量就是词汇表大小 $|V|$。Token 是指所有单词总数 $N$。如果我们忽略标点符号,那么下面的 Brown 句子有 16 个 token,14 个 type(译者注:即 n_token = len(sentence.split())n_type = len(set(len(sentence.split()))),注意去掉标点符号):

They picnicked by the pool, then lay back on the grass and looked at the stars.

当我们说的一个语言中词的数量时,一般指的是词型 type 的数量。

Fig 2.11

图 2.11 显示了一些常见英语语料库中大致的 type 数和 token 数。语料库越大,type 数越多,事实上,type 数 $|V|$ 和 token 数 $N$ 之间的这种关系被称为 Herdan 法则Herdan’s Law)(Herdan,1960)4Heaps 法则Heaps’ Law)(Heaps,1978)5 ,以其发现者的名字命名(分别在语言学和信息检索领域),如式 2.1,其中 $k$$\beta$ 为正常数,且 $0 \lt \beta \lt 1$

$$|V| = kN^\beta \tag{2.1}$$

$\beta$ 的值取决于语料库大小和体裁。对于图 2.11 中的大型语料库来说,$\beta$ 的范围在 0.67 到 0.75 之间。那么大致上我们可以说,一个文本的词汇表大小上升的速度明显快于其 token 数的平方根。

衡量一个语言中单词数量的另一个标准是词素 lemma 的数量,而不是词形 type 的数量。词典可以大致给出 lemma 的数量;词典条目或黑体字形式是 lemma 数量的一个非常粗略的上限(因为有些 lemma 有多种黑体字形式)。1989 年版《牛津英语词典》(Oxford English Dictionary)有 615,000 个词条。

Footnotes

  1. Kucera, H. and Francis, W. N. (1967). Computational Analysis of Present-Day American English. Brown University Press, Providence, RI.

  2. Godfrey, J., Holliman, E., and McDaniel, J. (1992). SWITCHBOARD: Telephone speech corpus for research and development. ICASSP.

  3. Clark, H. H. and Fox Tree, J. E. (2002). Using uh and um in spontaneous speaking. Cognition 84, 73–111.

  4. Herdan, G. (1960). Type-token mathematics. Mouton.

  5. Heaps, H. S. (1978). Information retrieval. Computational and theoretical aspects. Academic Press.