car.3205 发表于 2015-4-25 09:59:45

Python自然语言处理读书笔记-第5章

  前言:
  实习需要用到自然语言处理方面的知识。关于自然语言处理,说实话,打心眼里有抵触。
  我很喜欢AI的,但是我觉得语言的理解,特别是中文的不确定性,使得我个人认为语言理解与处理
  是一件非常棘手的问题,而且不会取得太好的效果。再加上编译原理留下的阴影。使得我虽然
  知道自然语言处理 以后必然 有用,但是还是没有选这门课。这不,还是要自学。
  这本《Python自然语言处理》是自己找到的,电子版的,虽然不知道好坏,但老外的书,我还是
  比较放心的。可惜老外的书就不会以汉语为例子了。我不打算全篇通读,我打算先读些,我认为最重要或最感兴趣的。
  喜欢感兴趣的朋友可以和我一起讨论,有讨论才有进步吗。
  目标:
  1.切词
  2.词性,组词
  3.同义词,反义词,词意理解
  4.数据组织与存放
  大致扫了一下,决定主要看第5章和第7章,其它的以后再说。
  第5章 分类和标注词汇
  词性标注,先看例子。



import nltk
text1 = ['I','love','you']
text2 = ['Love','is','good']
print nltk.pos_tag(text1)
print nltk.pos_tag(text2)
  运行结果如下:
  [('I', 'PRP'), ('love', 'VBP'), ('you', 'PRP')]
[('Love', 'NNP'), ('is', 'VBZ'), ('good', 'JJ')]
  同一个Love不同的结果。我很像知道这是怎么做到的。
  显然Love一般只可能是动词或名词。那么如何识别什么时候是动词,什么时候是名词呢。
  再看一个例子:



1 import nltk
2 from nltk.corpus import brown
3
4 #使pos成为某个特殊的dict数据结构,不用深究
5 pos = nltk.defaultdict(lambda: nltk.defaultdict(int))
6 #获得一个已经标注词性的语料库,每个词以元组 (词,词性)的形式出现
7 brown_news_tagged = brown.tagged_words(categories = 'news', simplify_tags = True)
8 for((w1,t1),(w2,t2)) in nltk.ibigrams(brown_news_tagged):
9   pos[(t1,w2)] += 1
10 #查看当单词right前面单词词性是DET时,right的可能词性
11 print pos[('DET','right')]
  结果如下:
defaultdict(, {'ADV': 3, 'ADJ': 9, 'N': 4})
  难道是基于统计加概率的方法来计算一个词在具体语境中的词性,不会吧。
  终于到重点了,各位是不是一样都很激动呢。
  先从一元标注器1-gram说起,其意思应该是不考虑上下文,只考虑单词本身。
  1.默认标注器
  文中接着使用nltk.DefaultTagger('NN')定义了一个默认标注器,将所有词都标注成NN 即名词。
  并且指出大多数新词都是名词,所以默认标注器可以帮助我们提高语言处理系统的稳定性。
  2. 正则表达式标注器
  例如,以ed结尾的可能是动词过去分词。不过这些好像在中文里没用。
  3.查询标注器
  查询标注器就是事先将一些频繁词出现最多的词性记录下来。文中还指出对于那些没记录的词,可以
  结合默认标注器。随着频繁词的增加,这个标注器的准确率上升很快,但是达到一定量后趋于平衡。
  n-gram标注器:考虑待标记词前面n-1个词的词性。
  同样是记录在已知上下文中,当前词最有可能出现的词性。
  需要使用语料库进行训练。在实践中,当n越大,越容易出现数据稀疏问题。所以n的选取需要对精度和覆盖进行权衡。
  n-gram说白了就是对词性组合规律的一种模型学习,遗憾的是文中对于学习的方法没有细谈。
  或许可以训练得到一颗决策树。
  
  
  
页: [1]
查看完整版本: Python自然语言处理读书笔记-第5章