牛骨文教育服务平台(让学习变的简单)
博文笔记

利用NLTK在Python下进行自然语言处理

创建时间:2016-04-03 投稿人: 浏览次数:105

自然语言处理是计算机科学领域与人工智能领域中的一个重要方向。自然语言工具箱(NLTK,Natural Language Toolkit)是一个基于Python语言的类库,它也是当前最为流行的自然语言编程与开发工具。在进行自然语言处理研究和应用时,恰当利用NLTK中提供的函数可以大幅度地提高效率。本文就将通过一些实例来向读者介绍NLTK的使用。


开发环境:我所使用的Python版本是最新的3.5.1,NLTK版本是3.2。Python的安装不在本文的讨论范围内,我们略去不表。你可以从NLTK的官网上http://www.nltk.org/ 获得最新版本的NLTK。Anyway,使用pip指令来完成NLTK包的下载和安装无疑是最简便的方法。

当然,当你完成这一步时,其实还不够。因为NLTK是由许多许多的包来构成的,此时运行Python,并输入下面的指令(当然,第一条指令还是要导入NLTK包)


>>> import nltk
>>> nltk.download()

然后,Python Launcher会弹出下面这个界面,建议你选择安装所有的Packages,以免去日后一而再、再而三的进行安装,也为你的后续开发提供一个稳定的环境。某些包的Status显示“out of date”,你可以不必理会,它基本不影响你的使用与开发。


既然你已经安装成功,我们来小试牛刀一下。当然本文涉及的主要任务都是自然语言处理中最常用,最基础的pre-processing过程,结合机器学习的高级应用我们会在后续文章中再进行介绍。


1、 Sentences Segment(分句)

也就是说我们手头有一段文本,我们希望把它分成一个一个的句子。此时可以使用NLTK中的 punkt sentence segmenter。来看示例代码


>>> sent_tokenizer = nltk.data.load("tokenizers/punkt/english.pickle")
>>> paragraph = "The first time I heard that song was in Hawaii on radio. 
... I was just a kid, and loved it very much! What a fantastic song!"
>>> sentences = sent_tokenizer.tokenize(paragraph)
>>> sentences
["The first time I heard that song was in Hawaii on radio.", 
 "I was just a kid, and loved it very much!", 
 "What a fantastic song!"]

由此,我们便把一段话成功分句了。


2、Tokenize sentences (分词)

接下来我们要把每个句话再切割成逐个单词。最简单的方法是使用NLTK 包中的 WordPunct tokenizer。来看示例代码


>>> from nltk.tokenize import WordPunctTokenizer
>>> sentence = "Are you old enough to remember Michael Jackson attending 
... the Grammys with Brooke Shields and Webster sat on his lap during the show?"
>>> words = WordPunctTokenizer().tokenize(sentence)
>>> words
["Are", "you", "old", "enough", "to", "remember", "Michael", "Jackson", "attending",
 "the", "Grammys", "with", "Brooke", "Shields", "and", "Webster", "sat", "on", "his",
 "lap", "during", "the", "show", "?"]


我们的分词任务仍然完成的很好。除了WordPunct tokenizer之外,NLTK中还提供有另外三个分词方法,

TreebankWordTokenizer,PunktWordTokenizer和WhitespaceTokenizer,而且他们的用法与WordPunct tokenizer也类似。然而,显然我们并不满足于此。对于比较复杂的词型,WordPunct tokenizer往往并不胜任。此时我们需要借助正则表达式的强大能力来完成分词任务,此时我所使用的函数是regexp_tokenize()。来看下面这段话


>>> text = "That U.S.A. poster-print costs $12.40..."

目前市面上可以参考的在Python下进行自然语言处理的书籍是由Steven Bird、Ewan Klein、Edward Loper编写的《Python 自然语言处理》。但是该书的编写时间距今已有近十年的时间,由于软件包更新等语言,在新环境下进行开发时,书中的某些代码并不能很正常的运行。最后,我们举一个书中代码out of date的例子(对上面这就话进行分词),并给出相应的解决办法。首先来看书中的一段节录


>>> text = "That U.S.A. poster-print costs $12.40..."
>>> pattern = r"""(?x)    # set flag to allow verbose regexps
...     ([A-Z].)+        # abbreviations, e.g. U.S.A.
...   | w+(-w+)*        # words with optional internal hyphens
...   | $?d+(.d+)?%?  # currency and percentages, e.g. $12.40, 82%
...   | ...            # ellipsis
...   | [][.,;""?():-_`]  # these are separate tokens; includes ], [
... """
>>> nltk.regexp_tokenize(text, pattern)


我们预期得到输出应该是这样的


["That", "U.S.A.", "poster-print", "costs", "$12.40", "..."]


但是我们实际得到的输出却是这样的(注意我们所使用的NLTK版本)


[("", "", ""),
 ("A.", "", ""),
 ("", "-print", ""),
 ("", "", ""),
 ("", "", ".40"),
 ("", "", "")]


会出现这样的问题是由于nltk.internals.compile_regexp_to_noncapturing()在V3.1版本的NLTK中已经被抛弃(尽管在更早的版本中它仍然可以运行),为此我们把之前定义的pattern稍作修改


pattern = r"""(?x)                   # set flag to allow verbose regexps
              (?:[A-Z].)+           # abbreviations, e.g. U.S.A.
              |d+(?:.d+)?%?       # numbers, incl. currency and percentages
              |w+(?:[-"]w+)*       # words w/ optional internal hyphens/apostrophe
              |...                # ellipsis
              |(?:[.,;""?():-_`])    # special characters with meanings
            """

再次执行前面的语句,便会得到


>>> nltk.regexp_tokenize(text, pattern)
["That", "U.S.A.", "poster-print", "costs", "12.40", "..."]

以上便是我们对NLTK这个自然语言处理工具包的初步探索,日后主页君将结合机器学习中的方法再来探讨一些更为深入的应用。最后,我想说《Python 自然语言处理》仍然是当前非常值得推荐的一本讲述利用NLTK和Python进行自然语言处理技术的非常值得推荐的书籍。





声明:该文观点仅代表作者本人,牛骨文系教育信息发布平台,牛骨文仅提供信息存储空间服务。