作品简介

自然语言处理(NLP)是计算机科学、人工智能、语言学关注计算机和人类(自然)语言之间的相互作用的领域。自然语言处理是机器学习的应用之一,用于分析、理解和生成自然语言,它与人机交互有关,最终实现人与计算机之间更好的交流。

本书分为12章,内容包括自然语言处理基础、深度学习基础、TensorFlow、词嵌入(Word Embedding)、卷积神经网络(CNN)与句子分类、循环神经网络(RNN)、长短期记忆(LSTM)、利用LSTM实现图像字幕自动生成、情感分析、机器翻译及智能问答系统。

本书适合TensorFlow自然语言处理技术的初学者、NLP应用开发人员、NLP研究人员,也适合高等院校和培训学校相关专业的师生教学参考。

李孟全,中国社会科学院研究生院硕士。十多年IT从业经历,先后从事过程序员、项目负责人、部门负责人等岗位。长期关注人工智能领域,在机器学习、深度学习和NLP领域有一定的积累。

作品目录

  • 内容简介
  • 前言
  • 第1章 自然语言处理基础
  • 1.1 认识自然语言处理
  • 1.2 自然语言处理方面的任务
  • 1.3 第一阶段:偏理论的理性主义
  • 1.4 第二阶段:偏实践应用的经验主义
  • 1.5 第三阶段:深度学习阶段
  • 1.6 NLP中深度学习的局限性
  • 1.7 NLP的应用场景
  • 1.8 NLP的发展前景
  • 1.9 总结
  • 第2章 深度学习基础
  • 2.1 深度学习介绍
  • 2.2 深度学习演变简述
  • 2.3 神经网络介绍
  • 2.4 神经网络的基本结构
  • 2.5 两层神经网络(多层感知器)
  • 2.6 多层神经网络(深度学习)
  • 2.7 编码器-解码器网络
  • 2.8 随机梯度下降
  • 2.9 反向传播
  • 2.10 总结
  • 第3章 TensorFlow
  • 3.1 TensorFlow概念解读
  • 3.2 TensorFlow主要特征
  • 3.3 TensorFlow安装
  • 3.4 TensorFlow计算图
  • 3.5 TensorFlow张量和模型会话
  • 3.6 TensorFlow工作原理
  • 3.7 通过一个示例来认识TensorFlow
  • 3.8 TensorFlow客户端
  • 3.9 TensorFlow中常见元素解读
  • 3.10 变量作用域机制
  • 3.11 实现一个神经网络
  • 3.12 总结
  • 第4章 词嵌入
  • 4.1 分布式表示
  • 4.2 Word2vec模型(以Skip-Gram为例)
  • 4.3 原始Skip-Gram模型和改进Skip-Gram模型对比分析
  • 4.4 CBOW模型
  • 4.5 Skip-Gram和CBOW对比
  • 4.6 词嵌入算法的扩展
  • 4.7 结构化Skip-Gram和连续窗口模型
  • 4.8 GloVe模型
  • 4.9 使用Word2Vec进行文档分类
  • 4.10 总结
  • 第5章 卷积神经网络与句子分类
  • 5.1 认识卷积神经网络
  • 5.2 输入层
  • 5.3 卷积运算层
  • 5.4 激活函数
  • 5.5 池化层
  • 5.6 全连接层
  • 5.7 整合各层并使用反向传播进行训练
  • 5.8 常见经典卷积神经网络
  • 5.9 利用CNN对MNIST数据集进行图片分类
  • 5.10 利用CNN进行句子分类
  • 5.11 总结
  • 第6章 循环神经网络
  • 6.1 计算图及其展开
  • 6.2 RNN解读
  • 6.3 通过时间的反向传播算法
  • 6.4 RNN的应用类型
  • 6.5 利用RNN生成文本
  • 6.6 输出新生成的文本片段
  • 6.7 评估RNN的文本结果输出
  • 6.8 困惑度——文本生成结果质量的度量
  • 6.9 具有上下文特征的循环神经网络——RNN-CF
  • 6.10 使用RNN-CF生成的文本
  • 6.11 总结
  • 第7章 长短期记忆
  • 7.1 LSTM简述
  • 7.2 LSTM工作原理详解
  • 7.3 LSTM与标准RNN的区别
  • 7.4 LSTM如何避免梯度消失和梯度爆炸问题
  • 7.5 优化LSTM
  • 7.6 LSTM的其他变体
  • 7.7 总结
  • 第8章 利用LSTM自动生成文本
  • 8.1 文本到文本的生成
  • 8.2 意义到文本的生成
  • 8.3 数据到文本的生成
  • 8.4 文本自动生成前的数据准备
  • 8.5 实现LSTM
  • 8.6 标准LSTM与带有窥视孔连接和GRU的LSTM的比较
  • 8.7 优化LSTM——集束搜索
  • 8.8 改进LSTM——使用词而不是n-gram生成文本
  • 8.9 使用TensorFlow RNN API
  • 8.10 总结
  • 第9章 利用LSTM实现图像字幕自动生成
  • 9.1 简要介绍
  • 9.2 发展背景
  • 9.3 利用深度学习框架从图像中生成字幕
  • 9.4 评估指标和基准
  • 9.5 近期研究
  • 9.6 图像字幕的产业布局
  • 9.7 详解图像字幕自动生成任务
  • 9.8 总结
  • 第10章 情感分析
  • 10.1 认识情感分析
  • 10.2 情感分析的问题
  • 10.3 情感文档分类
  • 10.4 句子主观性与情感分类
  • 10.5 基于方面(Aspect)的情感分析
  • 10.6 情感词典生成
  • 10.7 意见摘要
  • 10.8 比较观点分析
  • 10.9 意见搜索
  • 10.10 垃圾评论检测
  • 10.11 评论的质量
  • 10.12 利用TensorFlow进行中文情感分析实现
  • 10.13 总结
  • 第11章 机器翻译
  • 11.1 机器翻译简介
  • 11.2 基于规则的翻译
  • 11.3 统计机器翻译
  • 11.4 神经网络机器翻译
  • 11.5 神经网络机器翻译(NMT)系统的前期准备工作
  • 11.6 BLEU评分——评估机器翻译系统
  • 11.7 完整实现神经网络机器翻译——德语到英语翻译
  • 11.8 结合词向量训练神经网络机器翻译系统
  • 11.9 优化神经网络机器翻译系统
  • 11.10 实现注意力机制
  • 11.11 可视化源语句和目标语句的注意力
  • 11.12 历史性突破——BERT模型
  • 11.13 总结
  • 第12章 智能问答系统
  • 12.1 概要
  • 12.2 基于知识库的问答
  • 12.3 机器理解中的深度学习
  • 12.4 利用TensorFlow实现问答任务
  • 12.5 总结
展开全部