自然语言处理应用与实战 / 人工智能应用与实战系列
¥102.00定价
作者: 韩少云等
出版时间:2023-03
出版社:电子工业出版社
- 电子工业出版社
- 9787121450174
- 1-1
- 525062
- 66254951-8
- 平塑勒
- 16开
- 2023-03
- 284
- 计算机类
- 高职
内容简介
本书系统介绍了自然语言处理及深度学习,并结合实际应用场景和综合案例,深入浅出地讲解自然语言处理领域的相关知识。 全书共 15 章,分为 4 个部分。第 1 部分是自然语言处理基础,首先介绍自然语言处理的相关概念和基本技能,然后介绍词向量技术和实现方法,最后介绍关键词提取技术。第 2 部分是自然语言处理核心技术,分别介绍朴素贝叶斯算法、N-gram 语言模型、PyTorch 深度学习框架、FastText 模型文本分类和基于深度学习的文本分类。第 3 部分是序列标注,介绍序列标注的具体应用,如 HMM 词性标注和 HMM 命名实体识别等常见的自然语言处理应用场景。第 4 部分是预训练模型,它在很大程度上促进了自然语言处理的发展,这部分内容关注预训练模型的具体应用,如 ALBERT 的命名实体识别、Transformer 的文本分类、BERT的文本相似度计算、ERNIE 的情感分析等。 本书适合对人工智能、机器学习、深度学习和自然语言处理感兴趣的读者阅读,也可以作为应用型本科院校和高等职业院校人工智能相关专业的教材。
目录
目 录__eol__第 1 部分 自然语言处理基础__eol__第 1 章 绪论 2__eol__1.1 自然语言处理综述 3__eol__1.1.1 自然语言处理的基本概念 3__eol__1.1.2 自然语言处理的发展历程 4__eol__1.1.3 自然语言处理的研究内容 5__eol__1.1.4 自然语言处理的挑战与发展趋势 7__eol__1.2 文本处理技能 9__eol__1.2.1 字符串处理 9__eol__1.2.2 中文分词及案例实现 11__eol__1.3 文本数据处理 13__eol__1.3.1 文本操作基础 13__eol__1.3.2 案例实现——文本数据统计 15__eol__1.3.3 案例实现——词云生成 17__eol__本章总结 19__eol__作业与练习 19__eol__第 2 章 词向量技术 21__eol__2.1 词向量概述 22__eol__2.1.1 词向量基础 22__eol__2.1.2 词向量表示的问题 22__eol__2.2 词向量离散表示 23__eol__2.2.1 独热编码 23__eol__2.2.2 词袋模型 24__eol__2.2.3 词频-逆文本频率 25__eol__2.2.4 案例实现——文本离散表示 25__eol__2.3 词向量分布表示 29__eol__2.3.1 神经网络语言模型 29__eol__2.3.2 Word2vec 模型 31__eol__2.3.3 案例实现——中文词向量训练 33__eol__本章总结 39__eol__作业与练习 39__eol__第 3 章 关键词提取 41__eol__3.1 关键词提取概述 42__eol__3.1.1 关键词提取基础 42__eol__3.1.2 基于 TF-IDF 的关键词提取 42__eol__3.1.3 基于 TextRank 的关键词提取 43__eol__3.1.4 基于 Word2vec 词聚类的关键词提取 43__eol__3.2 关键词提取的实现 44__eol__3.2.1 案例介绍 44__eol__3.2.2 案例实现——关键词提取综合案例 45__eol__本章总结 57__eol__作业与练习 57__eol__第 2 部分 自然语言处理核心技术__eol__第 4 章 朴素贝叶斯中文分类 60 4.1 朴素贝叶斯分类算法概述 60__eol__4.1.1 概率基础 60__eol__4.1.2 朴素贝叶斯分类器 62__eol__4.2 机器学习库 sklearn 64__eol__4.2.1 sklearn 获取数据 64__eol__4.2.2 sklearn 数据预处理 64__eol__4.2.3 sklearn 构建模型 65__eol__4.3 案例实现——朴素贝叶斯中文分类 65__eol__本章总结 71__eol__作业与练习 72__eol__第 5 章 N-gram 语言模型 73__eol__5.1 N-gram 概述 73__eol__5.1.1 N-gram 语言模型简介 73__eol__5.1.2 N-gram 概率计算 74__eol__5.1.3 案例——N-gram 的实现 75__eol__5.2 案例实现——基于 N-gram 的新闻文本预测 77__eol__本章总结 84__eol__作业与练习 84__eol__第 6 章 PyTorch 深度学习框架 85__eol__6.1 PyTorch 基础 85__eol__6.1.1 PyTorch 的介绍与安装 85__eol__6.1.2 PyTorch 入门使用 87__eol__6.1.3 梯度下降与反向传播 92__eol__6.1.4 案例——使用 PyTorch 实现线性回归 95__eol__6.2 PyTorch 数据加载 99__eol__6.2.1 使用数据加载器的目的 99__eol__6.2.2 DataSet 的使用方法 99__eol__6.2.3 DataLoader 的使用方法 100__eol__6.3 PyTorch 自带数据集加载 101__eol__本章总结 102__eol__作业与练习 102__eol__第 7 章 FastText 模型文本分类 104__eol__7.1 FastText 模型简介 104__eol__7.1.1 FastText 模型原理 104__eol__7.1.2 FastText 模型结构 105__eol__7.1.3 FastText 模型优化 105__eol__7.2 案例实现——FastText 模型文本分类 106__eol__本章总结 118__eol__作业与练习 118__eol__第 8 章 基于深度学习的文本分类 119__eol__8.1 基于 TextCNN 的文本分类 119__eol__8.1.1 卷积神经网络 119__eol__8.1.2 TextCNN 的原理 121__eol__8.2 基于 TextRNN 的文本分类 122__eol__8.2.1 LSTM 原理 122__eol__8.2.2 LSTM 网络结构 123__eol__8.3 基于 TextRCNN 的文本分类 124__eol__8.3.1 TextRCNN 原理 124__eol__8.3.2 TextRCNN 网络结构 125__eol__8.4 案例实现——基于深度学习的文本分类 126__eol__本章总结 146__eol__作业与练习 146__eol__第 3 部分 序列标注__eol__第 9 章 HMM 的词性标注 148__eol__9.1 词性标注简介 149__eol__9.1.1 词性标注的基本概念 149__eol__9.1.2 中文词性的分类及作用 149__eol__9.1.3 词性标注体系 150__eol__9.2 HMM 词性标注的原理和基本问题 151__eol__9.2.1 HMM 词性标注的原理 151__eol__9.2.2 HMM 的基本问题 151__eol__9.3 案例实现——HMM 的中文词性标注 152__eol__本章总结 158__eol__作业与练习 158__eol__第 10 章 HMM 的命名实体识别 159__eol__10.1 命名实体识别 160__eol__10.1.1 命名实体识别的概念 160__eol__10.1.2 NER 的标注方法 160__eol__10.2 NER 的 HMM 162__eol__10.3 案例实现——HMM 的中文命名实体识别 162__eol__本章总结 175__eol__作业与练习 175__eol__第 11 章 BiLSTM-CRF 的命名实体识别 176__eol__11.1 CRF 简介 177__eol__11.1.1 CRF 的基本概念 177__eol__11.1.2 BiLSTM 的命名实体识别 177__eol__11.1.3 CRF 的命名实体识别 178__eol__11.2 BiLSTM-CRF 的原理 179__eol__11.3 案例实现——BiLSTM-CRF 的中文命名实体识别 180__eol__本章总结 189__eol__作业与练习 189__eol__第 4 部分 预训练模型__eol__第 12 章 ALBERT 的命名实体识别 192__eol__12.1 预训练模型简介 193__eol__12.1.1 预训练模型的基本概念 193__eol__12.1.2 经典的预训练模型 193__eol__12.2 预训练模型 Hugging Face 195__eol__12.2.1 Hugging Face 简介 195__eol__12.2.2 案例实现——使用 Hugging Face完成情感分析 196__eol__12.3 案例实现——ALBERT 的中文命名实体识别 198__eol__本章总结 207__eol__作业与练习 207__eol__第 13 章 Transformer 的文本分类 209__eol__13.1 Transformer 概述 210__eol__13.1.1 Encoder-Decoder 模型 210__eol__13.1.2 Transformer 简介 210__eol__13.1.3 Transformer 总体结构 211__eol__13.2 Self-Attention 机制 213__eol__13.2.1 Self-Attention 机制的原理 213__eol__13.2.2 Self-Attention 的计算过程 214__eol__13.2.3 位置编码和 Layer Normalization 215__eol__13.3 案例实现——Transformer 的文本分类 217__eol__本章总结 234__eol__作业与练习 234__eol__第 14 章 BERT 的文本相似度计算 236__eol__14.1 文本相似度简介 237__eol__14.1.1 文本相似度的应用场景 237__eol__14.1.2 文本相似度计算的方法 237__eol__14.2 BERT 的文本相似度简介 238__eol__14.3 案例实现——BERT 的文本相似度计算 239__eol__本章总结 251__eol__作业与练习 251__eol__第 15