登入帳戶  | 訂單查詢  | 購物車/收銀台(0) | 在線留言板  | 付款方式  | 運費計算  | 聯絡我們  | 幫助中心 |  加入書簽
會員登入   新用戶登記
HOME新書上架暢銷書架好書推介特價區會員書架精選月讀2024年度TOP分類瀏覽雜誌 臺灣用戶
品種:超過100萬種各類書籍/音像和精品,正品正價,放心網購,悭钱省心 服務:香港台灣澳門海外 送貨:速遞郵局服務站

新書上架簡體書 繁體書
暢銷書架簡體書 繁體書
好書推介簡體書 繁體書

四月出版:大陸書 台灣書
三月出版:大陸書 台灣書
二月出版:大陸書 台灣書
一月出版:大陸書 台灣書
12月出版:大陸書 台灣書
11月出版:大陸書 台灣書
十月出版:大陸書 台灣書
九月出版:大陸書 台灣書
八月出版:大陸書 台灣書
七月出版:大陸書 台灣書
六月出版:大陸書 台灣書
五月出版:大陸書 台灣書
四月出版:大陸書 台灣書
三月出版:大陸書 台灣書
二月出版:大陸書 台灣書

『簡體書』Transformer深度解析与NLP应用开发

書城自編碼: 4098399
分類:簡體書→大陸圖書→計算機/網絡操作系統/系統開發
作者: 梁志远、韩晓晨
國際書號(ISBN): 9787302685623
出版社: 清华大学出版社
出版日期: 2025-04-01

頁數/字數: /
書度/開本: 16开 釘裝: 平装

售價:HK$ 130.9

我要買

share:

** 我創建的書架 **
未登入.


新書推薦:
埃勒里·奎因悲剧四部曲
《 埃勒里·奎因悲剧四部曲 》

售價:HK$ 307.6
今天我想要什么:海豹的女性漫画
《 今天我想要什么:海豹的女性漫画 》

售價:HK$ 74.8
日常的金字塔:写诗入门十一阶
《 日常的金字塔:写诗入门十一阶 》

售價:HK$ 74.8
税的荒唐与智慧:历史上的税收故事
《 税的荒唐与智慧:历史上的税收故事 》

售價:HK$ 107.8
图式疗法的刻意练习
《 图式疗法的刻意练习 》

售價:HK$ 87.9
人间游戏:人际关系心理学(500万册畅销书《蛤蟆先生》理论原典,帮你读懂人际关系中那些心照不宣的“潜规则”)
《 人间游戏:人际关系心理学(500万册畅销书《蛤蟆先生》理论原典,帮你读懂人际关系中那些心照不宣的“潜规则”) 》

售價:HK$ 43.8
伟大的遗址(亲历100座人类文明考古奇迹)
《 伟大的遗址(亲历100座人类文明考古奇迹) 》

售價:HK$ 206.8
秦汉国家的思想、信仰与皇权政治
《 秦汉国家的思想、信仰与皇权政治 》

售價:HK$ 215.6

 

編輯推薦:
在深度学习领域,Transformer模型以其革新性的架构和卓越的性能,如同一颗璀璨的明星,照亮了自然语言处理(NLP)乃至整个人工智能的发展道路。《Transformer深度解析与NLP应用开发》这本书,无疑是引领读者踏入这一前沿领域的钥匙。
《Transformer深度解析与NLP应用开发》对Transformer架构的核心理论进行了系统而深入的介绍。从架构原理到自注意力机制,详细阐述了其相较于传统方法的显著优势,让读者能够深刻理解这一技术为何能成为深度学习领域的变革者。同时,针对BERT、GPT等经典衍生模型的应用也有详尽的讲解,使读者全面掌握Transformer在语言模型中的广泛应用。
全书内容丰富,分为理论基础、技术实践和高级应用三个部分。在理论基础部分,为读者夯实了知识根基;技术实践部分,围绕数据预处理、文本分类、序列标注、文本生成、多语言模型等核心任务展开,结合迁移学习、微调与优化技术,展示了Transformer在不同场景中的实际运用;高级应用部分则聚焦于语义匹配、问答系统和文本聚类等领域,进一步拓展读者的视野。此外,针对企业级开发需求,特别介绍了ONNX与Ten
內容簡介:
《Transformer深度解析与NLP应用开发》系统解析Transformer的核心原理,从理论到实践,帮助读者全面掌握其在语言模型中的应用,并通过丰富案例剖析技术细节。《Transformer深度解析与NLP应用开发》共12章,内容涵盖Transformer模型的架构原理、自注意力机制及其相对于传统方法的优势,并详细剖析BERT、GPT等经典衍生模型的应用。书中围绕数据预处理、文本分类、序列标注、文本生成、多语言模型等核心任务,结合迁移学习、微调与优化技术,展示Transformer在语义匹配、问答系统和文本聚类等场景中的实际应用。针对企业级开发需求,还特别介绍了ONNX与TensorRT优化推理性能的最佳实践,为大规模数据处理及低资源部署提供了解决方案。
《Transformer深度解析与NLP应用开发》兼具理论深度与实际应用价值,内容系统,案例丰富,适合大模型及NLP研发人员、工程师、数据科学研究人员以及高校师生阅读与参考。
關於作者:
梁志远,博士,毕业于北京航空航天大学。长期从事人工智能、大语言模型的开发,专注于深度学习、自然语言处理、数据分析与智能决策等领域。主持或参与多项科研项目,涵盖模型训练优化、知识蒸馏、自动推理与多模态学习等方向。致力于推动人工智能技术在工业应用、智能交互与数据驱动中的实践与发展。
韩晓晨,博士,长期从事高性能计算与大模型训练算力优化研究。近十年来,专注于智能计算架构优化及大规模数据处理,深耕控制算法、机器视觉等领域。近年来,重点研究大模型训练加速、算力调度与异构计算优化,致力于提升计算效率与资源利用率,推动大规模人工智能模型的高效部署与应用。
目錄
引 言 1
一、从统计学习到Transformer崛起 1
二、开发环境配置:构建高效的Transformer开发平台 3
第1章 Transformer与自然语言处理概述 7
1.1 Transformer的基础架构与原理 7
1.1.1 多头注意力机制的核心计算 8
1.1.2 位置编码与网络稳定性的设计 11
1.2 深度学习经典架构CNN和RNN的局限性 15
1.2.1 CNN在自然语言处理中的应用与局限 15
1.2.2 RNN架构与长序列建模问题 17
1.3 自注意力机制 19
1.3.1 自注意力机制的矩阵计算原理 19
1.3.2 计算复杂度与信息保持 21
1.4 BERT双向编码器与GPT单向生成器 23
1.4.1 BERT架构与双向信息编码 23
1.4.2 GPT架构与单向生成能力 26
1.5 基于Transformer的迁移学习 27
1.5.1 迁移学习方法与特定任务适应性 27
1.5.2 迁移学习的实际应用与优化策略 30
1.6 Hugging Face平台开发基础 34
1.6.1 关于Hugging Face 35
1.6.2 环境准备 35
1.6.3 快速上手:使用预训练模型 35
1.6.4 数据预处理与分词 36
1.6.5 使用自定义数据集进行推理 36
1.6.6 微调预训练模型 37
1.6.7 保存与加载模型 38
1.6.8 部署模型到Hugging Face Hub 39
1.7 本章小结 40
1.8 思考题 40
第2章 文本预处理与数据增强 41
2.1 文本数据清洗与标准化 41
2.1.1 正则表达式在文本清洗中的应用 41
2.1.2 词干提取与词形还原技术 46
2.2 分词与嵌入技术 48
2.2.1 n-gram分词与BERT分词原理 48
2.2.2 Word2Vec与BERT词嵌入的动态表示 50
2.3 字符级别与词级别的嵌入方法 56
2.3.1 字符级嵌入模型的实现与优势 56
2.3.2 FastText在细粒度信息捕捉中的应用 58
2.4 数据集格式与标签处理 63
2.4.1 JSON和CSV格式的数据读取与处理 63
2.4.2 多标签分类的标签编码与存储优化 68
2.5 数据增强方法 70
2.5.1 同义词替换与句子反转的增强策略 70
2.5.2 EDA方法在数据扩充中的应用 73
2.6 本章小结 77
2.7 思考题 77
第3章 基于Transformer的文本分类 79
3.1 传统的规则与机器学习的文本分类对比 79
3.1.1 基于逻辑树和正则表达式的关键词分类 79
3.1.2 TF-IDF与词嵌入在传统分类算法中的应用 81
3.2 BERT模型在文本分类中的应用 83
3.2.1 BERT特征提取与分类头的实现 83
3.2.2 BERT在二分类与多分类任务中的微调 86
3.3 数据集加载与预处理 88
3.3.1 使用Hugging Face datasets库加载数据集 89
3.3.2 数据清洗与DataLoader的批处理优化 90
3.4 文本分类中的微调技巧 92
3.4.1 学习率调度器与参数冻结 92
3.4.2 Warmup Scheduler与线性衰减 95
3.5 本章小结 98
3.6 思考题 99
第4章 依存句法与语义解析 100
4.1 依存句法的基本概念 100
4.1.1 依存关系术语解析:主谓宾结构与修饰关系 100
4.1.2 使用SpaCy构建依存关系树与句法提取 102
4.2 基于Tree-LSTM的依存句法打分方法 104
4.2.1 Tree-LSTM处理依存树结构的实现 104
4.2.2 句法结构的打分与信息传递机制 107
4.3 使用GNN实现依存关系 109
4.3.1 图神经网络在依存结构建模中的应用 110
4.3.2 节点特征与边权重的依存关系表示 112
4.4 Transformer在依存解析中的应用 115
4.4.1 BERT上下文嵌入与GNN模型的结合 115
4.4.2 混合模型在依存关系建模中的应用 117
4.5 依存句法与语义角色标注的结合 118
4.5.1 语义角色标注的定义与依存关系融合 119
4.5.2 使用AllenNLP实现句法结构与语义角色标注的结合 121
4.6 本章小结 123
4.7 思考题 124
第5章 序列标注与命名实体识别 125
5.1 序列标注任务与常用方法 125
5.1.1 BIO编码与标签平滑技术 125
5.1.2 条件随机场层的数学原理与实现 129
5.2 双向LSTM与CRF的结合 131
5.2.1 双向LSTM的结构与工作原理 131
5.2.2 ELMo模型的上下文嵌入与序列标注 133
5.3 BERT在命名实体识别中的应用 134
5.3.1 BERT的CLS标记与Token向量在NER中的作用 134
5.3.2 NER任务的微调流程与代码实现 136
5.4 实体识别任务的模型评估 138
5.4.1 NER评估标准:准确率、召回率与F1分数 138
5.4.2 各类实体的性能评估与代码实现 140
5.5 结合Gazetteers与实体识别 141
5.5.1 领域特定词典的构建与应用 141
5.5.2 结合词典信息提升实体识别准确性 144
5.6 本章小结 147
5.7 思考题 147
第6章 文本生成任务的Transformer实现 149
6.1 生成式文本任务的基本方法 149
6.1.1 n-gram模型与马尔可夫假设 149
6.1.2 n-gram模型在长文本生成中的局限性 150
6.2 优化生成策略 152
6.2.1 Greedy Search与Beam Search算法 152
6.2.2 Top-K采样与Top-P采样 155
6.3 T5模型在文本摘要中的应用 159
6.3.1 T5编码器-解码器架构在文本摘要中的应用 159
6.3.2 T5模型的任务指令化微调与应用优化 161
6.4 生成式Transformer模型的比较 164
6.4.1 GPT-2、T5和BART的架构区别与生成任务适配 164
6.4.2 生成式模型在文本摘要和对话生成中的对比应用 167
6.5 Transformer在对话生成中的应用 169
6.5.1 对话生成模型的上下文保持与一致性 169
6.5.2 使用GPT-2与DialoGPT构建多轮对话生成系统 172
6.6 文本生成的端到端实现 173
6.6.1 新闻摘要任务的文本生成流程 173
6.6.2 多种生成方式结合:提升生成质量 175
6.7 本章小结 178
6.8 思考题 178
第7章 多语言模型与跨语言任务 180
7.1 多语言词嵌入与对齐技术 180
7.1.1 对抗训练在词嵌入对齐中的应用 180
7.1.2 跨语言文本相似度计算的投影矩阵方法 183
7.2 XLM与XLM-R的实现 185
7.2.1 XLM与XLM-RoBERTa在多语言任务中的模型结构 185
7.2.2 多语言文本分类与翻译任务中的应用实例 186
7.3 使用XLM-RoBERTa进行多语言文本分类 188
7.3.1 XLM-RoBERTa的加载与微调流程 188
7.3.2 标签不均衡与语言分布不平衡的处理技巧 190
7.4 跨语言模型中的翻译任务 192
7.4.1 XLM-RoBERTa在翻译任务中的应用 192
7.4.2 翻译任务的模型微调与质量提升策略 194
7.5 多语言模型的代码实现与评估 197
7.5.1 多语言模型的数据加载与训练实现 197
7.5.2 BLEU与F1分数在跨语言任务中的评估应用 199
7.5.3 多语言模型综合应用示例 202
7.6 本章小结 205
7.7 思考题 206
第8章 深度剖析注意力机制 207
8.1 Scaled Dot-Product Attention的实现 207
8.1.1 查询、键和值的矩阵计算与缩放 207
8.1.2 softmax归一化与注意力权重的提取与分析 210
8.2 多头注意力的实现细节与优化 212
8.2.1 多头注意力的并行计算与输出拼接 212
8.2.2 初始化方法与正则化技巧防止过拟合 215
8.3 层归一化与残差连接在注意力模型中的作用 217
8.3.1 层归一化的标准化与稳定性提升 217
8.3.2 残差连接在信息流动与收敛性中的作用 219
8.4 注意力机制在不同任务中的应用 221
8.4.1 机器翻译与摘要生成中的注意力应用实例 221
8.4.2 注意力权重可行性解释 225
8.5 Attention Is All You Need论文中的代码实现 226
8.5.1 多头注意力与前馈神经网络的分步实现 226
8.5.2 位置编码的实现与代码逐行解析 229
8.6 本章小结 232
8.7 思考题 232
第9章 文本聚类与BERT主题建模 234
9.1 文本聚类任务概述 234
9.1.1 K-means算法在文本聚类中的应用 234
9.1.2 层次聚类算法的实现与潜在类别发现 237
9.2 使用Sentence-BERT进行聚类 238
9.2.1 Sentence-BERT的文本嵌入表示 239
9.2.2 短文本与长文本聚类的相似度分析 240
9.3 BERT在主题建模中的应用 244
9.3.1 BERT与LDA结合实现主题模型 244
9.3.2 动态嵌入生成语义化主题表示 246
9.4 本章小结 250
9.5 思考题 250
第10章 基于语义匹配的问答系统 251
10.1 使用Sentence-BERT进行语义相似度计算 251
10.1.1 句子嵌入在语义相似度中的应用 251
10.1.2 余弦相似度的计算与代码实现 253
10.2 语义匹配任务中的数据标注与处理 255
10.2.1 数据标注格式设计 255
10.2.2 数据不平衡问题:重采样与加权 259
10.3 基于BERT的问答系统 261
10.3.1 BERT在SQuAD数据集上的微调流程 262
10.3.2 CLS与SEP标记在问答任务中的作用 266
10.4 使用DistilBERT进行MRC优化 269
10.4.1 DistilBERT的蒸馏过程与模型简化 269
10.4.2 DistilBERT在问答系统中的高效应用 271
10.5 本章小结 275
10.6 思考题 275
第11章 常用模型微调技术 277
11.1 微调基础概念 277
11.1.1 冻结层与解冻策略的应用场景 277
11.1.2 微调中的参数不对称更新 281
11.2 使用领域数据微调BERT模型 283
11.2.1 金融与医学领域数据的预处理与标签平衡 283
11.2.2 BERT微调过程中的参数初始化与学习率设置 285
11.3 参数高效微调(PEFT)进阶 288
11.3.1 LoRA、Prefix Tuning的实现与应用 288
11.3.2 Adapter Tuning的工作原理与代码实现 291
11.4 本章小结 294
11.5 思考题 294
第12章 高级应用:企业级系统开发实战 296
12.1 基于Transformer的情感分析综合案例 296
12.1.1 基于BERT的情感分类:数据预处理与模型训练 296
12.1.2 Sentence-BERT文本嵌入 300
12.1.3 情感分类结果综合分析 305
12.2 使用ONNX和TensorRT优化推理性能 307
12.2.1 Transformer模型的ONNX转换步骤 307
12.2.2 TensorRT量化与裁剪技术的推理加速 312
12.2.3 ONNX Runtime的多线程推理优化与分布式部署 316
12.2.4 TensorRT动态批量大小支持与自定义算子优化 318
12.3 构建NLP企业问答系统 321
12.3.1 清洗、增强和格式化数据 322
12.3.2 模型训练、微调及推理服务支持 327
12.3.3 RESTful API接口 330
12.3.4 系统状态记录与异常监控 332
12.3.5 系统开发总结 337
12.4 本章小结 339
12.5 思考题 339
內容試閱
自然语言处理(NLP)作为人工智能的重要分支,其技术发展在过去几十年里经历了多次突破。从最早基于统计和规则的自然语言处理模型,到深度学习技术崛起后的神经网络模型,NLP领域迎来了前所未有的快速发展。Transformer模型的诞生更是引领了一场技术革命,使得语言理解和生成任务的性能达到了全新的高度。
Transformer模型之所以在NLP领域独树一帜,离不开其创新的注意力机制。传统的序列模型如循环神经网络(RNN)和长短期记忆网络(LSTM),尽管在语言建模上取得了一定的成功,但由于依赖逐步计算的序列结构,在处理长文本时面临显著的性能瓶颈。而Transformer通过自注意力机制,可以直接关注输入序列中的任意位置,不仅提高了模型的并行化效率,还显著增强了捕捉长距离语义关系的能力。本书将以形象生动的方式详细剖析这些机制,让读者对Transformer的工作原理有更直观的理解。
本书的目标是为读者提供一个全面且深入的Transformer模型学习路径。笔者希望通过严谨的技术讲解与丰富的代码示例,让读者不仅掌握Transformer模型的核心原理,还能在实际项目中灵活运用。本书结构清晰,从基础知识入手,逐步引导读者深入理解Transformer的内部机制,包括多头注意力、自注意力机制、位置编码等设计精髓,并通过与传统模型(如RNN、CNN)的对比,解析其在捕捉复杂语义关系、建模长序列依赖方面的独特优势。
除了理论层面的讲解,本书更加注重实践与应用。在对Transformer模型核心架构讲解的基础上,书中通过多个实例展示其在实际场景中的应用。例如,在情感分析任务中,利用BERT模型进行微调以提高分类精度;在问答系统中,通过DistilBERT优化模型性能以适应低资源部署环境;在机器翻译任务中,使用Transformer捕捉源语言与目标语言之间的复杂对应关系。这些实例不仅涵盖了模型的训练与优化,还涉及如何合理使用迁移学习以充分发挥预训练模型的优势。
随着Transformer模型的应用逐渐从研究领域扩展到工业实践,模型的高效部署和推理性能优化成为开发者的重要课题。本书在后半部分对这些问题进行了深入探讨,特别引入了ONNX和TensorRT的优化技术,展示如何通过模型量化、裁剪、动态批量支持等方法,在实际环境中显著提高推理效率。通过具体的代码实现和详细的讲解,可以让读者掌握从模型导出到部署的完整流程,为大规模应用场景提供可靠的技术支持。
值得一提的是,本书不仅适用于技术开发者,也会对希望了解Transformer模型原理的研究人员和学生提供帮助。无论是构建复杂的语义匹配系统,还是优化文本生成任务,本书都提供了系统化的解决方案。本书不仅关注理论上的可理解性,更注重代码的可运行性与实用性,所有示例代码均经过严格测试,确保读者可以直接运行并复现结果。
在企业级场景中,NLP系统开发需要综合考虑数据质量、模型性能和系统稳定性等多个因素。本书通过构建一个完整的企业问答系统,从数据预处理到模型服务再到API接口开发和异常监控,展示NLP系统开发的全流程。读者可以从中学习如何将Transformer模型与工程实践相结合,设计高效、可扩展的解决方案。
我们生活在一个被数据驱动的时代,NLP技术正逐步渗透到社会的各个领域,从客户服务到医疗诊断,从金融分析到教育科技,Transformer模型的应用无处不在。对于每一位AI领域的从业者而言,理解并掌握Transformer模型及其生态系统已成为一项核心能力。本书的撰写目的,正是希望通过全面而系统的内容帮助读者从理论到实践深度掌握这项技术。
在撰写本书的过程中,笔者参考了大量该领域的相关论文、官方文档以及实战案例,力求为读者提供兼具学术深度与实践广度的内容。笔者相信,本书可以为初学者提供清晰的入门指导,为有经验的开发者提供专业的技术方案,为研究人员提供深入的理论解析。
希望读者通过本书,不仅能够对Transformer模型有全面的了解,更能将其应用到实际工作中,为自己的技术能力加码,为行业发展贡献力量。无论是在模型开发、性能优化还是系统部署方面,本书都将成为读者在学习Transformer道路上的一站式参考手册。
本书配套资源
本书配套提供示例源码,请读者用微信扫描下面的二维码下载。
如果在学习本书的过程中发现问题或有疑问,可发送邮件至booksaga@126.com,邮件主题为“Transformer深度解析与NLP应用开发”。
著 者
2025年2月

 

 

書城介紹  | 合作申請 | 索要書目  | 新手入門 | 聯絡方式  | 幫助中心 | 找書說明  | 送貨方式 | 付款方式 香港用户  | 台灣用户 | 海外用户
megBook.com.hk
Copyright © 2013 - 2025 (香港)大書城有限公司  All Rights Reserved.