热门搜索: 中考 高考 考试 开卷17
服务电话 024-23945002/96192
 

深入解析TRANSFORMER 架构

编号:
wx1204316969
销售价:
¥59.16
(市场价: ¥68.00)
赠送积分:
59
数量:
   
商品介绍

《深入解析 Transformer 架构》致力于系统地解析 Transformer 模型的核心原理和应用前景。作为“AI 大模型技术丛书”的开篇之作,本书从 Transformer 的起源讲起,分析了模型设计背后的挑战及创新点,包括注意力机制、位置编码、多头注意力等核心技术。书中深入探讨了 Transformer 在自然语言处理和计算机视觉等领域的实际应用,展示了其在复杂任务中的显著优势和扩展潜力。通过清晰的理论解析与丰富的应用案例,本书为理解和使用 Transformer 模型的学习者提供了全面的指南,适合对 Transformer 模型感兴趣的各类读者学习使用。

吕阳,北京工商大学教授,入选斯坦福大学2019—2024年度全球2%高被引学者及ESI同期高被引学者。作为IEEE高级会员,深耕人工智能、量子金融系统、区块链应用、图分析信息学及数字法理学等领域,展现了卓越的学术影响力。同时,还担任Financial Innovation等知名期刊的特约编辑,专注于工业4.0、区块链、人工智能、物联网安全及企业数字化转型等前沿研究。

第一章 Transformer模型架构概览

一、Transformer的起源

二、Transformer的设计哲学

三、Transformer的基本组件

第二章 注意力机制

一、引言

二、注意力机制的基本概念

三、自注意力机制的工作原理

四、多头注意力机制

五、稀疏注意力机制

六、注意力机制在Transformer中的应用

第三章 位置编码

一、初步理解位置编码

二、位置编码的工作原理

三、位置编码的创新与改进

第四章 编码器与解码器

一、编码器和解码器概览

二、编码器的结构与功能

三、解码器的结构与功能

四、编码器-解码器架构的实际应用

第五章 残差连接和层标准化

一、深层网络的挑战与优化

二、残差连接的工作原理与作用

三、层标准化的工作原理与作用

四、残差连接和层标准化的协同作用

五、残差连接与层标准化在实际应用中的优化与改进

第六章 预训练与微调

一、引言

二、预训练语言模型的概念

三、微调的概念

四、预训练与微调的实际应用

五、模型效率的优化

六、未来展望

第七章 Transformer的变体

一、为何需要Transformer的变体

二、BERT模型

三、GPT模型

四、T5模型

五、其他重要变体:RoBERTa、ALBERT、XLNet

第八章 模型优化与训练技巧

一、Transformer模型的训练挑战

二、参数初始化

三、学习率调度与优化器选择

四、正则化策略

五、梯度裁剪

六、混合精度训练与分布式训练

七、数据处理与数据增强

第九章 实际应用案例

一、Transformer模型如何改变NLP任务

二、文本分类中的Transformer应用——情感分析

三、序列标注任务中的Transformer应用——命名实体识别

四、序列到序列任务中的Transformer应用——机器翻译

五、文本生成任务中的Transformer应用——自动文本摘要

结语:探索未来语言智能的无限可能

商品参数
基本信息
出版社 化学工业出版社
ISBN 9787122490315
条码 9787122490315
编者 吕阳,王韵涵 著 著
译者 --
出版年月 2026-02-01 00:00:00.0
开本 16开
装帧 平装
页数 135
字数 130000
版次 1
印次 1
纸张 一般胶版纸
商品评论

暂无商品评论信息 [发表商品评论]

商品咨询

暂无商品咨询信息 [发表商品咨询]