
主编推荐语
全面解析Transformer架构,示范多领域应用,47个实验助力实践与深度学习。
内容简介
Transformer是大语言模型等大模型的现阶段主要架构。 本书从原理的角度系统地讲解序列监督学习、序列聚合、注意力机制、Transformer层及3种类型的Transformer架构,从应用的角度讲解并演示如何在自然语言处理、计算机视觉、信号处理、推荐系统、深度强化学习等领域使用Transformer架构完成文本分类、文本生成、机器翻译、语音识别、语音合成、图像分类、图像说明、视频分类、视频预测等任务,并从实践的角度通过47个循序渐进的实验引领读者使用PyTorch框架独立编程实现上述方法和架构,完成上述任务。 本书不仅适合作为相关专业本科生及研究生的专业课教材,也适合相关领域的从业者、科研人员及大模型应用爱好者参考。
出版方
清华大学出版社
