《大语言模型》 一本全面介绍大型语言模型(LLM)的书籍

9次阅读
没有评论

共计 945 个字符,预计需要花费 3 分钟才能阅读完成。

《大语言模型》是一本全面介绍大型语言模型(LLM)的书籍,旨在为读者提供关于大模型技术的全面了解,包括其基础原理、关键技术和应用前景。通过深入研究和实践,本书旨在探索和改进大模型技术,为人工智能领域的发展做出贡献。以下是关于《大语言模型》的详细介绍:

《大语言模型》 一本全面介绍大型语言模型(LLM)的书籍

作者信息

  • 赵鑫,李军毅,周昆,唐天一,文继荣

出版信息

  • 出版社:中国人民大学出版社
  • 出版时间:2024年
  • ISBN:9787121473043

内容简介

本书详细介绍了构建大语言模型的四个主要阶段:预训练、有监督微调、奖励建模和强化学习。每个阶段都有算法、代码、数据、难点及实践经验的详细讨论。本书以大语言模型的基础理论开篇,探讨了大语言模型预训练数据的构建方法,以及大语言模型如何理解并服从人类指令,介绍了大语言模型的扩展应用和评估方法,为读者提供了更全面的视野。

书籍特色

  • 解码大语言模型奥秘:引领机器智能新时代。
  • 详细介绍构建LLM的四个主要阶段:预训练、有监督微调、奖励建模和强化学习。
  • 结合作者在NLP领域多年的研究经验:超300篇相关论文深度研读感悟。
  • 分享作者团队从0开始研发复旦大学MOSS大语言模型过程中的实践经验:为读者展示大语言模型训练的全流程细节。

适用读者群体

本书适用于具有深度学习基础的高年级本科生以及低年级研究生使用,可以作为一本入门级的技术书籍。

书籍目录

  • 绪论:大语言模型的基本概念、发展历程、构建流程。
  • 大语言模型基础:Transformer结构、生成式预训练语言模型GPT、大语言模型的结构。
  • 大语言模型预训练数据:数据来源、数据处理、数据影响分析、开源数据集。
  • 分布式训练:分布式训练概述、并行策略、集群架构、DeepSpeed实践。
  • 有监督微调:提示学习和语境学习、高效模型微调、模型上下文窗口扩展、指令数据的构建。
  • 强化学习:基于人类反馈的强化学习、奖励模型、近端策略优化、MOSS-RLHF实践。
  • 大语言模型应用:推理规划、综合应用框架、智能代理、多模态大语言模型、大语言模型推理优化。
  • 大语言模型评估:模型评估概述、评估体系、评估方法、评估实践。

通过阅读《大语言模型》,读者可以获得全面且深入的大语言模型的知识框架,为研究和实践提供指导和启发。

地址

 此处含有隐藏内容,请提交评论并审核通过刷新后即可查看!

正文完
 0
评论(没有评论)