机器之心报道
机器之心编辑部
了解当代大型语言模型背后的设计、约束和演变,你可以遵循本文的阅读清单。
大型语言模型已经引起了公众的注意,短短五年内,Transforme等模型几乎完全改变了自然语言处理领域。此外,它们还开始在计算机视觉和计算生物学等领域引发革命。
鉴于Transformers对每个人的研究进程都有如此大的影响,本文将为大家介绍一个简短的阅读清单,供机器学习研究人员和从业者入门使用。
下面的列表主要是按时间顺序展开的,主要是一些学术研究论文。当然,还有许多其他有用的资源。例如:
Jay Alammar撰写的《The Illustrated Transformer》
Lilian Weng撰写的《The Transformer Family》
Xavier Amatriain撰写的《Transformer models: an introduction and catalog — 2023 Edition》
Andrej Karpathy写的nanoGPT库
对主要架构和任务的理解
如果你是Transformers、大型语言模型新手,那么这几篇文章最适合你。
论文1:《Neural Machine Translation by Jointly Learning to Align and Translate》
论文地址:
本文引入了一种循环神经网络(RNN)注意力机制,提高了模型远程序列建模能力。这使得RNN能够更准确地翻译较长的句子——这也是后来开发原始Transformer架构的动机。
展开全文
图源:
论文2:《Attention Is All You Need》
论文地址:
本文介绍了由编码器和解码器组成的原始Transformer架构,这些部分将在以后作为单独模块进行相关介绍。此外,本文还介绍了缩放点积注意力机制、多头注意力块和位置输入编码等概念,这些概念仍然是现代Transformer的基础。
图源:
论文3:《BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding》
论文地址:
大型语言模型研究遵循最初的Transformer架构,然后开始向两个方向延伸:用于预测建模任务(如文本分类)的Transformer和用于生成建模任务(如翻译、摘要和其他形式的文本创建)的Transformer 。
BERT论文介绍了掩码语言建模原始概念,如果你对这个研究分支感兴趣,那么可以跟进RoBERTa,其简化了预训练目标。
图源:
论文4:《Improving Language Understanding by Generative Pre-Training》
论文地址:
最初的GPT论文介绍了流行的解码器风格的架构和通过下一个单词预测进行预训练。BERT由于其掩码语言模型预训练目标,可以被认为是一个双向Transformer,而GPT是一个单向自回归模型。虽然GPT嵌入也可以用于分类,但GPT方法是当今最有影响力的LLMs(如ChatGPT)的核心。
如果你对这个研究分支感兴趣,那么可以跟进GPT-2和GPT-3的论文。此外,本文将在后面单独介绍InstructGPT方法。
论文5:《BART: Denoising Sequence-to-Sequence Pre-training for Natural Language Generation, Translation, and Comprehension》
论文地址
如上所述, BERT型编码器风格的LLM通常是预测建模任务的首选,而GPT型解码器风格的LLM更擅长生成文本。为了两全其美,上面的BART论文结合了编码器和解码器部分。
扩展定律与效率提升
如果你想了解更多关于提高Transformer效率的技术,可以参考以下论文
论文1:《A Survey on Efficient Training of Transformers》
论文地址:
论文2:《FlashAttention: Fast and Memory-Efficient Exact Attention with IO-Awareness》
论文地址:
论文3:《Cramming: Training a Language Model on a Single GPU in One Day》
论文地址:
论文4:《Training Compute-Optimal Large Language Models》
论文地址:
此外,还有论文《Training Compute-Optimal Large Language Models》
论文地址:
本文介绍了700亿参数的Chinchilla模型,该模型在生成建模任务上优于流行的1750亿参数的GPT-3模型。然而,它的主要点睛之处在于,当代大型语言模型训练严重不足。
本文定义了用于大型语言模型训练的线性scaling law。例如,虽然Chinchilla的大小只有GPT-3的一半,但它的表现优于GPT-3,因为它是在1.4万亿(而不是3000亿)token上进行训练的。换句话说,训练token的数量和模型大小一样重要。
对齐——将大型语言模型朝着预期的目标和兴趣引导
近年来出现了许多相对强大的大型语言模型,它们可以生成真实的文本(例如GPT-3和Chinchilla)。就常用的预训练范式而言,目前似乎已经达到了一个上限。
为了使语言模型更能帮助到人类,减少错误信息和不良语言,研究人员设计了额外的训练范式来微调预训练的基础模型,包括如下论文。
论文1:《Training Language Models to Follow Instructions with Human Feedback》
论文地址:
在这篇所谓的InstructGPT论文中,研究人员使用了RLHF(Reinforcement Learning from Human Feedback)。他们从预训练的GPT-3基础模型开始,并使用监督学习对人类生成的提示响应对进行进一步微调(步骤1)。接下来,他们要求人类对模型输出进行排序以训练奖励模型(步骤2)。最后,他们使用奖励模型通过近端策略优化(步骤3)使用强化学习来更新预训练和微调的GPT-3模型。
顺便说一句,这篇论文也被称为描述ChatGPT背后思想的论文——根据最近的传言,ChatGPT是InstructGPT的扩展版本,它在更大的数据集上进行了微调。
论文2:《Constitutional AI: Harmlessness from AI Feedback》
论文地址:
在这篇论文中,研究人员进一步推进了对齐的想法,提出了一种创建「harmless」的AI系统的训练机制。研究人员提出了一种基于规则列表(由人类提供)的自训练机制,而不是直接由人类监督。与上面提到的InstructGPT论文类似,所提出的方法使用了强化学习方法。
总结
本文对上方表单的排列尽量保持简洁美观,建议重点关注前10篇论文,以了解当代大型语言模型背后的设计、局限和演变。
如果想深入阅读,建议参考上述论文中的参考文献。或者,这里有一些额外的资源,供读者进一步研究:
GPT的开源替代方案
论文1:《BLOOM: A 176B-Parameter Open-Access Multilingual Language Model》
论文地址:
论文2:《OPT: Open Pre-trained Transformer Language Models》
论文地址:
ChatGPT的替代方案
论文1《LaMDA: Language Models for Dialog Applications》
论文地址:
论文2:《Improving alignment of dialogue agents via targeted human judgements》
论文地址:
论文3:《BlenderBot 3: a deployed conversational agent that continually learns to responsibly engage》
论文地址:
计算生物学中的大型语言模型
论文1:《 ProtTrans: Towards Cracking the Language of Life’s Code Through Self-Supervised Learning 》
论文地址:
特别声明
本文仅代表作者观点,不代表本站立场,本站仅提供信息存储服务。