2022年,清华大学发布了一款具有重要意义的 GLM 大模型,它不仅在中文语言处理方面取得了显著的进展,还在英文语言处理方面表现出了强大的能力。GLM大模型区别于OpenAI GPT在线大模型只能通过API方式获取在线支持的窘境,GLM大模型属于开源大模型,可以本地部署进行行业微调、也可通过API方式在线获取GLM模型能力。因此对于开发者而言,GLM开源大模型更值得去探索和研究。本文将着重介绍GLM大模型的研究成果和应用,探讨GLM开源大模型在发展历程、技术原理、应用场景等内容,以帮助我们能够更加深刻的了解GLM大模型在人工智能领域的重要性和影响力,以及给世界带来的可能性。
1、GLM大模型产生的背景
随着Google 2017年发布的一篇名为“Attention is All You Need”的论文开始,人们便开始了基于Transformer架构的自注意力机制(self-attention mechanism)的前馈神经网络模型在自然语言处理领域的突飞猛进的探索,Google Transformer 逐渐成为自然语言处理领域的重要研究方向,后续提出的BERT、GPT大模型均是基于 Transformer 模型,这些模型在各种自然语言处理任务上都取得了非常好的效果。
而就在GPT-3、BERT、T5等大模型发布之后,预训练语言模型大体可分为GPT系列的自回归模型、BERT系列的自编码模型、T5系列的编码-解码模型,它们每一个都在各自的领域上表现不俗,但是没有一个预训练模型能够很好地完成所有任务。为了应对这一挑战,由清华大学实验室和智谱 AI 共同研发的一款通用预训练语言模型