GPT-3.5只有200亿参数?
今天,大模型圈都被微软论文中的一纸截图刷爆了,究竟是怎么回事?
就在前几天,微软发表了篇论文并挂在了arXiv上,该论文提出了一个参数量只有75M的小规模扩散模型——CodeFusion。
性能方面,7500万参数的CodeFusion在top-1准确率指标上,可以与最先进的350M-175B模型相媲美。
![图片[1]-曝出GPT-3.5仅有200亿参数?AI圈巨震-开放智能](https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2023%2F1031%2F878c0ea1j00s3dljx001zd200u0007bg00id004g.jpg&thumbnail=960x2147483647&quality=75&type=jpg)
论文地址:https://arxiv.org/abs/2310.17680
这篇论文的工作很有意义,但引起大家格外注意的却是——
作者在对比ChatGPT(gpt-3.5-turbo)时,标称的参数量竟然只有20B!
![图片[2]-曝出GPT-3.5仅有200亿参数?AI圈巨震-开放智能](https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2023%2F1031%2Fc80b9f86j00s3dljy001id200f000b0g00id00dg.jpg&thumbnail=960x2147483647&quality=75&type=jpg)
在此之前,大家针对GPT-3.5参数量的猜测都是1750亿,这相当于是缩减了差不多十倍!
![图片[3]-曝出GPT-3.5仅有200亿参数?AI圈巨震-开放智能](https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2023%2F1031%2F15394167j00s3dljz007fd200fy00iwg00id00lr.jpg&thumbnail=960x2147483647&quality=75&type=jpg)
根据这篇论文的爆料,网友还去维基百科上更新了GPT-3.5的介绍,直接把参数大小改成了20B。
消息一出,直接登上知乎热搜,网友们都炸了。
![图片[4]-曝出GPT-3.5仅有200亿参数?AI圈巨震-开放智能](https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2023%2F1031%2Fb56546b9p00s3dljz001nd200u00045g00id002j.png&thumbnail=960x2147483647&quality=75&type=png)
有人表示,赶紧回头再把我之前模型蒸馏的博文拿出来复习复习 。
![图片[5]-曝出GPT-3.5仅有200亿参数?AI圈巨震-开放智能](https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2023%2F1031%2F9e265614j00s3dlk0001ud200u00062g00id003p.jpg&thumbnail=960x2147483647&quality=75&type=jpg)
是「乌龙」还是「事实」?
网友的爆料贴一出,瞬间就引发了激烈的讨论。
目前,已经有超过68万人前来围观。
![图片[6]-曝出GPT-3.5仅有200亿参数?AI圈巨震-开放智能](https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2023%2F1031%2Fa4d1cd22j00s3dlk200hqd200u000thg00id00i1.jpg&thumbnail=960x2147483647&quality=75&type=jpg)
这位老哥表示,论文的几位作者也都在用推特,估计过不了多久就会亲自下场解释。
![图片[7]-曝出GPT-3.5仅有200亿参数?AI圈巨震-开放智能](https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2023%2F1031%2Fdb8c6844j00s3dlk2001wd200u0004eg00id002o.jpg&thumbnail=960x2147483647&quality=75&type=jpg)
而对于这个神秘的「20B」,网友们也是众说纷纭。
![图片[8]-曝出GPT-3.5仅有200亿参数?AI圈巨震-开放智能](https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2023%2F1031%2Fb3c95be6j00s3dlk3001ld200u0004og00id002u.jpg&thumbnail=960x2147483647&quality=75&type=jpg)
有人猜测,这很可能是作者手误打错了。比如原本是120B,或者200B。
![图片[9]-曝出GPT-3.5仅有200亿参数?AI圈巨震-开放智能](https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2023%2F1031%2F7a2dce9fj00s3dlk3001rd200u0004eg00id002o.jpg&thumbnail=960x2147483647&quality=75&type=jpg)
结合现实中的各项评测来看,确实有很多小模型能够取得和ChatGPT差不多的成绩,比如Mistral-7B。
![图片[10]-曝出GPT-3.5仅有200亿参数?AI圈巨震-开放智能](https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2023%2F1031%2Fbc0e3dd6p00s3dlk4001cd200u00032g00id001v.png&thumbnail=960x2147483647&quality=75&type=png)
也许,这也是侧面证实了GPT-3.5体量真的不大。
![图片[11]-曝出GPT-3.5仅有200亿参数?AI圈巨震-开放智能](https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2023%2F1031%2Fb08945fbj00s3dlk4002dd200u0007ng00id004o.jpg&thumbnail=960x2147483647&quality=75&type=jpg)
很多网友也认为20B的参数可能是准确的,纷纷发出感叹:
「这也太难以想象了!Falcon-180B和Llama2-70B,竟然都无法击败这款20B的模型。」
![图片[12]-曝出GPT-3.5仅有200亿参数?AI圈巨震-开放智能](https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2023%2F1031%2F61dd871aj00s3dlk50032d200u0006vg00id0047.jpg&thumbnail=960x2147483647&quality=75&type=jpg)
也有网友认为,gpt-3.5-turbo是精炼版的gpt-3.5。
而这次参数的「泄露」,正好从侧面印证了那些关于gpt-3.5-turbo表现不如旧版gpt-3.5的传言。
![图片[13]-曝出GPT-3.5仅有200亿参数?AI圈巨震-开放智能](https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2023%2F1031%2Fa21a43e9j00s3dlk60032d200u0006hg00id003y.jpg&thumbnail=960x2147483647&quality=75&type=jpg)
不过,根据OpenAI的官方文档,除了已经不再使用的text-davinci和code-davinci,GPT-3.5家族全员都是基于gpt-3.5-turbo构成的。
![图片[14]-曝出GPT-3.5仅有200亿参数?AI圈巨震-开放智能](https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2023%2F1031%2F50f06f01j00s3dlk800bod200u00113g00ch00ff.jpg&thumbnail=960x2147483647&quality=75&type=jpg)
![图片[15]-曝出GPT-3.5仅有200亿参数?AI圈巨震-开放智能](https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2023%2F1031%2Fd0b48dc1j00s3dlka006nd200u000kng00ch008k.jpg&thumbnail=960x2147483647&quality=75&type=jpg)
微软发布CodeFusion
而爆出GPT3.5只有20B参数的微软论文,是想介绍一个用于代码生成的扩散模型。
研究人员针对Bash、Python和Microsoft Excel条件格式(CF)规则的自然语言生成代码的任务来评估这个模型——CodeFusion。
实验表明,CodeFusion(只有75M参数)在top-1精度方面与最先进的LLM(350M-175B参数)相当,并且在top-3和top-5精度方面性能和参数比非常优秀。
![图片[16]-曝出GPT-3.5仅有200亿参数?AI圈巨震-开放智能](https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2023%2F1031%2F35d38430j00s3dlkc004vd200u000d4g00id0080.jpg&thumbnail=960x2147483647&quality=75&type=jpg)
模型架构
CODEFUSION用于代码生成任务,它的训练分为两个阶段,第一阶段是无监督预训练,第二阶段是有监督微调。
![图片[17]-曝出GPT-3.5仅有200亿参数?AI圈巨震-开放智能](https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2023%2F1031%2Fa414896fj00s3dlkc004kd200u0008ng00id005a.jpg&thumbnail=960x2147483647&quality=75&type=jpg)
在第一阶段,CODEFUSION使用未标记的代码片段来训练降噪器和解码器。它还使用可训练的嵌入层L,将代码片段嵌入到连续空间中。
在第二阶段,CODEFUSION进行有监督的微调,使用来自文本-代码对数据。在这个阶段,编码器、降噪器和解码器都会得到调整,以更好地执行任务。
此外,CODEFUSION还借鉴了之前有关文本扩散的研究成果,将来自解码器的隐藏表示D融合到模型中。这是为了改进模型的性能。在训练过程中,在不同step中,模型引入一些噪声,然后计算损失函数,以确保生成的代码片段更符合预期的标准。
总之,CODEFUSION是一个执行代码生成工作的小模型,通过两个阶段的训练和噪声引入来不断提升其性能。这个模型的灵感来自于文本扩散的研究,并通过融合解码器的隐藏表示来改进损失函数,以更好地生成高质量的代码片段。
评估结果
下表总结了CODEFUSION模型与各个基线模型在top-1、top-3和top-5设置下的性能表现。
在top-1中,CODEFUSION的性能与自回归模型相媲美,甚至在某些情况下表现更出色,尤其是在Python任务中,只有GPT-3(175B)的性能稍微优于CODEFUSION(75M)。然而,在top-3和top-5方面,CODEFUSION明显优于所有基线模型。
![图片[18]-曝出GPT-3.5仅有200亿参数?AI圈巨震-开放智能](https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2023%2F1031%2F631c327dj00s3dlkd00a4d200u000a2g00id0065.jpg&thumbnail=960x2147483647&quality=75&type=jpg)
表下表展示了CODEFUSION和自回归模型(包括T5、CodeT5、StarCoder、CodeGen、GPT-3)在各项基准任务上的平均多样性结果,考察了每个模型的前5代生成结果。
相对于自回归模型,CODEFUSION生成更加多样化的结果,表现更出色。
![图片[19]-曝出GPT-3.5仅有200亿参数?AI圈巨震-开放智能](https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2023%2F1031%2Fb8f3c765j00s3dlke005od200u00079g00id004f.jpg&thumbnail=960x2147483647&quality=75&type=jpg)
在消融实验中,作者停止了去噪过程,并生成了在时间步t∈[0, T]范围内的当前状态的代码片段。利用归一化字符串编辑距离来衡量每个时间步长(每100步为一个增量)所获得的结果。
这一方法有助于总结和展示CODEFUSION模型的逐步进展,如下图所示。
![图片[20]-曝出GPT-3.5仅有200亿参数?AI圈巨震-开放智能](https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2023%2F1031%2F81210da7j00s3dlkf001ed200ga007ug00id008u.jpg&thumbnail=960x2147483647&quality=75&type=jpg)
说了这么多,GPT-3.5的参数量到底是多少?GPT-4与GPT-3.5在技术和其他方面有着什么样的联系?
GPT-3.5是一个个小专家模型的集成还是一个通才模型?是通过更大模型的蒸馏还是更大数据训练?
这些问题的答案只能等到真正开源的时候才能揭晓了。
参考资料:
https://arxiv.org/abs/2310.17680
https://twitter.com/felix_red_panda/status/1718916631512949248
暂无评论内容