梦晨 发自 凹非寺量子位 | 公众号 QbitAI
开源羊驼大模型LLaMA上下文追平GPT-4,只需要一个简单改动!
Meta AI这篇刚刚提交的论文表示,LLaMA上下文窗口从2k扩展到32k后只需要小于1000步的微调。
与预训练相比,成本忽略不计。
![图片[2]-羊驼家族大模型集体进化!32k上下文追平GPT-4,田渊栋团队出品-开放智能](https://pics1.baidu.com/feed/32fa828ba61ea8d3f619fedb14155542241f58e5.jpeg@f_auto?token=952f6629c59c60c1db0cb78b37b1c723)
扩展上下文窗口,就意味着AI的“工作记忆”容量增加,具体来说可以:
支持更多轮对话,减少遗忘现象,如更稳定的角色扮演输入更多资料完成更复杂的任务,如一次处理更长文档或多篇文档更重要的意义在于,所有基于LLaMA的羊驼大模型家族岂不是可以低成本采用此方法,集体进化?
羊驼是目前综合能力最强的开源基础模型,已经衍生出不少完全开源可商用大模型和垂直行业模型。
![图片[3]-羊驼家族大模型集体进化!32k上下文追平GPT-4,田渊栋团队出品-开放智能](https://pics0.baidu.com/feed/6c224f4a20a446239aef2d6a1e3d17020cf3d7b9.jpeg@f_auto?token=8eec1fc111a10ed2c75a9b13a22da03e)
论文通信作者田渊栋也激动地在朋友圈分享这一新进展。
![图片[4]-羊驼家族大模型集体进化!32k上下文追平GPT-4,田渊栋团队出品-开放智能](https://pics1.baidu.com/feed/bd3eb13533fa828b3d2781a87a002438970a5a24.jpeg@f_auto?token=bb2a0a51783676e875759da2f71fc910)
基于RoPE的大模型都能用
新方法名为位置插值(Position Interpolation),对使用RoPE(旋转位置编码)的大模型都适用。
RoPE早在2021年就由追一科技团队提出,到现在已成为大模型最常见的位置编码方法之一。
![图片[5]-羊驼家族大模型集体进化!32k上下文追平GPT-4,田渊栋团队出品-开放智能](https://pics0.baidu.com/feed/35a85edf8db1cb13b387b4915e4b334293584b76.jpeg@f_auto?token=db51a3b8b4b8f9cf20190f56e3a4dfa0)
但在此架构下直接使用外推法(Extrapolation)扩展上下文窗口,会完全破坏自注意力机制。
具体来说,超出预训练上下文长度之外的部分,会使模型困惑度(perplexity)飙升至和未经训练的模型相当。
新方法改成线性地缩小位置索引,扩展前后位置索引和相对距离的范围对齐。
![图片[6]-羊驼家族大模型集体进化!32k上下文追平GPT-4,田渊栋团队出品-开放智能](https://pics7.baidu.com/feed/f11f3a292df5e0fedccad676d87f51a45fdf72a6.jpeg@f_auto?token=212ff9726779bf2f2f4504613de2d5b6)
用图表现二者的区别更加直观。
![图片[7]-羊驼家族大模型集体进化!32k上下文追平GPT-4,田渊栋团队出品-开放智能](https://pics6.baidu.com/feed/7a899e510fb30f242e114ad14b8ab44fac4b0300.jpeg@f_auto?token=c05a9d04935fc39e7cb2939223b9f036)
实验结果显示,新方法对从7B到65B的LLaMA大模型都有效。
在长序列语言建模(Long Sequence Language Modeling)、密钥检索(Passkey Retrieval)、长文档摘要(Long Document Summarization)中性能都没有明显下降。
![图片[8]-羊驼家族大模型集体进化!32k上下文追平GPT-4,田渊栋团队出品-开放智能](https://pics3.baidu.com/feed/359b033b5bb5c9ea6dc2c0bc5126d30c3af3b36c.jpeg@f_auto?token=764a90617bbc36d25092e17d2cd2b19f)
除了实验之外,论文附录中也给出了对新方法的详细证明。
![图片[9]-羊驼家族大模型集体进化!32k上下文追平GPT-4,田渊栋团队出品-开放智能](https://pics6.baidu.com/feed/4ec2d5628535e5dd75529bbff0d9c2e3ce1b627b.jpeg@f_auto?token=39e26817854295056b3457aa61f64024)
Three More Thing
上下文窗口曾经是开源大模型与商业大模型之间一个重要差距。
比如OpenAI的GPT-3.5最高支持16k,GPT-4支持32k,AnthropicAI的Claude更是高达100k。
与此同时许多开源大模型如LLaMA和Falcon还停留在2k。
现在,Meta AI的新成果直接把这一差距抹平了。
扩展上下文窗口也是近期大模型研究的焦点之一,除了位置插值方法之外,还有很多尝试引起业界关注。
1、开发者kaiokendev在一篇技术博客中探索了一种将LLaMa上下文窗口扩展到8k的方法。
![图片[10]-羊驼家族大模型集体进化!32k上下文追平GPT-4,田渊栋团队出品-开放智能](https://pics5.baidu.com/feed/43a7d933c895d143bacc3743faefe70e5baf07c7.jpeg@f_auto?token=a3f6d9900710ae3cf5bd629dfd0b8ddd)
2、数据安全公司Soveren机器学习负责人Galina Alperovich在一篇文章中总结了扩展上下文窗口的6个技巧。
![图片[11]-羊驼家族大模型集体进化!32k上下文追平GPT-4,田渊栋团队出品-开放智能](https://pics2.baidu.com/feed/caef76094b36acaf552ab2cff9c6e81c00e99ce2.jpeg@f_auto?token=8e0cbc2d74be4a1a92f288ed3c0e4206)
3、来自Mila、IBM等机构的团队还在一篇论文中尝试了在Transformer中完全去掉位置编码的方法。
![图片[12]-羊驼家族大模型集体进化!32k上下文追平GPT-4,田渊栋团队出品-开放智能](https://pics3.baidu.com/feed/6d81800a19d8bc3e1f8424270194c312a9d3457e.jpeg@f_auto?token=566a9a29db5a8e7cf24181d70244ad4b)
有需要的小伙伴可以点击下方链接查看~
Meta论文:https://arxiv.org/abs/2306.15595
Extending Context is Hard…but not Impossiblehttps://kaiokendev.github.io/context
The Secret Sauce behind 100K context window in LLMshttps://blog.gopenai.com/how-to-speed-up-llms-and-use-100k-context-window-all-tricks-in-one-place-ffd40577b4c
无位置编码论文https://arxiv.org/abs/2305.19466
暂无评论内容