“只有免费模式,才能让所有用户享受到服务,才能迎来真正的应用大爆发。”
在MEET 2024智能未来大会现场,昆仑万维董事长兼CEO方汉在分享“大模型将如何介入普通人生活”时,作出了如上发言。
昆仑万维,一家以网游题材起家在A股上市的互联网企业,2020年GPT-3发布后组建第一支大模型团队,2023年以来,先后发布了千亿级别天工大模型和AI搜索产品。
并且,昆仑万维还明确了自己AI 2.0时代的几个侧重点:
从用户需求倒推,推出AI搜索产品;让用户用最简便方式创造自己的Agents的平台;用端侧推理实现AI时代的免费模式……
端侧推理一定会到来,对中小企业来说,建设自己的推断能力仍然是非常好的机会。
方汉在现场还分享道,“应用”是中国开发者最擅长的领域。基于对产品商业模式的灵敏嗅觉,这一波AI大潮一定是“落地为王”。
为了完整体现方汉关于大模型在企业生产中的应用场景的思考,量子位在不改变原意的基础上,对他的演讲内容进行了编辑整理。
关于MEET 智能未来大会:MEET大会是由量子位主办的智能科技领域顶级商业峰会,致力于探讨前沿科技技术的落地与行业应用。今年共有数十家主流媒体及直播平台报道直播了MEET2024大会,吸引了超过300万行业用户线上参会,全网总曝光量累计超过2000万。
演讲要点
- AI搜索缩短搜索时间、提高信息获取质量,是所有用户的痛点
- 大模型使用门槛太高,AGI的真正表现形式是Agent
- AI时代只有免费模式才能迎来真正的应用大爆发。
- 端侧推理将为中小企业带来机遇,中国开发者在应用和商业模式方面具有优势
(以下为方汉演讲分享全文)
大模型打开内容生成领域颠覆性机会
今天与大家分享一下昆仑万维在AGI与AIGC方向的探索之路,以及我们从做大模型开始到现在做AI Agent开发平台的过程,也希望能够给诸位在座的同仁起到一点参考作用。
首先简单介绍一下昆仑万维,我们是一家在A股上市的互联网企业,目前在全球大概有近4亿月活用户,海外收入占比84%,今年前三季度营收36.8亿。目前我们分成三大业务板块,其中最重要的板块就是AGI与AIGC业务。
作为一家海外互联网平台型企业,我们为什么会介入大模型或者AGI和AIGC技术方向?
我们是以网游题材上市的,上市之后我们进行了转型,在海外大力做平台型业务,经我们从头孵化的大概千万级别DAU的互联网平台有4—5家左右,全部都与内容和社交赛道相关。
所以我们一直对于内容生产领域的革新非常关注。在2020年GPT-3发布之后,我们非常敏锐地意识到了这可能是内容生成领域颠覆性机会。
于是我们从2020年开始投入建立了一个团队做中文预训练大模型的研发,2021年研发出了140亿参数的中文预训练大模型,同时我们开始了音乐生成的研究。
2022年底我们开源了13B的中文预训练大模型,今年4月份发布千亿级别的“天工”大模型;今年8月份推出了我们AI搜索产品。
基本上我们是国内布局AGI和AIGC比较早的企业,因此我们在这方面的思索和对于AI未来终局的判断,也是已进行了将近三年左右。这三年来我们一直在想我们的终局是什么样?我们在这个终局里处于何种位置?以及我们怎么定义我们的发展方向。
AI搜索满足所有用户的痛点
我们目前已经确定了六大AI业务矩阵。
首先,我们最重要的模块之一是AI大模型,我们在这方面不断地进行迭代和研发。
前面李开复老师也说了,一家公司有自己的模型建造能力非常重要的,首要原因是为了不受制于人;第二,对于很多应用场景来说,你必须有自己的专有模型,你才能够更好地去针对这个方向来进行你的应用落地。
天工大模型家族从千亿参数大模型到3B、13B、70B大模型都已经准备好。11月3日我们通过了生成式人工智能服务暂行办法备案,可以面向全社会开放服务。
第二,我们在国内只推出了一款面向C端产品,就是AI搜索。
在海外,我们仍然秉承我们的老本行——内容和社交领域,在AI游戏、AI音乐、AI动漫、AI社交方向都有相应的产品,而且这些产品目前已经从实验室走出来了,基本上研发都在1—2年以上,现在已经开始在海外社区进行测试,我们也相信在明年就会大爆发。
我们为何要做AI搜索?逻辑比较简单,并不是因为我们有大模型才做搜索,我们从用户需求倒推的。
大家知道搜索引擎从30年前出现到现在,搜索模式已经很多年没有变过了,搜索模式是什么?
我们进入搜索引擎,输入搜索词,搜索引擎会输出10个结果,用户从10个结果里面挑前两个或者前三个打开网页进行阅读,阅读完之后决定哪个网页是他要的结果,把他要的结果通过大脑总结之后反馈成自己的答案,来满足搜索需求。这个过程一般来说耗时3-10分钟,我们认为这个时间其实是任何人都很难缩短的。
一直到大模型的出现,我们会发现如果用大模型来替代用户进行“打开网页——阅读网页”的这个时间,就可以把每次搜索的时间从3—10分钟压缩到5—10秒,只需要很短的时间就能有一个完整的总结结果。
这会给用户体验带来极大的改变,所以AI搜索本质上就是为了缩短用户自行搜索的时间,并且能够提高用户获取信息的质量。
我们认为这就是所有用户的痛点,“更快即更好”。我们做AI搜索也是本着这个目的来给用户提供服务。
我们在AI多模态场景也有很多探索,比如,我们已经有AI游戏、AI音乐和AI漫画,其中在漫画领域和音乐领域我们分别投入1—2年以上研发时间,目前在海外测试过程中非常受创作者欢迎,已经有创作者利用我们AI音乐可以去线下打榜,在印尼音乐排行榜进入前100名,AI漫画领域有专业漫画师使用我们AI漫画工具创作真正的漫画。
同时,我们提供了天工开放平台给更多用户,更多企业用户和个人开发者使用我们大模型,这里边比较重要的是天工SkyAgents平台。
AGI的真正表现形式是Agent
我重点分享一下我们最近为什么推出SkyAgents平台。
实际上大模型本身大家用对话式大模型特别多,大家忙着跟大模型对话聊天,为什么说大模型是AGI不是Chatboot,本质上因为大模型它的planning能力导致了它像AGI。
本质上就现在大模型已经有了作为大脑的初步能力,作为大脑的初步能力就是规划能力,规划能力本身其实是没有作用的,为什么?因为大模型本身只会用文字方式、文本方式输出,这种输出是不能起到任何作用的。
怎么样把文本的规划能力转成实际的工作能力呢?就需要给规划能力接上很多外部的API,调用外部的API,比如说读取文件,写入文件,读取数据展现数据、作图,以及调用系统API完成功能,只有这样才能够让大模型真正的落地。
为了实现这个功能,现在大家也知道OpenAI开放了很多大模型API,需要用户有比较强的编程能力调用API、调用大模型规划能力,去实现自己的大模型的落地。
我们认为,这个门槛还是太高了。
在中国有编程能力的人可能就几千万人,剩下的十几亿人怎么办?
我们认为这时候需要Agents这个东西,低代码的、大模型的二次开发接口,让所有用户都能够通过Agents让大模型替自己做实际的工作,以及更好地落地。
我们推出了SkyAgents产品,它有多样化应用场景,让用户用最简单方式创造自己的Agents就能满足很多常规需求。
大家也知道在大模型领域最有商业前景的一定是金融、能源、教育这些大的场景。但更多的个人用户的一些非常小的微场景需求如何满足?这时候用Agents多样化应用场景和迭代,用低代码建设方式,就能让用户完成自己的工作。
我们天工SkyAgents可以用零代码打造智能体,用非常简单的模板帮助用户应用,让用户自己上传EXCEL和数据文件,进行数据导入。
同时,我们对大模型的规划能力也做了一定的加强,让大模型更好执行用户需求,目前我们产品已经开放注册了。
我们从2020年就开始思考AI大模型最终以什么样的形式介入到我们生活中间去。
其实有很多种方法,所有方法和途径都绕不开一个问题,现在AI训练成本是天价,其实大家不知道AI推断成本也非常高昂,这就导致了即使像微软OpenAI这样的企业仍然通过订阅制来满足高端用户的需求,只有高端用户才能够去享受现在最好的AI推理服务。
我们认为这与最早中国互联网或者全球互联网初始发展阶段是一样的模式。我记得非常清楚,我最早用的是中科院的互联网,在最早用拨号上网的时代,我下1.2G的东西,费用达到几百元。
这在现在大家都是无法想象的,现在1.2G的移动流量可能也就几毛钱都不到,这证明了什么?那个时代互联网为什么不能普及,就是因为费用高昂。
我们认为,只有免费模式,才能让所有用户享受到服务,才能迎来真正的应用大爆发。
端侧推理才是最终解决方案
如何实现AI时代的免费模式呢?我认为有三个途径。
第一个途径是技术迭代。我们清楚地看到AI的摩尔定律已经出现,所有大模型的能力是每年10倍的往上涨,所有大模型的推断成本以每年10倍的速度往下降。
第二个途径,也是中国人最擅长的,在产品设计上进行区分。我们在产品设计上如果采用UGC模式,即创作者大规模使用AI,而普通消费者并不使用AI推理,这个模式也是能成立的。
但只有第三个途径——端侧推理才是最终的解决方案。
什么叫端侧推理?在手机移动设备上可以进行的AI推理,目前手机上已经实现了1.3B和3B模型的推理,我相信1—2年内手机侧一定可以搭载13B的大模型。
而到那个时候用户购买手机的费用中就包含了将来要为推理所支付的费用。
所有的推理一旦到端侧,最终结果是什么?就会出现真正的杀手级的应用。因为它是基于免费模式,才能在最大程度地向普通用户普及,这就是我们对AI模型如何去进行免费模式的一个判断。
最后,我想和大家说一下,这一波AI的机会对于所有企业都是非常公正的。
端侧推理一定会到来,这对于中小企业来说建设自己的推断能力仍然是非常好的机会。
而我们中国的开发者最擅长的是“应用为王”,我们对于产品的商业模式的嗅觉是最灵敏的。
这一波AI一定是大潮将起、落地为王,谢谢大家。
暂无评论内容