手机版    二维码   标签云  厨具企业大全

百度文心大模型 4.0 爆料:万卡训练史上最大参数,最快下周见

2024-05-22 09:20 来源: 作者/编辑: 浏览次数:5907 手机访问 使用手机“扫一扫”以下二维码,即可分享本文到“朋友圈”中。

财联社爆料称百度的文心大模型4.0正在加紧训练,已经接近可发布状态。今天,it之家也扒到了更多关于文心4.0的消息,涉及了底层架构、基础设施、训练数据集、成本等关键信息。

先说核心结论:

1、昨天的爆料基本属实。目前了解到,文心大模型4.0实际上已经在小流量测试。

2、文心4.0参数量大于所有已公开发布参数的llm,也是国内首次使用万卡集群训练的大模型。

3、推理成本相比文心3.5增加很多,据传大概是8-10倍。(大模型真的很费钱)

接下来我们看看爆料的细节。

万卡集群训练的史上最大参数模型?

根据it之家拿到的消息,文心大模型4.0的参数规模要大于目前所有公开发布参数的llm,这意味着文心大模型4.0的参数规模预计能突破万亿级别。

单看这个参数量,很多人会觉得还好,毕竟根据目前揭秘的信息,gpt-4的参数量已经在1.8万亿左右。但爆料人进一步表示,文心大模型4.0仍然是一个单一模型,并没有采用gpt和很多其他大语言模型使用的混合专家模型(moe)。

之前“天才黑客”乔治・霍兹就爆料,gpt-4之所以采用混合模型,是因为无法让模型的参数规模超过2200亿。openai希望模型变得更好,但如果仅仅是训练时间更长,效果已经递减。

所以,如果百度能实现单一模型上的突破,模型能力是否也会有明显的提升,这个只能等真正发布之后来看了。

这么大参数量的模型,对算力要求注定不会小。现在的消息是,文心4.0是在万卡ai集群上训练出来的,应该也算上是国内首次使用万卡规模集群进行训练的大语言模型。

万卡集群什么概念,国内目前只有华为、阿里透露已建成万卡ai集群,但我们都没看到基于它推出的具体模型。

这说明,万卡集群就不容易建了,如果用起来发挥最大化作用则更难了。据分析正是因为飞桨的深度联合,才能基于万卡集群训练起如此规模的模型。

成本激增,已低调面向公众小流量测试

不仅训练成本在增加,文心4.0的推理成本也被爆比3.5增加很多,it之家还没拿到具体每千token的推理成本,但据传大概是此前的8-10倍,这还是在高利用率(mfu)的情况下。如果利用率更低,估计成本还会继续增加。

最后,根据内部员工的说法,百度实际上已经开始秘密小流量测试文心大模型4.0,有小部分文心一言用户在使用的已经是最新的模型版本,最快下周就会官方公布。

不少人认为这个说法比较靠谱,也可以从最近技术社区上的一些爆料上看出一点端倪。说不定,你现在在文心一言上提问,用的就是文心大模型4.0了。不知道生成的结果是否能跟gpt-4一战。

it之家再次强调,以上并非官方确认的信息,大家自行判断其准确性。

来源:it之家

以上是网络信息转载,信息真实性自行斟酌。

 
本文标题:百度文心大模型 4.0 爆料:万卡训练史上最大参数,最快下周见
本文网址:
版权/免责声明:
一、本文图片及内容来自网络,不代表本站的观点和立场,如涉及各类版权问题请联系及时删除。
二、凡注明稿件来源的内容均为转载稿或由企业用户注册发布,本网转载出于传递更多信息的目的;如转载稿涉及版权问题,请作者联系我们,同时对于用户评论等信息,本网并不意味着赞同其观点或证实其内容的真实性。
三、转载本站原创文章请注明来源:中华厨具网

文本助手 资讯搜索 分享好友 打印本文 关闭窗口
  • 手机浏览本文

    手机应用中扫描本文二维码,即可浏览本文或分享到您的社交网络中。

  • 微信公众号

    扫描二维码,关注中华厨具网微信公众号,实时了解行业最新动态。

今日热点文章更多
品牌聚焦更多
推荐品牌更多
热门频道
关闭广告
合作伙伴:
中华厨具网 鲁ICP备2021046805号         鲁公网安备 37162502000363号 (c)2018-2026SYSTEM All Rights Reserved 投资有风险 加盟需谨慎
关闭广告
关闭广告