GPT-4参数最新爆料!1.76万亿参数,8个2200亿MoE模型,PyTorch创始人深信不疑

GPT-4远不止1万亿,甚至,还是8个2200亿参数组成的混合专家模型。


(相关资料图)

家人们,GPT-4的参数可能还真不止1万亿!

近来,美国知名骇客George Hotz在接受采访时透露,GPT-4由8个220B模型组成。

这么算来,8 x 220B = 1.76万亿。

就连PyTorch的创建者Soumith Chintala对此也深信不疑。

GPT-4:8 x 220B专家模型用不同的数据/任务分布和16-iter推理进行训练。

如果真是这样的话,GPT-4的训练可能更加有效。

1.76万亿「八头蛇」?

在GPT-4还未放出之前,GPT-3有1750亿个参数,一众网友猜测GPT-4岂不是要逆天,最起码1万亿。

而George在接受Latent Space的采访时,对GPT4架构的描述着实让人震惊。

他的部分原话如下:

GPT-4每个head都有2200亿参数,是一个8路的混合模型。所以,混合模型是当你想不出办法的时候才会做的。OpenAI训练了相同模型8次,他们有一些小技巧。他们实际上进行了16次推断。

他特别强调,OpenAI做了8个混合专家模型,任何人可以花8倍资金都能训练出来。

也就是说,人们能够训练更小模型更长时间,微调后,就能找到这些技巧。

OpenAI曾经发表类似关于让计算量不变的情况下,让训练更好的算法,比较像BatchNorm和NoBatchNorm。

网友热评

就像George所说,这是8个较小的模型,如果有足够资金训练8个混合模型,这是一个微不足道的解决方案。

所以,GPT-4是GPT-3的10倍,而1月份的所有小圈圈大圈圈的meme实际上是……真的?!

网友得知秘诀后,打算自己也要训练一个LLaMA集合体与GPT-4竞争。

还有网友称,这有点像LLM-Blender。

我早就听到了稍微可信的传言,说GPT-4将是MoE,但从未得到证实。MoE和大约1万亿个参数不会让我感到惊讶,这听起来极为合理。

还有网友进行深度分析:

老实说,我预计这将是人工智能架构的下一阶段。我们已经看到特定任务模型在任务中的表现比一般模型好得多。

因此,将许多特定任务模型组合在一起将是下一个合乎逻辑的步骤。这几乎使升级系统变得容易得多,一次只能处理一个模型。

话虽如此,OpenAI以一种未来可能会,也可能不会的方式做到了这一点。显然,组合系统可能会有更多的小模型,而不是几个更大的模型。

如果这是真的,这是否意味着每个220B模型也有32K的上下文长度?

网友下了功夫,给它命名为「九头蛇」。

标签:

x 广告
偶遇交通事故,他秒速“上岗”!安全感拉满 天天快播

近日,贺州市公安局交警支队一名民警下班途中偶遇一起交通事故,秒速“

桌面主题下载(桌面主题包) 环球快报

导读1、如果你不是要特定的主题我可以推荐你深度美化主题包。2、这个主

拉夏贝尔正式破产清算 网友:整个青春的衣柜! 热门

6月20日,“上海破产法庭”发布了一则公告:拉夏贝尔,期待与您牵手!

cad无法卸载同类产品_cad无法卸载怎么办-世界即时

1、点开始-控制面板。2、2、点添加删除程序,win7以上版本点卸载程序。

朱茵挺会打扮,穿西装不走寻常路,巧在外套上挂条链子,颇显时髦

像朱茵就选择的是一件长款的修身西装,这样在营造“下衣失踪”既视感的

端午档票房破亿

本文转自【北青娱见】;据灯塔专业版实时数据,截至6月22日11时08分,2

零落成泥的人怎敢肖想天际的飞马(3)

第三章老先生的引退这或许是我作为训练员的终末,也是老训练员训练生涯

【聚焦报道基地】武强经济开发区开展全国“安全生产月”主题活动

今年6月是第22个全国“安全生产月”,主题为“人人讲安全、个个会应急”

全国夏播粮食超七成 “先进农机+配套技术”助农增产增收-微动态

央视网消息:目前,全国已夏播粮食72 3%,进度同比快0 9个百分点。今年

韩语“你好”怎么写,有几种说法? 天天速看

非敬语表达01非敬语形式①:안녕 annyong 安娘 敬语表达02敬语形式①

x 广告

Copyright ©  2015-2023 亚洲都市网版权所有  备案号:京ICP备2021034106号-51   联系邮箱:5 516 538 @qq.com