登录注册
GPT 5后 NLP大模型能不能无限变大?
洋洋爱牛牛
超短低吸
2023-04-18 11:45:01

最近很多人来问我GPT5到底存不存在?它之后还有gpt6 7 8 吗?

      我统一回复一下:gpt4之后是有升级版本的,至于叫不叫gpt5,还是gpt 4升级版就是openai自己的事情了。模型参数会变大,几个模态的链接会打通,其实还是 文本用gpt 处理,图像用dall -e,只是链接打通,以后只需要一个交互接口,而不是三个,可能是贾维斯雏形。

     至于gpt5之后 还存不存在6 7 8,这个要严谨的讨论一下。目前ai顶级圈层提出可能很难:因为人类的自然语义数据是有限的,gpt3训练量是40t 语义训练量,gpt4 外界有人推测超过了400t的数据量。 再往后模型参数越来越大,所需要的数据量也越来越越大。人类现有知识马上就用完了,gpt5可能是NLP 这个模态最近几年的一个天花板了。

这里面有个基础知识,也是chatgpt能够成功的最主要原因,它来源于这篇论文:

图片​
 

   模型参数 N,数据量Data,计算力Comput,三者单拆出来对模型效果都是 幂律关系,简单说就是越大越好,越多越好。

     但三者必须同步增加,比如当参数极限扩大的时候,数据量跟不上,就会出现模型“喂不饱”的情况,当数据量太大,参数,算力不够,有些数据又会被闲置,不能被读取,他们做过测试,参数增大8倍,数据量最好增大5倍,这样的关系最好。

     基于此,闲置模型无限量扩大的不是参数,是人类的现有知识。有人给我提出英伟达不是有magic 3d,模拟真实世界,创造数据吗?对,这就是著名的合成数据!但是在升级过程中用太多合成数据,可能会对模型造成幻觉。

  “OpenAI CEO表示,巨型AI模型的时代已经结束,未来的人工智能进步将需要新的想法。进一步改进AI模型不再需要使它们更大,而是需要找到更好的方法来增强它们。这是因为巨型AI模型已经达到了其可扩展性和可训练性的极限,而且它们需要大量的计算资源和数据来训练和部署。他没有说什么样的研究策略或技术可能取代它。”

     这是别人发我的新闻,我还没找到这段话原文出处。但结合之前我访谈首席科学家的判断,这是有可能的。Openai CEO 如果公开这么说,可能是了gpt4 升级实验中,确实遇到了上述预测的问题,三元素里面的“算力和数据”跟不上参数的扩张了。毕竟gpt 可以判定过了万亿参数,再往上堆积,过十万亿级参数了,需要的数据是可怕的,过度使用合成数据,可能已经对模型产生了幻觉。



   结论是什么呢?对后续的影响!nlp的迭代升级如果确认进入停滞期。

1)微软 openai会马上推出大量惊艳的应用,迅速提升各行业生产力,构建自己的生态帝国,这是微软最擅长的事情。

2)其它大厂,包括国内的会奋起直追,毕竟目前大家就落后两代,大概就2年时间。军备竞赛,新品推出,一定会前所未有的卷!毕竟新技术革命出现,这可是企业的生死存亡,不是一两个销售渠道被抢。

3)对CV 机器视觉的迭代会加快,因为CV泛化大模型刚刚面世,它离停滞期是比较远,特斯拉那边也表示机器视觉的潜力空间非常巨大。

4)算力,之前我们就提出过一个假设,当大模型更新升级停滞在某个阶段,应用又爆发的时候,asic芯片可能有一战之力,最典型的代表是 google的TPU。把推理阶段某些算法嵌入芯片,当应用足够多,销量上升,摊销研发 和各种前期费用,AI的asic芯片可能会爆出1-2款推理芯片对英伟达的竞品(但训练阶段,英伟达gpu依旧是王者姿态,没办法)。

作者利益披露:转载,不作为证券推荐或投资建议,旨在提供更多信息,作者不保证其内容准确性。
声明:文章观点来自网友,仅为作者个人研究意见,不代表韭研公社观点及立场,站内所有文章均不构成投资建议,请投资者注意风险,独立审慎决策。
S
中科曙光
S
中科信息
S
凌云光
S
寒武纪
工分
7.26
转发
收藏
投诉
复制链接
分享到微信
有用 5
打赏作者
无用
真知无价,用钱说话
0个人打赏
同时转发
暂无数据