光模块之后,下一个AI训练大模型大机会,软硬件互联!
AI大模型就是Foundation Model(基础模型),指通过在大规模宽泛的数据上进行训练后能适应一系列下游任务的模型。谷歌于2018年10月发布的BERT模型是最为典型的基础模型,它利用BooksCorpus和英文维基百科里纯文字的部分,无须标注数据,用设计的两个自监督任务来做训练,训练好的模型通过微调在11个下游任务上实现最佳性能。
OpenAI在2020年5月发布的GPT-3则是一个自回归语言模型,具有1750亿参数,在互联网文本数据上训练得到的这一基础模型,可以使用提示的例子完成各式各样的任务,使用描述任务(如“把英文翻译成法语:”)加一个示例(如“sea otter => loutre de mer”),再给一个prompt提示(如“cheese =>”),GPT-3模型即可生成cheese对应的法文。这类模型正在成为主流的AI范式。
通俗说:AI大模型就是一个大型的软硬件集成!
那么拆分下来,除了硬件(数据中心、芯片)+软件(数据集成)之外,还有一个第三象限的组成,那就是:中间件。
东方通的交换平台以及相关数据线产品能不能帮助用户采集、加工训练数据,用于GPT3模型的训练运用到算力方面?(来自: 深交所互动易)
东方通
答:您好。东方通的共享交换平台以及相关数据线产品,可以帮助用户采集、加工训练数据,用于GPT3模型的训练,并提供相关的专业服务和咨询。谢谢关注。
之前的GPT3模型和未来的多种AI大模型,都是可以完成用户采集、加工训练数据的,另外就是未来的可成长性:
中间件通过网络互连、数据集成、应用整合、流程衔接、用户互动等形式,已经成为大型网络应用系统开发、集成、部署、运行与管理的关键支撑软件。
行业是真正的AI大模型和应用的铲子行业!