大模型时代,洗牌在即,存储、服务器、网络厂商何去何从?



导语:大模型正在改变一切,改变着我们的生活与工作,驱动IT基础设施加速变革


  模型变小是大趋势,不是什么都大的好,比如玉米还是越小越香甜,越小越糯越可口。


  因此,企业级IT厂商在行业大模型的发展新趋势中,也就可以很好地分得一杯羹了。只是僧多粥少,就看各自修为了。


  此外,对于想在这个领域有所作为的大模型的创新公司而言,业内人士分析指出,目前可以加强四个方面的技术方向。


  一是,语义搜索(Semantic Search),这是现代搜索引擎用来返回最相关的搜索结果的信息检索过程。目前谷歌在采用这种方式,Semantic Search着重于搜索查询背后的含义,甚至可以根据用户的查询内容而确定内部建议,而不是传统的关键字匹配。


  二是,检索增强生成(RAG,Retrieval Augmented Generation),Facebook提出了一种检索增强生成RAG模型的架构,实现了端到端的可微模型,构成部分包括了问题编码器、神经检索器、生成器模型三个方面。这是自然语言处理(NLP)的创新应用,


  三是,文档分析(Document analysis),主要处理和分析上传的客户端文件和文档,包括针对政策、流程、准则、还有一些记录等等文档分析,基于上下文理解需求,通过检查描述业务环境或现有组织资产的可用材料来获取业务分析信息。


  四是,生成式人工智能聊天(Generative Al Chat),这是基于深度学习和自然语言处理技术的人工智能系统,就像一个使用通用大型语言模型(LLM),类似于ChatGPT的聊天机器人一样,可以实现总结文章,生成文本,甚至起草电子邮件,以及升级对图片、视频的智能分析与生成。主要也是在内容媒体如文本、图像、音频、视频的大型数据集上进行训练,以创建新的文本、音频、图像等。


  当然,在当前情况下,任何一家有志于行业大模型赶大潮的企业级IT厂商,都必须尽早下场,尽早储备,尽早发展行业大模型生态,要不然再迟疑的话,粥就没了,后面就只剩下刷锅水了。


  早入者优势明显,毕竟针对行业大模型的服务器方案,企业级存储方案,以及网络方案都需要做一定的创新。


  比如在服务器方案方面,如何将AI服务器端的GPU资源充分发挥,不被浪费就是一个大进步,AI算力资源利用率的提升之道就很值得企业级IT厂商为之一战,一战成名的可能性非常大。为什么?


  据业内人士分析,目前全球AI算力资源利用率都很低,不少企业用户的GPU资源长期处于闲置状态。倘若可以发挥出闲置GPU资源价值,便是对企业用户和企业级IT厂商一大利好。因此像国内外的浪潮信息、新华三、华为、联想、中科曙光、超聚变、宁畅、中兴、Dell EMC、HPE、超微、宝德等服务器厂商,都需要在GPU资源利用率方面下功夫,下真功夫让企业用户得实惠,那么必然在这场AI服务器血拼之争中可以感受到的“获得感”很强。


  其实,在企业级存储方面,也需要下功夫。大模型变小虽然是大趋势,但再小的行业模型训练都不可能只是一台服务器+存储。训练不仅需要高性能存储方案,同时还需要在降本增效上找到更好的分布式存储方案。在这个方面目前已经有企业级存储厂商在做了,比如有的存储厂商推出了面向行业大模型训练的分布式存储系统。为此像国内外企业级存储厂商如新华三、中科曙光、浪潮信息、华为、联想凌拓、超聚变、同有科技、中兴、TaoCloud大道云行、焱融科技、XSKY、杉岩数据、Dell EMC、Hitachi Vantara、HPE、IBM、Oracle、DDN等,需要在企业级存储与AI场景特别是大模型训练与推理场景上做文章,做足了文章,后面的舞台将会更大,想怎么跳就怎么跳。


  大模型时代,企业级存储作为AI打造数据底座,随着模型变小进入百行百业,存储也将越来越重要。这里提到的企业级存储厂商有全球科技巨头,也有国内年营收2-6亿元的初创公司,都比较有代表性。


  在针对行业大模型发展的网络方面也需要创新,大模型训练与推理,都需要更好的网络性能来支撑,以更优化的网络延迟将算力能力发挥到极致,从而获得更高效的模型训练结果。可见高效网络需要像国内外的网络厂商继续创新与努力。比如思科、新华三、华为、锐捷网络、中兴、瞻博网络Juniper、康普网络、迈普、博科(Brocade)等在网络技术领域有所深厚的积累,更需要厚积薄发,在大模型之战中发挥出网络创新的后劲。


  可见,一步一步,大模型正在改变着一切,改变着我们的生活与工作,并驱动IT基础设施加速变革,迎来下一轮存储行业格局洗牌、服务器行业格局洗牌、网络行业格局洗牌。那么,谁将会胜出呢?拭目以待。


工业互联网