大模型再掀算力浪潮,曙光“ALL in”
伴随8家大模型陆续通过《生成式人工智能服务管理暂行办法》备案,文心一言率先向全社会全面开放,AIGC将真正迎来在国内实际落地开花的时期,“百模大战”也将愈演愈烈。
ChatGPT带动AIGC火爆的背后,人工智能算力需求也随之暴涨。公开资料显示,GPT-4的模型拥有近1.8万亿参数、13万亿训练数据,其训练一次的成本高达6300万美元,大模型对算力的依赖显而易见。除增加算力资源供给外,算力利用率优化、使用门槛降低也至关重要。
无疑,实现算力、算法及应用的智能、协同调度,将算力更高效地转化为生产力,成为制胜百模争“算”时代的关键。
作为全产业链覆盖的核心信息基础设施企业,曙光对于大模型及大规模算力的支持与经验,远早于2023年。
近年来,基于对产业的深入洞察和前瞻预判,曙光在全国范围内构建了包括智算中心、云中心、一体化大数据中心在内的各类算力中心,掌握了丰富多样且通用性极强的算力资源。通过智能化调度和资源管理,将算力资源上云联网,并以创新型算力服务平台为出口,面向不同行业区域的用户提供可便捷获取的算力和应用。
截至目前,曙光已参与“悟道2.0”、“紫东太初”、“文心一言”、“通义千问”等多类大模型的训练、微调、推理等工作,为其提供强劲算力支撑。累计完成30余个国内外主流大模型的适配孵化,包括业界熟知的GPT系列、LLaMA系列、GLM系列等。同等条件下,大模型训练效率及训练稳定性都得到显著提升。
此外,针对大模型训练带来的挑战,曙光紧密协同生态伙伴,与百度、阿里、智源研究院、智谱AI、复旦大学、之江实验室、捷通华声等业内领先企业及科研院所深度合作,充分调动起政、产、学、研、用各方力量,打造了面向不同应用场景的大模型一体机、大模型存储解决方案等,提供从底层算力、框架、算法、应用等全栈AI能力,满足多场景需求,加速大模型探索创新及产业化落地。
与此同时,由于大模型对算力的巨大需求,能耗问题日益严峻。自2011年开启,曙光便致力于相关探索,研发了领先的浸没式相变液冷技术和冷板式冷却技术,构建了包含计算和存储的全栈绿色计算方案,并已成功实现商业化部署。相比传统风冷模式,在同等功率下,可为AI计算核心部件降温20-30°C;在同等性能下,为算力设备降低能耗30%。目前,中国有超过58%的液冷数据中心选择了曙光的技术方案。
信息产业在演变的每个阶段,都会有主流的技术应用方向。在“万变”的环境中,唯有把握前瞻趋势、坚持打造核心竞争力才是应对变化的“不变”法则。无论是大模型,还是下一个新“风口”,曙光早已在等候。