中新网上海新闻7月4日电(郑莹莹)7月4日,在2024世界人工智能大会的AI基础设施论坛上,无问芯穹联合创始人兼CEO夏立雪发布了千卡规模异构芯片混训平台。
就在4个月前,无问芯穹Infini-AI大模型开发与服务云平台宣布首次公测,已有智谱AI、月之暗面、生数科技等大模型公司在Infini-AI上使用异构算力。
作为大模型生命周期中不可或缺的两个阶段,训练和推理均需要强大的计算资源支撑。然而,与国际上模型层与芯片层“相对集中”的格局相比,中国的模型层与芯片层更加“百花齐放”。然而,大量的异构芯片也形成了“生态竖井”,不同硬件生态系统封闭且互不兼容,给算力的使用方带来一系列技术挑战。
为构建适应多模型与多芯片格局的AI Native基础设施,无问芯穹的底层解法是:提供高效整合异构算力资源的好用算力平台,以及支持软硬件联合优化与加速的中间件,让异构芯片真正转化为大算力。
近日,无问芯穹与清华、上交的联合研究团队发布了HETHUB,这是一个用于大规模模型的异构分布式混合训练系统。夏立雪介绍,这项技术工程化的初衷,是希望能够通过整合更多异构算力,继续推高大模型技术能力的上限,同时通过打通异构芯片生态,持续降低大模型应用落地成本。
大模型行业发展正在进入规模化产业落地阶段,应用场景的百花齐放,带来了对大模型训练日益迫切的需求。构建大模型时代的AI Native基础设施,不仅能够为AI开发者提供更加通用、高效、便捷的研发环境,同时也是实现算力资源有效整合,支撑AI产业可持续发展的关键基石。
无问芯穹致力于构建适应多模型与多芯片的AI Native基础设施。“技术上限推高与技术落地扩散不矛盾,且取决于我们决心如何对待这个技术。”夏立雪说。
他表示,优良的基础设施就是这样一种“魔法”,当边际成本下降到临界值,就能有更多的人拥抱新技术。(完)