用户名: 密码:
注册 各地分站 各地IT卖场
·行业新闻
首页 > 行业新闻 > 详情
百度飞桨框架3.0正式版发布
2025/4/10 作者:杜欣 文章来源:人民邮电报 

百度近日发布飞桨框架3.0正式版,以“异构多芯适配”等五大核心技术创新为大模型训推提速。

作为大模型时代的“基础设施”,深度学习框架的重要性越发凸显,大模型训练、推理等任务都离不开深度学习框架的优化与支撑。

飞桨框架3.0从设计理念上实现了从底层硬件适配到顶层开发体验的全面进化,在训练效率、性能、兼容性等关键指标上树立了新标杆。其中,动静统一自动并行、大模型训推一体、科学计算高阶微分、神经网络编译器、异构多芯适配这五大技术新特性,系统性解决了当前大模型产业面临的训练成本高、推理效率低、硬件适配难等核心痛点。

飞桨提出的动静统一自动并行技术,大幅降低大模型开发训练成本,让算法创新回归核心价值创造。同时,“训推一体”设计理念打破了训练与推理的割裂状态,通过全方位深度优化,飞桨框架3.0能够支持众多开源大模型进行高性能推理,并在DeepSeek-V3/R1上取得了突出的性能表现。

目前,飞桨框架3.0支持文心4.5、文心X1等多款主流大模型,DeepSeek-R1满血版单机部署吞吐提升1倍。通过技术算法创新,飞桨让低时延、高吞吐、低算力成本的推理服务成为现实。

在科学智能领域,飞桨框架3.0锚定科学前沿探索需要,提升微分方程求解速度。通过高阶自动微分和神经网络编译器技术,加速微分方程求解,速度比PyTorch开启编译器优化后的2.6版本平均快115%。飞桨还对DeepXDE、Modulus等主流开源科学计算工具进行了广泛适配,并成为DeepXDE的默认推荐后端。其展现的科学智能潜力在气象预测、生命科学、航空航天等领域具有广泛的应用价值。

此外,在运算速度上,借助创新研制的神经网络编译器CINN,实现性能的显著提升,部分算子执行速度提升4倍,模型端到端训练速度提升27.4%。

在硬件适配方面,飞桨框架3.0推出了多芯片统一适配方案,构建“一次开发,全栈部署”的生态体系。目前已支持60余款主流芯片,覆盖训练集群、自动驾驶、智能终端等场景,开发者只需编写一份代码即可实现跨芯片无缝迁移,硬件适配成本直降80%。

截至2024年10月,飞桨文心生态已凝聚1808万名开发者,服务了43万家企事业单位,创建了101万个模型。

行业新闻
《共德IT商家大全》202 2025/3/27
希捷酷狼NAS社区、极空间 2023/12/29
智变·同行 2023/12/19
跨越·不设限---让美好发 2023/8/19
我国成功实现碳-14全产业 2025/7/18
我国发现新稀土矿物“钕黄河 2025/7/18
华为全联接大会 2025将 2025/7/18
华为宣布将在2025 世界 2025/7/18
攻克我国量子计算芯片生产难 2025/7/17
中央第四指导组围绕整治利用 2025/7/17
技术平台
专业音响系统在使用时需注意 2020/10/14
Wi-Fi信道就像高速公路 2020/8/1
透明LED显示屏选购指南 2020/7/22
如何打造小影厅的高品质声音 2020/7/22
COB显示屏及LED显示屏 2020/6/3
路由器可以一直不关还是需要 2020/6/1
LED透明屏与LED玻璃屏 2020/5/16
买音响五点基本须知 2020/4/17
家用投影机亮度应该怎样选择 2020/4/17
高清矩阵切换器无缝切换不黑 2020/4/16
版权所有:共德IT网 www.gongdeit.com
鲁ICP备14019688号