会员登录 - 用户注册 - 设为首页 - 加入收藏 - 网站地图 英特尔发布Project Battlematrix推理工作站软件更新!

英特尔发布Project Battlematrix推理工作站软件更新

时间:2025-08-26 18:41:18 来源:引喻失义网 作者:综合 阅读:295次

英特尔发布Project Battlematrix(战斗阵列)推理工作站软件更新,英特并计划在第三季度末发布功能更全面的推理强化版LLM Scaler。

今年5月,工作英特尔发布了代号为Project Battlematrix(战斗阵列)的站软推理工作站。推理工作站具有广阔的英特发展前景,主要表现在:一是推理安全部署,数据可在本地进行处理;二是工作易于设置,将所有软件置于容器中,站软提供一站式解决方案;三是英特易扩展,可灵活配置不同数量的推理显卡;四是在成本效益上具有显著优势。Project Battlematrix推理工作站最多可支持八块英特尔锐炫 Pro B60 24GB GPU,工作提供高达192GB的站软VRAM,运行高达1500亿参数的英特中等规模且精度高的AI模型。

英特尔采用容器化方案来帮助客户解决软件部署的复杂性问题。在容器内部,工作对大语言模型进行了大量的优化,包括Linux软件栈的支持、验证以及分阶段的软件发布。基于全新的推理优化软件栈,Project Battlematrix还能够简化英特尔锐炫Pro B系列GPU的部署,加速英特尔GPU和AI战略的落实。

全新的软件栈在设计时充分考虑了易用性和行业标准,是专为Linux环境构建的容器化解决方案。经过优化,该方案能够借助多GPU扩展和PCIe P2P数据传输,带来卓越的推理性能。与此同时,该方案还具备企业级的可靠性和可管理性,如ECC、SRIOV、遥测和远程固件更新等。

LLM Scaler容器1.0版本对于前期客户支持至关重要,英特尔进行了以下更新:

vLLM:

·针对长输入长度(>4K)的TPOP性能优化:在32B KPI模型上,40K序列长度的性能提升高达1.8倍;在70B KPI模型上,40K序列长度的性能提升高达4.2倍

·与上一版本相比,8B-32B KPI模型的输出吞吐量性能优化约10%

·逐层在线量化,减少所需的GPU内存

·支持vLLM中的PP(流水线并行)(实验性)

·支持torch.compile(实验性)

·推测解码(实验性)

·支持嵌入和重排序模型

·增强的多模态模型支持

·最大长度自动检测

·数据并行支持

OneCCL基准测试工具支持

XPU Manager:

·GPU功耗

·GPU固件更新

·GPU诊断

·GPU内存带宽

英特尔表示此版本将按照5月初发布时公开的时间表顺利交付,并计划在第三季度末发布功能更全面的强化版LLM Scaler,同时积极争取在第四季度发布完整版本。

(责任编辑:娱乐)

相关内容
  • 能见度200米 郑州机场航班也能正常起飞了
  • 輝達財報後大跌| 股災反彈快,分析師警告:不要太放心|天下雜誌
  • 农业路高架跨铁路施工 今年底将全线通车
  • 一张图:2025年8月18日黄金原油外汇股指“枢纽点+多空持仓信号”一览
  • 卡佩拉:防守浓眉是个很大挑战 我会努力缠住他
  • 5日NBA:JR有望四月复出 比尔拒绝三分大赛邀请
  • AIoT智能体崛起:物联网正塑造AI在实体世界的运行框架
  • AIoT智能体崛起:物联网正塑造AI在实体世界的运行框架
推荐内容
  • 爱奇艺啪啪奇停服腾讯微视关闭 短视频应用潮并未减退
  • 勇士老板自曝被乔丹当面嘲讽:73胜无冠毫无价值
  • 伦纳德缺阵卡特4盖帽抢镜 马刺得分新低负灰熊
  • 50平米旧房装修指南
  • 卡佩拉:防守浓眉是个很大挑战 我会努力缠住他
  • 湖北恩施跪爬过街视频热传 摄影工作室员工内训被罚跪街