DeepSeek推出快速多头潜在注意力机制:显着进步英伟达GPU功率
2025-04-19 来自: 火博登录网站 浏览次数: 1
北京时间2月24日,DeepSeek为其“开源周”揭开了第一项激动人心的效果——FlashMLA(快速多头潜在注意力机制)的开源代码。这一针对于HopperGPU架构(英伟达最新GPU)量身定做的技能,旨在大幅度优化大模型的练习进程。经过引进MLA(多头潜在注意力机制),DeepSeek将大模型的内存需求大幅度下降,这在某种程度上预示着在未来,AI开发者们有望以更低的本钱练习出体现更强壮的模型。
FlashMLA经过聪明的算法优化可变长度序列,渐渐的开端在生产中运用,它能使H800 GPU到达惊人的3000GB/s内存带宽,一起完成580TFLOPS的核算功能。据分析组织上海骊翰科技咨询有限公司的评价,FlashMLA在坚持模型功能的情况下,能将存储100GB中心成果的需求紧缩至仅25GB。这一技能的呈现,不仅为公司能够供给了直接用FlashMLA的时机,还可能敞开AI推理完成更高效的新时代,估计未来千元级的硬件即可支撑起百亿规划的AI模型。
这项突破性技能的发布让人等待,DeepSeek正以其开源精力推进职业的前进,助力更多科技公司进步功率,削减本钱,站在了推进AI革新的前沿。未来的AI开展,将与更为经济的硬件完成更严密的联络,等待FlashMLA的广泛应用能给整个职业带来新的生机与机会。回来搜狐,检查更加多