• 首页 > 正文
  • F5携手NVIDIA全面增强AI时代的性能、多租户与安全能力

  • 2025-07-09 17:20:33 
  • Sesterce的验证成果彰显了F5与NVIDIA的协同创新实力,助力客户释放 AI 优先的应用交付价值

    巴黎,202579  全球领先的应用交付和API安全解决方案提供商F5(NASDAQ:FFIV),日前宣布F5 BIG-IP Next for Kubernetes推出全新功能。该解决方案深度整合NVIDIA BlueField-3 DPU以及NVIDIA DOCA软件框架,并已通过欧洲客户Sesterce的实际部署验证。Sesterce是欧洲领先的新一代基础设施及主权人工智能(AI)运营商,致力于满足加速计算与AI发展的严苛需求。

    作为对F5应用交付与安全平台(F5 Application Delivery and Security Platform)的进一步扩展,BIG-IP Next for Kubernetes现可原生运行于NVIDIA BlueField-3 DPU,为大规模AI基础设施提供高性能流量管理与安全防护,从而显著提升AI应用的运行效率、控制能力与性能表现。今年早些时候,F5 曾在该解决方案正式发布时公开普遍可用性并展示其卓越性能优势。如今,Sesterce已完成对该联合解决方案多项关键能力的验证,涵盖以下领域:

    ●性能、多租户能力安全性全面增强:达到云级应用交付标准,初步测试显示GPU利用率提升达20%;

    集成NVIDIA DynamoKV Cache Manager:显著降低大语言模型(LLM)推理系统延迟,并优化GPU与内存资源利用率;

    基于BlueField DPULLM智能路由:与NVIDIA NIM微服务协同运行,支持多模型工作负载,帮助客户灵活调用最优模型;

    模型上下文协议(MCP)扩展与安全防护:通过反向代理功能与安全防护机制,提升LLM的可扩展性与安全性,助力客户快速、安全地利用MCP服务器的强大效能;

    强大的数据可编程能力:依托F5 iRules实现快速定制化开发,以满足AI应用及日益演进的安全需求。

    Sesterce首席执行官兼联合创始人Youssef El Manssouri表示,“早在尚未进行任何测试前,F5与NVIDIA的集成方案就展现出令人瞩目的潜力。通过在AI环境中实现高吞吐量的Kubernetes入口与出口流量,我们的测试结果印证了F5动态负载均衡技术的卓越优势。该解决方案不仅提升了流量分发效率,优化了GPU资源利用率,同时也使我们能够为客户提供更多差异化价值。我们很高兴地看到F5正不断拓展对NVIDIA多样化应用场景的支持,包括增强型多租户功能。我们期待双方在下一代AI基础设施领域持续深化合作,推动更多技术创新。”

    全新解决方案的核心能力价值包括:

    基于BIG-IP Next for Kubernetes的大语言模型路由与动态负载均衡

    借助该联合解决方案,企业可将简单的AI相关任务路由至成本更低、更轻量级的LLM以支持生成式AI,同时将更复杂的查询留给性能更强大的高阶模型处理。该可定制化的智能路由机制还支持按领域调用特定 LLM,从而提升输出质量并显著改善客户体验。F5的先进流量管理技术可确保查询精准分发至最适合的模型节点,从而降低延迟并加快首个词元生成时间。

    F5首席创新官Kunal Anand表示,“当前,企业日益采用多模型架构以打造先进的AI体验,但LLM 流量智能分类与路由计算资源消耗大,易导致系统性能下降并影响用户体验。F5 BIG-IP Next for Kubernetes通过在NVIDIA BlueField-3 DPU上直接编写路由逻辑,提供了业界当前最高效的LLM流量交付与安全解决方案。这仅仅是一个开始——我们的平台正在为AI基础设施释放更多潜能。随着企业级AI规模持续扩大,我们期待未来持续深化与NVIDIA的联合创新。”

    通过NVIDIA DynamoKV缓存集成实现分布式AI推理的GPU优化

    今年早些时候,NVIDIA推出Dynamo框架,旨在为生成式AI与推理模型在大规模分布式环境中的部署提供支撑。通过统一调度、流量路由和内存管理等核心任务,NVIDIA Dynamo有效简化了分布式环境中AI推理的复杂性,确保其在动态工作负载下的稳定运行。F5与NVIDIA的联合解决方案的核心优势之一,是将部分计算操作从CPU卸载至BlueField DPU,从而显著提升整体效率。借助F5技术,Dynamo KV Cache Manager可基于容量智能路由请求,并通过键值(KV)缓存机制,显著加速生成式AI应用的响应速度。该机制通过复用历史运算信息,避免重复计算,显著降低资源开销。就基础架构而言,企业通过KV缓存存储与复用机制,相比直接占用GPU昂贵的内存资源,能以更低成本实现性能优化。

    NVIDIA AI网络与安全解决方案生态系统及市场营销高级总监Ash Bhalgat表示,“采用NVIDIA BlueField-3 DPU加速的BIG-IP Next for Kubernetes,为企业与服务提供商提供了单点控制,助力AI工厂实现高效GPU利用率,并加速数据摄取、模型训练、推理、检索增强生成(RAG)及代理式AI等各类 AI 流量处理。此外,F5对多租户的支持以及iRules可编程性方面的持续优化,为未来进一步集成NVIDIA Dynamo分布式KV Cache Manager等先进特性打下了坚实基础。”

    F5NVIDIA联合强化MCP服务器安全防护能力

    MCP是由Anthropic推出的一项开放协议,旨在标准化应用向LLM提供上下文信息的方式。通过在MCP服务器前端部署F5与NVIDIA联合解决方案,F5可充当反向代理,从而增强MCP解决方案及其所支持LLM的安全能力。同时,F5 iRules提供的全数据可编程能力,能够快速并灵活地响应AI协议的快速演进需求,并进一步抵御新兴网络安全风险。

    World Wide Technology全球服务提供商高级副总裁Greg Schoeny表示,“实施代理式AI的企业日益依赖MCP部署来提升LLM的安全性与性能。F5与NVIDIA通过为大规模Kubernetes环境提供先进的流量管理与安全防护能力,打造了融合可编程性与自动化能力的AI 功能集,这一集成解决方案目前在业界尚无先例。”

    基于NVIDIA BlueField-3 DPU平台部署的F5 BIG-IP Next for Kubernetes现已全面上市。

    如需了解更多技术细节与部署优势,请访问www.f5.com,更多详细信息亦可参阅F5发布的配套技术博客

    责任编辑:yuan

    扩展阅读:

  • 自重7.9吨 采埃孚AMT变速箱助阵 欧曼煤炭专用车能
  • 自动挡重卡到底香不香?看欧曼全系产品如何布局AMT
  • 自动挡 560国六发动机 新款欧曼EST-A能否开启重卡
  • 什么样的牵引车才适合冷链干线运输场景?
  • 欧曼全系自动挡新品上市 引领中国重卡行业迈向自
  • 2019蓝色港湾灯光节璀璨启幕 热带风情灯光装置点
  • 为什么75%的用户都选欧曼自动挡重卡?
  • 齐鲁建设投资平台首届高峰论坛暨2020年年会圆满举
  • Gartner®2025生成式AI工程市场权威认证:SAS当选“
  • HPE推出全新分布式服务交换机及有线无线产品组合,
  • 欧宝与宝克力®新作首发:Grandland纯电SUV成为首款
  • 奥乐齐高原“真有机”系列最高降40%,重新定义“高品
  • 世索科扩大常熟工厂特种聚合物改性产能 满足本地
  • 百事公司公布第三届亚太区“绿色加速器项目”十佳
  • 以创新科技引领绿色材料革命,国科海纳携全自然领域
  • 聚焦可再生能源行业交流盛会,RPG2025与你相约10月
  • 财快头条
  • 元宵节抖音上线新春诗会,2300万人次在线同赏唐诗与交响乐融...

  • 智领未来 | 湘江智谷·AI智慧城市客厅开放...

  • 从《蜗居》到《安家》,热播剧教会了我们哪些买房真理?...

  • 全系配套+依河而居,浏河东岸的理想河居...

  • 蓝牌引领:S1超卡畅盈版精准满足城配细分新需求...

  • 本周焦点
    财经排行