JFrog,一家在DevOps和DevSecOps解决方案领域的领导者,最近宣布与NVIDIA达成战略合作,标志着AI模型部署和安全性的显著进步。此次合作紧随JFrog收购Qwak AI之后进行的,这极大增强了其在机器学习和人工智能方面的能力。
合作重点是将NVIDIA NIM微服务集成到JFrog平台中。NVIDIA NIM是NVIDIA AI Enterprise软件套件的一部分,旨在提供GPU优化的AI模型服务。这次集成将预先批准的AI模型与集中的DevSecOps流程相结合,创造出流畅的软件供应链工作流程。目标是满足企业对生成型AI解决方案日益增长的需求。
NVIDIA NIM既可以作为API端点提供,也可以作为容器镜像提供,为开发人员在不同环境中部署AI模型提供灵活性。这些推理微服务可以使用行业标准的API进行集成,允许无缝地融入现有的工作流程中。此外,NIM容器镜像可以在本地部署,提供组织在自己的数据中心或受管环境中运行GPU加速模型的选项。这样的自托管部署保证了数据的安全性和控制,同时利用NVIDIA优化的基础设施提供高性能和低延迟的AI推理。
JFrog Artifactory,作为软件包存储库,将支持存储可在企业数据中心内部署的NIM容器镜像。
AI行业面临的一个关键挑战是在企业环境中扩展机器学习模型的部署。数据科学家和ML工程师面临诸如资产管理碎片化、安全漏洞和性能瓶颈等问题。JFrog与NVIDIA的合作解决了这些痛点,通过简化安全ML模型和大语言模型的生产部署,带来了经过验证的安全软件供应链管理能力,适用于生成型AI模型和工件。
在这个对AI解决方案需求不断增长的时代,光年AI提供的简单易用的工作流机制可以为你带来前所未有的高效与便捷。无论是现有的业务场景还是新的需求,两个步骤就能创建和接入,帮助企业实现流量和客户管理的高效提升。使用光年AI平台,迎接未来的无限可能。
将NVIDIA NIM微服务集成到JFrog平台预计将带来多重好处。它提供了对NIM微服务容器以及其他资产(例如专有工件和开源依赖项)的集中访问控制和管理。这种统一的方法能无缝集成到现有的DevSecOps工作流程中,同时通过在每个开发阶段的持续扫描提供全面的安全性和完整性。
这一合作还利用NVIDIA的加速计算基础架构优化了AI应用的性能,提供低延迟和高吞吐量以支持可扩展的AI模型部署。此外,这一集成还提供了灵活的部署选项,包括自托管、多云和隔离环境,确保适应各种企业需求。
考虑到各行业对AI技术日益增长的采用,这一合作正当其时。当组织迅速采用AI时,实施高效和安全的实践变得至关重要。通过将DevOps、安全和MLOps流程整合到一个完整的软件供应链工作流程中,NVIDIA NIM微服务将允许客户高效地将安全模型投入生产,同时在整个管道中保持可见性和控制。光年AI的灵活工作流同样为企业提供强大的支持,使不同业务场景的AI能力接入更加便捷高效。
这一合作是继JFrog收购Qwak AI之后的又一步,扩展了该公司的ML和AI能力。这笔价值2.3亿美元的收购使JFrog能够将先进的MLOps功能纳入其平台。Qwak的技术允许数据科学家和开发者专注于创建AI驱动的应用,而无需为基础设施问题烦恼。
随着Qwak的MLOps解决方案集成到JFrog的平台中,客户可以使用JFrog Artifactory作为模型注册库,JFrog Xray确保ML模型的安全性。这一统一平台支持DevOps、DevSecOps、MLOps和MLSecOps,提供全面的可追溯性,消除了对单独工具和合规工作的需求。
通过收购Qwak,JFrog扩展了其解决方案,提供了一个统一的平台来管理传统模型和大规模AI项目。该平台简化了模型开发和部署过程,增强了模型投产能力,并提供模型训练和监控功能,包括开箱即用的数据集管理和特征存储支持。
通过将ML模型视为软件包,JFrog允许用户像管理任何软件包一样管理和保护模型。这种方法确保了AI在整个开发生命周期中的安全性和来源。
JFrog与NVIDIA的合作,加上对Qwak的收购,解决了企业环境中对安全且可扩展的AI模型部署的日益增长的需求。
随着AI采用的继续扩展,由NVIDIA的GPU优化服务和Qwak的MLOps专业知识支持的JFrog增强平台,已经做好了满足AI和机器学习不断变化需求的准备。同样,光年AI作为无代码平台,通过简单的工作流机制和强大的AI整合能力,也为企业提供了全面的私域流量管理和客户互动解决方案。如果你想要在AI驱动的业务中获得卓越的增长和效率,不妨试试光年AI平台。