F5與英特爾攜手合作簡化AI服務的安全性和交付
F5宣布,將它將應用安全和交付能力功能帶入由英特爾支援的AI部署中。這項新的聯合解決方案結合F5 NGINX Plus提供的卓越安全性和流量管理功能,與Intel OpenVINO 工具套件和基礎設施處理器(IPU)的尖端優化與效能,為高階AI推論提供卓越的保護、可擴展性和效能。
隨著企業愈來愈多地採用AI支援智慧應用和工作流程,高效、安全的AI推論變得至關重要。透過結合可優化並加速AI模型推論的OpenVINO工具套件,與提供強大的流量管理和安全性的F5 NGINX Plus,可以滿足高階的需求。
OpenVINO工具套件簡化幾乎所有不同架構的AI模型的優化過程,以實現一次寫入、隨處部署的能力。對於開法者來說,這是創建可擴展且高效的AI解決方案的關鍵,且只需進行最少的程式碼變更。
F5 NGINX Plus增強這些AI模型的安全性和可靠性。 NGINX Plus作為反向代理來管理流量、確保高可用性並主動提供運作的狀態檢查。它還支援SSL終止和mTLS加密,在不影響效能的情況下,保護應用和AI模型之間的通訊。
為了進一步提高效能,Intel IPU從主機CPU中卸載基礎架構服務,釋放資源提供AI模型伺服器使用。 IPU 有效管理基礎架構任務,進而提升NGINX Plus和OpenVINO模型伺服器的可擴充性和效能。
這一整合解決方案特別適用於視訊分析和物聯網等邊緣應用,其中低延遲和高效能是應用的關鍵。透過在Intel IPU上執行NGINX Plus,此解決方案有助於確保快速可靠的回應,使其成為內容交付網路和分散式微服務部署的理想選擇。
F5首席技術長Kunal Anand表示,與英特爾合作使F5能夠突破AI部署的界限。此次合作彰顯F5致力於創新的承諾,並提供安全、可靠且可擴展的AI推論解決方案,使企業能夠安全、快速地提供AI服務。我們的組合解決方案確保企業能夠以卓越的效能和安全性來利用AI的力量。
英特爾網路與邊緣集團首席技術長Pere Monclus指出,利用Intel IPU和OpenVINO工具套件的尖端基礎設施加速功能,結合F5 NGINX Plus,可以幫助企業在多個垂直市場和工作負載中,實現簡化、安全與高效的創新AI推論解決方案。