有效率地監控和管理模型以確保相容性,並支援模型部署和推論。
透過 NVIDIA Inference Microservices (NIM) 自動化部署生成式 AI 推論應用程式。
存取開放原始碼堆疊,包含專為 AMD Instinct 加速器而設計的驅動程式、開發工具組及 API。
利用開放原始碼工具組來最佳化和部署 AI 推論。
透過 AI 協調平台,將 GPU 使用率最大化。
透過可消弭資料孤島並簡化架構的單一平台,從資料中獲得更多價值。