英偉達推出 AI 代工業(yè)務(wù):為客戶(hù)定制部署“超級模型”
IT之家 7 月 24 日消息,英偉達公司昨日(7 月 23 日)發(fā)布新聞稿,正式推出“NVIDIA AI Foundry”代工服務(wù)和“NVIDIA NIM”推理微服務(wù)。
“NVIDIA AI Foundry”代工服務(wù)
英偉達表示客戶(hù)可以使用 Meta 的 Llama 3.1 AI 模型,以及英偉達的軟件、計算和專(zhuān)業(yè)知識,為特定領(lǐng)域定制構建“超級模型”。
客戶(hù)可以利用專(zhuān)有數據、由 Llama 3.1 405B 和英偉達 Nemotron Reward 模型生成的合成數據來(lái)訓練這些“超級模型”。
NVIDIA AI Foundry 由 NVIDIA DGX? Cloud AI 平臺提供支持,該平臺與世界領(lǐng)先的公共云共同設計,為企業(yè)提供大量計算資源,并可根據 AI 需求的變化輕松擴展。
NVIDIA AI Foundry 包括 Nemotron 和 Edify 等英偉達創(chuàng )建的 AI 模型、流行的開(kāi)放式基礎模型、用于定制模型的 NVIDIA NeMo? 軟件,以及 NVIDIA DGX? Cloud 上的專(zhuān)用容量(由 NVIDIA AI 專(zhuān)家構建并提供支持)。
輸出結果由 NVIDIA NIM(一個(gè)推理微服務(wù),其中包括定制模型、優(yōu)化引擎和標準 API)負責,可以部署到任何地方。
NVIDIA NIM 推理微服務(wù)
IT之家注:NVIDIA NIM 是一套加速推理微服務(wù),允許企業(yè)在云計算、數據中心、工作站和 PC 等任何地方的 NVIDIA GPU 上運行 AI 模型。
通過(guò)使用行業(yè)標準的 API,開(kāi)發(fā)人員只需幾行代碼就能利用 NIM 部署人工智能模型。N(xiāo)IM 容器無(wú)縫集成 Kubernetes(K8s)生態(tài)系統,可以高效地協(xié)調和管理容器化人工智能應用。
參考