隨著生成式 AI 不斷發(fā)展,基準(zhǔn)顯然需要一套對廠商中立的測試性能基準(zhǔn)。由產(chǎn)業(yè)人士和學(xué)術(shù)界組成的發(fā)表開放工程聯(lián)盟(MLCommons)自 2018 年推出 MLPerf 基準(zhǔn)測試,是英特I硬衡量機器學(xué)習(xí)性能、提高科技透明度的體性常見指標(biāo),現(xiàn)在 MLPerf 4.0 版本正式頒布。著進
最新 MLPerf Inference v4.0 是基準(zhǔn)自 2023 年 9 月發(fā)表 MLPerf Inference v3.1 以來,針對推論性能再度更新基準(zhǔn)測試,測試在不同硬體和軟體上使用相似資料集和參數(shù)進行測試,發(fā)表產(chǎn)生超過 8,500 個性能結(jié)果。英特I硬
這次套件中包含兩個新基準(zhǔn)測試,體性其中 Llama 2 70B 模型具 700 億參數(shù),著進比 MLPerf Inference v3.1 引進的基準(zhǔn) GPT-J 大一個量級,被用來代表更大的測試大型語言模型。還選擇 Stable Diffusion XL 代表文字生成圖像模型,發(fā)表進行基準(zhǔn)測試能夠計算延遲、生成量等指標(biāo),了解整體性能。
「MLPerf 有助於向買家提供資訊,幫助他們做出決策並了解系統(tǒng)(無論地端系統(tǒng)、雲(yún)端系統(tǒng)還是嵌入式系統(tǒng))如何執(zhí)行相關(guān)工作負(fù)載。」MLCommons 創(chuàng)辦人暨執(zhí)行董事 David Kanter 表示,「如果想要採購一套系統(tǒng)執(zhí)行大型語言模型推論,可以使用 MLPerf 幫助你了解這些系統(tǒng)應(yīng)是什麼樣子。」
過去一年科技產(chǎn)業(yè)發(fā)生許多變化,包括 NVIDIA、英特爾在內(nèi)大型廠商忙於改進硬體和軟體,進一步使推論最佳化。透過 MLPerf Inference v4.0,顯示 NVIDIA 和英特爾技術(shù)皆有顯著進步。
使用 NVIDIA 的 TensorRT-LLM 開源推論技術(shù)下,能夠在 Hopper 架構(gòu)的 H100 GPU 上使用 GPT-J 大型語言模型,使文字摘要的推論性能比 6 個月前提升近 3 倍。H200 GPU 基準(zhǔn)測試首次亮相,使用 Llama 2 進行推論評估時,H200 比 H100 快 45%。至於 NVIDIA 上週在 GTC AI 大會發(fā)表新一代 Blackwell GPU,尚未進行基準(zhǔn)測試。
(Source:NVIDIA)
英特爾在第二代 Gaudi 深度學(xué)習(xí)加速器 Gaudi 2 和第五代 Xeon 可擴充處理器也取得最新基準(zhǔn)測試成果。Gaudi 2 性能結(jié)果雖落後 H100 GPU,但稱它提供更好的成本效益。此外,英特爾是唯一提交基準(zhǔn)測試的伺服器處理器供應(yīng)商,第五代 Xeon 可擴充處理器的性能結(jié)果比第四代平均增加 1.42 倍。
(Source:VentureBeat)
- New AI benchmark tests speed of responses to user queries
- Nvidia triples and Intel doubles generative AI inference performance on new MLPerf benchmark
(首圖來源:pixabay)