隨著生成式 AI 不斷發(fā)展,基準(zhǔn)顯然需要一套對(duì)廠商中立的測(cè)試性能基準(zhǔn)。由產(chǎn)業(yè)人士和學(xué)術(shù)界組成的發(fā)表開放工程聯(lián)盟(MLCommons)自 2018 年推出 MLPerf 基準(zhǔn)測(cè)試,是英特I硬衡量機(jī)器學(xué)習(xí)性能、提高科技透明度的體性常見指標(biāo),現(xiàn)在 MLPerf 4.0 版本正式頒布。著進(jìn)
最新 MLPerf Inference v4.0 是基準(zhǔn)自 2023 年 9 月發(fā)表 MLPerf Inference v3.1 以來,針對(duì)推論性能再度更新基準(zhǔn)測(cè)試,測(cè)試在不同硬體和軟體上使用相似資料集和參數(shù)進(jìn)行測(cè)試,發(fā)表產(chǎn)生超過 8,500 個(gè)性能結(jié)果。英特I硬
這次套件中包含兩個(gè)新基準(zhǔn)測(cè)試,體性其中 Llama 2 70B 模型具 700 億參數(shù),著進(jìn)比 MLPerf Inference v3.1 引進(jìn)的基準(zhǔn) GPT-J 大一個(gè)量級(jí),被用來代表更大的測(cè)試大型語言模型。還選擇 Stable Diffusion XL 代表文字生成圖像模型,發(fā)表進(jìn)行基準(zhǔn)測(cè)試能夠計(jì)算延遲、生成量等指標(biāo),了解整體性能。
「MLPerf 有助於向買家提供資訊,幫助他們做出決策並了解系統(tǒng)(無論地端系統(tǒng)、雲(yún)端系統(tǒng)還是嵌入式系統(tǒng))如何執(zhí)行相關(guān)工作負(fù)載?!筂LCommons 創(chuàng)辦人暨執(zhí)行董事 David Kanter 表示,「如果想要採(cǎi)購一套系統(tǒng)執(zhí)行大型語言模型推論,可以使用 MLPerf 幫助你了解這些系統(tǒng)應(yīng)是什麼樣子。」
過去一年科技產(chǎn)業(yè)發(fā)生許多變化,包括 NVIDIA、英特爾在內(nèi)大型廠商忙於改進(jìn)硬體和軟體,進(jìn)一步使推論最佳化。透過 MLPerf Inference v4.0,顯示 NVIDIA 和英特爾技術(shù)皆有顯著進(jìn)步。
使用 NVIDIA 的 TensorRT-LLM 開源推論技術(shù)下,能夠在 Hopper 架構(gòu)的 H100 GPU 上使用 GPT-J 大型語言模型,使文字摘要的推論性能比 6 個(gè)月前提升近 3 倍。H200 GPU 基準(zhǔn)測(cè)試首次亮相,使用 Llama 2 進(jìn)行推論評(píng)估時(shí),H200 比 H100 快 45%。至於 NVIDIA 上週在 GTC AI 大會(huì)發(fā)表新一代 Blackwell GPU,尚未進(jìn)行基準(zhǔn)測(cè)試。
(Source:NVIDIA)
英特爾在第二代 Gaudi 深度學(xué)習(xí)加速器 Gaudi 2 和第五代 Xeon 可擴(kuò)充處理器也取得最新基準(zhǔn)測(cè)試成果。Gaudi 2 性能結(jié)果雖落後 H100 GPU,但稱它提供更好的成本效益。此外,英特爾是唯一提交基準(zhǔn)測(cè)試的伺服器處理器供應(yīng)商,第五代 Xeon 可擴(kuò)充處理器的性能結(jié)果比第四代平均增加 1.42 倍。
(Source:VentureBeat)
- New AI benchmark tests speed of responses to user queries
- Nvidia triples and Intel doubles generative AI inference performance on new MLPerf benchmark
(首圖來源:pixabay)