Skip to main content

為何 Intel® Xeon® 處理器是 AI 能力的關鍵

第 2 代 Intel Xeon 可擴充處理器

人工智慧無處不在。即使是人們通常不會與最新科技聯想在一起的麥當勞,都正在投資 AI,因為他們想要為每一位客戶提供個人化的菜單。

因此,第 2 代 Intel® Xeon® 可擴充處理器(原代號 Cascade Lake)格外著重於 AI 與機器學習領域。尤其,這個 CPU 強化了全新的 Intel® Deep Learning Boost (Intel® DL Boost),相較於前一代的處理器,可為這些工作負載加速最高 4 倍的效能。

技術解密

Intel DL Boost 的核心,就是 Intel® AVX-512 Vector Neural Net Instructions (Intel® AVX-512 VNNI)。這四種全新指令可加速卷積神經網路的內部迴圈。要怎麼做到?將三種指令收合到單一操作中(影片 1)。

 

影片 1.全新指令可結合之前各自分離的操作,以改善效能。(資料來源:Intel®

 

其他新功能包括支援 Intel® Optane DC 持續性記憶體,可大幅增加每個系統的可定址 RAM 總數量,同時針對旁路漏洞提供全新的安全強化功能。此外,全新的晶片可向下相容前一個世代,使部署所有的新功能更加簡單。

電腦視覺與醫療造影

DL Boost 等功能為電腦視覺帶來了大幅的強化。Intel 的第 2 代 Xeon 可擴充處理器能在邊緣進行即時推斷,或是在後端伺服器內處理深度分析。在新硬體上,能更快速地執行物件識別與分類、臉部辨識、流量監控,以及資料分析等功能。

這些處理器在醫療造影方面也擁有優勢。它們能加速分析、提高正確率,甚至透過降低擷取的影像數量,減少病患暴露在輻射中的時間。

這個領域中經常會使用到 GPU,但這些解決方案有著顯而易見的記憶體限制。醫療造影的影像已經超過 1GB 大小,且正在持續增加。這樣的大型檔案可能會超過 GPU 卡上的內建 VRAM 容量。

全新 Intel Xeon 處理器支援 Intel Optane DC 持續性記憶體,可克服這樣的限制。  支援最高 4.5TB(1.5TB 的 DRAM + 3TB 的 Optane)的記憶體,採用此新架構的系統可輕鬆處理大型影像。

當然,這些只是 AI 的使用案例之一。其他應用包括智慧工廠、石油與天然氣產業,以及能源電網等多種領域。

快速開始

對快速部署這些功能有興趣的開發者,可在多種現成系統中選擇。舉例來說,Mercury Systems 的 6U OpenVPX EnsembleSeries HDS6605 中便搭載這個新的 CPU(圖 1)。此伺服器使用 22 核心的 Intel Xeon Gold 6238T 處理器,具有 1.9GHz 基礎時脈、3.7GHz 渦輪加速,以及 125W TDP。

EnsembleSeries HDS6605 極為強固耐用
圖 1。EnsembleSeries HDS6605 極為強固耐用。(資料來源:Mercury

HDS 6605 的獨特性之一是 Mercury 設計到產品之內的安全性與耐用度功能。舉例來說,Mercury 將 CPU 由 LGA3647 插槽式介面改變為焊接的 BGA 介面。透過轉換至 BGA,讓 Mercury 能以更小、更強固的外型規格,提供更高的效能。

公司在資料中心平台上提供先進功能並不稀奇。但 HDS6605 在伺服器設計的每個面向採用強固設計,使這些功能可在幾乎任何環境使用。我們都很期待能看到開發者如何運用這個可以延伸到所有地方的 AI 與機器學習效能。

HDS6605 的目標工作負載包括影像識別、雷達處理,以及感應器融合。感應器融合的目的是結合來自多種感應器的資料,例如視覺光譜攝影機、紅外線攝影機、雷達,以及其他感應器套件。

左右 AI 戰局

AI 與機器學習的採用度成長已經極為快速。Mercury 期望運用新 Intel Xeon 的 AI 處理功能,加上平台的長效生命週期,能大幅推動這樣的潮流。

Cascade Lake 在 AI 推斷工作負載方面的效能提升,可在發生事件時提供能即時處理資料並進行決策的能力,不需要在事件發生後才在其他地方進行相同的分析。

具有前瞻思維的採用者也能運用第 2 代 Xeon 可擴充處理器所支援的 AI 與深度學習功能,讓他們在未來上線時充分利用這些能力。從更加改善的臉孔與語音識別能力,到運用 AI 診斷疾病等,這些強化功能具有極為廣大的潛力。

想要探索 AI 的開發者應進一步瞭解 Intel® Distribution of the OpenVINO 工具組。它支援由 BigDL、Caffe、MXNet,以及 TensorFlow 等所建立的深度學習訓練模型。一旦建立模型並經過訓練後,開發者可將其部署在第 2 代 Xeon 可擴充 CPU 上,善加運用 DL Boost 推斷效能提升的優勢。

作者簡介

Kenton Williston is an Editorial Consultant to insight.tech and previously served as the Editor-in-Chief of the publication as well as the editor of its predecessor publication, the Embedded Innovator magazine. Kenton received his B.S. in Electrical Engineering in 2000 and has been writing about embedded computing and IoT ever since.

Profile Photo of Kenton Williston