進階互聯加速 5G MEC 線路速率
即時娛樂活動與運動賽事的主辦單位,一直以來都在尋找更能令觀眾和粉絲身歷其境的虛擬體驗。5G 將會是實現這個目標的一大關鍵,但是在此之前,我們必須建立新的網路基礎架構。
很多時候,這樣的新基礎架構會以多接取邊緣運算(MEC)為基礎。MEC 是一種 ETSI 標準,能將網路、運算、儲存、安全防護與其他資源移到更接近邊緣的位置。由於 5G 要求的頻寬較上一代大幅增加,具備即時無線訊息存取網路資訊能力的 MEC,勢必能提供延遲低於任何同級雲端處理程序的服務。
MEC 架構的關鍵優勢,在於能免除邊緣應用程式對於遠端雲端或資料中心的依賴,並在過程中減少延遲、改善高頻寬應用程式效能,並盡量壓低資料傳輸成本。網路平台供應商 AEWIN Technologies 的行銷主管 Benjamin Wang 表示,MEC 能夠節省的成本絕對不僅止於此。
Wang 說:「MEC 的定位非常接近 5G 的基礎核心。只要系統夠強大,就能直接將 5G DU(分散式單元)與 MEC 堆疊整合。這樣一來,就能降低網路基礎架構的需求,節省金費。」
I/O 密集:提升邊緣網路啟用的互聯
話說回來,這些「夠強大」的系統到底是怎樣的系統,與傳統的網路設備又有何差異,能滿足 5G MEC 的需求?
由於 MEC 設備必須提供等同於小型資料中心的運算能力,AEWIN Technologies SCB-1932 網路設備這類多核心的多處理器系統已是不可或缺。該款 AEWIN 裝置能在電信伺服器機架中與其他平台搭配使用,可支援最多 40 個 CPU 核心之雙第 3 代 Intel® Xeon® 可擴充處理器(原名 Ice Lake-SP)。
但是由於 MEC 平台上的資料在 5G vRAN 工作負載或虛擬網路功能(例如防火牆、整合器、路由器)之間大量傳遞,效能瓶頸通常並非處理效能。一般而言,在共享虛擬工作負載的處理器和/或執行互相依存的程序及應用程式的處理器之間傳遞訊息時,所用的晶片與晶片、機架與機架之間的互聯,才是真正的瓶頸。
2017 年之前,Intel® QuickPath Interconnect(Intel® QPI)都是用來在多處理器系統的插槽之間傳遞資料。然而,現今的每秒 100 Gigabit 乙太網路(GbE)和更快的模組,很快就會佔滿 QPI 的可用頻寬。因此,市面上出現了「I/O 密集」的系統,讓異物資料在抵達處理器之前,先受介面限制擠壓,藉此增加延遲。
為了回應這項趨勢,Intel 處理器微架構,配備升級的插槽對插槽介面, 稱為 Intel® Ultra-Path Interconnect(Intel® UPI)。其低延遲、符合快取條件的記憶體 UPI,幾乎將 QPI 速度加至 11.2 GTps,或全雙頻寬 41.6 GBps。
但是 Intel UPI 只解決了晶片對晶片的資料傳輸問題,無法處理板架對板架或機架對機架的通訊問題。而每通道支援約 16 GTps 傳輸量的 PCI Express((PCIe)4.0 正能彌補這個缺口。將技術調整至符合其速度後,Intel 從 2020 年開始將 PCIe 4.0 納入第 3 代 Xeon 可擴充處理器等產品的設計。
因此,SCB-1932 這類系統中的資料,可以傳送至八個前端存取擴充槽中的任何一個,用於外掛 NVMe 儲存、應用程式特定加速器,或 PCIe Gen 4 的網路擴充模組(圖 1)。平台的 8 個 PCIe 4.0 x8 通道,能以 100 Gbps 的速度將資料傳輸至這些模組。
這些現代介面使 SCB-1932 這類系統得以跟上 MEC 部署的要求,藉此為安全防護、影片處理等高需求的應用程式提供接近線路速率的效能。
由下而上的演變:確保資料持續流動
5G 效能提升不僅適用於一般消費者:現在無論是公司行號、體育場、醫學中心還是生產廠房,都開始採用低延遲的配置,來支援新的應用程式與服務。使用案例包括高速影片串流、擴增和虛擬實境,以及即時生物特徵辨識。這些應用都讓生活變得更有效率、更輕鬆,但也全都需要全新層級的邊緣網路效能才能實現。
隨著 MEC 逐漸普及,只要 SCB-1932 這些設備能保持低延遲的資料流動,我們應該會持續看到這類和更多新應用程式類型出現。從處理器介面這種最基本的連線技術開始,由下而上帶來改變。