CPU 核心數量之爭又再揭起戰幔! Intel 最近發表 Cascade Lake 的 第 2 代 Xeon Scalable Processors ,為伺服器及數據中心專用的伺服器,由 Xeon Bronze、Silver、Gold 到 Platinum 一口氣推出 50 款新型號,當中以頂級的 Xeon Platinum 9282 最為矚目,因為它竟搭載 56 核心、 112 線程!線程數量過百,終於從上次被 AMD 32 核 Threadripper 2900WX 褫奪光環的敗戰中,再次吐氣揚眉,比 AMD 伺服器系列的 32C / 64T EPYC 7601 威風得多~

Intel Xeon Platinum 9282 的時脈為 2.6 – 3.8GHz ,搭載高達 77MB L2 Cache ,支援 12 通道 DDR4-2933 RAM ,具備 4 條 Intel UPI( Ultra Path Interconnect )高速互連匯流排, TDP 為 400W 。適合作高效能運算( HPC / High Performance Computing )、 AI 人工智能、以及高密度( High Density )伺服器。




針對深度學習應用
而其他新款 Xeon Scalable Processors 在核心數量和時脈方面,固然有所改進,並增設了 Intel Deep Learning Boost ( Intel DL Boost )技術,來加速人臉辨識、物件辨識及圖像分割等 AI 深度學習的工作,並針對 TensorFlow 、 PyTorch 、 Caffe 、 MXNet 及 Paddle Paddle 這五款深度學習框架( Framework )優化。另外,新一批 Xeon CPU 也支援革命性的 Intel Optane DC Persistent Memory ,可比喻為 DDR4 RAM 槽的極速 SSD ,將常用資料儲存於此「 Optane DIMM 」,就可令存取速度猶如 RAM 那麼快,大幅提升系統效能。至於去年的 Spectre 及 Meltdown 安全漏洞災難,新一批 Xeon CPU 也從硬體層面徹底根治問題,對比上一代 CPU 單純用軟件修正,效能會更快。

Source:Intel