Slide
Slide
Slide
Hitachi_AI_HCI
Hitachi_HCI
HCI
previous arrow
next arrow

美光推綜合AI開發 存儲芯片優化推理

Micron執行副總裁Sumit Sadana:DLA可拉近算力和記憶體,令AI推動性能更好,功耗更低。

新科技速遞

記憶體廠商美光科技(Micron)推出全球最快的SSD固態硬碟X100之後,再宣佈收購另一家人工智能初創FWDNXT,並推出高性能的深度學習軟硬件工具。

上述工具針對IoT及邊緣運算,也就是為AI模型提供推論(Inference)。Micron結合高速記憶、運算工具、軟件,變成通用的AI開發平台。Micron正積極開發針對記憶體優化的AI運算平台,

Micron執行副總裁Sumit Sadana表示,FWDNXT可以通過極為簡單易用的軟件架構,迅速建立邊緣的AI方案。FWDNXT鎮的機器學習推論引擎開發已經進入第5代,結合Micron在記憶體技術的專長,可以為極之複雜的邊緣AI開發創新方案。

Micron收購FWDNXT後的推理引擎後推出了Deep Learning Accelerator(DLA)平台。Sadana表示,DLA可拉近算力和記憶體,令AI推動性能更好,功耗更低。DLA也會提供容易上手的編程平台,並支援多項機器學習框架和神經網絡,而且可以在短時間內處理大量的數據。

Micron的 DLA 技術可處理海量資料,將其轉化為洞察,並促進創新。Micron正跟美國俄勒岡健康及科學大學研究人員合作, DLA 上運行卷積神經網路(CNN)處理和分析3D電子顯微鏡圖像,研究癌症治療的新方案。Micron也在跟研究核子科學的學術組織物理學家合作,以DLA建立CNN的深度學習模型,可近乎對高能粒子碰撞結果進行實時分類,並且檢測罕見粒子的存在和相互作用。

較早前,Micron委託了研究機構Forrester訪問建構人工智能工程師,顯示開發人工智能系統時,首要考慮並非運算,而是如何打造記憶體與儲存架構,滿足龐大運算需求。超過九成受訪者說,記憶體與儲存架構,關係到開發人工智能系統的成敗,數據吞吐量的重要性,比運算更高,算力與記憶體間的距離必須縮短,或者稱為內存運算(In memory Computing),近年Redis等方案大行其道,推動了高性能運算。

以視覺運算為例,記憶體讀寫每秒也達150-300 GB。汽車將會像飛機一樣,備有黑盒子記錄片段,錄下車內外狀況,不斷重視寫入,對記憶體與儲存效能與耐用性,也是極大考驗。

人工智能的邊緣運算,正改變芯片AI化,除了傳統的CPU以外,用於AI還有GPU、FPGA、TPU和SOC其他專用芯片ASIC相繼出現。不少芯片針對AI優化與記憶體的連接。Micron提供了不同的記憶方案,從低延遲DRAM、高頻寬NVDIMM 記憶體、新一代3D XPoint,大容量儲存方案TLC NAND SSD及QLC NAND SSD等;加上價格下跌,短期內會將傳統硬盤趕出市場,Micron也大舉投資,迎接下一波的運算革命。

Leave a Reply

Your email address will not be published. Required fields are marked *