突破世紀難題,我國成功研制出這一芯片!發表時間:2025-10-16 10:24 近日,北京大學人工智能研究院孫仲研究員團隊聯合集成電路學院研究團隊,成功研制出一款基于阻變存儲器的高精度、可擴展模擬矩陣計算芯片。
該芯片首次在精度上達到可與數字計算媲美的水平,將傳統模擬計算的準確度提升了五個數量級,并實現了24位定點精度。
這一成果意味著我國科研團隊在模擬計算領域實現了真正意義上的突破,也為后摩爾時代的計算架構轉型提供了全新的技術方向。
相關成果已發表于國際頂級學術期刊《Nature Electronics》。(期刊鏈接:使用電阻式隨機存取存儲器芯片求解精確且可擴展的模擬矩陣方程 |自然電子)
![]() 圖源:AI生成
傳統的模擬計算雖然速度快,但精度低、難擴展。精度一直模擬計算的核心瓶頸,長期以來被認為是全球性的世紀難題。
數字計算憑借高精度和可編程性逐漸占據主導地位,但它的計算速度受到“內存墻”限制,算力密度與能效提升空間有限,已成為人工智能、科學計算和6G通信等高負載任務的瓶頸。
為了打破這一困局,孫仲團隊提出了一種融合創新的新方案。
他們結合模擬低精度矩陣求逆與高精度矩陣向量乘法運算,構建出基于阻變存儲器陣列的高精度、可擴展全模擬矩陣方程求解器。
這一架構采用晶圓廠制造的三位阻變存儲芯片,并通過分塊矩陣算法實現24位定點精度,相當于32位浮點數(FP32)精度。
在實驗中,芯片成功完成了16×16矩陣求逆運算,矩陣方程求解經過10次迭代后,相對誤差可低至10??量級。僅需三次迭代即可達到與FP32數字處理器相當的精度表現。
![]() 圖源:期刊正文
性能方面的提升同樣令人驚訝。測試顯示,在求解32×32矩陣求逆時,這款芯片的算力已超越高端GPU的單核性能,當矩陣規模擴大至128×128時,計算吞吐量更是達到頂級數字處理器(GPU)的1000倍以上,能效提升超過100倍。
換句話說,傳統GPU干一天的活,這顆芯片一分鐘就能完成。
未來的6G通信中,該芯片能讓基站以更低的能耗實時處理海量天線信號,顯著提升網絡容量與能效;在人工智能領域,它有望加速大模型訓練中計算密集的二階優化算法,顯著縮短訓練時間。
同時,這種低功耗特性使其具備在終端設備上直接運行復雜AI模型的能力,減少對云端算力的依賴,推動邊緣計算向更高階段發展。
![]() 圖源:期刊正文
除了北大的突破外,復旦大學團隊也傳來捷報。
他們研發出全球首顆二維-硅基混合架構芯片,相關成果發表在《Nature》雜志上。這款芯片將二維超快閃存與成熟的CMOS工藝深度融合,攻克了二維信息器件工程化和存儲速率的技術難題,首次實現了混合架構的工程化流片。(原文:通過系統集成實現的全功能 2D 閃存芯片 |自然界)
根據復旦大學的介紹,這顆芯片的性能“碾壓”當前的Flash閃存技術,全片測試顯示支持8位指令操作、32位并行與隨機尋址,良率高達94.34%,展現出極強的工程落地能力。 |