人人人免费人人专区人人,欧美精品不卡,欧美大片无尺码在线观看,久久精品小视频,成人免费黄色大片,欧美+亚洲+精品+三区

世界首顆AI全自動設(shè)計CPU!中國團隊重磅推出,性能堪比486,規(guī)模提升4000倍

聲明:本文來自于微信公眾號 新智元(ID:AI_era),作者:新智元,授權(quán)站長之家轉(zhuǎn)載發(fā)布。

【新智元導(dǎo)讀】中科院計算所等機構(gòu)推出了世界首個完全由AI設(shè)計的CPU芯片,不僅比目前GPT-4所能設(shè)計的電路規(guī)模大了4000倍,而且性能也達到了與Intel486相當(dāng)?shù)乃健?/p>

中科院計算所的處理器芯片全國重點實驗室及其合作單位,用AI技術(shù)設(shè)計出了世界上首個無人工干預(yù)、全自動生成的CPU芯片——啟蒙1號

這顆完全由AI設(shè)計的32位RISC-V CPU,相比GPT-4目前所能設(shè)計的電路規(guī)模大4000倍,并可運行Linux操作系統(tǒng),且性能堪比Intel486。

而這項研究,更是有望顛覆傳統(tǒng)的芯片設(shè)計流程!

論文地址:https://arxiv.org/pdf/2306.12456

世界首個AI全自動生成的CPU芯片

眾所周知,CPU設(shè)計是一項非常挑戰(zhàn)且耗費人力和資源的工作。

這通常需要由工程師團隊編寫代碼(如Verilog、Chisel或C/C++等),然后在電子設(shè)計自動化(EDA)工具(如邏輯綜合或高層次綜合工具)的輔助下生成電路邏輯。

除此之外,工程師團隊針對人工編寫的代碼,還需反復(fù)使用測試用例對其進行迭代的功能驗證和性能/功耗優(yōu)化。

然而,該過程極其復(fù)雜瑣碎,通常需要上百人團隊迭代數(shù)月或數(shù)年才能完成。以典型Intel CPU為例,超過500位工程師花了兩年時間才完成整個設(shè)計過程[1]。

為了減少人力和資源投入,研究人員采用AI技術(shù)直接從測試用例的輸入-輸出(IO)自動生成CPU設(shè)計,無需工程師提供任何代碼或自然語言描述。

該方法在5小時內(nèi)生成了超過4,000,000個邏輯門的32位RISC-V CPU——啟蒙1號(見圖1),比目前GPT-4所能設(shè)計的電路規(guī)模大4000倍。

圖1啟蒙1號芯片版圖及實物圖,其中CPU核部分完全由算法自動生成,芯片于2021年12月采用65nm工藝流片,運行頻率300MHz

該CPU于2021年12月流片,回片后成功運行了Linux操作系統(tǒng)和SPEC CPU2000程序,其性能與Intel486CPU相當(dāng)(見圖2)。

啟蒙1號是世界上首個無人工干預(yù)、全自動生成的CPU芯片。該方法甚至自主地發(fā)現(xiàn)了包含控制器和運算器等在內(nèi)的馮諾依曼架構(gòu),為后續(xù)發(fā)現(xiàn)人類未知的體系結(jié)構(gòu)優(yōu)化知識提供了參考。

圖2啟蒙1號芯片可以成功運行Linux操作系統(tǒng)及性能對比(CPU-AI為啟蒙1號)

全自動CPU設(shè)計:設(shè)計流程及挑戰(zhàn)

與傳統(tǒng)CPU設(shè)計流程中需要大量人工參與不同,研究人員考慮使用「輸入-輸出(IO)」作為輸入,因為IO可以從大量現(xiàn)成的測試用例中直接獲取或自動生成。

因此,可以將CPU自動設(shè)計問題形式化為「滿足輸入-輸出規(guī)范的電路邏輯生成問題」。

這也使得傳統(tǒng)的CPU設(shè)計流程發(fā)生了巨大變化:只需測試用例即可以直接生成滿足功能需求的電路邏輯,摒棄了傳統(tǒng)設(shè)計流程中非常耗時的、依賴人工的邏輯設(shè)計與驗證環(huán)節(jié)(見圖3)。

圖3(a)傳統(tǒng)的CPU設(shè)計流程包括耗時的邏輯設(shè)計與驗證;(b)所提出的全自動CPU設(shè)計流程直接從IO生成保證功能正確的電路邏輯

然而,從IO生成滿足規(guī)范的電路邏輯面臨兩大挑戰(zhàn):

(1)規(guī)模挑戰(zhàn):在沒有任何專家給出的形式化或非形式化電路描述時,設(shè)計空間大小等同于全部可能存在的電路設(shè)計。對于以IO描述的電路來說,一個典型RISC-V CPU的設(shè)計空間約為

;在如此巨大空間中找到功能正確的CPU超出了當(dāng)前自動化設(shè)計方法的能力;

(2)精度挑戰(zhàn):生成的目標(biāo)電路邏輯必須要足夠精確(例如功能驗證準確率>99.99999999999%),否則任何微小錯誤都將造成巨大損失,這遠遠超過了傳統(tǒng)AI算法和應(yīng)用對精度的要求。

符號主義的重生:基于BSD的電路自動設(shè)計方法

針對前面所提到的挑戰(zhàn),不同于傳統(tǒng)基于連接主義的深度學(xué)習(xí)方法,研究人員所提出的方法是基于對二元決策圖(Binary Decision Diagram,BDD)進行擴展的二元猜測圖(Binary Speculation Diagram, BSD)。

與傳統(tǒng)的BDD構(gòu)建依賴于形式化的描述不同,BSD使用常數(shù)0/1對BDD中的子圖進行功能猜測。

在設(shè)計流程中,首先使用僅有1個節(jié)點的BSD作為對未知黑盒函數(shù)的初始估計,然后利用動態(tài)規(guī)劃方法逐步增加BSD中的節(jié)點個數(shù),從而豐富電路細節(jié)(見圖4)。該工作理論上證明了隨著BSD節(jié)點個數(shù)的增加,其電路準確率會逐步提升。

圖4具體的電路生成流程:從1個節(jié)點的BSD出發(fā),逐步增加BSD中的節(jié)點個數(shù)以豐富電路細節(jié)

自主發(fā)現(xiàn)人類知識:蘊含馮諾依曼架構(gòu)的CPU

此外,從IO自動生成的RISC-V CPU并不是雜亂無章的黑盒邏輯,而是蘊含了馮諾依曼架構(gòu)的人類知識:由BSD表示的CPU設(shè)計包含了控制單元和運算單元(見圖5)。

其中控制單元是由BSD的頂層生成,用于整個CPU的全局控制,而運算單元則完成算術(shù)和邏輯運算。

同時上述單元可以進一步分解為更細粒度的子模塊,如譯碼器和ALU等,直到其最底層由基本的邏輯門構(gòu)成。

圖5自主發(fā)現(xiàn)馮諾依曼結(jié)構(gòu):啟蒙1號中包含了控制單元和運算單元,同時可以進一步分解為更細粒度的子模塊

對比與展望:不同人工智能路徑的交叉探索

自動的電路邏輯設(shè)計長期以來都是計算機科學(xué)的核心問題之一[2]。

近年來隨著人工智能技術(shù)的發(fā)展,也出現(xiàn)了一批基于行為主義和連接主義(如深度強化學(xué)習(xí)和GPT-4大語言模型等)的自動邏輯設(shè)計工作(見表1)。

表1自動邏輯設(shè)計的代表工作對比情況

可以看出,相關(guān)工作主要聚焦于生成單個模塊或小規(guī)模CPU,其規(guī)模與實際CPU芯片還有多個數(shù)量級的差距。

中科院計算所團隊及其合作單位(包括中科院軟件所、中科大、寒武紀公司等)所提出的方法生成了超過4,000,000個邏輯門的完整RISC-V CPU,相比目前GPT-4所能設(shè)計的電路規(guī)模大4000倍。

同時,該工作在符號主義的框架下從理論上保證了功能正確性,顛覆了傳統(tǒng)流程中的邏輯設(shè)計和功能驗證環(huán)節(jié)。

未來,通過符號主義、行為主義及連接主義等不同人工智能路徑的交叉探索,自動生成的CPU有望在5年或10年內(nèi)達到甚至超越人類專家所設(shè)計的CPU,徹底顛覆現(xiàn)有的芯片設(shè)計流程。

團隊介紹

自2008年起,中科院計算所便開始長期從事芯片設(shè)計和人工智能的交叉研究。其中一項為人熟知的產(chǎn)出就是人工智能芯片寒武紀。

而在面向芯片設(shè)計的人工智能方法上,中科院計算所也已有十多年的積累,并且從未停止探索如何用人工智能方法使得芯片設(shè)計完全自動化。

依托中國科學(xué)院計算技術(shù)研究所建立的處理器芯片全國重點實驗室,是中國科學(xué)院批準正式啟動建設(shè)的首批重點實驗室之一,并被科技部遴選為首批20個標(biāo)桿全國重點實驗室,2022年5月開始建設(shè)。

其中,實驗室學(xué)術(shù)委員會主任為孫凝暉院士,實驗室主任為陳云霽研究員。

實驗室近年來獲得了處理器芯片領(lǐng)域首個國家自然科學(xué)獎等6項國家級科技獎勵;在處理器芯片領(lǐng)域國際頂級會議發(fā)表論文的數(shù)量長期列居中國第一;在國際上成功開創(chuàng)了深度學(xué)習(xí)處理器等熱門研究方向;孵化了總市值數(shù)千億元的國產(chǎn)處理器產(chǎn)業(yè)頭部企業(yè)。

參考資料:

[1] Bentley, B. Validating a modern microprocessor. In Proceedings of International Conference on Computer Aided Verification (CAV),2–4(2005).

[2] Church, A. Applications of recursive arithmetic to the problem of circuit synthesis. Summaries of the Summer Institute of Symbolic Logic1,3-50(1957)

[3] Roy, R. et al. Prefixrl: Optimization of parallel prefix circuits using deep reinforcement learning. In Proceedings of Design Automation Conference,853–858(2021).

[4] Chen, P. et al. Circuit learning for logic regression on high dimensional Boolean space. In Proceedings of Design Automation Conference,151–6(2020)

[5] Rai, S. et al. Logic synthesis meets machine learning: Trading exactness for generalization. In Proceedings of Design, Automation & Test in Europe Conference & Exhibition,1026–1031(2021).

[6] Blocklove, J et al. Chip-Chat: Challenges and Opportunities in Conversational Hardware Design. In arxiv, https://arxiv.org/abs/2305.13243(2023)

您可能還喜歡...

發(fā)表回復(fù)

您的郵箱地址不會被公開。 必填項已用 * 標(biāo)注