書評丨AI的“大腦”
文 / 鄭磊
未來30年,國家間科技競爭的一個重要焦點領域是大數據人工智能,同時,這也是數字經濟的關鍵驅動產業。算力是AI發展的核心要素之一,AI芯片是人工智能計算硬件的“大腦”。從最初的利用圖形處理器作為深度學習加速芯片開始,到當下人們為AI定制的專用芯片,短短幾年的時間里,AI芯片就飛速發展成為一個新興的產業。
AI研究成果和專利正呈現出爆炸式的增長, AI領域如今已經變成了一片遼闊的“森林”。圖文并茂的《AI芯片:前沿技術與創新未來》從AI的發展歷史講起,涉及目前最熱門的深度學習加速芯片和基于神經形態計算的類腦芯片的相關算法、架構、電路等,并著重介紹了用創新的思維來設計AI芯片的各種計算范式,一本書帶領讀者直抵人工智能前沿領域。
AI的快速發展一直受限于算力,而基于CMOS的硅基芯片的制造工藝已經精細到3納米。不僅AI算力提升將遭遇瓶頸,而且由于AI計算的特點,有些計算功能較少使用,所以普通CPU已經實現的算力中,有相當大的部分是AI無法使用的。這就是AI芯片出現的客觀要求。比如深度學習所需要的主要是矩陣乘法(張量乘法),用GPU的效率就明顯高于使用計算速度更高的CPU。
今天用于深度學習的主要是圖形處理器(GPU)芯片,可以達到每秒 100 萬億次浮點運算以上的運算速度,是超級計算機Cray-3運算速度的6000多倍。但是,這相比人類大腦還差得遠。人腦大約有1000億個神經元,有超過100萬億個突觸介入神經元信號傳導。大腦能夠以閃電般的速度識別模式、記住事實并同步并行處理其他工作,功耗不到20瓦。
隨著“后摩爾時代”的到來,硅基芯片的計算速度已經接近頂點,同時出現了另一個問題,就是這種計算結構更適合結構化數據,而對于處理大數據這樣的非結構化數據,提高芯片計算密度的方法是無效的。按照作者給出的數據,加工工藝高于10納米之后,盡管芯片的計算速度還在快速提升,但是處理大數據的相對效率反而越來越低了。按照目前的技術水平,如果并行使用多個GPU,功率很容易超過1000瓦。2016 年AlphaGo對戰圍棋九段高手李世石時,運行該AI程序的服務器功耗達1兆瓦,將近人腦功耗的5萬倍。人們必須尋找其他的芯片材料,采用適宜大數據人工智能的計算架構、模型和算法。在這方面,已有華人科學家作出了重大貢獻。1971年蔡少棠教授基于電路理論推理發現并證明存在一種新的基礎電路元件——憶阻器。2008年,惠普公司的斯坦利·威廉首次在實驗室里支撐了第一個基于二氧化鈦薄膜的原型產品。這種新器件可以顯著降低計算時的功耗,是深度學習加速器和類腦芯片的一個潛在硬件解決方案。
雖然 AI 芯片的開發主流都是基于深度學習算法,目前的主要技術路線是將用于加速處理深度學習的專用 AI 芯片和多核CPU處理器集成到同一塊芯片中。在半導體芯片領域,目前,開發FPGA和ASIC是一個重要方向。更前沿的研究是設計“可進化”芯片,它基本上接近通過芯片的“自學習”來提升芯片自身的性能。
AI 芯片的最終目標是能夠“自我學習”,即芯片能夠自己學習“如何學習”;另外一個重要目標是做到智能機器之間(相當于AI芯片之間)的相互學習和協調,從而使智能機器自己得到更多的知識。這種“自我學習”的性能,很可能隨時間呈指數級提升,并將最終導致智能機器的智能水平超越人類。這類芯片在設計過程中往往會盡可能貼近大腦的生物特性,因而被稱為類腦芯片或者神經形態芯片。這種芯片基于新的芯片架構,關鍵組成部分包含脈沖神經元、低精度突觸和可擴展的通信網絡等。
中國已將芯片列為必須自主掌控的技術,而在與歐美國家差距極小的大數據人工智能已經成為下一個必須占領的科技高地。目前在硅基半導體芯片領域的基礎專利多被歐美占據,很難沿著這個路線超車。AI芯片給我們帶來了一個難得新機會,類腦芯片和基于新神經網絡算法、量子啟發算法、自然仿生計算、存內計算和新型存儲器,以及基于量子計算和量子機器學習等領域的研發,還處于實驗室樣片或少量試用階段,這些可以作為中國芯片科技彎道超車的目標。
2、本網其他來源作品,均轉載自其他媒體,目的在于傳遞更多信息,不表明證實其描述或贊同其觀點。文章內容僅供參考。
3、若因版權等問題需要與本網聯絡,請在30日內聯系我們,電話:0755-32905944,或者聯系電子郵件: 434489116@qq.com ,我們會在第一時間刪除。
4、在本網發表評論者責任自負。
網友評論僅供其表達個人看法,并不表明本網同意其觀點或證實其描述,發言請遵守相關規定。