全文共5806字,預(yù)計閱讀時間15分鐘
作者 | 程韞韻(Emily)
編輯 | 譚舒雯(Poppy)
注:文中圖片均來源于網(wǎng)絡(luò)
前言
在人工智能高速發(fā)展的熱潮下,龐大的數(shù)據(jù)量和復(fù)雜的算法模型對算力及芯片提出了新的需求。類腦芯片成為近年來學(xué)術(shù)界和產(chǎn)業(yè)界都越來越關(guān)注的重點(diǎn)方向,甚至在Gartner的芯片產(chǎn)業(yè)預(yù)測圖中將類腦芯片判斷為第三代人工智能芯片。上海新氦類腦智能科技有限公司(以下簡稱“新氦類腦智能”)就在此背景下誕生,類腦芯片及片上智能系統(tǒng)是新氦類腦智能的研發(fā)及商業(yè)轉(zhuǎn)化的重點(diǎn)方向。近年來新氦類腦智能看到許多類腦芯片領(lǐng)域的創(chuàng)新突破和科研熱潮,因此新氦類腦智能總結(jié)了類腦芯片領(lǐng)域的現(xiàn)狀、問題和趨勢,希望在充滿信心的同時保持客觀冷靜分析,給行業(yè)的發(fā)展帶來一些啟發(fā)和推動作用。
腦科學(xué)與類腦研究
“計算機(jī)之父”馮諾依曼通過對人腦和電腦的系統(tǒng)性比較,在他的《自復(fù)制自動機(jī)理論》一書中提到,生物大腦與機(jī)器相比最大的優(yōu)勢是能夠利用相對落后的零部件在一個充滿隨機(jī)漲落的高度不確定環(huán)境中,以綠色環(huán)保的低能耗方式,非常敏捷快速地做出正確計算。[1]
人腦擁有約1000億個神經(jīng)元(Neuron)和100萬億個突觸(Synapse)。信息傳遞過程中,神經(jīng)元細(xì)胞膜附近產(chǎn)生動作電位,尖峰沿著軸突傳遞,到達(dá)軸突末端后通過突觸釋放的化學(xué)神經(jīng)遞質(zhì)傳遞給下游神經(jīng)元,并重新轉(zhuǎn)換為電信號(圖1)。人腦采用串行以及大規(guī)模并行的信息處理模式,能夠處理數(shù)字和模擬信號,基本運(yùn)算速度約每秒1000次。

圖1 神經(jīng)元與神經(jīng)突觸
目前,人工智能領(lǐng)域的研究還處在“弱人工智能”階段,而人腦則相當(dāng)于“強(qiáng)人工智能”或“通用人工智能”。因此,“類腦”是人工智能的未來發(fā)展趨勢。相關(guān)研究一般有兩種“靠近”人腦的路徑:功能和結(jié)構(gòu)。
“功能類腦”的前提是理解人腦一系列行為如學(xué)習(xí)、記憶、感知和意識的生物基礎(chǔ),在此基礎(chǔ)上建造人工智能。然而,基于這一路徑的人工智能研究進(jìn)展緩慢,因?yàn)槭紫刃枰鉀Q的是一個更為復(fù)雜的問題,即人腦進(jìn)行一系列認(rèn)知行為的原理。
“結(jié)構(gòu)類腦”則是以大腦圖譜為藍(lán)圖,用微納器件模擬神經(jīng)元和神經(jīng)突觸的信息處理傳遞功能,構(gòu)造出仿大腦皮層神經(jīng)網(wǎng)絡(luò)和生物感知器官的仿生神經(jīng)網(wǎng)絡(luò),然后通過外界刺激使其擁有人工智能。[2]
從已有研究成果來看,這一路徑涉及的工程技術(shù)問題更有可能在近數(shù)十年內(nèi)取得持續(xù)進(jìn)展和重大突破。瑞典卡羅琳學(xué)院的研究人員在2018年8月成功繪制出小鼠神經(jīng)系統(tǒng)中多種細(xì)胞類型的詳細(xì)圖譜,為揭示機(jī)體神經(jīng)性疾病起源提供了線索,這種方法同樣可用于人腦的詳細(xì)圖譜繪制。[3]神經(jīng)形態(tài)器件方面,清華大學(xué)2019年8月研發(fā)出全球首款異構(gòu)融合類腦計算芯片“天機(jī)芯”,有多個高度可重構(gòu)的功能性核,同時支持機(jī)器學(xué)習(xí)算法和類腦計算算法,為通用人工智能(Artificial General Intelligence)計算平臺的發(fā)展起到促進(jìn)作用。 [4]
類腦研究的發(fā)展歷史
類腦研究可以追溯到1936年Alan Turing在《論可計算數(shù)及其在判定問題上的應(yīng)用》一文中提到一臺能夠執(zhí)行任何復(fù)雜數(shù)學(xué)計算的機(jī)器,即圖靈機(jī)(Turing Machine) (圖2)。[5]圖靈機(jī)提供了一個用數(shù)值模型檢驗(yàn)生物信息處理相關(guān)問題的方法,模型的各參數(shù)用二進(jìn)制數(shù)表達(dá),還可以與物理模型結(jié)合成混合系統(tǒng)以更好地模擬人腦。

圖2 圖靈機(jī)
Warren McCulloch和Walter Pitts于1943年發(fā)表的《A Logical Calculus of the Ideas Immanent in Nervous Activity》被認(rèn)為是神經(jīng)網(wǎng)絡(luò)(Neural Network)的開山之作。[6]1949年,在Turing 《Intelligence Machinery》論文發(fā)表的一年后,Donald Hebb提出學(xué)習(xí)和記憶的機(jī)制為突觸可塑性(Synaptic Plasticity)??伤苄员徽J(rèn)為是大腦認(rèn)知功能的基礎(chǔ), Hebb認(rèn)為同步的電活動會導(dǎo)致突觸增強(qiáng),而非同步的電活動會使突觸前后的連接削弱。[7]生物研究領(lǐng)域,1953年,Horace Barlow在青蛙大腦里發(fā)現(xiàn)了對特定視覺刺激做出反應(yīng)的神經(jīng)元。[8]幾年后,David Hubel和Torsten Wiesel的實(shí)驗(yàn)表明貓的初級視皮層神經(jīng)元能夠選擇性地對特定方位邊界做出反應(yīng)。[9]這些實(shí)驗(yàn)證明了接受域里某一層級細(xì)胞的形成來自于更低層級細(xì)胞的輸入。
1958年,心理學(xué)家Frank Rosenblatt定義了連接主義(Connectionism)的理論基礎(chǔ),并研究出一種名為“感知機(jī)”(Perceptron)的神經(jīng)網(wǎng)絡(luò)模型,能夠完 成簡單的視覺處理任務(wù)。[10]感知機(jī)是一種二元線性分類器,也是一種最簡單的單層前饋神經(jīng)網(wǎng)絡(luò),區(qū)別于較復(fù)雜的多層感知機(jī)(Multilayer Perceptron)。與生物神經(jīng)細(xì)胞的突觸、閾值和細(xì)胞體分別對應(yīng)的概念是權(quán)量、偏置和激活函數(shù)。Rosenblatt提出的相關(guān)算法包括感知機(jī)學(xué)習(xí)(Perceptron Learning Algorithm)、最小二乘法(Least Squares Method)和梯度下降法(Gradient Descent Method)。經(jīng)實(shí)驗(yàn)證明,感知機(jī)能夠識別出現(xiàn)次數(shù)較多的字母,還能對不同書寫方式的字母進(jìn)行概括和歸納,但無法可靠地識別受干擾的字母圖像。連接主義又被稱為仿生學(xué)派,是人工智能三大主流學(xué)派之一,主張通過模仿人類神經(jīng)元和神經(jīng)網(wǎng)絡(luò)連接機(jī)制實(shí)現(xiàn)人工智能。[11]
1963年,Alan Hodgkin和Andrew Huxley因?yàn)闇y量出神經(jīng)元傳遞電信號的動態(tài)過程并給出精確描述這一過程的微分方程(Hodgkin-Huxley Equations)而獲得諾貝爾獎。[12]到1969年,感知機(jī)的熱潮在符號主義學(xué)派代表人物Marvin Minsky和Seymour Papert的研究結(jié)果發(fā)表后逐漸減弱。[13]直到二十世紀(jì)八十年代,Hopfield神經(jīng)網(wǎng)絡(luò)(圖3)[14]、自適應(yīng)共振理論(Adaptive Resonance Theory)(圖4)、反向傳播算法(Backpropagation)(圖5)等研究成果的發(fā)表才讓連接主義重新引起關(guān)注。

圖3 Hopfield神經(jīng)網(wǎng)絡(luò)

圖4 自適應(yīng)共振理論

圖5 反向傳播算法
1971年,Leon Chua基于對稱性的假設(shè)證明了兩端電路元件憶阻器(Memristor)的存在。[15]現(xiàn)代微電子學(xué)先驅(qū)Carver Mead在1980年發(fā)表的論文中首次提出超大規(guī)模集成電路(Very-large-scale Integration)的概念,并在1989年發(fā)明了世界上第一塊擁有人工視網(wǎng)膜和耳蝸的類神經(jīng)芯片。[16]超大規(guī)模集成電路是將大量晶體管組合到單一芯片上的集成電路,例如計算機(jī)的控制核心微處理器。超大規(guī)模集成電路設(shè)計通常采用電子設(shè)計自動化方式,設(shè)計人員負(fù)責(zé)電路邏輯功能的硬件描述語言表達(dá)形式,而計算機(jī)則輔助完成功能驗(yàn)證、邏輯仿真、邏輯綜合、布局、布線和版圖等。日本政府曾在1976-1980年提出超大規(guī)模集成電路計劃,旨在激勵和組織企業(yè)開展創(chuàng)造性的合作研究活動。在日本從傳統(tǒng)重工業(yè)向知識密集型產(chǎn)業(yè)轉(zhuǎn)型的趨勢下,VLSI計劃被認(rèn)為對日本半導(dǎo)體行業(yè)的國際競爭力提升起了重大作用。人工硅視網(wǎng)膜是一個透光的二維CMOS芯片,上面接收器的位置決定了圖像的采樣結(jié)果。電阻網(wǎng)絡(luò)的橫向擴(kuò)展對應(yīng)的結(jié)構(gòu)是水平細(xì)胞層,圖像信號會經(jīng)過網(wǎng)絡(luò)的每一個節(jié)點(diǎn)被平行處理。六邊形排列可以確保每個接收器之間距離相等,從而得到均衡的圖像樣本。除此之外,硅視網(wǎng)膜還含有掃描設(shè)備以讀取經(jīng)視網(wǎng)膜處理后的圖像結(jié)果。[17]模擬電子耳蝸涉及CMOS、VLSI和微功率技術(shù)。
模型的關(guān)鍵是一系列串聯(lián)的簡單線性二級濾波級和可控Q參數(shù)以捕捉耳蝸中流體動力行波系統(tǒng)的物理現(xiàn)象,包括外層毛細(xì)胞的有源增益和適應(yīng)性影響。測試芯片上得到的數(shù)據(jù)證明了電路從原理和觀察結(jié)果兩方面都與真實(shí)耳蝸相匹配。[18]Mead與John Hopfield和Richard Feynman的研究開創(chuàng)了神經(jīng)形態(tài)工程(Neuromorphic Engineering)、計算物理和神經(jīng)網(wǎng)絡(luò)等新的研究領(lǐng)域與方向。其中,神經(jīng)形態(tài)工程是利用具有模擬電路的超大規(guī)模集成電路來模擬人腦神經(jīng)系統(tǒng),其目標(biāo)是制造出仿真人腦芯片。Mead采用亞閾值的硅來模擬人腦的低功耗處理過程。在極低電壓下,亞閾值硅仍有微小的不規(guī)則電子流通過晶體管,其大小和可變性與神經(jīng)回路中的電子流非常相似。與傳統(tǒng)芯片不同的是,硅神經(jīng)元以非數(shù)字化的形式運(yùn)行,其電流和電壓并不限于不連續(xù)的數(shù)值。而神經(jīng)網(wǎng)絡(luò)是一種模仿生物神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)和功能的數(shù)學(xué)或計算模型,是一種能在外界信息基礎(chǔ)上改變內(nèi)部結(jié)構(gòu)的自適應(yīng)系統(tǒng),依網(wǎng)絡(luò)架構(gòu)可大致分為前饋神經(jīng)網(wǎng)絡(luò),如CNN(卷積神經(jīng)網(wǎng)絡(luò),Convolutional Neural Network),和反饋神經(jīng)網(wǎng)絡(luò),如RNN(遞歸神經(jīng)網(wǎng)絡(luò),Recurrent Neural Network)。
隨后,連接主義學(xué)派發(fā)明了更簡單有效的統(tǒng)計方法如支持向量機(jī)(Support Vector Machine)和長短期記憶算法(Long-short Term Memory),有效降低了計算資源的消耗。支持向量機(jī)是一種采用監(jiān)督式學(xué)習(xí)算法(Supervised Learning)的一般化線性分類器,能夠同時最小化經(jīng)驗(yàn)誤差和最大化幾何邊緣區(qū)。
這一算法將向量映射到一個高維空間里,并在這個空間里建立一個最大間隔超平面。超平面兩邊有兩個互相平行的超平面,而分隔超平面能使這兩個平行超平面的距離最大化,這時分類器的總誤差達(dá)到最小值。[19]長短期記憶是一種具有長期記憶能力的時間遞歸神經(jīng)網(wǎng)絡(luò)(圖6), 由一個或多個具有可遺忘和記憶功能的單元組成。其重要組成部分包括Forget Gate、Input Gate和Output Gate,分別決定當(dāng)前輸入是否被采納、是否被長期記憶和記憶中的輸入是否在當(dāng)前被輸出。Forget Gate的使用意味著遺忘過程的權(quán)重?zé)o需清除,突觸權(quán)重也不必是非易失性的,這樣的短期記憶為類腦芯片的重要組成部分憶阻器的發(fā)展提供了新方向。[20]
LSTM算法在1997年被提出以解決傳統(tǒng)遞歸神經(jīng)網(wǎng)絡(luò)隨時間反向傳播中權(quán)重消失的問題,現(xiàn)在應(yīng)用于語音識別、自然語言處理、文本壓縮和手寫文字識別等場景。[21]低能耗和低時延的特性使LSTM憶阻器能夠廣泛用于邊緣推斷領(lǐng)域。[22]

圖6 長短期記憶算法
到二十一世紀(jì),隨著類腦研究在人工智能領(lǐng)域受到的重視日益增長,世界各國紛紛出資建立了相關(guān)研究計劃,研發(fā)出一系列大型神經(jīng)形態(tài)計算系統(tǒng)。2004年,斯坦福大學(xué)的Kwabena Boahen團(tuán)隊開發(fā)了一種基于AMS(模擬混合信號,Analog Mixed Signal)電路的類腦芯片Neurogrid(圖7)。Neurogrid是一個能夠?qū)崟r模擬大規(guī)模神經(jīng)模型的類腦系統(tǒng),它由16個定制的Neurocore芯片組成,每個芯片能夠模擬65,536個神經(jīng)元。這一系統(tǒng)能夠以比私有電腦云快9000倍的速度和十萬分之一的能耗一共模擬出一百萬個神經(jīng)元和數(shù)以億計的突觸連接。Neurogrid芯片能夠模擬人腦中經(jīng)過神經(jīng)元篩選的具有多樣性的離子信號,通過共享的電子線路強(qiáng)化突觸連接,而它的樹狀結(jié)構(gòu)能有效提升運(yùn)算速度。Neurogrid芯片目前主要用于腦科學(xué)研究,能夠被重新編碼而擁有與不同皮層相似的行為活動。這一系統(tǒng)旨在降低機(jī)器人的能耗,并最終能安全地植入人體以控制仿生手臂。[23]

圖7 Neurogrid芯片
2005年,曼徹斯特大學(xué)開始進(jìn)行基于多核ARM(進(jìn)階精簡指令集機(jī)器,Advanced RISC Machine)處理器的SpiNNaker計劃,歐盟也開展了名為FACETS的計劃,旨在開發(fā)AMS類腦芯片。SpiNNaker計劃致力于用100萬個ARM微處理器建造一個大規(guī)模并行計算的超級電腦,電腦的互聯(lián)結(jié)構(gòu)基于哺乳動物大腦的連接特性,因此能夠從生物學(xué)角度應(yīng)用于實(shí)時大規(guī)模的脈沖神經(jīng)網(wǎng)絡(luò)(Spiking Neural Network)。這一計劃的創(chuàng)新之處在于通信結(jié)構(gòu),即對大數(shù)量小信息包進(jìn)行優(yōu)化。每個通信包都搭載一個單個神經(jīng)元脈沖事件,包含AER(地址-事件表達(dá)編碼,Address-event Representation)的神經(jīng)元識別符和用于識別包類型的管理比特位。這種通信結(jié)構(gòu)能夠在低于一毫秒的時間內(nèi)傳輸一個通信包,滿足了實(shí)時神經(jīng)建模的要求。研究團(tuán)隊希望能夠開發(fā)出應(yīng)對抑郁癥、阿茲海默癥等腦相關(guān)疾病的強(qiáng)有力工具。[24]
同年,由美國國防高級研究計劃局出資的SyNAPSE(自適應(yīng)可塑可伸縮電子神經(jīng)系統(tǒng),Systems of Neuromorphic Adaptive Plastic Scalable Electronics)項目開始支持IBM的類腦芯片研究。Henry Markram在瑞士洛桑聯(lián)邦理工學(xué)院發(fā)起B(yǎng)lue Brain計劃,意圖用IBM Blue Gene/L超級計算機(jī)模擬大規(guī)模生物神經(jīng)網(wǎng)絡(luò)。三年后,HP實(shí)驗(yàn)室研發(fā)出首款憶阻器原型和首款CMOS(互補(bǔ)金屬氧化物半導(dǎo)體,Complementary Metal Oxide Semiconductor)/憶阻器混合芯片,證明了憶阻器在芯片制造中的重要性。2011年,由歐盟出資的BrainScaleS計劃開始實(shí)施,旨在研發(fā)基于AMS電路的大規(guī)模類腦超級計算機(jī)。一年后,藍(lán)腦計劃成功研發(fā)出與蜜蜂大腦規(guī)模相似的中央環(huán)路模型,擁有約一百萬個神經(jīng)元和十億個突觸。2013年,歐盟全面開展“人腦計劃”,建造了包括神經(jīng)信息學(xué)、大腦模擬、高效分析計算、醫(yī)學(xué)信息學(xué)、神經(jīng)形態(tài)計算和神經(jīng)機(jī)器人在內(nèi)的6個研發(fā)平臺。
一年后,由Dharmendra Modha帶領(lǐng)的SyNAPSE項目團(tuán)隊成功研發(fā)出TrueNorth芯片(圖8)。這是IBM迄今為止規(guī)模最大的芯片,擁有約54億個晶體管,而能耗只有70mW,是傳統(tǒng)處理器的五千分之一。[25]TrueNorth內(nèi)置4096個內(nèi)核,100萬個“神經(jīng)元”和2.56億個“突觸”。芯片能夠以80%的準(zhǔn)確率識別出用30幀每秒的正常速度拍攝的十字路口視頻中的人、自行車、公交車和卡車等,比普通電腦快100倍,擁有極高的通信效率。除計算能力外,認(rèn)知能力也是TrueNorth芯片的強(qiáng)項,IBM希望能將其部署在物聯(lián)網(wǎng)(Internet of Things)中,通過傳感器網(wǎng)絡(luò)和微型電機(jī)網(wǎng)絡(luò)不斷記錄和報告數(shù)據(jù)。 [26]

圖8 TrueNorth芯片
類腦芯片的優(yōu)點(diǎn)

圖9 馮諾依曼結(jié)構(gòu)
后摩爾時代,晶體管電路的性能逐漸接近極限。隨著芯片中晶體管數(shù)量的不斷增加,電子能量外泄和熱量散發(fā)的現(xiàn)象逐漸加劇。傳統(tǒng)的馮諾依曼結(jié)構(gòu)(圖9)面臨著存儲能力的挑戰(zhàn),CPU利用率限制和存儲器與處理器之間數(shù)據(jù)傳輸速度導(dǎo)致了高成本。過去幾十年中,CPU性能以每年約55%的速度快速提升,而內(nèi)存性能的提升速度只有約10%,這導(dǎo)致了CPU的運(yùn)算速度遠(yuǎn)高于訪存速度。馮諾依曼架構(gòu)將數(shù)據(jù)和指令放在同一內(nèi)存中,由于CPU和內(nèi)存之間數(shù)據(jù)傳輸帶寬的限制,數(shù)據(jù)和指令無法同時調(diào)取,CPU必須浪費(fèi)時間等數(shù)據(jù)。而且隨著CPU的更新?lián)Q代和內(nèi)存量的不斷提升,吞吐量限制問題顯得越發(fā)嚴(yán)重,這種限制CPU性能發(fā)揮的內(nèi)存存取速度瓶頸也被稱為“內(nèi)存墻”(Memory Wall)。
而擁有“類腦”結(jié)構(gòu)的神經(jīng)模態(tài)計算芯片可以很大程度上解決“馮諾依曼瓶頸”(von Neumann Bottleneck)問題。一方面,類腦芯片“事件驅(qū)動”(Event-driven)的特性能夠降低功耗。因?yàn)橛嬎愎呐c輸入有關(guān),在輸入不會激活大量神經(jīng)元的情況下,功耗可以達(dá)到非常低的水平,可以應(yīng)用于物聯(lián)網(wǎng)等領(lǐng)域,而且“突觸可塑性”能讓芯片擁有更強(qiáng)的自適應(yīng)學(xué)習(xí)能力。正如生物神經(jīng)元信息傳遞過程中,只有當(dāng)累積的電信號超過閾值時,動作電位才會沿著軸突傳遞,其他時間則處于未激活狀態(tài)。神經(jīng)模態(tài)計算的前饋過程是每個神經(jīng)元電路模塊每被激活一次就發(fā)射一個電脈沖,而非直接輸出整個前饋過程中的電脈沖。因此,與深度學(xué)習(xí)(Deep Learning)相比,類腦計算是真正重現(xiàn)生物神經(jīng)系統(tǒng)的過程。
芯片的另一優(yōu)勢是存算一體(In-memory Computing),直接將信息儲存在神經(jīng)元里,相當(dāng)于生物神經(jīng)網(wǎng)絡(luò)中每個神經(jīng)元儲存的電荷,以此滿足特定應(yīng)用領(lǐng)域如邊緣計算低時延的要求。存算一體是一種數(shù)模混合的存儲計算方式,即在存儲器上疊加算法,使存儲單元具有計算功能。數(shù)據(jù)可以直接在存儲器中完成計算,而無需單獨(dú)的計算單元,由此降低了數(shù)據(jù)訪存延遲。人工智能對數(shù)?;旌弦欢ǔ潭壬系木日`差有較高的容忍性,因此存算一體還意味著更高的性能和能效收益。
上下滑動查看文章參考資料:
[1]
http://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.1029.4814&rep=rep1&type=pdf
Von Neumann’s Self-Reproducing Automata by Arthur W. Burks
[2]
http://zhishifenzi.com/depth/thought/188.html
通向強(qiáng)智能:制造圖靈的“童年大腦”
[3]
https://www.cell.com/cell/fulltext/S0092-8674(18)30789-X
Molecular Architecture of the Mouse Nervous System by Amit Zeisel, etc.
[4]
https://www.nature.com/articles/s41586-019-1424-8
Towards Artificial General Intelligence with Hybrid Tianjic Chip Architecture by Jing Pei, etc.
[5]
https://www.cs.virginia.edu/~robins/Turing_Paper_1936.pdf
On Computable Numbers, with an Application to the Entscheidungsprobelm by A.M. Turing
[6]
https://www.cs.cmu.edu/~./epxing/Class/10715/reading/McCulloch.and.Pitts.pdf
A Logical Calculus of the Ideas Immanent in Nervous Activity by Warren S. McCulloch and Walter Pitts
[7]
https://pdfs.semanticscholar.org/f9fc/99a5c52aa5df1b530dfdeb25dfb6b10bdecf.pdf Hebbian Leaning and Plasticity by Wulfram Gerstner
[8]
https://physoc.onlinelibrary.wiley.com/doi/epdf/10.1113/jphysiol.1953.sp004829
Summation and Inhibition in the Frog’s Retina by H. B, Barlow
[9]
http://centennial.rucares.org/index.php?page=Neural_Basis_Visual_Perception
The Neural Basis of Visual Perception
[10]
http://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.335.3398&rep=rep1&type=pdf
The Perceptron: A Probabilistic Model for Information Storage and Organization in the Brain by F. Rosenblatt
[11]
https://pdfs.semanticscholar.org/7994/423929d321794a3ed7450c488c5950540f2f.pdf
A Brief History of Connectionism by David A. Medler
[12]
https://www.math.mcgill.ca/gantumur/docs/reps/RyanSicilianoHH.pdf
The Hodgkin-Huxley Model: Its Extensions, Analysis and Numerics by Ryan Siciliano
[13]
https://leon.bottou.org/publications/pdf/perceptrons-2017.pdf
Perceptrons: An Introduction to Computational Geometry by Marvin L. Minsky and Seymour A. Papert
[14]
https://www.doc.ic.ac.uk/~sd4215/hopfield.html
Introduction to Hopfield Neural Networks by Sixte De Maupeou
[15]
https://www.radioeng.cz/fulltexts/2015/15_02_0319_0368.pdf
Everything You Wish to Know about Memristors but are Afraid to Ask by Leon Chua
[16]
http://ai.eecs.umich.edu/people/conway/VLSI/VLSIText/PP-V2/V2.pdf
Introduction to VLSI Systems by Carver A. Mead and Lynn A. Conway
[17]
https://link.springer.com/chapter/10.1007/978-1-4615-2724-4_2
The Silicon Retina by Misha Mahowald and
[18]
https://ieeexplore.ieee.org/abstract/document/1639
An Analog Electronic Cochlea by R.F. Lyon and C. Mead
[19]
https://towardsdatascience.com/support-vector-machine-introduction-to-machine-learning-algorithms-934a444fca47
Support Vector Machine - Introduction to Machine Learning Algorithms by Rohith Gandhi
[20]
https://aip.scitation.org/doi/pdf/10.1063/1.5037835
Perspective: A Review on Memristive Hardware for Neuromorphic Computation by Changhyuck Sung, Hyunsang Hwang and In Kyeong Yoo
[21]
https://www.bioinf.jku.at/publications/older/2604.pdf
Long Short-Term Memory by Sepp Hochreiter and Jurgen Schmidhuber
[22]
https://www.nature.com/articles/s42256-018-0001-4.pdf
Long Short-Term Memory Networks in Memristor Crossbar Arrays by Can Li, etc.
[23]
https://singularityhub.com/2014/05/16/neurogrid-a-circuit-board-modeled-on-the-human-brain/
NeuroGrid – A Circuit Board Modeled after the Human Brain
[24]
https://ieeexplore.ieee.org/xpls/icp.jsp?arnumber=6750072
The SpiNNaker Project by Steve B. Furber
[25]
A survey of neuromorphic computing based on spiking neural networks
[26]
http://www.research.ibm.com/articles/brain-chip.shtml
聲明:本文章發(fā)布目的在于傳遞更多信息,并不代表本公眾號贊同其觀點(diǎn)和對其真實(shí)性負(fù)責(zé)。如涉及作品內(nèi)容、版權(quán)和其它問題,請及時與我司聯(lián)系,我們將在第一時間處理!
作 者 介 紹
/程 韞 韻 Emily/
擁有多年跨區(qū)域、跨行業(yè)的企業(yè)戰(zhàn)略咨詢經(jīng)驗(yàn),在AI技術(shù)及應(yīng)用領(lǐng)域擁有豐富的經(jīng)驗(yàn)和深入洞察。秉持對AI濃厚的學(xué)習(xí)興趣和認(rèn)真鉆研態(tài)度,對人工智能基礎(chǔ)技術(shù)及實(shí)際應(yīng)用兩方面都有深入研究,為AI創(chuàng)業(yè)團(tuán)隊和企業(yè)高管分析行業(yè)發(fā)展趨勢,出具專業(yè)咨詢建議。曾主導(dǎo)撰寫AI技術(shù)白皮書,總結(jié)并判斷未來AI技術(shù)的熱點(diǎn)發(fā)展方向。



滬公網(wǎng)安備 31011002003093號