收藏本站

電腦請使用 Ctrl + D 加入最愛
手機請使用 收藏
關閉

科學報 科學文摘 探索

Science 重磅:史上首次!MIT 新研究用 AI 控制動物大腦活動


字體大小:
更新日期:2019503
文章欄目:
文章標籤:                   
 
知乎專欄新智元導讀MIT 的三位科學家首次用大腦視覺神經網路模型,實現了控制動物大腦的神經元活動。這是使用人工神經網路來理解真實神經網路的一大突破,相關研究發表在本週 Science 雜誌。

這不是科幻:人工神經網路可以用來控制動物的大腦活動了!

5 月 2 日發表在 Science 雜誌的一篇論文中,來自 MIT 的三位神經科學家對模擬大腦視覺皮層的計算模型進行了迄今為止最嚴格的測試。

三位作者分別是 MIT 大腦與認知科學系的負責人、麥戈文腦研究所調查員 James DiCarlo,以及博士後研究員 Pouya Bashivan 和 Kohitij Kar。

他們利用目前最好的大腦視覺神經網路模型,設計了一種新方法來精確地控制單個神經元和位於網路中間的神經元群。

在一項動物研究中,研究團隊隨後表明,他們利用從計算模型中獲得的資訊建立了一些影像,這些影像能夠強烈地啟用所選定的大腦神經元。

具體來說,Bashivan 等人建立了一個人工神經網路來模擬目標視覺系統的行為,並用它來構建影像,這些影像要麼能夠廣泛地啟用大量神經元,要麼選擇性地啟用一個神經元群,同時保持其他神經元不變。

神經網路模型設計了這些影像,它們能夠刺激單個神經元的活動

然後,他們分析了這些影像在獼猴視覺皮層產生預期效果的有效性。結果顯示,這些操作有很強的效果,並對神經元群產生了相當大的選擇性影響。利用這些影像,神經網路被證明可以再現動物神經反應的整體行為。

研究結果表明,這些模型與大腦非常相似,可以用來控制動物的大腦狀態。

James DiCarlo 表示,這項新研究有助於確定視覺模型在腦科學研究中的有用性。此前,關於這類視覺模型是否準確地模擬了視覺皮層的工作方式存在激烈的爭論。

James DiCarlo

「人們質疑這些模型是否能夠提供對視覺系統的理解,」James DiCarlo 說:「我們沒有在學術意義上爭論這個問題,而是證明了這些模型已經足夠強大,能夠支援一項重要的新應用。不管你是否理解這個模型的工作原理,從這個意義上說,它已經很有用了。」

amocity
amocity

  


他們在下面的影片採訪中更詳細地闡述了這個研究。

Science 重磅:史上首次!MIT 新研究用 AI 控制動物大腦活動

人工神經網路控制動物腦狀態https://www.zhihu.com/video/1107767473759297536訓練神經網路,4 步神經控制實驗

在過去幾年裡,DiCarlo 等人開發了基於人工神經網路的視覺系統模型。每個網路都以一個由模型神經元 (model neurons) 或節點 (nodes) 組成的任意架構開始,這些神經元或節點可以以不同的 強度 (也稱為權重) 相互連線。

然後,研究人員用一個包含超過 100 萬張影像的庫中訓練這些模型。當研究人員向模型展示每張影像,以及影像中最突出的物體 (比如飛機或椅子) 的標籤時,模型透過改變連線的強度來學習識別物體。

很難準確地瞭解這個模型是如何實現這種識別的,但是 DiCarlo 和他的同事之前已經證明,這些模型中的 「神經元」 產生的活動模式與動物視覺皮層響應相同影像時的活動模式非常相似。

在這項新研究中,研究人員想要測試他們的模型是否能夠執行一些以前尚未被證明的任務。特別是,他們想看看這些模型是否可以用來控制動物視覺皮層的神經活動。

他們進行了幾個閉環的神經生理學實驗:在將模型神經元與每個記錄的大腦神經位置匹配之後,使用該模型合成了全新的 「控制器」(controller)影像。

合成程式概述

如上圖所示,神經控制實驗分四步完成:(1)透過訓練大量標記的自然影像來最佳化神經網路的引數;(2)ANN 「神經元」 被對映到每個記錄的 V4 神經位點,構成可計算的預測模型。(3)然後將得到的模型用於合成單個位點或群體控制的 「控制器」 影像。(4)最後由實驗者將由這些影像指定的發光模式應用於受試者的視網膜,並測量神經部位的控制程度。

amocity
amocity

  


上圖(D)顯示了猴 M(黑色),猴 N(紅色)和猴 S(藍色)大腦中神經位點的感受野。

然後,研究人員將這些影像呈現給每個受試者,以測試模型控制受試者神經元的能力。在一項測試中,他們要求模型嘗試控制每個神經元,使其啟用程度超過其通常觀察到的最大啟用水平。研究人員發現,模型生成的合成刺激成功地驅動了 68% 的神經位點超出了它們的自然觀察啟用水平。

單個神經控制的一個示例

在另一項更嚴格的測試中,該模型顯示,它能夠選擇性地控制整個神經亞群,啟用一個特定的神經元,同時使其他記錄的神經元失活 (成功率達到 76%)。

神經元群的控制

接下來,研究人員使用這些合成的 controller 影像來研究模型預測大腦反應的能力是否適用於這些影像。他們發現該模型確實相當準確,預測了 54% 的由影像引起的大腦反應模式,但它顯然還不完美。

「到目前為止,對這些模型所做的工作是預測神經會對其他刺激產生什麼反應,這些刺激是他們以前從未見過的。」Bashivan 說:「這次的研究主要的不同之處在於,我們更進了一步,利用這些模型將神經元驅動到所需的狀態。」

為了實現這一目標,研究人員首先建立了大腦的視覺區域 V4 中的神經元和計算模型中的節點的一對一對映。他們透過分別向動物和模型展示影像,並比較它們對相同影像的反應來實現這一點。V4 區域有數百萬個神經元,但在這項研究中,研究人員每次為 5 到 40 個神經元的亞群建立對映。

DiCarlo 說:「一旦每個神經元都有一個任務,這個模型就可以讓你對那個神經元做出預測。」

然後,研究人員開始研究他們是否能利用這些預測來控制視覺皮層中單個神經元的活動。第一種型別的控制,他們稱之為 「拉伸」(stretching),即向實驗者展示一幅影像,該影像將驅動特定神經元的活動,其強度遠遠超出通常由 「自然」 影像引發的活動,,這些 「自然」 影像與用於訓練神經網路的影像類似。

amocity
amocity

  


單個神經位點的最大驅動 (拉伸)

研究人員發現,當他們向動物展示這些 「合成」 影像時,目標神經元的反應與預期相符。這些 「合成」 影像是由模型生成的,不像自然物體。平均而言,神經元對這些影像的反應要比它們看到自然影像時活躍約 40%。

這是科學家第一次實現這種控制。

控制大腦神經元,有助於治療情緒障礙

神經科學的一個普遍趨勢是,實驗資料收集和計算建模在某種程度上是獨立進行的,導致很少有模型驗證,因此沒有可測量的進展。這項的工作使這種 「閉環」 方法重現生機,同時進行模型預測和神經測量,這對成功構建和測試最接近大腦的模型至關重要。

研究人員還表示,他們可以利用該模型來預測 V4 區域的神經元對合成影像的反應。之前對這些模型的大多數測試都使用了與訓練模型相同的自然影像。MIT 的研究團隊發現,這些模型在預測大腦對合成影像的響應方面的準確率約為 54%,而使用自然影像時的準確率接近 90%。

Bashivan 說:「從某種意義上說,我們正在量化這些模型在訓練領域之外做出預測的準確性。理想情況下,無論輸入是什麼,模型都應該能夠準確預測。」

研究人員希望在接下來的研究中,透過讓模型吸收他們從合成影像中學到的新資訊來提高模型的準確性。

研究人員表示,這種控制可能對想要研究不同神經元之間如何相互作用以及它們之間如何連線的神經科學家有用。將來,這種方法有助於治療抑鬱症等情緒障礙。研究人員目前正致力於將他們的模型擴充套件到下顳葉皮層,進入杏仁核,這是參與情緒處理的區域。

Bashivan 說:「如果我們有一個很好的神經元模型,這個模型可以讓我們的神經元參與體驗情緒,或者引發各種各樣的紊亂,那麼我們就可以用這個模型來驅動神經元,從而幫助改善這些紊亂。」

「他們成功地做到了這一點,真的很了不起。就好像,至少對那個神經元來說,它的理想影像突然變成焦點,神經元突然被提供了它一直在尋找的刺激,」 匹茲堡大學生物工程副教授 Aaron Batista 評價道:「這是一個了不起的想法,一項了不起的壯舉。這可能是迄今為止,對使用人工神經網路來理解真實神經網路的最強有力的驗證。」

新智元 · AI_era

每日推送 AI 領域前沿學術解讀、AI 產業最新資訊

戳右上角+ 關注↗↗

喜歡請分享、點贊吧

延伸閱讀
AI臉