斯坦福大學研究人員已經證明,在光學芯片上直接訓練人工神經網(wǎng)絡是可能的。這一重大突破表明,光學電路可以執(zhí)行基于電子技術的人工神經網(wǎng)絡的關鍵功能,并且可以更便宜、更快和更節(jié)能的方式來執(zhí)行諸如語音或圖像識別等復雜任務。
研究人員已經證明,神經網(wǎng)絡可以使用光學電路(圖中的藍色矩形)進行訓練。在整個網(wǎng)絡中,會有幾個連接在一起。激光輸入(綠色)信息,通過光學(黑色)芯片。該芯片使用非均勻波束執(zhí)行對人工神經網(wǎng)絡至關重要的操作,它是由曲線段表示的。這些部分將兩個相鄰的部分連接在一起,并通過調整光學相位(紅色和藍色物體)的設置來調諧,它們的作用就像可以在訓練期間調整以執(zhí)行給定任務的“轉軌”。這一研究結果由斯坦福大學研究組的TylerW.Hughes所證明。
“使用光學芯片比數(shù)字計算機更有效地執(zhí)行神經網(wǎng)絡,可以解決更復雜的問題?!彼固垢4髮W研究小組的ShanhuiFan說?!袄纾@將增強人工神經網(wǎng)絡執(zhí)行自動駕駛汽車所需任務的能力,或者對口頭問題作出適當?shù)姆磻?。它還能以我們現(xiàn)在無法想象的方式改善我們的生活?!?/p>
人工神經網(wǎng)絡是一種人工智能,它使用連接的單元以類似于大腦處理信息的方式處理信息。使用這些網(wǎng)絡來執(zhí)行一個復雜的任務,例如語音識別,需要對算法進行關鍵步驟的訓練,以適應不同的輸入,如不同的單詞。
盡管光學人工神經網(wǎng)絡最近被實驗證明,但訓練步驟是在傳統(tǒng)的數(shù)字計算機上使用一個模型進行的,然后將最后的設置輸入到光學電路中。在光學學會的擁有很高影響力的研究雜志上,斯坦福大學報告了一種直接在設備中訓練這些網(wǎng)絡的方法,這種方法是通過實現(xiàn)“光學模擬”算法來實現(xiàn)的,這是訓練常規(guī)神經網(wǎng)絡的標準方法。
“使用物理設備而不是計算機模型進行訓練可以使訓練過程更加精確。”Hughes說。“此外,由于訓練步驟是神經網(wǎng)絡實現(xiàn)過程中非常昂貴的部分,因此執(zhí)行這一步驟對于提高人工網(wǎng)絡的計算效率、速度和功耗至關重要?!?/p>
基于光的網(wǎng)絡
雖然神經網(wǎng)絡處理通常使用傳統(tǒng)計算機執(zhí)行,但仍有大量工作要設計專門為神經網(wǎng)絡計算而優(yōu)化的硬件。基于光學的設備有很大的興趣,因為它們可以并行執(zhí)行,同時使用比電子設備更少的能量。
在這項新的工作中,研究人員通過設計一種傳統(tǒng)計算機訓練神經網(wǎng)絡的方法設計了一種光學芯片,這對實現(xiàn)全光神經網(wǎng)絡提出了重大挑戰(zhàn)。
一個人工神經網(wǎng)絡可以被認為是一個黑匣子,有大量的人工神經網(wǎng)絡。在訓練過程中,每個訓練單元都會有一些變化,然后對系統(tǒng)進行測試,看看算法的性能是否有所提高。
“我們的方法不僅可以幫助你預測轉向哪個方向,而且還可以幫助你預測你應該把每一種方法都轉化成更接近預期的性能?!盚ughes說?!拔覀兊姆椒ù蟠蠹涌炝擞柧毜乃俣?,特別是對于大型網(wǎng)絡,因為我們并行地獲得了關于每種方法的信息。”
片上訓練
新的訓練協(xié)議工作在光路上,通過改變光學相位的設置來調整光路。將待處理的激光束編碼信息發(fā)射到光路中,通過光束進行光路傳輸,并對其進行調整,以訓練神經網(wǎng)絡算法。
在新的訓練協(xié)議中,激光器首先通過光路輸入。在設備上,計算與預期結果的差異。然后,該信息被用來產生一個新的光信號,該光信號通過光網(wǎng)絡以相反的方向發(fā)送回來。在這個過程中,研究人員通過測量每個光束周圍的光強度,展示了如何并行地檢測神經網(wǎng)絡性能將如何隨著光束的設置而變化。根據(jù)這些信息可以改變相位設置,并且過程可以重復,直到神經網(wǎng)絡產生期望的結果。
研究人員通過教授一種執(zhí)行復雜功能的算法,例如在一組點內提取復雜的特征,用光學模擬測試了他們的訓練技術。他們發(fā)現(xiàn),光學實現(xiàn)功能與傳統(tǒng)計算機相似。
“我們的工作證明,你可以利用物理定律來實現(xiàn)計算機科學算法,”Fan說?!巴ㄟ^在光領域對這些網(wǎng)絡進行訓練,它表明光神經網(wǎng)絡系統(tǒng)可以單獨使用光學來實現(xiàn)某些更高的性能?!?/p>
目前,研究人員正計劃進一步優(yōu)化該系統(tǒng),并希望利用它實現(xiàn)神經網(wǎng)絡任務的實際應用。他們設計的一般方法可用于各種神經網(wǎng)絡體系結構和其他應用,如光學。
聲明:本文為轉載類文章,如涉及版權問題,請及時聯(lián)系我們刪除(QQ:2737591964),不便之處,敬請諒解!