1. <tr id="vcdhi"><strong id="vcdhi"></strong></tr>

    <td id="vcdhi"><ruby id="vcdhi"></ruby></td>

    <track id="vcdhi"><ruby id="vcdhi"><menu id="vcdhi"></menu></ruby></track>

    <acronym id="vcdhi"><label id="vcdhi"><address id="vcdhi"></address></label></acronym>

  2. <td id="vcdhi"></td>
  3. <track id="vcdhi"></track>
    <pre id="vcdhi"><label id="vcdhi"></label></pre>

    用戶名: 密碼: 驗證碼:

    IBM實驗室:集成光子神經網絡的新機遇

    摘要:瑞士蘇黎世IBM研究中心的Bert Jan Offrein等人在Nanophotonics期刊上發表綜述:評述了集成光學解決方案在加速推理和人工神經網絡訓練方面的前景。

      近日,來自瑞士蘇黎世IBM研究中心的Bert Jan Offrein等人在Nanophotonics期刊上發表綜述:評述了集成光學解決方案在加速推理和人工神經網絡訓練方面的前景。

      計算突觸功能,在計算上是非常昂貴的,并且不能很好的在先進的計算平臺上規?;?。利用集成光學器件的線性和非線性來進行模擬信號處理,可以大幅度提高這些人工智能工作負載的性能和功率效率。集成光子學的高速運行能力為時間實時應用提供了機會,而芯片級集成為制造和封裝成本效益的鋪平了道路。

      集成光學器件為神經形態計算提供了一些性能優勢,如:形狀因素、可制造性、成本、機械穩定性和可高速調制。

      集成光子神經網絡有哪些新機遇?

      一、集成光子學RC系統

      儲備池計算(reservoir computing,RC)是其中一種非常適合順序數據處理的計算概念(圖2)。輸入數據流被耦合到一個庫,它由遞歸鏈接的神經元組成。輸入信號和存儲信號之間以及存儲信號內部的突觸連接是隨機分配并保持固定的。因此RC系統構成了一種特殊類型的遞歸神經網絡(RNN)。

    圖2. 儲備池計算方法

    圖源:Nanophotonics / 圖譯:Fortuner(撰稿人)

      為了避免信號在庫中的指數增長,對庫中的權值進行了縮放,使系統滿足回波狀態特性。在訓練過程中,只學習輸出層的權值。

      RC系統因其相比于一般的RNNs大大簡化了訓練而引起人們的興趣。雖然簡單的訓練方法仍然是有益的,但在過去的幾年里,深度學習方法取得了巨大的進步,使得RNNs在RC系統難以解決的復雜任務上得到了非常有效的應用。然而,RC對于神經形態系統仍然是一個有趣的概念,因為固定權重很好的映射到各種馮諾依曼器件的實現。

      從電子到光學,機械以及生物,作者對塊體,光纖以及集成光子RC系統進行了詳細的研究。在本文,作者對集成系統進行概述。

      集成光子存儲系統,它的一些早期概念是圍繞半導體光放大器(SOAs)所開展的。每個SOAs由于其功率飽和行為展現了一個光學非線性的性質,并具有豐富的內部動態行為。改進的體系結構在各種任務的數值模擬中展現出比傳統軟件更佳的性能。然而,由于SOA的功耗較大,因此這些網絡的功率效率有限。

      多年來,研究人員對架構進行了各種改進,通過向多個節點注入輸入信號,優化輸入方案,實現了更好的網絡功率分配(圖3)。然而,儲層內的非線性,在電子域內檢測和加權輸出信號所帶來的帶寬限制和延遲,以及并行操作所需的大量光電探測器,將極大的限制這些系統的實際適用性。

    圖3. 兩種集成的光子儲層計算架構

    圖源:Nanophotonics / 圖譯:Fortuner(撰稿人 )

      二、用于神經網絡訓練的集成光子設備

      集成光學技術的第二個令人興奮的機會與人工神經網絡訓練有關,建立一個增強的神經網絡訓練技術平臺是非常重要的。最近的出版物顯示了當今技術在神經網絡訓練中的巨大環境進展。

      優化光子神經網絡的訓練有兩種基本方法:1. 訓練方法適應匹配系統兼容性。2. 在一般的訓練方法中,如隨機梯度和反向傳播的運算是通過光硬件來加速的。

      將兩個神經層間突觸連接的推理計算擴展到一個技術平臺,其中反向傳播和權值更新步驟也通過光信號處理以完全并行的方式進行。

      在基于馬赫-曾德爾干涉計的向量矩陣乘法概念中,矩陣元素值由外部子系統設置。因此,在優化過程中改變這些值將需要信號從神經網絡輸出流到控制系統。針對這種結構人們提出了一種支持反向傳播算法的訓練算法。

      它基于在該器件中進行強度測量并存儲所獲得的值以供后續步驟處理。該通信路徑仍然會帶來信息流瓶頸,從而限制了訓練算法的性能和功耗。需要一種局部權值更新機制,直接在網絡中獲取信號。

      為了訓練前饋的DNN,可以使用隨機梯度下降和反向傳播,作者對反向傳播算法的訓練方法步驟進行了總結,以幫助讀者理解隨后提出的光信號處理器的優點:步驟1:用目標響應tk正向傳播訓練輸入樣本xk,并存儲相應輸出y。步驟 2:對于每個訓練樣本,使用一個損耗函數計算目標輸出和獲得的輸出之間的損失。通常,平方誤差用作損耗函數。步驟3:對于每一個訓練樣本,找到錯誤信號,錯誤信號代表在一個神經元上的輸入對總損耗的影響有多大。這種誤差信號可以通過權值矩陣轉置后通過網絡向后傳播,并使用激活函數的導數來獲得。步驟4:利用(步驟3)中得到的誤差信號,更新權重使損耗最小化。

      最后,反復重復(1-4)的步驟,直到損耗達到最小值。

    圖4. 利用具有兩層隱含層的前饋神經網絡進行前向和后向傳播,用于網絡權重訓練。

    圖源:Nanophotonics/圖譯:Fortuner(撰稿人 )

      早在20世紀90年代,一個光子系統就已經被證明,在這個系統中,加權元素被存儲在一個光折變材料的體材料中。MAC操作是通過兩束光折變晶體中形成的折射率光柵的衍射效率來實現的。圖5描述了單個權重和兩個突出權重的形成和工作原理。

    圖5. 權重的形成和工作原理

    圖源:Nanophotonics

      硅光子學的可用性和像鈦酸鋇,Ⅲ-Ⅴ族薄層材料等材料的整合性為實現模擬芯片級光子突觸處理單元提供了機會。作者展示了一個基于光折變效應實現神經網絡操作的器件布局(圖6)。

      圖6. 用于推理和訓練的集成光子突觸處理器的示意圖

      圖源:Nanophotonics / 圖譯:Fortuner(撰稿人)

      將一薄層光折邊材料鍵合在硅光芯片上。電光調制器將電輸入矢量轉換為光束所需的功率和相位。探測器陣列將矢量矩陣輸出信號轉換回電域。

      從本質上講,光折變效果可以很好地控制和調整權重值。這對于有效的訓練很重要,為定期更新矩陣元素的模擬矢量矩陣乘法提供了機會。

      總結

      神經形態計算技術催生的光子發展在帶寬、處理速度和可控性方面展現了出色特性。集成光子學在神經網絡推理和訓練中的潛力巨大。訓練人工神經網絡的新概念等仍舊需要進一步的技術發展。將光子神經形態計算的結果與其他平臺技術進行比較,這對于將研究工作導向最有前景的應用是很重要的。


      文章信息

      Pascal Stark, Folkert Horst, Roger Dangel, Jonas Weiss,Bert Jan Offrein,Opportunities for integrated photonic neural networks,Nanophotonics 2020; 9(13): 4221–4232

      文章地址

      https://doi.org/10.1515/nanoph-2020-0297



      來源|中國光學(ChineseOptics)

      撰稿|Fortuner(西湖大學 博士生)


    內容來自:中國光學
    本文地址:http://www.fmsd666.com//Site/CN/News/2021/02/07/20210207010207995522.htm 轉載請保留文章出處
    關鍵字: 集成光子
    文章標題:IBM實驗室:集成光子神經網絡的新機遇
    【加入收藏夾】  【推薦給好友】 
    1、凡本網注明“來源:訊石光通訊網”及標有原創的所有作品,版權均屬于訊石光通訊網。未經允許禁止轉載、摘編及鏡像,違者必究。對于經過授權可以轉載我方內容的單位,也必須保持轉載文章、圖像、音視頻的完整性,并完整標注作者信息和本站來源。
    2、免責聲明,凡本網注明“來源:XXX(非訊石光通訊網)”的作品,均為轉載自其它媒體,轉載目的在于傳遞更多信息,并不代表本網贊同其觀點和對其真實性負責。因可能存在第三方轉載無法確定原網地址,若作品內容、版權爭議和其它問題,請聯系本網,將第一時間刪除。
    聯系方式:訊石光通訊網新聞中心 電話:0755-82960080-168   Right
    亚洲国产成人手机在线_A级裸毛免费国产黄片_国产精品自在自线免费观看_日本乱亲伦视频中文字幕
    1. <tr id="vcdhi"><strong id="vcdhi"></strong></tr>

      <td id="vcdhi"><ruby id="vcdhi"></ruby></td>

      <track id="vcdhi"><ruby id="vcdhi"><menu id="vcdhi"></menu></ruby></track>

      <acronym id="vcdhi"><label id="vcdhi"><address id="vcdhi"></address></label></acronym>

    2. <td id="vcdhi"></td>
    3. <track id="vcdhi"></track>
      <pre id="vcdhi"><label id="vcdhi"></label></pre>