▲Kneron資深執行顧問沈聰在「Arm人工智慧開發者全球峰會」上發表Kneron新一代NPU IP產品。(圖/Kneron提供)


【亞太新聞網/新聞中心/竹科報導】

終端人工智慧解決方案領導廠商耐能智慧(Kneron)日前參與在上海舉行的Arm人工智慧開發者全球峰會,以「可重組算法在AI晶片中的應用」為主題發表演說,會中同時發布Kneron新一代終端人工智慧處理器系列NPU IP-KDP Series。

Kneron表示,第二代NPU IP包括三大產品,分別為超低功耗版KDP 320、標準版KDP 520、以及高效能版KDP 720。全系列產品的功耗小於0.5瓦(W),採用新的架構設計讓運算更具彈性,整體運算效能相較上一代產品大幅提升達3倍,運算能力(peak throughput)最高可達5.8 TOPS(每秒萬億次運算)。

Kneron創辦人暨執行長劉峻誠表示:「Kneron推出為終端裝置所設計的人工智慧處理器NPU IP後,其超低功耗的優勢受到市場高度關注。Kneron新一代NPU產品在諸多方面都有顯著的突破,基於第一代產品的優勢,我們改善資料運算流程、提升整體運算效能與儲存資源使用率,同時針對不同神經網路模型進行優化,讓NPU可以更廣泛地應用在各種終端裝置,並滿足更複雜的運算需求。」

Kneron NPU IP可應用在智慧手機、智慧家居、智慧安防、以及各種物聯網設備上,讓終端裝置在離線環境下就能運行各種神經網路。Kneron第二代NPU IP採用新的交錯式運算架構(Interleaving computation architecture)設計,縮短運算流程和提升效率;深度壓縮(Deep compression)技術讓壓縮功能從模型層級深入至資料和參數層級,使壓縮率再提升。動態儲存資源配置功能提升儲存資源利用率,卻不影響運算效能。此外,支援更廣泛的卷積神經網路(Convolutional Neural Networks,CNN)模型,並針對各種CNN模型分別進行優化,在不同神經網路模型下,可提升1.5倍~3倍不等的效能。

█Kneron第二代NPU IP-KDP Series
交錯式運算架構:交錯式架構讓神經網路架構中主要的卷積(convolution)與池化(pooling)運算可平行進行,以提升整體運算效率。在新的卷積層中,還可同時支援8bits與16bits的定點運算(fixed point),讓運算更有彈性。

深度壓縮技術:不僅能執行模型壓縮,還能對運行中的資料和參數(coefficient)進行壓縮,減少記憶體使用。模型大小可壓縮至50分之一以下,準確度的影響率小於1%。

動態儲存資源配置:讓共享記憶體(Shared memory)和運作記憶體(Operating memory)之間可以進行更有效的資源配置,提升儲存資源利用率的同時卻不影響運算效能。

CNN模型支援優化:支援更廣泛的CNN模型,包括Vgg16、Resnet、GoogleNet、YOLO、Tiny YOLO、Lenet、MobileNet、Densenet等,而且針對不同CNN模型分別進行優化,在不同神經網路模型下,相較上一代產品提升1.5倍~3倍效能。

█Kneron
耐能(Kneron)于2015年創立於美國聖地牙哥,為終端人工智慧技術的領導廠商,致力於設計及開發軟硬體整合的終端人工智慧解決方案,可應用在智慧家居、智慧安防、智慧手機、機器人、無人機,和各種物聯網終端設備上。

Kneron於2017年11月完成A輪融資,投資者包含阿裡巴巴創業者基金(Alibaba Entrepreneurs Fund)、中華開發資本國際(CDIB)、奇景光電(Himax Technologies, Inc.)、高通(Qualcomm)、中科創達(Thundersoft)、紅杉資本(Sequoia Capital) 的子基金Cloudatlas,以及創業邦。2018年5月31日,Kneron完成由李嘉誠旗下的維港投資(Horizons Ventures)領投的A1輪融資。截至目前為止,Kneron獲得的融資金額累計超過3,300萬美元。想瞭解更多Kneron重要訊息,請參見http://www.kneron.com

 

關鍵字:Kneron Arm人工智慧開發者全球峰會 終端人工智慧解決方案 

分享: 分享至 LINE 分享至 Facebook 分享至 Twitter 分享至 Google+