博客 / 詳情

返回

讀人工智能全球格局:未來趨勢與中國位勢14進化(下)

讀人工智能全球格局:未來趨勢與中國位勢14進化(下)

1. 類腦智能

1.1. 源起

  • 1.1.1. 人腦在協調多種認知功能方面有着無與倫比的能力

  • 1.1.2. 人腦是一個通用智能系統,能舉一反三、融會貫通,可處理視覺、聽覺、語言、學習、推理、決策、規劃等各類問題,可謂“一腦萬用”​

  • 1.1.3. 人類的智能感知和思維能力是在成長和學習中自然形成和不斷進化的,其自主學習和適應能力是當前計算機難以企及的

  • 1.1.4. 人工智能如果可以模仿人腦,那就可以大大擴展其通用性,達到通用人工智能的水平

  • 1.1.5. 所謂類腦智能,通俗來説就是擁有人造大腦、會思考、會學習的智能體

    • 1.1.5.1. 利用算法模擬神經元工作機制,製造在信息處理機制上類腦、在認知能力上類人的計算模型

    • 1.1.5.2. 從信息處理與智能本質角度審視人腦信息處理,借鑑其原理並催生類腦智能計算技術,是實現人工智能創新的重要源泉

1.2. 理解並模仿人類大腦

  • 1.2.1. 要實現類腦智能,就要深入探索大腦的功能劃分並深刻理解其中的運行機制

  • 1.2.2. 人腦信息處理過程不再僅憑猜測,通過多學科交叉和實驗研究得出的人腦工作機制也更可靠

  • 1.2.3. 從待解決問題相關數據的特點與問題目標的角度出發,以計算的視角設計算法

  • 1.2.4. 類腦智能研究長期的目標是實現通用人工智能,這就需要首先研究人腦如何通過同一系統實現不同的認知能力,從中得到啓發並設計下一代智能系統

  • 1.2.5. 主要問題

    • 1.2.5.1. 視覺信息感知

    1.2.5.1.1. 人工智能往往依賴於攝像頭來採集視覺圖像,很難從中快速識別出關鍵信息,如人臉、手勢或障礙物

    • 1.2.5.2. 人機對話

    1.2.5.2.1. 人工智能體依靠傳感器收集外界聲音信號,通過語音識別系統和相關處理技術對信號進行分析解讀

    1.2.5.2.2. 在嘈雜的現實環境中,現有的語音識別技術很難成功而高效地實現語音識別、理解和處理操作

    • 1.2.5.3. 類腦信息處理

    1.2.5.3.1. 人工智能終端承擔着繁雜的計算任務以及信號接收、指令下達等重要功能

    1.2.5.3.2. 隨着人工智能應用範圍的不斷擴充,對處理中樞的容量、​“思維速度”等都有更高要求

  • 1.2.6. 研究方向

    • 1.2.6.1. 微觀理解神經元、突觸的工作機制及其特性

    1.2.6.1.1. 通過一道道電流,我們的肌肉收到指令,我們的腦海浮現場景

    • 1.2.6.2. 宏觀分析腦區間的鏈路及協作

    1.2.6.2.1. 類腦智能自然不會是“終其一生”只能做一件簡單事的機器,而是要作為像人類一樣掌握各種技能的“仿生人”​

    1.2.6.2.2. 要求其“大腦”能夠管控協調多重功能,讓智能體説話時運動功能不受影響,視物時能夠看圖説話,這必然也少不了對不同功能腦部區間的研究

    • 1.2.6.3. 從介觀

    1.2.6.3.1. 從神經網絡連接模式的角度來了解微觀與宏觀層面的協作

    1.2.6.3.2. 從綜合的角度,協調微觀神經與宏觀腦區的結構與功能

    1.2.6.3.3. 類腦智能的實現不僅要用神經網絡的節點來模擬微觀神經元的運作,同時要在層次設計上接近大腦的宏觀層次,形成綜合性信息處理體系

1.3. 發展方向

  • 1.3.1. 智能腦機交互

    • 1.3.1.1. 指通過在人腦神經與具有高生物相容性的外部設備間建立直接連接通路,實現神經系統和外部設備間信息交互與功能整合的技術
  • 1.3.2. 對話式人工智能

    • 1.3.2.1. 指融合語音識別、語義理解、自然語言處理、語音合成等多種解決方案,為開發者提供具備識別、理解及反饋能力的開放式平台的技術

    • 1.3.2.2. 該技術需要借鑑人腦語言處理環路的結構與計算特點,實現具備語音識別、實體識別、句法分析、語義組織與理解、知識表示與推理、情感分析等能力的統一類腦語言處理神經網絡模型與算法

  • 1.3.3. 神經形態計算

    • 1.3.3.1. 指仿真生物大腦神經系統,在芯片上模擬生物神經元、突觸的功能及其網絡組織方式,賦予機器感知和學習能力的技術

    • 1.3.3.2. 目標在於使機器具備類似生物大腦的低功耗、高效率、高容錯等特性,該技術將在智能駕駛、智能安防、智能搜索等領域具有廣闊應用前景

  • 1.3.4. 智能機器人

    • 1.3.4.1. 機器人是機械與電子的完美結合體

    • 1.3.4.2. 誕生初衷,就是人類希望機器代替自己工作

    • 1.3.4.3. 即使被稱為智能機器人,目前其也只能模仿人類的動作、行為來與環境進行交互

    • 1.3.4.4. 智能機器人未來發展的趨勢是基於認知腦計算模型、類腦信息處理技術來構建機器腦,利用機器腦直接控制機器人的“四肢”​,從而實現機器人的自主學習與決策,最終實現類腦智能機器人

    • 1.3.4.5. 類腦智能機器人不但是未來人工智能研究的重要方向之一,而且其在未來服務業、智能家居、醫療、國家與社會安全等領域都具有極為廣泛的應用價值

2. 量子機器學習

2.1. 機器學習快速成長為大數據處理領域的技術基石

2.2. 機器學習根據已有數據進行策略的學習和探索,並可以挖掘數據內部的潛在結構,從而獲得模型進行預測及分析

2.3. 數據科學家通過計算構建預測模型,利用大量的數據迭代優化模型,從而讓計算機學習到數據中藴含的知識,實現了弱人工智能

2.4. 瓶頸

  • 2.4.1. 不斷產生的大量的數據需要處理、分析、計算

  • 2.4.2. 電子計算機的發展逐漸停滯不前,其計算能力難以擴展

2.5. 量子是天生的計算行家

  • 2.5.1. 微觀粒子的“態疊加”(superposition),即一個微觀粒子可以同時存在於多個不同的位置或者同時具有0和1兩種狀態

  • 2.5.2. 微觀粒子之間可能還會形成“量子糾纏”(quantum entanglement),兩個無論相隔多遠的粒子的狀態都會隨時相互影響

  • 2.5.3. 經典計算機對2n比特的數據執行相同計算需要2n操作,而量子計算機只需要對n個量子比特進行一次操作即可

    • 2.5.3.1. 量子計算機可能指數級減少解決問題的步驟
  • 2.5.4. 量子計算不管在數據存儲能力還是數據處理能力上都遠超經典計算

  • 2.5.5. 並行性正是起源於量子物理中“量子比特”(qubit)、​“態疊加”(superposition)和“糾纏”(entanglement)等理論

2.6. 量子機器學習算法

  • 2.6.1. 受到量子特性的啓發,麻省理工學院的科學家彼得·秀爾(Peter Shor)在1994年基於量子計算提出了著名的“秀爾算法”​(Shor's algorithm)​,解決了建造量子計算機的理論問題,從此引發了全世界量子計算的研究熱潮

  • 2.6.2. 第一類

    • 2.6.2.1. 該類算法將機器學習中複雜度較高的部分替換為量子版本進行計算,從而提高整體運算效率

    • 2.6.2.2. 沿用原有機器學習的框架。在主體思想不變的情況下,將部分複雜計算轉換成量子版本運行在量子計算機上,利用量子計算機的快速計算能力解決高複雜度部分的計算問題,從而獲得提速

  • 2.6.3. 第二類

    • 2.6.3.1. 該類算法的特點是尋找量子系統的力學效應、動力學特性與傳統機器學習處理步驟的相似點,將物理過程應用於傳統機器學習問題的求解,產生新的機器學習算法

    • 2.6.3.2. 全部過程均可在經典計算機上實現,只是利用了量子計算的思維方式,可以在現在的硬件條件下,進一步提升計算機的計算潛力

    • 2.6.3.3. 在其他領域也有不少類似思路的研究,如退火算法、蟻羣算法等

  • 2.6.4. 第三類

    • 2.6.4.1. 該類算法主要藉助傳統機器學習強大的數據分析能力,幫助物理學家更好地研究量子系統,更加有效地分析量子效應,是物理學家對量子世界研究的有效輔助

    • 2.6.4.2. 該類算法的提出將促進我們對微觀世界進一步的瞭解,並解釋量子世界的奇特現象

2.7. 量子機器學習的應用

  • 2.7.1. 尋找巨型矩陣的特徵值和特徵向量

    • 2.7.1.1. 執行經典的主成分分析(PCA)算法的方法之一,是取數據協方差矩陣的特徵值分解

    2.7.1.1.1. 在高維數據的情況下並不是很有效

    • 2.7.1.2. 一個未知的低密度矩陣量子PCA能夠揭示與大特徵值相關的量子特徵,與線性規模的經典算法相比速度呈指數級增長
  • 2.7.2. 在量子計算機上找到近鄰

    • 2.7.2.1. 通過監督學習和無監督學習計算近鄰的量子算法,是將查詢數量的上限設置為計算距離指標所需的輸入數據,如歐幾里得距離和內積
  • 2.7.3. 求解線性方程組的量子算法

    • 2.7.3.1. 在解決機器學習問題中的子程序中起作用
  • 2.7.4. 量子位狀態的二元分類

    • 2.7.4.1. 訓練了一種量子學習機器,將量子位的狀態分為0和1,經典記憶的增長只隨訓練量子位的數量成對數增長,即使在一個組成變化足夠大的訓練集下,它也能表現得很好
  • 2.7.5. 量子神經網絡

    • 2.7.5.1. 指採用量子器件搭建神經網絡、優化神經網絡結構和性能的技術

    • 2.7.5.2. 技術充分利用了量子計算超高速、超並行、指數級容量的特點,有效縮短了神經網絡的訓練時間,未來將在人臉識別、圖像識別、字符識別等領域具有重要應用價值和廣闊前

  • 2.7.6. 優勢

    • 2.7.6.1. 由於量子態的可疊加性,量子算法可以在不增加硬件的基礎上實現並行計算,在此基礎上利用量子相位估計、Grover搜索等算法,可實現相對於完成同樣功能的經典算法的二次甚至指數加速

    • 2.7.6.2. 將經典數據編碼為量子數據,並利用量子並行性進行存儲,可實現指數級節省存儲硬件需求

2.8. 量子計算機

  • 2.8.1. 一台64位量子計算機的單次運算速度達到目前普通計算機CPU的級別(1GHz),那麼這台量子計算機的數據處理速度理論上將是神威·太湖之光超級計算機的1500億倍

    • 2.8.1.1. 事實上,支持這些硬件設備正規化和更新換代的技術路線已經較為明確,成品實現主要是時間問題
  • 2.8.2. 量子芯片中,量子位數目增加相對容易,但是在技術上更加困難的是對多量子比特的相干控制能力

  • 2.8.3. 如果一個芯片對多量子比特的相干控制能力沒有獲得好的測試結果,那麼這個芯片就沒有科學或實用價值

user avatar
0 位用戶收藏了這個故事!

發佈 評論

Some HTML is okay.