博客 / 詳情

返回

讀人工智能全球格局:未來趨勢與中國位勢15倫理難題

讀人工智能全球格局:未來趨勢與中國位勢15倫理難題

1. 在爭議中前行

1.1. 自人工智能這個概念誕生以來,棋類遊戲一直被視為頂級人類智力及人工智能的試金石

1.2. 最著名的人工智能威脅論來源於奇點理論

1.3. 雷·庫茲韋爾在《奇點臨近》一書中預言機器的智能將在2045年超過人類的智能

1.4. 著名物理學家霍金相信生物大腦可以達到的和計算機可以達到的沒有本質區別,計算機在理論上可以模仿人類智能,然後超越

  • 1.4.1. 著名物理學家霍金相信生物大腦可以達到的和計算機可以達到的沒有本質區別,計算機在理論上可以模仿人類智能,然後超越

1.5. 霍金和馬斯克的憂慮,來自對強人工智能,甚至是超人工智能的憂慮

  • 1.5.1. 前者指的是可以勝任人類所有工作的人工智能

  • 1.5.2. 後者則是指在科學創造力、智慧和社交能力等每一方面都比最強的人類大腦聰明很多的智能

1.6. 人工智能本質上是一門工程學科,與平時我們所接觸到的土木工程等學科並沒有本質區別

  • 1.6.1. 從根本上來看,機器學習不會真正的超越人類

2. 倫理何以重要

2.1. 科學技術是中性的,可以用來造福人類,也可以用來禍害人類

2.2. 隨着技術的發展,技術的威力越來越大,它帶來的效果越來越明顯,可能的惡果也越來越嚴重,產生的影響也越來越是全球性的和全人類的

2.3. 歷史上幾乎每一項重大技術,如電力、蒸汽機、互聯網等,都會給社會帶來風險和挑戰,諸如失業、隱私安全等方面的風險和挑戰

2.4. 人工智能不再是單純的工具,它開始不斷模糊物理世界和自然人類的界限,刷新人的認知和社會關係,延伸出複雜的倫理、法律和安全問題

2.5. 機器人三定律

  • 2.5.1. 優先級更高的機器人第零定律:機器人不得危害人類整體或坐視人類整體受到危害

  • 2.5.2. 第一定律:機器人不得傷害人類或坐視人類受到傷害

  • 2.5.3. 第二定律:在與第一定律不相沖突的情況下,機器人必須服從人類的命令

  • 2.5.4. 第三定律:在不違背第一與第二定律的前提下,機器人有自我保護的義務

2.6. 在人工智能時代來臨之際,應當審慎省察人工智能的倫理尺度,使人工智能不僅免於扮演人類宰制者乃至文明終結者的魔咒,更能以其超卓而與人性合一的普遍智能推進人的自由與全面發展,開創出人機共生而與天地參的文明化境

3. 零隱私時代

3.1. 生活在智能社會中,一切都可作為大數據被記錄下來

3.2. 伴隨技術進步,隱私的疆域大大拓展,連基因信號和下意識的意念也被挖掘納入個人信息

3.3. 算法推薦背後強力的數據抓取與分析令人們覺得自己在人工智能面前彷彿赤身裸體,沒有一點兒隱私

3.4. 算法推薦一味滿足人們喜好造就的“信息繭房”​,也令人們恐懼人工智能竟強大到可以操控人類的自我意識

3.5. 人工智能讓我們輕而易舉地享受到這些便利,同時我們的個人隱私也被推向灰色地帶,每個人都變成大數據下的透明人

  • 3.5.1. 當我們肚子餓的時候,餐飲商家比我們更清楚我們想吃什麼

  • 3.5.2. 搜索引擎推送的廣告往往都是我們感興趣的

  • 3.5.3. 複習備考的時候,培訓機構會聯繫我們,提供各種能滿足我們需求的選擇

  • 3.5.4. 亞馬遜知道哪裏的人最喜歡讀書,讀的都是什麼書

3.6. 人工智能技術突飛猛進的背後離不開良好的大數據基礎,海量數據為訓練人工智能提供了原材料

3.7. 人工智能在大數據的供養下迅猛發展,而人類隱私卻風雨飄搖,岌岌可危

  • 3.7.1. 數據應是精神和物質的延伸物

  • 3.7.2. 隱私的問題是跟數據的發展相伴而生的,要想解決隱私問題,需要先認真思考我們當下的數據生態,確立對數據的充分認識

4. 算法塑造了我們

4.1. 偏見是人們在社會認知過程中形成的偏向於某一方面的、妨礙人們對社會心理信息進行正確表徵和加工的一種負向態度

4.2. 我們在日常生活中以及在人類社會尺度上都可以看到偏見的影子,並且偏見之間往往會相互強化

4.3. 人類決策經常會受到諸多有意或者無意的偏見以及信息不充分等因素的影響,這可能導致結果的公正性受到影響

4.4. 長久以來,人們都有一個誤解,認為依靠人工智能算法進行決策,決策結果是傾向於公平的,因為數學關乎方程,而非膚色、性別、好惡

4.5. 基於海量數據和強大算法的人工智能系統正在影響甚至替代個體行為決策,在人工智能取代個體決策的趨勢下,算法偏差和機器歧視並不鮮見且影響重大

4.6. 人工智能的算法雖説只是一種數學表達,看似不受價值觀影響,實際卻不可避免地存在主觀偏見

  • 4.6.1. 偏見既可能來自訓練系統的數據輸入,也可能來自編程人員的價值觀嵌入

  • 4.6.2. 當算法使用過去的數據來預測未來時,所輸入的數據和設定的模型也會影響計算結果

  • 4.6.3. 如果算法中存在偏見,經深度學習後,這種偏見還可能得到進一步加強,形成一個“自我實現的歧視性反饋循環”​

  • 4.6.4. 如果依賴於已帶有偏見的人工智能算法來做決策,那麼決策結果也會進一步強化我們的偏見

4.7. 人的偏見是個體化的、局部性的,而人工智能算法的偏見則是系統的,一旦形成將會產生廣泛的影響

4.8. 丘吉爾曾説:​“我們塑造了建築,而建築反過來也影響了我們。​”

  • 4.8.1. 我們塑造了我們的算法,然後算法又塑造了我們

5. 責任倫理

5.1. 原本律師和貸款人員需要360000小時才能完成的工作,人工智能軟件只需幾秒,且錯誤率更低,最重要的是,人工智能還不需要放假

5.2. 一些無需天賦,經由訓練即可掌握的技能或者大量的重複性勞動工作崗位,已經被智能機器人取代

5.3. 人們對人工智能引發失業問題的擔憂並非只是杞人憂天

5.4. 技術性失業是人工智能帶來的經濟倫理的重大挑戰

5.5. 人工智能時代,責任倫理似乎愈加重要

  • 5.5.1. 責任倫理是在對責任主體行為的目的、後果、手段等因素進行全面、系統的倫理考量的基礎上,對當代社會的責任關係、責任歸因、責任原因及責任目標等進行整體倫理分析和研究的理論範疇

5.6. 責任倫理是一門時間的學科,隨着人工智能技術的進一步發展,其引發的責任問題將愈加複雜

  • 5.6.1. 要想有效解決各種責任難題,有必要充分掌握責任倫理

5.7. 所謂智能武器,就是能夠在戰場上自主行動,並自動選擇目標、自主打擊的武器

6. 人工智能人權

6.1. 人權是人類最基本的利益和需求,具有普適性和道義性兩個基本特徵

6.2. 當機器不具備意識的時候,人與機器的關係沒有發生根本變化,人權也無從談起

6.3. 當人工智能擁有意識,一切就不一樣了

6.4. 無數的歷史事實告訴我們,階級的不平等必定帶來反抗

6.5. 人類所擁有的權力地位、道德地位、社會尊嚴等,人工智能也應該平等地擁有

6.6. 隨着人工智能技術不斷取得進步,我們可能越來越接近於實現強人工智能

6.7. 在現實生活中,與人工智能產生感情也是可能的

6.8. 在弱人工智能階段,人便可以對具備工具屬性的機器產生某種情感,只不過由於在這個階段人與機器始終是不對等的關係,所以倫理問題並沒有超出人的控制範圍

6.9. 當人工智能擁有意識,被賦予人權時,人與人工智能的感情關係不管從感情、心理還是道德上都將達到前所未有的複雜程度,將給現有的綱常倫理帶來嚴峻考驗

6.10. 在某種程度上,人工智能在擇偶市場上的競爭力可能會超過大多數人類

7. 倫理規制

7.1. 科林格里奇困境

  • 7.1.1. 一項技術的社會後果不能在技術生命的早期被預料到

  • 7.1.2. 當不希望的後果被發現時,技術卻往往已經成為整個經濟和社會結構的一部分,以至於對它的控制十分困難

7.2. 2016年6月6日,日本人工智能學會倫理委員會起草了面向研究人員的倫理綱要草案

  • 7.2.1. 草案中提出了人工智能給人類社會帶來危害的可能性,要求採取措施消除威脅和防止惡意利用

7.3. 2016年9月,《機器人和機器系統的倫理設計和應用指南》​,旨在保證人類生產出來的智能機器人能夠融入人類社會的道德規範

7.4. 2017年11月,為確保人工智能發展的未來仍然具有倫理和社會意識,IEEE宣佈了三項新的人工智能倫理標準

  • 7.4.1. 機器化系統、智能系統和自動系統的倫理推動標準,自動和半自動系統的故障安全設計標準,道德化的人工智能和自動系統的福祉衡量標

7.5. 隨着人工智能技術的持續進步,讓人意想不到的新問題也會不斷涌出,倫理規制將始終是處理人工智能發展問題的必要手段

7.6. 對人類文明而言,人工智能是一個好消息還是壞消息,最終將取決於我們的倫理智慧

8. 阿西洛馬人工智能原則

8.1. 研究問題

  • 8.1.1. 研究目標:人工智能研究的目標是建立有益的智能,而不是無秩序的智能

  • 8.1.2. 研究資金:投資人工智能的同時,應資助那些確保其創造有益價值的研究,包括計算機、經濟學、法律、倫理學和社會學的棘手問題

  • 8.1.3. 科學政策鏈接:人工智能研究人員和政策制定者之間,應形成積極、有建設性的溝通

  • 8.1.4. 研究文化:應該培養研究人員和人工智能開發人員,使他們之間形成互相合作、互相信任和互相透明的文化

  • 8.1.5. 規避不當競爭:人工智能開發團隊間應積極合作,避免因競爭而在安全標準上妥協

8.2. 道德標準和價值觀念

  • 8.2.1. 安全性:人工智能系統應當在運行全週期均是安全可靠的,並在適用且可行的情況下能夠驗證其安全性

  • 8.2.2. 故障透明:如果一個人工智能系統引起損害,應該有辦法查明原因

  • 8.2.3. 審判透明:在司法裁決中,但凡涉及自主研製系統,都應提供一個有説服力的解釋,並由一個有能力勝任的人員進行審計

  • 8.2.4. 職責:高級人工智能系統的設計者和建設者是系統利用、濫用和行動的權益方,他們有責任和機會塑造這些道德含義

  • 8.2.5. 價值觀一致:對於高度自主人工智能系統的設計,應確保其目標和行為在整個運行過程中與人類價值觀相一致

  • 8.2.6. 人類價值觀:人工智能系統的設計和運行應符合人類對尊嚴、權利、自由和文化多樣性的理想

  • 8.2.7. 個人隱私:既然人工智能系統能分析和利用數據,人們應該有權利獲取、管理和控制它們產生的數據

  • 8.2.8. 自由與隱私:人工智能對個人數據的應用不能不合理地削減人們實際的或感知的自由

  • 8.2.9. 共享利益:人工智能技術應使盡可能多的人受益,為儘可能多的人賦能

  • 8.2.10. 共享繁榮:人工智能創造的經濟繁榮應該被廣泛共享,造福全人類

  • 8.2.11. 人類控制:為實現人為目標,人類應該選擇如何以及是否由人工智能代做決策

  • 8.2.12. 非顛覆:通過控制高級人工智能系統所實現的權力,應尊重和改善健康社會所基於的社會和公民進程,而不是顛覆它

  • 8.2.13. 人工智能軍備競賽:應該避免使用致命自主武器的軍備競賽

8.3. 長期問題

  • 8.3.1. 性能警示:因為沒有達成共識,我們應該強烈避免關於未來人工智能性能的假設上限

  • 8.3.2. 重要性:超級人工智能可代表地球生命歷程中一個深遠的變化,應以相應的關注和資源對其規劃和管理

  • 8.3.3. 風險:對於人工智能造成的風險,尤其是那些災難性的和存在價值性的風險,必須付出與其所造成的影響相稱的努力,以用於進行規劃和緩解風險

  • 8.3.4. 遞歸自我完善:那些會遞歸地自我改進和自我複製的人工智能系統若能迅速增加質量或數量,必須服從嚴格的安全控制措施

  • 8.3.5. 共同利益:超級人工智能只應服務於廣泛的道德理想,應造福於全人類,而不是為了某個國家或某個組織的利益

user avatar
0 位用戶收藏了這個故事!

發佈 評論

Some HTML is okay.