第 563 期文章

字級:
小字級
中字級
大字級

超級智慧VS.人工智慧 未來人工智慧的四大難題

《馭天演算法》(Master Algorithm)的作者多明格斯(Pedro Domingos)說:「所有的知識,過去、現在、將來,都終將可以由單一的通用學習演算法處理資料而成」,這個單一的通用演算法就是「馭天演算法」。

 

如果「馭天演算法」一旦出現,人工智慧很有可能遭遇到經濟學者李察.布克史塔伯(Richard Bookstaber)在《理論的盡頭》中所描述的四大難題。他在書中提到,人是最活躍的自由因數。隨著人工智慧社會的到來,人與人互動而造成的複雜現象會超過人工智慧本身的技術解釋能力。

難題一:「漸顯現象」

第一個是「漸顯現象」的難題(emergent phenomenon)。「漸顯現象」在自然界中普遍存在,天空中群鳥齊飛就是一種「漸顯現象」。軟體工程師雷諾茲(Craig Reynolds)建立了一個模型,解釋鳥類群飛的形成規律:(1)保持與其它鳥之間的距離。(2)保持與鄰近的鳥伴一致的速度和方向。(3)總是努力靠近群鳥的中心位置。結論是,「漸顯現象」也是有規律可循,不過它的規律不是那麼精確細膩,更體現一種粗獷的、大致的、靈活的指導性原則。科學家稱之為魯棒的(robust)、啟發式的(heuristics)指導原則。

 

如今,人工智慧已經把魯棒式、啟發式認知原則結合到最新的深度學習之中。然而,人工智慧的一個策略盲點恰恰就在它對魯棒式的、啟發式的直觀原則精細化演算法中。它把原本非理性的成分統統理性化了。

 

社會「漸顯現象」有三個要素,它們本質上顯示漸顯過程的不完美性和不可操縱性。第一,作為個體的人是自由因數(agent)。例如,金融危機時,個體逃離行為造成市場踐踏,產生救市的反效果。第二,魯棒式的、直觀啟發式的原則之所以存在,就是因為有容錯的進化要求。例如,類似孔雀以開屏擇偶,選擇新興的軟體產品時,使用者企業傾向於追隨行業大戶,因為這個魯棒的直觀原則有代表性的資訊優勢。第三,漸顯現象的直觀啟發原則穩定,但內容和過程形式有各種變異,因為人的愚蠢性往往只有到現象顯示成形後才能被認知。例如,類似2008年的金融危機在歷史上發生多起,只不過內容和過程有差異。而人的愚蠢性是人性的一部分,不可剝離。

 

可是,人工智慧在深度學習上的發展已經改寫了社會「漸顯現象」的上述三要素:(1)閉環回饋、反芻式學習系統可以不斷修改歷史經驗,去除歷史判斷的「錯誤」。(2)經過精細化分析,魯棒式的直觀啟發原則已經異化,失去它們在有機生命進化過程中的原始作用。(3)「愚蠢性」只會在演算法裡出現一次,不會重複,因為歷史經驗可以在閉環回饋中修改。

 

這樣一來,社會互動可能成為演算法的「奴隸」!漸顯現象可以完美化,可以被操縱,待到超級智慧出現,我們是否會懷念愚蠢的價值?

難題二:不可減約性

第二個是不可減約性(computational irreducibility)的難題。在《理論的盡頭》中,布克斯特伯這樣解釋,用比例縮減的方法,地圖代表表現所覆蓋的地貌,但是,如果有一種地貌,縮減了就失真,只能原貌理解,那它就有計算上的不可減約性,地圖非得和地貌一樣大。

著名的「生命遊戲」為理解不可減約性提供了一個生動的參考。20 世紀70 年代,數學家康威(John Conway)設計了一個「生命遊戲」(game of life)。它模擬細胞自我複製的過程。遊戲本身只有簡單的規則(演算法)。他要研究同樣的規則和重複的過程是否能產生同樣的結果。實驗答案是否定的。你必須經歷過整個自我複製的過程才能看到最後結果。即使演變規則和過程確定,結果狀態仍然無法事先決定。

 

今天的人工智慧技術發展體現在演算法、硬體、雲計算、大資料、網路這五個方面。但一個嚴重的問題是,目前人工智慧在應用領域只強調單項功能優化,未能保持跨學科融合。忽視「不可減約性」,就不能體會堅持跨學科融通的重要性。「生命遊戲」證明每一次生命產生不可減約。就像假設中無法用地圖縮減的地貌,無論演算法多麼強大,它難以減約八個學科交錯影響的過程。除非保持跨學科融通,下一步人工智慧發展必定發生荒誕現象。

難題三:極端不確定性

第三個是極端不確定性(radical uncertainty)的難題,即我們常說的「無知的未知」可能帶來滅絕危機。對人工智慧隱藏的極端不確定危險,牛津大學的博斯特倫(Nick Bostrom)假設四種發展前景:AI 為工具,AI 為專業領域的專家系統,AI 為超人的任務執行者,AI為具備超級智慧的獨立主體。後兩種情形,無論是超級執行者或超級智慧主體,都可能給人類帶來極端不確定性的危險。

 


博斯特倫的研究表明,超級智慧誕生也許是一個百年的歷程。可是,一旦越過意願的門檻,即人工智慧有了自我意識,它就會以人類意想不到的速度和方式獲得決定性的戰略優勢。到那時,人可能被機器奴役,可能被超級智慧改寫意識和潛意識,可能成為雜交的新認知物種,也可能世界大同、合作共存。幾種情境中,人性被改造的可能性最高。

事實上,即便在目前的弱人工智慧階段,它已經有了不可控的因數。深度學習中有「監控的學習」和「無監控的學習」。後者依靠人工智慧的內部自我組織優化舊知識、製造新知識。所謂「人的最後一次創新」就是指創造出從此可以自我組織新知識的人工智慧。在這一奇點之後,「控制」是一個過期的詞。如何與超級自由因數合作共存便成為人類不得不做的選擇。

難題四:社會價值與能力非均質分佈

第四個是社會價值與能力非均質分佈(non-ergodic society)的難題。通俗地講,「均質分佈」指大資料分析總結出來的規律對整個人口有普遍適用性。例如,在公共場合的某些綜合行為特徵預示犯罪傾向。這個規律被納入演算法,並假設它普遍適用於預防犯罪的人工智慧中。可是,具有能動性的人與社會始終處在開放的、隨機的變化中。被強制的「均質分佈」掩蓋諸多社會價值和能力的「非均質分佈」特徵。它與「賊的兒子是賊,法官的兒子是法官」的偏見沒有本質區別。
人工智慧給社會各個階層帶來的衝擊是非均質的,不是每個階層都同意的。即使人工智慧被社會大多數擁護,對少數人的剝奪是一個不可讓渡的權利問題。

 

人工智慧引發的統治關係的改變是非均質的。第四范式的創始人戴文淵生動地描述了他們「先知系統」的潛在力量:讓牛頓和愛因斯坦失業!它出現後,一個領域內的商業競爭便化為「政治統治」,即從價格關係轉換為知識權力關係。在商業統治與被統治關係下,企業意願不可能一致,對超級演算法的合法性一定有不同立場。

 

人工智慧還有國與國之間、種族之間、當代人與未來人之間的非均質分佈難題。我們的社會價值和能力偏好,會影響到對人工智慧發展道路和程度的選擇。但這不一定是其他人甚至下一代人願意做出的選擇。

我要留言

歡迎您留下聯絡資訊,我們將由專人與您聯繫

輸入驗證碼
TOP
在線客服
客服時間
周一~周五 08:30~18:00
0809-068-588
關閉