首頁 行業資訊正文

肯德爾研究:人工智能與曆史演變

幾周前,我寫了一篇關于我在2月28日參加了麻省理工學院(MIT)施瓦茨曼計算學院(Schwarzman College of Computing)新落成慶祝——MIT對人工智能興起的戰略應對——AT技術在未來幾十年將重塑“地緣政治、經濟、我們的日常生活和工作”。爲期一天的慶祝活動以各種各樣的主題爲特色,其中一些主題集中于人工智能技術的創新應用,另一些主題則是這些強大技術帶來的挑戰性問題。

幾周後,我根據麻省理工學院Sherry Turkle教授關于反思數字文化中的摩擦的演講,以及耶魯大學Nicholas Christakis教授關于人工智能將如何重塑我們等文章,寫了一篇關于這些挑戰性問題之一的文章:人工智能對我們社會互動的影響

現在,我想談談《紐約時報》專欄作家托馬斯·弗裏德曼(Thomas Friedman)在2月28日對美國前國務卿亨利·基辛格(Henry Kissinger)博士的訪談。這段視頻中可以看到,采訪是基于2018年6月基辛格博士在《大西洋月刊》上發表的一篇文章,題爲《啓蒙運動是如何結束的》。

弗裏德曼在采訪開始時指出,基辛格博士是他唯一認識的在90多歲時對人工智能感興趣的人,並問他是如何對這門學科感興趣的。基辛格回答說,他是在2015年的一次會議上聽到關于人工智能的演講後開始思考這個問題的,之後又與人工智能專家進行了一系列討論。經過三年的討論,他越來越擔心人工智能的技術知識遠遠超出了我們對其政治、社會和人類含義的理解,以及它對曆史演變的長期影響。這就是他寫《大西洋月刊》文章的原因。

基辛格文章的中心論點是:“到目前爲止,主要改變現代曆史進程的技術革命是15世紀印刷機的發明,使得搜索經驗知識取代禮拜儀式的教義,和理性時代逐漸取代宗教時代……”

“理性時代産生了塑造當代世界秩序的思想和行動。但在一場新的、更全面的技術革命中,這種秩序正在發生劇變。我們未能充分考慮到這場革命的後果。這場革命的高潮可能是一個依賴由數據和算法驅動的機器、不受倫理或哲學規範約束的世界。”

弗裏德曼問道,人工智能革命預示著一個新的啓蒙時代,還是一個新的黑暗時代?基辛格回答說:“我們不知道。”我們不知道如何將人工智能提供給我們的衆多選擇與人類的道德標准聯系起來,甚至無法定義這些標准是什麽。

基辛格在文章中寫道:“我們所處的互聯網時代預示著一些問題,而人工智能只會讓這些問題變得更加尖銳。” “互聯網用戶強調檢索和操縱信息,而不是將信息的情景化或概念化……通常,他們需要與當前實際需求相關的信息……真相變成相對。” “信息有壓倒智慧的危險……社交媒體上充斥著大衆的觀點,用戶無法進行反思……”

“互聯網技術對政治的影響尤其明顯。以微觀群體爲目標的能力打破了以往關于優先事項的協商一致意見,允許把重點放在專門目的或不滿上。被利基市場壓力壓垮的政治領導人,被剝奪了思考或上下文反思的時間,壓縮了他們發展願景的可用空間。數字世界對速度的強調抑制了反思。它的動機賦予激進分子淩駕于深思熟慮者之上的權力。它的價值觀是由子群體的共識形成的,而不是由反省形成的。”

人工智能將這些擔憂帶到一個完全不同的層面。到目前爲止,我們已經應用技術在人類規定的系統和目標內實現流程自動化。相比之下,人工智能能夠規定自己的目標。“人工智能系統,通過其自身的運作,在不斷變化,因爲他們獲取並立即分析新的數據,然後尋求在分析的基礎上改進自己。通過這個過程,人工智能發展了一種以前被認爲是人類特有的能力。它對未來做出戰略判斷。”

基辛格認爲“人工智能的影響將具有曆史性意義。”“它的應用越來越有能力得出完全出乎意料的結果,與人類解決問題的方式截然不同。”

基辛格在《大西洋月刊》的文章中寫道:“人工智能遲早會給醫學、清潔能源供應、環境問題以及許多其他領域帶來非凡的好處。但正因爲人工智能對一個不斷演變、尚未確定的未來做出判斷,不確定性和模糊性在其結果中是固有的。”他的文章列出了三個值得關注的關鍵領域:

(1)人工智能應用程序可能會獲得意想不到的結果。我們如何確保我們日益複雜的人工智能系統能做我們想讓它們做的事情?科幻小說中充滿了人工智能對其創造者發動攻擊的場景,比如《2001:太空漫遊》中的Hal。但是,除了科幻小說之外,還有其他一些主要方式可能並不像預期的那樣工作。

我們都熟悉軟件bug,尤其是高度複雜軟件中的bug,這就是AI系統的情況。人工智能系統的複雜性日益增加,它們被征召到高風險的角色中,比如控制飛機、汽車、手術機器人和醫療系統,這意味著我們必須加倍努力測試和評估這些人工智能系統的質量。

除了軟件缺陷,人工智能系統可能也有自己的問題,尤其是在使用機器學習算法開發和使用大型數據集訓練的情況下。算法本身可能還存在其他缺陷。或者訓練數據可能包含不可預見的偏差。這些系統可能會像設計的那樣工作,但不會像我們實際希望的那樣工作。我們很可能需要一段時間才能弄清楚問題出在底層軟件、機器學習算法、訓練數據,還是上述因素的某種組合上。

(2)人工智能系統可能無法解釋其結論的理由。即使系統正常工作並實現了預期目標,它也可能無法用人類能夠理解的方式解釋它是如何做到這一點的。向人類解釋機器學習算法做出特定決定或建議的原因相當困難,因爲它的方法——對連接其大量人工神經元的數值權重進行細微調整——與人類使用的方法截然不同。

(3)在實現預期目標的過程中,人工智能可能會改變人類的思維過程和價值觀。一般來說,人類通過開發問題的顯式或概念模型來解決複雜問題。這些模型爲達成解決方案或做出決策提供了環境。另一方面,人工智能通過在分析訓練數據時略微調整算法,從數學上學習。這種固有的上下文缺乏可能導致人工智能誤解人類指令。這使得人工智能很難考慮指導人類決策的那種主觀、定性、倫理或合理等警告。

此外,考慮到人工智能的學習速度比人類快得多,它的錯誤和偏差很可能比人類通常犯下的錯誤和偏差傳播和增長得更快。一個不斷通過吸收新數據來學習的人工智能系統,可能不可避免地會出現微小的偏差,隨著時間的推移,這些偏差可能會導致災難性的故障。人類使用智慧、判斷力和常識等定性屬性來緩和和糾正自己的錯誤,而基于定量的人工智能系統通常沒有這些屬性。

“亨利,作爲結語,當你10年後回來,給(麻省理工學院校長)Rafael Reif一份計算機學院的成績單時,這個偉大的新機構的成功將由什麽構成?”弗裏德曼最後問道。

基辛格回答說:

“我想看看,正在探索下一個狀態、下一個未來的人們,是否比現在更好地理解了人工智能産生的概念本質。”

“然後,我想看看是否有可能開發出一些概念(用于控制基于人工智能的網絡攻擊),與我在50年前參與的軍備控制概念相媲美,這些概念並不總是成功的。但是這個理論是可以解釋的。我們還沒有。”

在全部或大部分人工智能領域探索“我會非常感興趣的企業或機構是否培養他們不僅僅是解決讓他們感興趣的問題,而是……在決定我們和世界未來的影響方面取得了一些進展。”

分享
版權聲明

本文僅代表作者觀點,不代表本站立場。
本文系作者授權發表,未經許可,不得轉載。

評論

精彩評論