<acronym id="hmihg"></acronym>

    <table id="hmihg"></table>

  1. 基辛格:一切與數字網絡相連的地方,都將成為新的“戰場”
    來源: 中國社會科學網 作者: 發布時間: 2023-06-08

    【導讀】 “很少有哪個時代面臨過如此局面:一方面,其遭遇的戰略和技術挑戰如此復雜;另一方面,對該挑戰的性質乃至討論其所需的詞匯卻鮮有共識”,2023年,曾親歷二戰和冷戰、在中美建交中發揮過重要作用的亨利·基辛格以百歲高齡發出了這樣的警告,“如果等到危機來臨才開始思考這些問題,那就為時太晚了?!?/span>

    近日,基辛格和谷歌前首席執行官埃里克·施密特、麻省理工學院蘇世民學院院長丹尼爾·胡騰洛赫爾共同推出新著《人工智能時代與人類未來》。在本書中,基辛格指出,新興的人工智能技術極有可能顛覆性地重塑全球安全格局,并有可能加劇中美等大國之間的競爭與對立。他呼吁技術領先國家對此加以重視,未雨綢繆,防患未然,就人工智能軍事用途的限制積極展開對話。

    數字時代的沖突

    縱觀歷史,一個國家的政治影響力往往與其軍事力量和戰略能力大致匹配。所謂戰略能力,也就是說,通過這種能力,即使僅僅施加隱性威脅,也會對其他社會造成破壞。然而,這種基于力量權衡的均勢不是靜態的,不能自我維持。相反,均勢的維持首先依賴于各方就這一力量的構成要素及其使用的合法界限達成共識;其次,它需要體系內所有成員——尤其是對手——就各個國家的相對能力、意圖和侵略的后果進行一致的評估;最后,它需要一個實際的、公認的平衡。當體系中某一方的力量不成比例地增長、打破平衡時,體系將組織對抗力量或適應新的現實,以設法做出調整。當均勢的權衡變得不確定,或當各國對各自相對實力的權衡結果完全不同時,由誤算引發沖突的風險就會達到最高。

    在當今時代,所謂“網絡武器”的出現使上述權衡更具抽象性。網絡武器涉及軍用和民用兩個領域,因此其作為武器的地位是模糊的。在某些情況下,網絡武器之所以能行使和增強軍事力量效用,主要是因為其使用者未披露其存在或未承認其全部能力。傳統上,沖突各方都不難認識到發生了交戰,或者認識到交戰各方是誰,會計算對方的戰力,并評估其部署武器的速度??墒?,這些在傳統戰場上顛撲不破的道理卻不能直接套用到網絡領域。

    常規武器和核武器存在于物理空間中,其部署可以被察覺,其能力可以被(至少粗略地)計算。相比之下,網絡武器的效用很大程度上源于其不透明性;若被公之于眾,其威力就會減損。網絡武器利用不為人知的軟件漏洞,在未經授權用戶許可或知情的情況下,侵入網絡或系統。在“分布式拒絕服務”(DDoS)攻擊(如對通信系統的攻擊)的突發事件中,攻擊者可能會使用大量看似有效的信息請求來壓垮系統,使之無法正常使用。在這種情況下,攻擊的真實來源可能被掩蓋,使人(至少在當時)難以或無法確定攻擊者。即使是最著名的網絡工業破壞事件之一—破壞了伊朗核項目中制造控制計算機的震網(Stuxnet)病毒,也從未被任何政府正式承認。

    常規武器和核武器可以相對精確地瞄準目標,根據道德和法律的要求,其瞄準對象只能是軍事力量和軍事設施。而網絡武器可以廣泛影響計算和通信系統,往往可對民用系統造成有力打擊。其他行為體也可基于其他目的,對網絡武器進行吸納、修改和重新部署。某種程度上,網絡武器與生化武器類似,其影響能夠以非預期的、未知的方式傳播,往往不僅影響戰場上的特定目標,且波及大范圍的人類社會。

    因此,網絡軍備控制難以被概念化,從而進一步推行。核軍備控制的談判人員可以公開披露或描述一類核彈頭,不必否認其功能。而(目前尚不存在的)網絡軍備控制談判人員則需要面對以下悖論:一旦對網絡武器的威力進行討論,可能就會導致這種威力的喪失(允許對手修補漏洞)或擴散(對手得以復制代碼或侵入方法)。

    關鍵網絡術語和概念的模糊性使這些挑戰變得更加復雜。在不同的背景下,不同的觀察者將形式各異的網絡入侵、在線宣傳和信息戰稱為“網絡戰”、“網絡攻擊”或“戰爭行為”。但這些詞匯不固定,甚至有歧義。例如,侵入網絡以收集信息的活動,可能與傳統的情報收集類似,盡管涉及范圍有所不同;部分國家在社交媒體上干預選舉的活動,則是一種數字化宣傳、虛假信息傳播和政治干預的結合,其范圍和影響遠超以往任何時代。數字技術和網絡平臺的擴展,使依托其上的此類活動成為可能。此外,其他網絡行動也可能造成與傳統敵對狀態類似的實際影響。網絡行動的性質、范圍及歸屬的不確定性,可能會使看似基本無誤的因素成為各方爭論的焦點問題:沖突是否已經開始、與誰沖突、沖突涉及什么、沖突可能升級到何種程度,等等。從這個意義上說,各個大國正陷入一種網絡沖突,但這種沖突的性質和范圍尚無現成的定義。

    我們所處的數字時代面臨一個核心悖論:一個社會的數字能力越強,就變得越脆弱。計算機、通信系統、金融市場、大學、醫院、航空公司、公共交通系統甚至民主政治都依托于系統,而這些系統或多或少可被網絡操縱或攻擊。隨著發達經濟體將數字指揮和控制系統整合到發電廠和電網中、將政府項目轉移到大型服務器和云系統中、將數據轉謄到電子賬簿中,它們在網絡攻擊面前也就變得倍加脆弱。這些行為提供了更豐富的目標集合,因此僅僅一次成功的攻擊就可能造成實質性的破壞。與此相對,面對數字破壞,低技術國家、恐怖組織甚至個人攻擊者所承受的損失可能要小得多。

    網絡能力和網絡行動成本較低,且具有相對的可否認性,因此,一些國家可能會使用半自主行為體來執行該功能。與一戰前夕遍布巴爾干半島的準軍事集團一樣,這些半自主團體可能難以控制,在未經官方批準的情況下開展挑釁活動。網絡領域中行為的快速和不可預測性、各種行為體間關的復雜性,以及可以極大削弱一國網絡能力并攪亂國內政治格局(即使這些活動不會升級到傳統的武裝沖突水平)的泄密者和破壞者的存在,都可能誘使決策者“先發制人”,以防遭受致命打擊。

    網絡領域行為的速度和模糊性有利于進攻方,并鼓勵以“積極防御”和“向前防御”尋求擾亂、排除攻擊。網絡威懾可能達到的程度,部分取決于防御者的目標及衡量成功的標準。最有效的攻擊往往不會達到武裝沖突的傳統定義門檻(通常未得到立即承認或正式承認)。即便是為了威懾,也沒有任何一個主要的網絡行為體公開其全部的能力或活動,無論該行為體是政府的抑或非政府的。因此,盡管新的能力正在涌現,相關戰略和理論仍處于隱蔽的陰影中,以不確定的方式演變。我們正處于全新的戰略前沿,需要進行系統性的探索,促進政府和工業界密切合作以確保有競爭力的安全能力,還需要大國之間在適當的保障措施下及時就網絡軍備限制進行討論。

    人工智能與安全領域的動蕩

    核武器的破壞性和網絡武器的神秘性,正日益與一種更新的能力相結合,也就是前幾章中所謂基于人工智能原理的能力。各國正在悄無聲息地、有時是試探性地、但又確鑿無疑地發展和部署人工智能,這將促進各種軍事能力的戰略行動,進而對安全政策產生革命性影響。

    將非人類邏輯引入軍事系統和過程,會給戰略帶來改變。通過與人工智能共同培訓或與之合作,軍隊和安全部門的洞察力和影響力顯著提升,這既令人驚訝,也令人不安。軍隊與人工智能的伙伴關系,或將否定傳統戰略和戰術的某些方面,而加強另一些方面。如果人工智能被賦予權限,能夠在一定程度上控制(攻擊性或防御性的)網絡武器或飛機等物理武器,它可能會迅速執行人類難以執行的功能。例如,美國空軍的人工智能ARTUμ已經在飛行測試中成功駕駛飛機并操作雷達系統。ARTUμ的研發初衷是在無人干預的情況下做出“最后抉擇”,其能力僅限于駕駛飛機和操作雷達系統,但其他國家和設計團隊可能就沒有那么大的限制了。

    人工智能的自主和獨立邏輯能力不僅有可能推動變革,還具有一定的不可預料性。大多數傳統的軍事戰略和戰術都基于對人類對手的假設,即假設對手的行為和決策計算符合某種可識別的框架,或者可由經驗和傳統智慧界定。然而,當人工智能駕駛飛機或用雷達掃描目標,它遵循的是其自身的邏輯,難以被人類所理解,也不受傳統信號和佯攻的影響,而且,其邏輯執行速度往往高于人類的思維速度。

    戰爭一向充滿不確定性和偶然性,但人工智能的進入將為其帶來新的變數。人工智能是不斷發展變化的新事物,因此,即使是那些創造出人工智能并使其設計或操作的武器的強國,可能也無法確定其威力、無法預判其行動。人工智能可以感知到人類無法或無法快速感知的環境,甚至能以超越人類的思維速度與思維廣度進行學習和改進,對于這樣一種事物,我們怎么可能制定有針對性的進攻或防御戰略呢?如果人工智能輔助武器的效果取決于人工智能在戰斗中的感知及從中得出的結論,那么,某些武器的戰略效果是否只能在使用中得到證明?如果競爭對手在靜默和保密的情況下訓練其人工智能,那么在沖突尚未發生時,領導人能知道己方在軍備競賽中是領先還是落后嗎?

    在傳統的沖突中,對手的心理是戰略行動瞄準的關鍵點。但算法只知道指令和目標,而不知士氣或懷疑為何物。由于人工智能可以適應其所遇現象,當兩個人工智能武器系統彼此對抗時,交戰雙方都無法準確理解這一交互將產生何種結果、造成哪些附帶影響,也就無法清晰地把握對方的能力、預測沖突的代價。對人工智能武器的工程師和構建者而言,由于受到這些限制,他們在研發和制造過程中會更注重提高武器的速度、影響廣度和持久度,從而使沖突更激烈、廣泛、不可預測。

    同時,即使有人工智能輔助,強大的防御也是安全的先決條件。新技術的普遍性使人們無法單方面放棄它。然而,即便是在整兵備戰時,各國政府也應該評估并嘗試將人工智能邏輯加入人類戰斗經驗,以使戰爭變得更人道、更精確。新技術對外交和世界秩序的影響也需加以反思。

    人工智能和機器學習可以擴大現有武器的打擊能力,進而改變行為者的戰略和戰術選擇。人工智能不僅能提高常規武器的瞄準精度,還能改變瞄準方式,比如(至少在理論上)瞄準某個特定的個人或物體,而非某個地點。通過研究大量信息,人工智能網絡武器可以學習如何滲透防御,無需人類尋找可利用的軟件漏洞。同樣,人工智能也可用于防御,在漏洞被利用之前發現并修復它們。但是,由于攻擊者可以選擇目標而防御者不能,在人工智能的輔助下,進攻方即便不是戰無不勝,也能占得先機。

    如果一個國家面對的對手已經訓練人工智能來駕駛飛機、獨立瞄準并決定開火,這將如何影響戰術、戰略或訴諸升級戰爭規模(甚至是核戰)的意愿?

    人工智能開辟了信息空間能力,包括虛假信息領域。生成式人工智能可以創造大量似是而非的虛假信息,包括偽造的人物、圖片、視頻和演講等,以此為信息戰和心理戰推波助瀾。理論上,人工智能可以合成看似真實的沖突照片和視頻,讓公眾人物“發表”他們其實從未說過的言論,并將其以最有效地方式廣泛轉發給目標群體,迎合人們的偏見和期望。如果一個國家領導人的合成形象被對手操縱,以制造不和或發布誤導性指令,公眾(甚至其他政府和官員)能夠及時識破騙局嗎?

    與核武器領域不同的是,對人工智能的使用并不存在公認的禁令,也沒有明確的威懾(或升級程度)概念。美國的競爭對手正在打造人工智能輔助武器,包括實體武器和網絡武器,據報道,其中一些已投入使用。人工智能大國有能力部署機器和系統,這些系統具有快速邏輯推理和不斷演化的行為能力,可用于攻擊、防御、監視、傳播虛假信息,以及識別和破壞敵方的人工智能。

    隨著變革性人工智能能力的不斷發展和傳播,在沒有可驗證的限制因素的情況下,世界主要國家會繼續追求優勢地位。它們會假定,新的、可用的人工智能一旦出現,就必定會擴散。由于具備軍民雙重用途、易于復制和傳播,人工智能的基本原理和關鍵創新在很大程度上是公開的。即使對其加以監管,監管機制也很難做到無懈可擊:監管方式可能隨著技術進步而過時,也可能被竊取人工智能者發現漏洞。人工智能的新用戶可能會調整基礎算法,以實現迥然不同的目標,一個社會的商業創新可能會被另一個社會用于維護安全或信息戰。政府時常會采納尖端人工智能發展中最具戰略意義的方面,以滿足其國家利益設想。

    平衡網絡力量平衡、將人工智能威懾概念化的相關工作尚處于起步階段。在對這些概念給出確切定義之前,對此類問題的規劃是抽象的。比如,在沖突中,交戰一方可能試圖使用或威脅使用一種效果未知的武器,以此摧垮對方的意志。

    而最具顛覆性且不可預測的影響,可能發生在人工智能和人類智能遭遇之時??v觀歷史,積極備戰的國家對其對手的理論、戰術和戰略心理,即便不是洞若觀火,至少也有大致了解。這使對抗性戰略和戰術得以發展,并形成了一系列象征性話語(例如攔截靠近邊境的飛機、通過爭議水域等)。然而,當由人工智能來制訂計劃或鎖定目標,甚至由人工智能在常規巡邏或沖突期間提供動態協助時,這些原本熟悉的概念和互動可能會變得陌生——人們需要與一種新型智能打交道,而該智能的運作方式和戰術都是未知的。

    從根本上說,向人工智能和人工智能輔助武器及防御系統的轉變,將導致對智能的依賴。這種智能的運作所基于的經驗范式與人類有本質區別,且具備可觀的分析潛力。在極端情況下,這種依賴甚至演變為一種授權,可能導致未知的風險。因此,人類操作者必須對具有潛在致命影響的人工智能加以監控,即便不能避免所有錯誤,至少要保障道德責任和問責能力。

    然而,最深層的挑戰可能是哲學層面上的。如果戰略的分析運作無法再為人類理性所理解,則其過程、范圍和最終意義將變得不再透明。如果決策者認為,在揭示現實的最深層模式、了解(可能擁有自己的人工智能的)對手的能力和意圖并及時做出應對的過程中,人工智能的輔助已必不可少,那么,將關鍵決策權下放給機器可能成為必然趨勢。各個社會可能會就“哪些決策權可以下放”、“何種風險和后果是可以接受的”等問題,給出各不相同的答案。主要大國應當未雨綢繆,提前就該演變的戰略、學說和道德影響展開對話,否則將導致不可逆的影響。國際社會必須做出努力,以限制這些風險。

    管控人工智能

    在智能體系互相對抗之前,我們必須對這些問題加以考量和理解。隨著網絡和人工智能能力被用于戰略目的,戰略競賽的領域變得更為廣闊,從而使這些問題變得迫在眉睫。某種程度上說,網絡和人工智能使一切與數字網絡相連的地方都成為“戰場”。如今,數字程序控制著一個由眾多實體系統構成的領域,該領域極為龐大,且仍在增長(某些情況下,甚至連門鎖和冰箱都接入了網絡)。這催生出一個極其復雜、廣泛和脆弱的系統。

    對人工智能強國來說,追求某種形式的彼此理解和相互制約至關重要。由于相應系統和能力可以通過計算機代碼的變化而輕易地悄然改變,各大政府可能傾向于認為,其對手在戰略敏感的人工智能研究、開發和部署方面的步調會比其公開承認甚至私下承諾的更進一步。從純技術角度來看,讓人工智能參與偵察、鎖定目標或是展開致命性自主行動并不難,因此,一套相互制約和驗證的體系的體系的構建顯得既緊迫又困難。

    要尋求保障和制約,就必然與人工智能的動態本質相抗衡。由人工智能驅動的網絡武器一旦問世,就可能在適應能力和學習能力上遠超預期;武器的能力或將隨之改變。如果武器能夠以某種方式改變,且改變的范圍或性質不同于預期,那么威懾和升級的設想可能變得更加撲朔迷離。因此,無論是在初始設計抑或最終部署階段,都需要調整人工智能的運行范圍,以便人類對系統加以監視,在其偏離初始目標時將其關閉或重新定向。為了避免意外、潛在的災難性后果,這種限制必須是相互的。

    無論是限制人工智能和網絡能力,抑或遏制其擴散,都非常困難。主要大國開發和使用人工智能和網絡的能力,有可能落入恐怖分子和流氓幫派手中。同樣,那些沒有核武器、常規武器軍力也有限的小國,也可以通過投資尖端的人工智能和網絡武器,發揮出巨大的影響力。

    各國勢必會把非連續、非致命的任務委托給人工智能算法(部分由私營實體操作),其中包括執行檢測和防止網絡空間入侵的防御功能。一個高度網絡化和數字化的社會“受攻擊面”太大,人類操作者無法僅憑手動實現防御。隨著人類生活的許多方面轉移到網上,經濟也持續數字化,一個流氓網絡人工智能就可能破壞整個行業。國家、公司甚至個人都應該著手構建某種失效保護體系,以防患于未然。

    這種保護的最極端形式即切斷網絡連接。對國家而言,離線可能是終極的防御形式。如果排除這種極端措施,那么,能夠執行某些重要網絡防御功能的就只有人工智能了——網絡空間浩瀚無垠,在此可采取的行動選項幾乎無窮無盡,因此,除了少數幾個國家,這一領域內最重要的防御能力可能是其他國家力所不及的。

    除了人工智能防御系統,還有一類最令人頭疼的武器——致命自主武器系統。該系統一旦被激活,就可以在沒有人類干預的情況下選擇目標并實施打擊。這類武器的關鍵問題是人類對其缺乏監督和干預的能力。

    一個自主系統“在其指令環路中”的某些行動需要人類授權,或需要一個人“在指令環路上”被動地監控其活動。除非受到可遵守和可證實的相互協議的限制,前者最終可能涵蓋全部戰略和目標(例如保衛邊境或實現針對敵人的特定結果),且無需耗費大量人力。在這些領域,必須確保人類的判斷能發揮作用,實現對武器的監督和指導。如果只有一個或少數幾個國家接受這些限制,意義是有限的。先進國家的政府應探討如何以可行的方式進行檢查,進而在此前提下實現相互制約。

    人工智能的引入,使人們可能為搶占先機而將某種武器倉促投入使用,進而引發沖突。當一個國家擔心其對手正在發展自動化軍力時,可能會“先發制人”;而如果攻擊“成功”了,擔憂的合理性也就無法再得到證實或證偽。為防止沖突意外升級,大國應在一個可驗證的限制框架內進行競爭。談判不只包括緩和軍備競賽,還應該確保雙方都大致了解對方動向。但雙方都必須對一點有所預期(并據此進行籌劃):對方會對自己最具敏感性的秘密有所保留。正如冷戰期間的核武器談判所表明的,國家間永遠不會有完全的信任,但這并不意味著無法達成某種程度的諒解。

    我們提出這些問題,是為了界定人工智能給戰略帶來的挑戰。界定核時代的條約(以及隨之而來的溝通、執行和核查機制)給我們帶來了各方面的收益,但并非歷史的必然產物,而是人類能動性的產物,是共同承擔危機和責任的產物。

    對民用和軍事技術的影響

    傳統上,三個技術特性促成了軍事和民用領域的分野:技術差異、集中控制和影響規模。所謂技術差異,是指軍用和民用技術的區別。所謂集中控制,是指部分技術易于被政府管控,與容易傳播、規避政府控制的技術相反。所謂影響規模,則是指一項技術的破壞性潛力。

    縱觀歷史,許多技術都是軍民兩用的。至于其他技術,一些很容易廣泛傳播,另一些則具有巨大的破壞力。然而,迄今為止,還沒有一種技術同時具備以下三種特性:軍民兩用、易于傳播和潛在的巨大破壞性。運送貨物到市場的鐵路和運送士兵到戰場的鐵路是一樣的,鐵路不具有破壞性潛力。核技術通常是軍民兩用的,且破壞性巨大,但核設施很復雜,這使政府能夠相對安全地控制核技術。獵槍可能被廣泛使用,同時具有軍民用途,但其有限的能力使持槍者無法在戰略層面造成破壞。

    而人工智能打破了這種范式。很明顯,人工智能可以軍民兩用;也很容易傳播,只需幾行代碼,大多數算法(除了部分例外)可以在單個計算機或小型網絡上運行,這意味著政府很難通過控制基礎設施來控制這種技術;其應用具有巨大的破壞性潛力。這種獨一無二的特性組合,加上廣泛的利益相關者,產生了具有全新復雜性的戰略挑戰。

    人工智能賦能武器,使對手能以驚人的速度發起數字攻擊,并極大提高其利用數字漏洞的能力。這樣一來,對于即將到來的攻擊,一個國家可能還來不及評估就需立即響應,否則就可能被對方解除武裝。如果一個國家有相應手段,就可以在對方完全展開攻擊之前做出回應,構建一個人工智能系統來預警攻擊并加以反擊。這一系統的存在,及其毫無預警地實施行動的能力,可能會刺激另一方投入更多建設和規劃,包括開發并行技術或基于不同算法的技術。如果人類也參與了這些決定,那么除非各方謹慎地發展出一個共同的限制理念,否則先發制人的沖動可能會壓倒謀定后動的需要,就像20世紀初的情況一樣。

    在股票市場,一些復雜的所謂量化公司認識到,人工智能算法可以發現市場模式,并比最佳操盤手更快地做出反應。因此,這些公司已將其證券交易的部分控制權委托給算法。算法系統所贏得的利潤通常遠超人類操盤手。然而,它們偶爾會嚴重誤判,誤判程度遠超最糟糕的人為錯誤。

    在金融領域,此類錯誤會毀掉投資,但不會致人死地。然而,在戰略領域,一次類似“閃電崩盤”的算法故障可能引發災難性后果。如果數字領域的戰略防御需要戰術上的進攻,那么當一方在此類計算或行動上出錯時,就可能在不經意間使沖突升級。

    將這些新能力納入一個明確的戰略和國際均勢概念的嘗試非常復雜,因為技術優勢所需的專業知識不再完全集中于政府方面。從傳統的政府承包商到個人發明家、企業家、初創企業和私人研究實驗室,各種各樣的行為體和機構都參與到對這一具有戰略意義的技術的塑造過程中,而并非其中所有人都認為其使命應與聯邦政府所界定的國家目標保持內在一致。工業界、學術界和政府之間的相互教育過程可以幫助彌合這一鴻溝,并確保各方在一個共同的概念框架內理解人工智能戰略意義的關鍵原則。很少有哪個時代面臨過如此局面:一方面,其遭遇的戰略和技術挑戰如此復雜;另一方面,對該挑戰的性質乃至討論其所需的詞匯卻鮮有共識。

    核時代尚未解決的挑戰是:人類發展了一種技術,戰略家們卻找不到可行的軍事行動理論。人工智能時代的困境與之不同:典型技術將被廣泛獲取、掌握和應用。無論是在理論概念上還是在實踐操作中,實現相互間的戰略克制,甚至是實現對“克制”的共同定義,都將空前地困難。

    即使歷經半個世紀的努力,如今對核武器的管控仍不盡完善。然而,評估核平衡其實相對簡單:核彈頭可以計數,其生產也是已知的。人工智能則不同:其能力不是固定的,而是動態變化的。與核武器不同的是,人工智能很難被追查:一旦經過訓練,它們可以被輕易復制,并在相對較小的機器上運行。以目前的技術,對其存在進行證實或證偽,將是極其困難甚至無法實現的。在這個時代,威懾可能來自一種復雜性——來自人工智能攻擊能夠借助載體的多樣性,也來自潛在的人工智能反應速度。

    為了管控人工智能,戰略家必須考慮如何將其納入負責任的國際關系模式。在部署武器之前,戰略家必須了解使用武器的迭代效應、這些武器導致沖突升級的可能性和謀求沖突降級的途徑。負責任地使用策略,再輔以制約原則,將是必不可少的舉措。決策者應致力于同時處理軍備、防御技術和戰略,以及軍備控制問題,而不是將其視為在時間上前后不同、在功能上彼此對立的步驟。必須在技術付諸使用前就制定理論并做出決定。

    那么,這種制約的要求是什么呢?一個顯見的出發點就是以傳統強制方式對能力加以制約。在冷戰期間,這種做法獲得了一些進展,至少在象征意義上如此。一些能力受到了限制(如彈頭),另一些(如中程導彈)則被徹底禁止。但無論是限制人工智能的潛在能力,還是限制人工智能的數量,都不能完全符合這種技術在民用領域的廣泛應用和持續發展態勢。我們必須研究新的限制因素,重點是人工智能的學習和目標鎖定能力。

    在一項部分預見到這一挑戰的決定中,美國對“人工智能賦能武器”和“人工智能武器”進行了劃分,前者使人類指揮的戰爭更精確、更致命、更有效,后者則能脫離人類操作者自主做出致命的決定。美國已宣布其目標是將人工智能使用限制在前一種類別中,并謀求建立一個任何國家(包括美國自身)都不擁有后一種武器的世界。這種劃分稱得上明智。與此同時,技術的學習和演進能力也可能導致對某些特定能力的限制不足。對人工智能賦能武器的制約性質和制約方式進行界定,并確保約束是相互的,是關鍵所在。

    在19世紀和20世紀,各國逐漸對某些形式的戰爭進行了限制(例如使用化學武器、攻擊平民)。鑒于人工智能武器使大量新類別的軍事活動成為可能,或使舊形式的軍事活動重獲新生,世界各國必須及時界定,何種軍事行為有可能背離人性尊嚴和道德責任。要獲得安全,我們就不能只是被動應對,而要未雨綢繆。

    與人工智能相關的武器技術帶來了這樣的困境:對國家而言,技術的持續研發至關重要,否則我們將失去商業競爭力和與世界的關聯性;但新技術所固有的擴散天性使迄今一切以談判促限制的努力付諸東流,甚至連概念也未能形成。

    新世界中的古老追求

    各個主要的技術先進國家都需要明白,它們正處于戰略轉型的門檻上,這種轉型與當年核武器的出現同等重要,但影響將更加多樣化、分散化和不可預測。如果一個社會致力于擴展人工智能前沿,就應當成立一個國家層面的機構,來考量人工智能的防御和安全,并在各個相關部門之間建立橋梁。這個機構應被賦予兩項職能:維持本國的競爭力,同時協調研究如何防止或至少限制不必要的沖突升級或危機。在此基礎上,與盟友和對手進行某種形式的談判將是至關重要的。

    如果要對這一方向進行探索,那么世界兩大人工智能強國——美國和中國——就必須接受這一現實。兩國可能會得出這樣的結論:無論兩國新一階段的競爭將以何種形式展開,都應就“不打前沿技術戰爭”形成共識。雙方政府可以委托某個團隊或高級官員負責監督,并直接向領導人報告潛在的危險及規避方式。截至本書撰寫時,這種努力與兩國的公眾情緒并不相符。然而,這兩個大國互相對峙而拒不進行對話的時間越長,發生意外的可能性就越大。一旦發生意外,雙方都會被其技術和部署預案所驅使,陷入雙方都不愿意看到的危機,甚至可能引發全球規模的軍事沖突。

    國際體系的矛盾之處在于,每個大國都被驅使采取行動,也必須采取行動,從而最大限度地保障自身的安全;然而,為了避免危機接踵而來,每個國家都必須對維持普遍和平有一定的責任感。這個過程涉及對限制的認識。軍事規劃人員或安全官員會根據可能發生的最壞情況考慮問題(這樣做并沒錯),并優先尋求獲取應對這些情況所需的能力。政治家(可能也就是上述這批人)則有義務考慮如何使用這些能力,以及使用之后的世界將會是什么樣子。

    在人工智能時代,我們應該對長期以來的戰略邏輯進行調整。在災難真正發生之前,我們需要克服,或者至少是遏制這種自動化的驅向。我們必須防止運行速度比人類決策者更快的人工智能做出一些具有戰略后果的、不可挽回的行為。防御力量自動化的前提是不放棄人類控制。該領域固有的模糊性,再加上人工智能的動態性、突出性及其傳播的便利性,將使評估復雜化。在此前的時代,只有少數幾個大國或超級大國有責任限制自己的破壞性能力,以避免發生災難。但不久后,隨著人工智能技術的擴散,更多的行為體也必須承擔類似的使命。

    當代領導人可以通過將常規能力、核能力、網絡能力和人工智能能力廣泛而動態地結合在一起,來實現控制武器裝備的六大任務。

    第一,相互對抗或敵對的國家的領導人必須定期對話,討論雙方都想避免的戰爭形式,就像美蘇在冷戰期間所做的那樣。為此,美國及其盟友應該圍繞其共同的、固有的、不可侵犯的利益與價值觀組織起來,這些利益和價值觀包括在冷戰結束后幾代人的經驗。

    必須對核戰略的未解難題給予新的關注,并認識到其本質正是人類在戰略、技術和道德方面遭遇的巨大挑戰之一。幾十年來,對廣島和長崎被核彈化為焦土的記憶迫使人們認識到核問題的不尋常性和嚴峻程度。正如美國前國務卿喬治·舒爾茨在2018年對國會所說:“我擔心人們已經失去了那種恐懼感?!睋砗藝业念I導人必須認識到,他們有責任共同努力,以防止災難的發生。

    網絡與人工智能技術的領先大國應該努力界定其理論和限制(即使其所有方面均未被公開),并找出自身理論與競爭大國之間的關聯點。如果我們的意圖是威懾而非使用,是和平而非沖突,是有限沖突而非普遍沖突,就需要以反映網絡和人工智能獨特蘊含的措辭來重新理解和界定這些術語。

    擁核國家應承諾對其指揮控制系統和早期預警系統進行內部檢查。這類失效保護檢查應確定檢查步驟,以加強對網絡威脅和在未經授權、疏忽或意外情況下使用大規模毀滅性武器行為的防范。這些檢查還應包括選項,以排除對核指揮控制系統或早期預警系統相關設施的網絡攻擊。

    世界各國,特別是技術強國,應制定強有力和可接受的方法,在緊張局勢加劇和極端情況下盡量延長決策時間。這應該成為競爭對手之間共同的概念性目標,將控制不穩定性和建立共同安全所需的步驟(既有當前的,也有長期的)聯系起來。在危機中,人類必須對是否使用先進武器承擔最終責任。競爭對手尤其應該努力就一種機制達成一致,以確保那些或許不可撤銷的決定是有利于人類生存的。

    主要的人工智能大國應該考慮如何限制軍事化人工智能的繼續擴散,或者依靠外交手段與武力威脅,開展系統性的防擴散工作。那些野心勃勃地想要將技術用于不可接受的破壞性目的的技術收購者會是誰?有哪些特定的人工智能武器值得我們特別關注?誰來確保這條紅線不被逾越?老牌的核大國探索過這種防核擴散概念,結果成敗參半。如果一種具有顛覆性和潛在破壞性的新技術被用于武裝世界上懷有最強烈敵意或道德上最不受約束政府的軍隊,那么戰略均勢可能難以實現,沖突也可能無法控制。

    由于大多數人工智能技術具有軍民兩用特性,我們有責任在這場技術研發競賽中保持領先。但這也同樣迫使我們去理解人工智能技術的局限性。等到危機來臨才開始討論這些問題就為時已晚了。一旦在軍事沖突中使用,人工智能技術的響應速度之快,幾乎注定它將以比外交手段更快的速度產生結果。大國之間必須就網絡和人工智能武器展開討論,哪怕只是為了形成一套共同的戰略概念話語,以及對彼此紅線的感知。要在最具破壞性的能力上實現相互制約,絕不能等到悲劇發生再去亡羊補牢。當人類開始在創造新的、不斷演化的、擁有智能的武器方面展開競爭時,設限的失敗不會被歷史原諒。在人工智能時代,對國家優勢的持久追求,仍須以捍衛人類倫理為前提。(作者:基辛格 來源:《安全與世界秩序》


    地方動態

    第十九屆海峽兩岸信息化論壇暨海峽兩岸數字經濟項目對接洽談會在廈門舉辦

    2023數字政府論壇在貴陽成功召開

    首屆中國數字化綠色化協同發展論壇勝利召開

    2023第六屆中國信息技術應用創新大會在京成功召開

    • 協會要聞
    • 通知公告
    国产一级在线观看_久久大香伊蕉在人线国产H_五月亭亭中文字幕_福利姬在线视频国产观看

      <acronym id="hmihg"></acronym>

      <table id="hmihg"></table>