【摘要】當前,伴隨著大國數字地緣競爭的日漸加劇,人工智能“武器化”趨勢日漸明顯。這突出表現為:在軍事領域,人工智能正被越來越多的國家用作軍事武器;在外交領域,計算外交正在掀起一輪智慧外交革命;在國內政治領域,人工智能正在越來越多地被用作一種政治干預工具。放眼未來,人工智能驅動的社會轉型業已拉開帷幕,在智能化浪潮的驅動下,人工智能將無所不在,傳統的國際競爭正在悄然演化為以數據和算法為核心的人工智能競爭。在此背景下,我們的社會比以往任何時刻都更加脆弱、更不安全,人工智能不僅是一種新質生產力和社會變革工具,也是一種前所未有的經濟競爭、軍事競爭與政治競爭武器,給國家安全和社會穩定帶來嚴峻挑戰。而要應對人工智能研發和應用帶來的技術風向變化,需要用計算思維來理解人工智能、以人工智能技術進步來治理人工智能所帶來的安全風險。
【關鍵詞】武器化 人工智能風險 計算政治 大國競爭
【中圖分類號】F49 【文獻標識碼】A
【DOI】10.16619/j.cnki.rmltxsqy.2025.09.009
【作者簡介】董青嶺,對外經濟貿易大學國際關系學院教授、博導,國家安全計算實驗室(CLNS)主任。研究方向為大數據科學與國際關系交叉研究,內容涵括大數據海外輿情監測與沖突預警、國際關系自然語言處理與社會情感挖掘、機器學習與國際關系智能分析。主要著作有《大數據與機器學習:復雜社會的政治分析》《復合建構主義:進化沖突與進化合作》等。
當前,伴隨著社會生活數字化和智能化趨勢的不斷發展,人工智能被用作一種國際競爭“武器”的態勢日漸明顯。這突出表現在:以數據公司和數據科學家為代表的人工智能精英正在成長為新的政治力量,新的社會結構和國際秩序正圍繞著人工智能應用展開;[1]現代社交網絡和數字平臺的蓬勃發展,使越來越多的政治活動被編程化的“社交機器人”和各種“算法偏見”所操控,[2]“智慧驅動型外交”正在引領人工智能時代的跨國政治傳播變革。尤其是在深度信息偽造、虛假信息傳播和政治“污名化”等方面,生成式人工智能技術正在改變傳統國際傳播策略與公共外交戰略。由此可見,人工智能工具及其算法應用不僅日益成為各國新質生產力的重要組成部分,而且也逐漸發展為各國綜合國力競爭的技術新利器。此外,以自主決策系統和致命性自主武器系統(LAWS)為標志的人工智能軍事化應用,正在引發新一輪軍備競賽。以智能決策和自主攻擊為特征的軍事機器人不僅重構了戰爭的形態,更對人類社會的倫理底線和全球安全治理體系構成了嚴峻挑戰。高度自主化的智能網絡和漫無節制的數據使用正在制造一個風險不可預測、責任難以追溯的新型安全困境。毋庸諱言,人工智能技術正以前所未有的深度和廣度嵌入政治運行與戰略競爭的基本邏輯之中,締造了一個“數據即生活、算法即權力、智能即統治”的時代。
數智社會:人工智能應用與“內嵌”的安全風險
放眼未來,人工智能驅動的社會轉型已然拉開序幕,未來社會本質上就是一個以人工智能驅動為基礎的數智社會。形形色色的人工智能工具和智能體不僅改變了人類現有的連接方式、交往方式、工作方式和學習方式,也因其全域滲透性、嵌入性,正在重構人類社會的時與空、虛與實以及人與機之間的界限。[3]在此背景下,傳統國際競爭將加速演變為以數據、算法和算力為核心的“計算競爭”。首先,在軍事領域,人工智能正越來越多被用作一種新式作戰武器。有學者認為,人工智能武器的研發與應用,特別是無人值守系統與智能作戰平臺的部署,將會革命性改變戰爭規則與交戰方式,給軍備競賽、危機管控和戰爭倫理帶來前所未有的挑戰。[4]在人工智能革命的驅動下,未來戰爭很可能會走向以智能對抗為主導特征的混合戰爭與智能戰爭形態。其次,在外交領域,計算外交正成為一種新型外交工作方式。依托超強算力支撐和可選擇的人工智能工具箱,計算外交將傳統國際關系理論、政治理論、決策科學與計算方法融于外交全過程,具體體現為外交態勢感知、外交決策過程、外交戰略執行與外交工作流程的算法化、自動化和智能化,諸如自動情報感知、仿真模擬政策執行以及即時追蹤政策反饋都將成為外交智慧化轉型的典型特征。[5]再次,在國內政治領域,人工智能機器人正被用作一種政治干預手段。作為數字政治中編程化的虛擬人格,不同類型政治機器人(也稱“數字水軍”或“機器軍團”)不僅可以獨立進行人機互動,還可以在機器與機器之間進行互粉、互轉和相互交流,使得政治信息操作可以在各個虛擬賬戶之間形成信息協同,進而創造“信息涌現”、人工生成輿論潮流。[6]就此而言,政治機器人常被別有用心的政治行為體隱秘地用于制造并支持各種誤導性言論,并通過“僵尸網絡”和自動代理強化錯誤信息和虛假信息的傳播,放大問題爭議點、煽動仇恨言論,制造政治兩極分化,進而影響政治行為體的選擇偏好,趁機攫取政治支持。
綜上所述,在萬物皆可計算的數智時代,數據即資源、算法即規則。作為一種“嵌入式”隱蔽工具,人工智能正在悄然演變為社會進步的核心驅動力和大國角力的焦點。在此背景下,人工智能逐步呈現“武器化”趨勢。就此而言,人工智能不僅已成為新的風險源和安全挑戰,其本身也在嵌入社會結構的過程中日漸成為權力塑造主體。這突出表現為以下兩方面。
第一,用于驅動人工智能決策的數據挖掘可能會帶來隱私泄露與政治脅迫。一些主張數據開放的學者認為,數據的價值在于開放、流動與不斷被使用,如果通過數據分析可以挖掘更多決策信息、精準定位安全對象和客觀預測競爭對手的戰略意圖,則基于數據的人工智能應用將會極大改善安全決策的質量、提高資源配置效率并最終促進和擴大國家利益。[7]然而,反對的觀點也極為尖銳,一旦毫無節制的數據分析變成安全政策的工具,由機器人參與或操控的戰爭決策很可能會使全球武裝沖突常態化,科學家、編程人員和游戲玩家等各色人員都有可能利用無人系統參與武裝沖突,機器攻擊程序的開源傳播和低廉制作成本,將塑造人人都擁有相互傷害能力的沖突進程。[8]就此而言,“如果未來有一天,機器和計算實現了對人類世界的全面接管,那么這種放棄就是末日的開端”。更為激進的觀點甚至想象,未來戰爭極有可能演變為一種“超個性化戰爭”(The Hyper-Personalization of War),[9]即在高度數字化的戰場環境中,敵對方或可通過網絡手段持續追蹤作戰人員的個體化數據,包括其在線行為、家庭結構乃至子女就學信息,進而制造“個性化威脅”、形成認知領域的“精準打擊”,使士兵無法專注作戰任務。毫無疑問,技術的迅猛發展固然極大提升了社會運行效率與個人生活的便利性,然而也暴露出相伴而生的脆弱性:從可穿戴設備到自動駕駛系統,從智能家居到3D打印技術,凡此種種皆可能被黑客操控,誘發災難性的安全風險。因此,在人工智能時代,我們的社會比以往任何時期都更加依賴技術,也更易受其反噬所傷,呈現出一種技術賦能與風險同步增長的狀態。
第二,用于實現人工智能功能的算法模型具有穿透性、嵌入性和泛在性。簡單來說,穿透性指的是算法能夠輕松越過國家的物理疆界,對他國進行悄無聲息的政治擾動,以至于傳統的國家物理疆界和主權原則形同虛設,在此意義上很多國家的內部動蕩與“網絡顏色革命”正日趨演變為他國算法干預的結果;嵌入性是指算法作為智能社會系統管理的一部分,總是被嵌入特定的社會情境,由某些特定行為體所開發和部署并應用于具體領域,通過嵌入性的調配資源和支配行動全面參與到人類社會生產、分配和決策等關鍵環節中,日趨演變為驅動各領域創新涌現、塑造人類認知并改變資源分配格局的重要力量;而泛在性則是指計算機與網絡形成了一個“無時不在、無處不在”的計算環境,算法與多元領域的深度耦合將物理空間與虛擬空間融合成一個龐大的數字生態系統,智能技術在嵌入社會結構的過程中通過隱性或顯性的規則形成了嵌入式、滲透性的泛在化權力。總體而言,用于實現人工智能功能的泛在化算法是所有事務自動化和智能化執行的核心,掌握核心算法即意味著擁有定義社會規則的絕對話語權。正是考慮到算法的穿透性、嵌入性和泛在性,智能社會的秩序重構正在以算法為中心展開,那些掌握算法開發、部署和使用的行為體將重塑權力分配格局。由此,伴隨著大量公共事務的決策從人的判斷日趨轉向機器的“判斷”,人類事務治理也日趨演變為算法的治理,一個由算法決策所建構的“算法社會”已隱約可見。
人工智能異化:技術濫用與非道德的機器
簡單來說,人工智能可能帶來的威脅是多方面的,而且越來越復雜。在智能化浪潮的驅動下,人工智能將無所不在,傳統的國際競爭正在悄然演化為以數據和算法為核心的人工智能競爭。就此而言,人工智能既是一種新質生產力和社會變革工具,也是一種前所未有的經濟競爭、軍事競爭與政治競爭武器,給國家安全和社會穩定帶來嚴峻挑戰。
首先,人工智能極大降低了網絡虛假信息生成的技術門檻和經濟成本,助長了網絡虛假信息的傳播和錯誤信息的泛濫。這突出表現為以下三個方面。一是各國政府、政黨組織、社會團體乃至恐怖組織正投入大量資源構建龐大的“網絡數字水軍”與“社交機器人軍團”,以系統化的方式實施計算宣傳。他們可以通過部署智能算法操縱的機器人,在社交平臺上有組織地操控話語空間,制造虛假共識,誤導輿論認知,進而實現其政治目標。更有甚者,將計算宣傳特別是“政治機器人軍團”納入“網絡戰武器庫”,作為國際競爭的關鍵戰略工具。二是用于支撐人工智能的任何算法模型,包括大語言模型,都帶有數據偏見和算法偏見,由此導致由人工智能所生成的內容并不總是中立的,而是潛藏一定政治傾向。在此情形下,人工智能一方面可以賦能政治戰略的制定與執行、造就新的政治權威;另一方面可能會因為輸出偏見而造成認知安全問題。三是算法賦能不僅使得虛假信息的甄別成本飆升,而且使技術上的偵測難度越來越大。過去數年間,假新聞泛濫現象正愈發凸顯。為應對這一挑戰,事實核查人員需投入大量精力,對政治演說、媒體報道、學術出版物及政府統計數據進行系統性驗證。然而,由于虛假信息的海量性以及病毒式的繁殖與變異能力,僅有極少數爭議性內容能夠接受全面的事實核查。據報道,美國假新聞檢測研究長期面臨學術關注不足、資金投入有限和制度支持匱乏等困境。相比之下,虛假信息的生成技術卻能獲得更多資源。這使得“制造謊言”遠比“消滅謊言”容易。在部分國家與地區,假新聞已經誘發擾亂公共輿論、操縱選舉結果與煽動游行示威等危機,嚴重破壞了國家政治穩定。
其次,人工智能賦能編程技術降低了編程成本、提高了編程效率、擴大了編程技術的普及范圍,這在一定程度助長了網絡犯罪和金融欺詐。一方面,以生成式人工智能為代表的新一代人工智能技術迅猛發展,顯著降低了獲取復雜代碼程序與功能應用的技術門檻,使個體能夠更輕易地發動網絡攻擊,重構了網絡安全的攻防格局。在此情形下,計算外交領域中有組織地網絡攻擊和協同輿論壓制呈現常態化與精細化趨勢。諸如利用ChatGPT所生成的AI代理人(AI Agent)模擬高度“類人化”的行為,通過注冊虛假賬戶、盜用他人身份信息、構造虛構的個人資料(如頭像、發布歷史、興趣偏好)以及生成大量虛假關注者網絡等手段,潛移默化地嵌入政治傳播鏈條。在此基礎上,人工智能通過生成并發布虛假政治聲明、偽造社會議題、擴散偏置信息等方式操控輿論。同時,輔之以程序化、自動化操作,如“自動點贊”“自動轉發”等方式,制造出虛假的政治互動氛圍,形成一種人機混淆的“情景幻覺”。此外,借助調用編程接口(API),政治機器人能夠模擬人類用戶與社交平臺之間的溝通模式,就特定議題展開預設式對話,進一步模糊了人機之間的界限。[10]另一方面,以FraudGPT為代表的人工智能作案工具的出現,使得網絡犯罪分子能夠低成本開展高質量的“網絡釣魚”活動,在幾秒鐘內幾無破綻地復制銀行網站,此類AI代理可被用來制作數百萬個針對特定受害者的個性化騙局。此外,以深度偽造為代表的生成式人工智能還可用于欺騙生物識別驗證系統,創建足夠復雜的欺詐性文檔和視頻,以繞過客戶識別系統和反洗錢程序,從而實現社會工程欺詐。
再次,人工智能技術被“武器化”運用于軍事、政治與外交領域,有可能會降低沖突門檻、誘發外交危機并造成倫理道德挑戰。這突出表現為以下三個方面。其一,作為一種滲透武器或隱蔽性破壞武器,人工智能技術正越來越多地被用于識別國家防御系統、企業網絡和關鍵基礎設施中的安全漏洞,通過自動化網絡偵察和滲透測試,人工智能可以自主決策、執行非人類道德控制的網絡攻擊,這些攻擊很可能會使軍事和民用通信失效,破壞交通、電網或金融體系,從而對國家安全和民眾的生命財產安全構成直接威脅。除潛在網絡威脅外,人工智能還降低了開發核武器、生物武器、自動黑客工具和惡意軟件的門檻,敵對國家和恐怖組織可能用有限資源制造非常規武器,從而加劇數智環境下的殺傷性武器擴散并帶來潛在道德風險。其二,人工智能訓練所內嵌的算法偏見會強化國家間業已存在的政治信任危機,引發兩國民眾之間的相互猜疑和“網絡罵戰”,進而破壞兩國和平交往的民意基礎,加之算法誤操作或算法本身設計缺陷觸發的網絡攻擊,很可能對國際關系造成重大影響。此外,在人工智能技術輕松易得且難以追蹤溯源的情形下,極端分子或第三方的算法陷害極易將整個國家拖入敵對或戰爭風險。其三,自主武器的使用可能會改寫戰爭規則并沖擊戰略穩定,引發新型軍備競賽。有學者擔憂,人工智能軍事武器的研發與應用將會使各國更難研判和評估彼此的軍事實力和戰略行動,大國間因人工智能應用而引發的猜疑和誤解將會加劇,“算法黑箱”問題將使軍備競賽風險進一步上升。[11]
綜上所述,作為一種新式競爭工具,人工智能武器能夠輕松越過國家的物理疆界,對他國進行悄無聲息的政治擾動和經濟打擊,以至于傳統的國家主權原則形同虛設。在數智時代,人工智能將被廣泛且頻繁應用于社會場景。就此而言,人工智能不僅已成為新的風險源和安全挑戰,其本身也在嵌入社會結構的過程中具有了安全本體的意義。
治理人工智能風險:以計算思維塑造計算時代的安全防護
伴隨著ChatGPT和DeepSeek的爆火,人工智能“奇點”將至,人工智能在給人們的社會生活帶來便利和機會的同時,風險和威脅也如影隨形。置身人工智能時代,合理利用人工智能已成為塑造新型競爭優勢、維護國家安全的重中之重。以美國為首的西方國家已把人工智能領域的競爭上升為國家優先戰略,未來國際秩序的重塑也正在以人工智能競爭為核心賽道展開。借助人工智能工具對推特(現為X)、谷歌和微博等平臺信息進行挖掘與計算,安全觀察者得以實現對復雜政治社會動態的前瞻性把握。人工智能不僅能夠服務于動態追蹤大規模城市抗議的空間分布與時間演化路徑,識別潛在的恐怖主義活動線索,還可輔助解析國家層面的戰略安全風險。政治實踐者借助人工智能工具對利益攸關人群進行精細劃分、對政治態勢進行整體感知、對危機進行預警和預測,提升了決策的科學性和政治溝通的效率。毫無疑問,盡管圍繞數據獲取的正當性、“算法黑箱”問題及隱私倫理問題的爭議仍廣泛存在,但人工智能嵌入安全研究與安全維護的趨勢已難逆轉。在某種意義上,由技術引發的安全風險需要采用技術思維和技術手段對抗,人工智能已成為維護國家安全的新利器。
就此而言,基于人工智能的安全治理本質是以計算對抗計算、用智能治理智能。簡單來說,安全治理的計算思維是一種典型的社會工程思維,它假定萬物皆數、萬物皆可計算,旨在利用系統科學方法和計算手段來理解社會系統的運行,即實現社會環境與社會行為的可監測、可計算與可評估。通過多源數據的即時監控和超高性能即時計算,人工智能工具正日益成為安全治理與政治決策的關鍵技術支點。通過對社交媒體、地理信息、傳感器數據及開源情報的深度整合與即時分析,人工智能系統不僅能夠實現對突發事件的快速感知、精準定位與動態追蹤,還能夠自動生成事件報告與危機預警,大幅提升應急響應與態勢評估的時效性與準確性。更為關鍵的是,這使得安全研究者與政治決策者得以在事態臨界點到來之前精準掌握潛在的沖突爆發點,進而部署前置性的政治溝通、風險化解與預防性外交戰略。
正是考慮到人工智能革命對現代商業體系、知識生產機制和政治運行邏輯的基礎性支撐作用,各國政府紛紛出臺“AI治國方略”,強調科學決策不僅依賴歷史經驗的真知灼見,更需基于客觀數據的態勢感知與精準識別。譬如,通過協同過濾算法篩選恐怖嫌疑人、以K-Means鄰近算法進行特征聚類分析、采用PageRank算法進行網絡鏈接分析,以及通過隨機森林算法進行分類預測等,這些基于人工智能算法的安全應用重在自動規避數據噪音、挖掘數據關聯,進而建立特征模式識別和進行分類預測。概括來說,作為數據、算法與算力的綜合運用,人工智能驅動的安全戰略較傳統安全戰略具有突出的即時信息捕捉、遠程監控和深度挖掘能力。算法之下,沖突全貌乃至沖突的每一個細節都一覽無余,有助于決策者在復雜危險的環境中精確識別沖突的類型及其特征,進而生成高效且具備較高可行性的危機管控行動和人道救援方案。總體而言,在對外溝通交往、國家安全維護和沖突預防領域,人工智能應用的場景時代已經來臨,世界各國正在競相推進基于人工智能驅動的安全理論創新與實踐模式布局。
首先,需要推進具有普遍共識和平衡多方利益關切的國際治理標準建設。人工智能威脅超越了國界,如果缺乏全球協調,人工智能的安全治理將無據可循、無規可依。就此而言,人工智能治理是一個全球性問題,而不僅僅是一個國家問題。鑒于人工智能應用的穿透性、嵌入性和泛在性,世界各國應齊心協力,確保政府和私營部門以及非營利部門在全球范圍內就共同的原則和可執行的保障措施保持一致,最低目標應是建立能夠確保人工智能安全發展的全球基線標準,并將人工智能安全措施納入國家政策體系與司法框架,同時推進跨國司法協調與執法合作,確保各國行動合規且步調一致。換言之,通過遵守公認的最低國際標準,開發人員和服務提供商可以展示其人工智能系統的可預測性和可靠性。如果沒有這樣的全球基準框架,人工智能的安全治理很可能陷于支離破碎、漏洞叢出的境況,讓犯罪分子有機可乘。
其次,助推人工智能安全技術與標準研究并激勵市場提供安全產品供應。在某種程度上,人工智能技術的快速發展超過了安全標準的開發和實施速度,加之人工智能技術的復雜性和多樣性,以及人們擔心過于嚴格的標準可能會扼殺人工智能行業的創新和競爭,這使得制定人工智能通用標準具有挑戰性。此外,當下各國政府和市場對人工智能開發進行了大量投資,但與人工智能安全相關的產品研發資金仍然嚴重不足。盡管存在這些障礙,人工智能標準化的前景依然充滿希望,人們越來越認識到讓廣泛的利益相關者參與標準化過程的重要性,包括人工智能開發人員,消費者和監管機構等,特別是國際標準化組織(ISO)、電氣和電子工程師協會(IEEE)等團體正在積極開發人工智能標準,這些努力集中于人工智能系統的術語、道德考慮和技術規范。另外,在市場激勵方面,政府和投資機構應充分發揮資金引導作用,可考慮為開發人工智能安全解決方案創造財務和運營激勵措施,包括重點投資和支持人工智能驅動的欺詐檢測、深度偽造身份驗證和高級網絡安全工具研究,應鼓勵將風險評估和對抗性測試整合到高風險人工智能應用程序中,并采用防御性人工智能機制來檢測和減輕對抗性操縱。
再次,建立人工智能透明度與問責機制、筑牢人工智能負責使用的安全門檻。隱私保護是監管人工智能訓練數據的主要挑戰,另外一個挑戰則來自數據偏差。如果用于訓練人工智能系統的數據存在偏見,人工智能系統很可能會產生不公平或歧視性的結果。因此,監管數據以確保其具有代表性和無偏見至關重要。就此而言,建立嚴密的法規體系可以幫助建立數據隱私、偏見和透明度標準,從而促進人工智能負責任和合乎道德的使用。概括來說,監管目標至少要涵蓋以下三點:一是數據的采集須是法律允許且經用戶授權同意的,在技術上合乎隱私保護的各項基本要求;二是算法的訓練須是透明和可解釋的,否則基于算法的決策無法被問責;三是監管的目的在于事前審查、事中防護與事后救濟,因而需要明確的風險評估機制和獎懲措施。當然,在不損害隱私或機密信息的情況下提高透明度可能較為困難,但是平衡安全和透明是安全使用人工智能所必需的。
綜上所述,人工智能已迅速成為我們日常生活不可或缺的一部分,影響著政治、軍事、外交、醫療、教育、金融和娛樂等不同領域。但由于人工智能的技術復雜性、快速發展和跨多個行業的廣泛應用,監管和治理人工智能風險越來越具有挑戰性。有效的人工智能治理機制需要立足理解人工智能的運行原理,以人工智能對抗人工智能、用人工智能治理人工智能,既要確保人工智能系統的可問責、透明度和公正性,也要促進良性競爭與防止濫用。
注釋
[1]董青嶺:《數據力量的崛起與新秩序的形成》,《世界知識》,2019年第20期。
[2][10]董青嶺:《數字外交中的深度偽造》,《中國信息安全》,2022年第10期。
[3][11]董青嶺、關意為:《算法的“武器化”:計算政治時代被嵌入的安全風險》,《東北亞論壇》,2025年第1期。
[4]朱啟超:《人工智能武器化的發展趨勢及治理策略》,《人民論壇》,2025年第2期。
[5]董青嶺、曹飛翠:《計算外交:基于智能驅動的外交革命》,《國際觀察》,2024年第2期。
[6]韓娜、孫穎:《國家安全視域下社交機器人涉華議題操縱行為探析》,《現代傳播》,2022年第8期。
[7]J. B. Aladetan, “Harnessing Big Data for National Security: A Review of Information Systems and Emerging Technologies in the U.S.,“ World Journal of Advanced Research and Reviews, 2024, 24(1).
[8]O. A. Osoba and W. Welser IV, “The Risks of Artificial Intelligence to Security and the Future of Work,“ RAND Expert Insights, 6 December 2017.
[9]C. J. Dunlap Jr., “The Hyper-Personalization of War Cyber: Big Data, and the Changing Face of Conflict,“ Georgetown Journal of International Affairs, 2014(15).
"Weaponization" of Artificial Intelligence and National Security in the Age of Digital Intelligence
Dong Qingling
Abstract: Currently, as the digital geopolitical competition among major powers intensifies, the trend of artificial intelligence "weaponization" has become increasingly evident. This is prominently manifested as follows: In the military field, artificial intelligence is increasingly being used by more and more countries as a military weapon; in the diplomatic field, computational diplomacy is triggering a round of smart diplomacy revolution; and in the domestic political arena, artificial intelligence is increasingly being used as a political intervention tool. Looking to the future, the social transformation driven by artificial intelligence has already begun. Under the impetus of the intelligent wave, artificial intelligence will be ubiquitous. Traditional international competition is quietly evolving into an artificial intelligence competition centered on data and algorithms. Against this backdrop, our society is more vulnerable and less secure than ever before. Artificial intelligence is not only new quality productive forces and a tool for social transformation, but also an unprecedented weapon for economic competition, military competition and political competition, posing severe challenges to national security and social stability. To cope with the technological trend changes brought about by artificial intelligence research and application, there is the need to understand artificial intelligence with computational thinking and manage the security risks brought about by the advancement of artificial intelligence technology.
Keywords: weaponization, artificial intelligence risks, computational politics, great power competition
責 編∕李思琪 美 編∕周群英
