【摘要】人工智能具有類人智慧性、廣泛滲透性和要素替代性,其顛覆性創(chuàng)新既帶來發(fā)展新機遇,也伴隨著“科技異化”和“創(chuàng)造性破壞”的風險,尤其是隨著弱人工智能向強人工智能不斷演進,人工智能可能引發(fā)倫理失范、就業(yè)沖擊和社會分化加劇等問題,并對全球應對氣候變化產生影響。面對人工智能全球性的風險挑戰(zhàn),需要針對當前碎片化的全球治理現(xiàn)狀,從價值取向、國家關系、治理優(yōu)先級、主體能力和技術手段等多個維度健全完善治理體系,推動人工智能造福全人類。
【關鍵詞】人工智能 包容普惠發(fā)展 可持續(xù)發(fā)展 治理體系
【中圖分類號】TP18 【文獻標識碼】A
【DOI】10.16619/j.cnki.rmltxsqy.2025.09.007
【作者簡介】彭緒庶,中國社會科學院信息化研究中心主任,研究員,中國社會科學院大學商學院教授,博導。研究方向為數(shù)字技術創(chuàng)新、數(shù)字經濟和科技創(chuàng)新政策。主要著作有《人工智能的文明挑戰(zhàn)與應對》(合著)、《中國智能經濟發(fā)展報告(2024~2025)》(合著)、《中美人工智能創(chuàng)新比較研究——國家創(chuàng)新能力理論視角的分析》(論文)等。
引言
人工智能旨在構建能夠模仿人類智能、執(zhí)行類似于人類思維和決策過程[1]的計算機系統(tǒng)。根據(jù)計算機系統(tǒng)與人類能力的對比,人工智能通常可分為計算智能、感知智能和認知智能三個層次,或將人工智能的發(fā)展分為弱人工智能、強人工智能和超級人工智能三個階段。計算智能早已在普通的計算機領域超過人類的計算能力。在感知智能層次,雖然還存在許多問題和不足,但自動駕駛系統(tǒng)的蓬勃發(fā)展表明,總體上計算機系統(tǒng)已具備接收與分析視覺和聽覺信號的能力。在一些特定領域,計算機系統(tǒng)甚至已經具備超過人類的能力。近年來,ChatGPT和DeepSeek等大語言模型不僅能分析和理解較為復雜的人類自然語言,還可以根據(jù)要求生成語言和動作內容,這反映出計算機系統(tǒng)正在實現(xiàn)從感知判斷向推理和內容創(chuàng)造的巨大跨越,表明以生成式人工智能為代表的人工智能正在迎來認知智能的“技術奇點”,也被認為是開啟了通用人工智能(Artificial General Intelligence,簡稱AGI)的序幕。
盡管無法預知完全超越人類甚至擺脫人類控制的超級人工智能何時到來,但整體能力達到接近甚至等同人類水平的強人工智能時代可能正在到來。由于傳統(tǒng)技術普遍不具有生命和自主能力,其創(chuàng)新往往都是服務人類適應、利用和改造自然的目的,而發(fā)展人工智能的目的正是實現(xiàn)機器去做只有人才能做的智能工作。[2]由于強人工智能具有跨領域、跨學科的全方位智能優(yōu)勢,一旦研發(fā)成功并廣泛應用,人類社會的經濟、政治等多方面都將會受到巨大沖擊,強人工智能很可能凌駕于人類智能之上,產生倫理、法律和安全等方面的問題。
“人工智能會導致大面積失業(yè)甚至讓人類滅絕嗎?”《經濟學人》的這一封面文章[3]曾被認為是危言聳聽。但比爾·蓋茨和馬斯克等眾多業(yè)內企業(yè)家和科學家的公開信指出,“強人工智能可能代表了地球生命史上的深刻變化”[4],不僅將推動重建生產要素,重構生產生活方式,重塑產業(yè)組織和產業(yè)形態(tài),也將改變人與組織、人與技術的關系。盡管人工智能對經濟社會乃至人類自身發(fā)展帶來的紅利遠大于風險挑戰(zhàn),但從近年人工智能發(fā)展來看,其“技術異化”和“顛覆性破壞”必將遠超過歷史上的技術革命,具有自主意識和行動能力的人工智能甚至可能“對社會和人類構成深遠的風險”。應對人工智能快速發(fā)展,“持續(xù)努力解決道德、社會和監(jiān)管挑戰(zhàn)對于負責任和有益的大規(guī)模采用至關重要”[5]??紤]到技術與經濟社會共生的復雜性,構建包容、普惠和可持續(xù)的全球人工智能治理體系應該是當下發(fā)展人工智能的應有之義。
人工智能的技術經濟特征
人工智能是一項涵蓋計算機、通信、數(shù)學、統(tǒng)計學、心理學等多領域技術和多學科知識的綜合性集成技術創(chuàng)新,其利用大數(shù)據(jù)結合超強算法算力,逐步將計算機系統(tǒng)的自動化能力和自主能力推向更高層次和更智能化的領域。不同于以往的信息技術,人工智能具有獨特的技術經濟特征,這正是需要強化其技術治理的重要原因。
基于自主學習的類人智慧性。擁有超大規(guī)模參數(shù)并經過海量數(shù)據(jù)預訓練的人工智能不僅可以利用數(shù)據(jù)產生新知識,生成可以用于對事物進行有效預測的模型,還可以修改甚至自主設定相關規(guī)則。[6]這種智能化決策可廣泛應用于電子商務平臺、自動駕駛、司法裁判、醫(yī)療和金融等領域,顯著提高決策效率,減少決策時間和成本。更重要的是,人工智能展現(xiàn)出從數(shù)據(jù)中自主學習和不斷提高性能、改進決策的能力,這種通過學習實現(xiàn)成長的特性,正是人類智慧的體現(xiàn)。人工智能雖然尚未具備完全的自我意識、自我更新、自主決策和行動能力,但這種基于自主學習的自我成長能力仍然是其他技術無法實現(xiàn)的。有研究甚至認為,當前人工智能發(fā)展水平正處于由弱人工智能轉向強人工智能的過渡期,正在達到無需人類介入,僅依靠自身也能夠自主獨立完成工作任務的發(fā)展水平。[7]
基于通用目的的廣泛滲透性。與電力、汽車、電腦和互聯(lián)網一樣,人工智能屬于通用目的技術。其不僅可以應用于生產,還可以集成于產品和服務中,甚至可以應用于組織再造。這表明人工智能用途廣泛,幾乎可以應用到所有行業(yè)和場景,形成廣泛的滲透性,即某項技術所具備的能夠與社會各個行業(yè)、生產生活各個環(huán)節(jié)相互融合并改變經濟運行方式的重要特性。這種廣泛滲透性不僅推動了各行業(yè)的智能化轉型,還提高了生產效率和產品質量,推進了經濟的發(fā)展。雖然目前人工智能所產生的影響可能還主要是局部性的,但廣泛滲透性也意味著人工智能具有影響全局的潛力。[8]
基于效率提升的要素替代性。人工智能應用的主要目的是提高效率、降低成本,即在同等產出下,使用更少的勞動和資本。人工智能可以與勞動、資本和技術等其他生產要素結合,促使不同要素之間優(yōu)化協(xié)調,降低各要素生產過程中的摩擦成本,提高資源配置效率。相應地,人工智能在改變傳統(tǒng)要素稟賦結構的同時,也對傳統(tǒng)要素市場形成了巨大的外生沖擊,突出表現(xiàn)為其對勞動力、資本、技術等要素領域產生的深刻影響。[9]例如,人工智能通過在技術上提升機器自動化程度減少勞動力使用,同時提供了一種名為“智能自動化”的虛擬勞動力,其既可以作為提升生產率的工具,又可以作為一種全新的生產要素。[10]人工智能的替代性體現(xiàn)在其生產要素的連續(xù)積累,以及對資本和勞動等其他要素逐步替代的過程。其應用可以同時體現(xiàn)為勞動節(jié)約型技術進步和資本節(jié)約型技術進步。相比于一般技術,人工智能的集約性特征更為鮮明和顯著。
實現(xiàn)人工智能包容、普惠和可持續(xù)發(fā)展面臨的挑戰(zhàn)
人工智能作為典型的“雙刃劍”,始終伴隨著機遇和風險。其高通用性和廣泛滲透性特征,既可賦能千行百業(yè),影響千家萬戶,也可能引發(fā)經濟社會各領域的系統(tǒng)性風險,影響范圍從個體延伸到國家層面。隨著人工智能技術的不斷發(fā)展和逐步普及,其帶來的倫理、法律、社會等問題也日益凸顯。在此背景下,如何有效治理人工智能,確保其包容、普惠和可持續(xù)發(fā)展,成為全球共同面臨的挑戰(zhàn)。
人工智能發(fā)展不能排除“科技異化”和“創(chuàng)造性破壞”。創(chuàng)新具有二重性,很多技術在應用中都可能產生負面、消極甚至是否定性的影響,這種情況被稱為技術異化或科技異化,即當科技的外在使用和社會效用方面產生了非預期結果,甚至背離了人的本性、基本價值和社會規(guī)范,可能使其從賦能工具轉變?yōu)榧s束、威脅和損害人類發(fā)展的力量。例如,以蒸汽機等為代表的科技革命極大提高了物質和勞動生產率,但人類的貧富差距也在不斷拉大,催生了無產階級和資產階級這兩大對立的群體。同時,大量開采利用自然資源和能源,加劇了能源資源短缺、環(huán)境污染和生態(tài)破壞。核技術的出現(xiàn)開辟了新的能源利用渠道,但核武器在設計和生產之初卻在一定程度上被賦予了“惡”的屬性和用途。
重大技術創(chuàng)新還可能出現(xiàn)如奧地利經濟學家熊彼特所提出的“創(chuàng)造性破壞”現(xiàn)象。例如,紡織機械和工廠代替了手工作坊和眾多手工業(yè),汽車和火車的普及徹底終結了馬車時代,電視的出現(xiàn)大幅壓縮了廣播的市場空間,網絡媒體深刻沖擊了傳統(tǒng)紙媒和電視行業(yè)的發(fā)展。歷史和實踐表明,創(chuàng)新程度越高,越容易導致“創(chuàng)造性破壞”,且破壞效應往往越顯著。例如,當電子商務替代社區(qū)實體店時,就業(yè)替代和產業(yè)形態(tài)變革僅僅是沖擊的一個側面,社會組織、勞動關系、人際關系、傳統(tǒng)文化、社區(qū)文化,甚至農村變遷與城市化等方面,都將因為技術創(chuàng)新和相應的業(yè)態(tài)創(chuàng)新而受到沖擊。
科技發(fā)展必然產生不以人意志為轉移的消極影響。人工智能追求的是對人類智能的鏡像,[11]天然具有類人化甚至替代人類的傾向性和目的性,其對人類自身發(fā)展和實踐的沖擊將更為深遠和復雜。從近期實踐來看,人工智能將是信息化歷史上繼計算機和互聯(lián)網之后的革命性創(chuàng)新,其引發(fā)的智能革命或將超越電力革命和信息革命,在這一進程中,“科技異化”現(xiàn)象和“創(chuàng)造性破壞”效應幾乎無法避免。
人工智能可能引發(fā)前所未有的技術倫理風險。人工智能本身可能存在的偏見改變了傳統(tǒng)上技術的中立性,其顛覆性和普適性正在從根本上改變人與技術的關系,進而影響人與人的關系,使得人類需要審慎評估人工智能技術體系的道德屬性,審視技術對人類個體和整體的影響。其一,人工智能可能引發(fā)數(shù)據(jù)濫用和權利(如隱私權)侵蝕,甚至滋生操縱風險。人工智能發(fā)展和應用都離不開大量數(shù)據(jù)支撐訓練和創(chuàng)新迭代升級,這可能誘使某些人工智能公司或系統(tǒng)大規(guī)模采集甚至非法獲取用戶數(shù)據(jù)。例如,美國Clearview AI非法抓取超過30億張社交媒體照片構建人臉數(shù)據(jù)庫,并據(jù)此深度挖掘整理出具體個人姓名、家庭和工作地址、聯(lián)系方式、社交關系網絡和社交活動等信息,相關數(shù)據(jù)在被提供給美國司法部、美國聯(lián)邦調查局(FBI)等多個聯(lián)邦機構和沃爾瑪、美國職業(yè)籃球聯(lián)賽(NBA)等多個商業(yè)、金融和文化娛樂機構的同時,還遭到大規(guī)模泄露。英國公司劍橋曾違規(guī)獲取美國臉書公司5000萬用戶數(shù)據(jù)信息干預美國選舉。我國也有個別企業(yè)利用人工智能識別學生表情、坐姿和行為進行教學質量評估,引起廣泛爭議。更有甚者,有個別社交媒體和網絡游戲利用人工智能技術使用戶產生過度依賴或沉迷等問題。更值得警惕的是,當前正在快速發(fā)展的情感人工智能、社交機器人和陪伴機器人等,可能帶來心理操縱的風險。例如,用戶過分沉溺于通過人工智能進行互動交流和娛樂,與周圍的人聯(lián)系減少,可能導致人際關系疏遠,產生孤獨感,進而加劇心理健康問題。
其二,數(shù)據(jù)和算法偏見可能影響社會公平,甚至造成社會公共信任危機。人工智能存在數(shù)據(jù)規(guī)模不足和數(shù)據(jù)偏見等問題。例如,醫(yī)學人工智能訓練的X光片主要來自患者群體,數(shù)據(jù)采樣或設計算法的人有意偏向收集某些數(shù)據(jù);[12]歷史或某些特定地區(qū)的數(shù)據(jù)可能存在不公平、偏見或歧視與特定群體存在聯(lián)系,如將女性名字與“home”“family”“children”聯(lián)系,將男性名字與“business”“executive”“salary”“career”聯(lián)系起來。[13]同時,無論是數(shù)據(jù)的采樣偏見、歷史偏見、地域偏見還是標注偏見,或是算法編寫者價值觀、失誤等導致的偏見,都可能被傳遞到人工智能的生成內容或選擇判斷上,引發(fā)人們對社會公平的擔憂。例如,美國亞馬遜公司用于簡歷篩選的人工智能程序因訓練數(shù)據(jù)男性居多而歧視女性簡歷;[14]Airbnb算法對黑人頭像用戶顯示更高拒租率;社交媒體平臺的推薦算法往往給用戶推薦他們已經關注的用戶或喜歡的內容,而不推薦其他觀點或信息。
其三,人工智能自主能力提升正在顛覆人機關系,意識爭議引發(fā)人機對齊疑慮。2022年6月,谷歌一位工程師因公開稱人工智能“有意識、有靈魂”而遭到停職。科學界對人工智能是否具備意識仍存在爭議,但人工智能的自主能力正在快速提升是毋庸置疑的。諸如自動駕駛、無人自主武器等的發(fā)展表明,無論人工智能是具備自主能力還是自主意識,我們都必須思考人工智能的權利和道德地位,尤其是社會和法律地位。例如,是否應該給予人工智能某些權利?其權利是否應該與人類的權利平等?我們如何平衡人工智能的權利和社會其他成員的權利?人工智能是否應該或如何對其行為負責?
人工智能就業(yè)替代效應可能帶來就業(yè)沖擊風險。人工智能正在深刻改變著人類生產生活方式,其在推動產業(yè)和經濟結構改變的同時,也在深刻影響就業(yè)結構。人工智能不僅能提高傳統(tǒng)要素的效率,也可能直接替代傳統(tǒng)要素,包括節(jié)約和替代勞動力,給就業(yè)市場帶來一定沖擊風險。
一方面,人工智能具有顯著的就業(yè)替代效應。人工智能能夠以更低成本執(zhí)行重復性高、危險性高,以及依賴簡單決策或者大規(guī)模計算的工作,而類似工作此前通常是由人類完成的。研究發(fā)現(xiàn),在人工智能應用初期,資本對勞動的替代效應顯著,人工智能替代原本由勞動力執(zhí)行的任務,導致勞動力需求減少,低附加值的勞動力份額下降,短期內造成就業(yè)總量下降,[15]主要替代的是人工智能擅長的程序化工作和部分非程序化工作,如搬運、駕駛、影像診斷等。Gartner研究估算,2024年,客戶服務領域有超過25%的工作實現(xiàn)了人工智能的就業(yè)替代。[16]長期來看,隨著人工智能應用范圍的不斷拓展,其就業(yè)替代的范圍會越來越廣,替代效應會越來越明顯。國際貨幣基金組織(IMF)測算,發(fā)達經濟體、新興市場國家和低收入國家就業(yè)受人工智能影響的比例分別為60%、40%和26%,平均而言,接近40%的全球就業(yè)將面臨被人工智能替代的風險。[17]中國人民大學相關研究團隊指出,中國城鎮(zhèn)勞動力市場被人工智能技術替代的潛在比例為45%(見表1)。相似的研究也認為,因為人工智能會引發(fā)職業(yè)替代風險,中國19.05%的勞動就業(yè)都面臨高替代風險。[18]
表1
另一方面,人工智能大規(guī)模應用可能催生失業(yè)風險。對一般技術而言,盡管新技術可能產生就業(yè)替代效應,但由于所有新技術也都可能同時產生就業(yè)的創(chuàng)造效應和補償效應,因此,新技術的凈就業(yè)效應未必會導致失業(yè)。由于人工智能發(fā)展初衷就是模擬人類智能,其在大幅提升資本和勞動效率之時,產生就業(yè)替代效應也比此前任何技術進步的影響都要顯著。與此同時,人工智能的快速發(fā)展將引發(fā)職業(yè)技能與市場需求之間的錯配問題。隨著技術迭代速度不斷加快,技能過時成為普遍現(xiàn)象,許多現(xiàn)有職位所需的技能正面臨被新興技術淘汰的風險,教育與培訓機構更難以跟上人工智能創(chuàng)新步伐,導致培養(yǎng)的人才難以滿足市場需求。因此,如果人工智能技術快速普及,而就業(yè)制度缺乏靈活性,可能引發(fā)較大失業(yè)風險。例如,自動駕駛迅速普及可能導致公共交通行業(yè)不能適應新崗位需求的司機和管理人員失業(yè)。世界經濟論壇預測,未來五年內,全球勞動力市場將出現(xiàn)23%的結構性崗位流失和44%的工人技能面臨重構,雖然有6900萬個新工作崗位誕生,但淘汰的崗位數(shù)量高達8300萬個,導致崗位絕對數(shù)量下降約1400萬個,約占全球總就業(yè)總量的2%。[19]還有研究認為,由于人工智能的影響和沖擊,47%的美國勞動者或將面臨失業(yè)。[20]
此外,人工智能推動就業(yè)結構走向“兩極化”。隨著人工智能技術的不斷進步,勞動力市場正經歷結構性變化,呈現(xiàn)“兩極化”趨勢,即高技能認知工作與低技能手工工作的就業(yè)機會持續(xù)增加,而中等技能的常規(guī)性工作崗位則面臨減少的壓力。這種分化源于編程、數(shù)據(jù)分析、企業(yè)管理復雜決策和科學研究等高技能工作,需要創(chuàng)造性思維和深厚的專業(yè)知識,這些都是人工智能難以完全替代的領域。而如清潔、美容美發(fā)和餐飲服務等低技能工作,由于其勞動強度高且自動化成本過高,因此仍然需要人工執(zhí)行。然而,中等技能工作,尤其是流程化和標準化的任務,如某些制造業(yè)作業(yè)、文書工作等,很容易被人工智能和機器人技術取代。就業(yè)結構的“兩極化”趨勢不僅會影響勞動者的就業(yè)選擇,也對現(xiàn)行教育體系提出了嚴峻挑戰(zhàn)。
人工智能引發(fā)的“智能鴻溝”存在加劇兩極分化風險?;ヂ?lián)網興起之初,人們就意識到對互聯(lián)網等信息技術工具掌握和應用的差距將導致在不同群體和不同產業(yè),以及不同國家和地區(qū)之間形成數(shù)字鴻溝。人工智能具有機器、技術及軟件的本質屬性,其應用對于新進入者和新用戶等群體必然存在一定技術認知、資源獲取、創(chuàng)新能力和使用成本等方面的門檻或壁壘,不同群體、企業(yè)和行業(yè),甚至不同國家地區(qū)之間,由于對人工智能存在認知和信息差異,以及技術創(chuàng)新和技術應用等方面存在差異,同樣會導致發(fā)展機會、收入、社會權利等呈現(xiàn)兩極分化現(xiàn)象。“智能鴻溝”實際上是“數(shù)字鴻溝”在人工智能時代的新體現(xiàn)和新形態(tài)。
國家分化可能形成智能科技霸權,加劇南北差距。從技術發(fā)展來看,人工智能研發(fā)需要大量科技人才、巨額資本和海量數(shù)據(jù),這使得大國尤其是發(fā)達國家相比于發(fā)展中國家和小國,不僅擁有人才、技術和資金優(yōu)勢,還擁有眾多掌控核心資源和巨大影響力的跨國人工智能企業(yè),從而更易于形成技術先發(fā)優(yōu)勢。與此同時,發(fā)達國家和跨國公司通過壟斷芯片、算法、模型和操作系統(tǒng)等人工智能核心技術,控制關鍵數(shù)據(jù)、產業(yè)生態(tài)和標準制定權,導致其與發(fā)展中國家之間形成巨大技術鴻溝和基礎設施差距,不僅讓發(fā)達國家跨國人工智能巨頭獲取巨額收益,還可能將發(fā)展中國家綁定在數(shù)據(jù)資源和應用市場供給者的地位,遏制甚至是扼殺其創(chuàng)新能力,進而將發(fā)展中國家鎖定在產業(yè)鏈低端。例如,歐美企業(yè)掌控80%的非洲互聯(lián)網流量,并將其數(shù)據(jù)用于訓練大模型,非洲卻無法獲得任何收益。多數(shù)國家缺乏自主開發(fā)主權人工智能的能力與人工智能治理的話語權,在接受歐美人工智能技術的同時,不僅被迫接受其輸出的價值觀和文化乃至“西方文明優(yōu)越論”,更面臨西方社交媒體算法操縱選舉和社會政治運動的風險。此外,發(fā)展中國家在國防、金融等關鍵領域高度依賴外國人工智能系統(tǒng),智能科技霸權可能成為推行強權的重要工具。例如,拉美國家采用人工智能風控模型制定經濟政策,可能導致國家重要決策權受制于外部資本,暗含巨大的國家經濟安全風險。近年來,美國等發(fā)達國家聯(lián)合少數(shù)盟友,通過掌控高端GPU供應鏈和人工智能專利等手段,肆意打壓圍堵中國等發(fā)展中國家的人工智能研發(fā)與應用,其目的顯然是維持自身的人工智能技術先發(fā)優(yōu)勢,迫使其他國家形成對美國的技術依附,并通過掌握先進人工智能技術對他國發(fā)展產生重要影響,這是一種典型的智能科技霸權和數(shù)字殖民主義行徑。
從技術應用來看,與發(fā)展中國家相比,發(fā)達國家不僅擁有先進的寬帶網絡、高性能計算設備、人工智能云服務、智能算力集群等新型基礎設施,還有更便捷和更低成本接入人工智能技術的機會,同時,這些國家為勞動力提供的人工智能教育和培訓條件也更優(yōu)越,使其更易獲益于人工智能技術的發(fā)展,這種差異可能導致兩類國家之間發(fā)展差距不斷擴大。
企業(yè)分化可能形成超級企業(yè),弱化中小企業(yè)能力。首先,人工智能正在重塑產業(yè)組織,技術壟斷和效率的提升助推超大型企業(yè)的形成。人工智能的應用有利于大企業(yè)對生產流程進行基于數(shù)據(jù)驅動的智能化重構,通過優(yōu)化資源配置和供應鏈產業(yè)鏈管理,進行更精準的營銷和更有效率的研發(fā),從而推動企業(yè)做大做強。例如,大型醫(yī)藥企業(yè)可以利用人工智能分析影像和病例等海量數(shù)據(jù),利用先進的人工智能算法進行藥物分子篩選,進而提高藥物研發(fā)效率和降低研發(fā)成本,提升企業(yè)競爭力。沃爾瑪?shù)却笮瓦B鎖超市通過整合銷售和多源數(shù)據(jù),能夠精準優(yōu)化采購策略和庫存管理,進行針對性營銷和定價。從管理的角度來看,傳統(tǒng)上認為當企業(yè)組織規(guī)模過大或涉及業(yè)務領域過于廣泛時,往往會面臨管理協(xié)調效率下降的難題,然而,人工智能技術在企業(yè)管理中的應用能使企業(yè)運營更加透明和精細化,人工智能工具可以有效替代傳統(tǒng)中層管理的監(jiān)督和協(xié)調職能,縮短決策鏈條并降低管理成本,使組織更加趨于扁平化和透明化。這種技術變革優(yōu)勢和全方位的效率提升,正推動各行各業(yè)涌現(xiàn)出越來越多突破傳統(tǒng)規(guī)模限制的“巨無霸”企業(yè)。其次,人工智能將重構商業(yè)競爭格局,大企業(yè)“贏者通吃”,壓縮中小企業(yè)的發(fā)展空間。與國家間的分化類似,無論是在技術研發(fā),還是數(shù)據(jù)、資本等資源獲取,乃至技術應用、產業(yè)生態(tài)建設、標準制定和市場開拓等方面,大企業(yè)尤其是跨國公司相較于中小企業(yè)都具有更大的優(yōu)勢和便利條件。人工智能的發(fā)展必然推動資本和市場向技術密集型,尤其是向人工智能技術密集型企業(yè)集中,形成人工智能驅動的新型平臺企業(yè),這將進一步削弱傳統(tǒng)企業(yè)和中小企業(yè)的勞動力優(yōu)勢。例如,微軟、谷歌、亞馬遜等5家企業(yè)占據(jù)全球人工智能軟件市場份額的70%以上,OpenAI占據(jù)全球大模型訪問流量的20%以上。同時,超級企業(yè)還可能通過人工智能建立生態(tài)壟斷,形成對中小企業(yè)的強大控制力。以亞馬遜為例,其平臺聚集了全球約950萬中小企業(yè)賣家,這種超大規(guī)模的供應鏈管理在傳統(tǒng)商業(yè)模式下是無法想象的。通過人工智能算法,亞馬遜能夠自動比對商品價格,一旦商品價格超過平臺限價或類似商品價格,則商品無法上架出售。此外,中小企業(yè)還經常“被迫”參與平臺企業(yè)發(fā)起的節(jié)慶營銷活動,缺乏經營自主權,而亞馬遜擁有包括云和平臺在內的完整生態(tài)系統(tǒng),可以通過人工智能算法控制商品流量,并將其以“流量加速包”的產品形式賣給中小企業(yè)。在這種模式下,中小企業(yè)失去了產品定價權和營銷權,只能靠低價而不是靠產品創(chuàng)新來拼銷量。最后,人工智能推動權力格局重構,技術驅動的超級企業(yè)獲得了隱形超級權力。人工智能離不開網絡、算力和數(shù)據(jù),在不同產業(yè)、企業(yè)、部門,甚至個體之間形成了天然的連接關系。例如,在澳大利亞等西方國家,公共交通運行數(shù)據(jù)全部接入谷歌地圖,谷歌控制的移動生態(tài)壟斷了超過70%的市場份額。人工智能驅動的超級企業(yè)正在演變?yōu)榭刂平洕鐣\行的中樞。在一些較小的國家,這些掌控經濟社會運行數(shù)據(jù)的超級大企業(yè),正利用人工智能技術和生態(tài)優(yōu)勢成為地緣政治的科技代理人。
個體分化擴大收入離散程度,可能加劇不平等。一是人工智能可能影響個體收入分配。人工智能技術在引發(fā)勞動崗位加速更迭的同時,由于對不同技術部門的生產率提升存在顯著差異,可能導致適應人工智能需求的高技術部門與落后部門的收入差距持續(xù)擴大。處于產業(yè)智能化發(fā)展期和上升期的產業(yè),更容易享受到崗位替代效應與生產率效應帶來的紅利,從而獲得更多發(fā)展機會和更高收入。[21]此外,掌握人工智能相關知識與技能的勞動者,相比其他缺乏相關訓練和基本素養(yǎng)的群體,能更好利用人工智能工具提高工作效率,適應由人工智能引起的就業(yè)結構和產業(yè)變化,捕獲由此產生的新機遇。因此,這種差異將導致不同群體間,如青年群體和老年群體,城市勞動者和鄉(xiāng)村勞動者,在發(fā)展機會方面形成比代際鴻溝、城鄉(xiāng)鴻溝、教育鴻溝等傳統(tǒng)差距更為深刻的“智能鴻溝”。相應地,如果缺乏制度層面的干預和對弱勢群體的扶持,這種技術應用能力的差異將不可避免地加劇收入兩極分化。二是人工智能技術可能降低勞動收入份額。有國外學者研究認為,自動化技術進步會降低勞動的收入份額,其中對重工業(yè)部門勞動力的影響最為嚴重。[22]人工智能雖然能提升人均GDP和工資水平,但由于其資本偏向性的特點,其通過用資本替代勞動,將減少勞動收入份額,進一步擴大了資本和勞動要素收入差距。近年來,西方很多人工智能企業(yè)的收入分配實踐表明,人工智能技術確實提升了企業(yè)生產率并節(jié)約了成本,進而增加了這些企業(yè)的利潤和市場競爭力。然而,這些利潤往往優(yōu)先分配給企業(yè)的高層管理者和擁有相關技術所有權的人,而那些在基層崗位的普通員工往往難以公平分享技術發(fā)展帶來的紅利。三是人工智能可能導致中等收入階層規(guī)模壓縮。由于高技能勞動通常需要復雜的判斷力和創(chuàng)造力,難以被自動化取代,反而因智能技術應用范圍的擴大而需求增加。相比之下,自動化往往導致標準化和重復性的低技能工作減少,這些工作的勞動者可能會因此失業(yè)或被迫接受低收入的工作。因此,盡管人工智能對中低技能勞動力的收入影響更大,在拉大高低收入群體差距的同時,也擴大了社會收入的離散程度,與此同時,人工智能導致的職業(yè)崗位替代效應,還可能意味著較高收入的工作和較低收入的工作都在增加,而傳統(tǒng)的中等收入崗位減少,導致中產階級規(guī)??s減。四是人工智能加劇全球收入分配不平等。在影響收入分配及其不平等程度的影響因素中,技術是其中之一。根據(jù)內生增長理論,任何技術進步都可以提高人均收入水平,也會增加收入水平的離散度。同樣,人工智能不僅可以提高收入水平均值,同樣也會增加收入水平方差。2009~2019年對50個國家的調研數(shù)據(jù)顯示,人工智能投資較高的國家往往存在較嚴重智能鴻溝現(xiàn)象,相應地,這些國家收入不平等的程度也呈現(xiàn)加劇趨勢。[23]本文基于對2019年55個國家人工智能專利申請數(shù)量與基尼系數(shù)的初步研究分析發(fā)現(xiàn),專利申請數(shù)量大的國家通?;嵯禂?shù)也相對較高,間接證實專利指標衡量的智能技術投資和技術鴻溝與收入不平等之間存在顯著相關性,一個重要原因就是人工智能使得勞動者技能加速分化,并通過職業(yè)崗位替代效應等進一步加劇了社會收入不平等程度。
人工智能引發(fā)“能源競賽”,加大全球應對氣候變化的挑戰(zhàn)。雖然人工智能發(fā)展有利于完善生產過程控制和提高生產自動化水平,可以極大提高生產中的資源能源利用效率,也可以為污染物和溫室氣體排放動態(tài)精準檢測和防控管理提供低成本高效率的技術工具,還可以賦能綠色技術創(chuàng)新,進而促進污染物和碳減排,然而,也不應忽視,至少在短期內,在局部地區(qū),人工智能可能加劇能源供應緊張,甚至加劇溫室氣體和污染物排放,加大全球應對氣候變化的挑戰(zhàn)。
人工智能具有能源密集型特征。“大算力+大數(shù)據(jù)”的高強度訓練是當前生成式人工智能研發(fā)必不可少的條件,這一過程依賴高性能GPU/TPU集群,需要消耗大量電力。斯坦福人工智能研究所發(fā)布的《2023年人工智能指數(shù)報告》指出,ChatGPT-3單次訓練電耗約為128.7萬度,二氧化碳排放量約為552噸,大約相當于120個美國家庭年用電,3000輛特斯拉汽車分別行駛20萬英里,或者紐約至舊金山飛機往返550次的碳排放量。同時,人工智能應用過程中需要數(shù)據(jù)中心大算力支持,而數(shù)據(jù)中心散熱需要額外電力消耗。同樣以ChatGPT-3為例,按照每天2億次用戶請求響應計算,其電耗約為50萬度,相當于1.7萬個美國家庭日用電量,約排放溫室氣體210噸。ChatGPT-4訓練電耗更高達ChatGPT-3的40倍,日常運行電耗顯然更高。國際能源署《人工智能與能源》研究報告顯示,GPT-4訓練了14周,每日電耗約為發(fā)達經濟體2.85萬個家庭或者發(fā)展中經濟體7.05萬個家庭的日用電量。數(shù)據(jù)中心是支撐人工智能發(fā)展的重要基礎設施。容量100兆瓦的超大規(guī)模數(shù)據(jù)中心年消耗電力大約相當于10萬戶家庭電耗。國際能源署發(fā)布報告顯示,2024年全球數(shù)據(jù)中心就消耗了1.5%左右的全球電力。預計2026年,全球數(shù)據(jù)中心能源消耗超過1000太瓦時,約相當于日本的用電量。預計到2030年,全球數(shù)據(jù)中心的電力需求將增加一倍以上,達到約945太瓦時,相當于全球總用電量的近3%。若將人工智能發(fā)展需要的芯片和數(shù)據(jù)中心設備生產等環(huán)節(jié)的能耗考慮在內,其總體能耗顯然更為驚人。
人工智能競賽正演變?yōu)槟茉锤傎悺?ldquo;AI的盡頭是電力”,媒體的戲謔之語形象地反映了電力在人工智能發(fā)展中的關鍵作用。隨著人工智能快速發(fā)展,電力需求呈指數(shù)級增長。根據(jù)新摩爾定律,2024到2025年,人工智能的任務處理能力每4個月翻一倍;而在2019到2025年,翻倍周期為7個月,而電力供應年均增速不足2%。人工智能數(shù)據(jù)中心正在成為一些地區(qū)電力消耗的主體和能源緊張的主要原因。例如,愛爾蘭數(shù)據(jù)中心電耗約占全國的21%;美國最大的數(shù)據(jù)中心集群每年用去弗吉尼亞州總用電量的26%。全球人工智能競賽正在演變?yōu)樾碌哪茉锤傎悺?025年4月8日,特朗普政府簽署行政命令,提出為保持美國的人工智能領先優(yōu)勢,解除新建煤炭項目禁令,放棄控制燃煤電廠空氣污染限制,凸顯了人工智能發(fā)展對全球應對氣候治理的重大挑戰(zhàn)。
包容、普惠和可持續(xù)發(fā)展的全球人工智能治理體系構建路徑與策略
近年來,中國制定了《生成式人工智能服務管理暫行辦法》,發(fā)布了《全球人工智能治理倡議》和《人工智能全球治理上海宣言》,其他經濟體和聯(lián)合國等國際組織也已發(fā)布了多項相關倡議或治理方案??傮w上,當前人工智能治理仍呈現(xiàn)少數(shù)國家行動、國際組織倡議、企業(yè)被動合規(guī)的局面,各國仍處于有治理需求共識,無治理方案共識的局面?,F(xiàn)有的治理框架多集中于單一領域或局部問題,未能形成跨領域、跨區(qū)域的全球治理體系,各方在治理原則目標、方法手段和優(yōu)先級等問題上仍然存在較大分歧,全球治理仍陷入碎片化困境,亟需針對人工智能面向全人類全球性的突出問題,強化合作協(xié)調,構建更加包容、普惠和可持續(xù)的全球治理體系。
堅持以人為本,推動發(fā)展負責任的安全人工智能??萍紤撌前l(fā)展利器而非發(fā)展威脅。然而,當前人工智能發(fā)展不僅未能平等惠及所有人,甚至還可能解構人的主體性構成和沖擊人類的傳統(tǒng)價值體系。因此,必須堅持“以人為本”,推動“智能向善”,確保人工智能始終為全人類造福。首先,營造智能向善的價值取向和發(fā)展共識。以全人類現(xiàn)有的價值取向和倫理規(guī)范為標準,為人工智能確立合乎人性和人類基本價值共識的發(fā)展目標;[24]樹立“以人為本”的倫理基石,將“向善”作為發(fā)展人工智能的基本價值原則。例如,尊重人際公平正義,致力于減少不平等,尊重個體自由發(fā)展和生命安全,避免算法歧視與權利侵害,防范和打擊人工智能技術的惡用濫用,慎重發(fā)展和使用軍事人工智能。其次,強化人工智能企業(yè)的責任擔當。人工智能企業(yè)應是落實“智能向善”的第一責任主體,應制定“向善”的道德守則和“作惡”的懲罰制度規(guī)范企業(yè)行為,尤其是為人工智能系統(tǒng)開發(fā)確立合乎人性的發(fā)展目標,重視價值對齊;維護公平競爭,確保領先企業(yè)不濫用技術優(yōu)勢和市場優(yōu)勢。最后,建立人工智能倫理審查和監(jiān)管機制。各國大型人工智能企業(yè)和大學等都應建立獨立的人工智能倫理審查機構,制定相應的人工智能倫理審查和監(jiān)管制度,確保人工智能在“以人為本”和“向善”的軌道上發(fā)展。
堅持多邊多元,構建平等參與協(xié)同合作的治理新機制。人工智能發(fā)展日益呈現(xiàn)跨國家跨領域的新趨勢。在人工智能發(fā)展進程中,所有參與主體都應平等共享發(fā)展機遇,共同應對風險挑戰(zhàn),也只有不同主體均能平等參與、公平競爭、攜手合作,才能實現(xiàn)人工智能的包容、普惠和可持續(xù)發(fā)展。首先,要充分尊重各國人工智能主權。既要支持人工智能系統(tǒng)的通用性,也要支持各國擁有和發(fā)展與其語言、歷史、文化、習慣、價值觀和道德規(guī)范等相一致的主權人工智能,以及擁有與人工智能主權相關聯(lián)的數(shù)據(jù)和生成內容的所有權。同時,既要抵制“智能殖民主義”,反對某些國家利用人工智能技術優(yōu)勢等實行“科技霸權”,影響、干涉和脅迫他國人工智能發(fā)展路徑,也要反對人工智能系統(tǒng)被他國用于威脅國家安全的行為。其次,推動縮小國家間的“智能鴻溝”。維護全球人工智能創(chuàng)新鏈、供應鏈、產業(yè)鏈開放,支持和推動落實全球人工智能技術開源共享,支持發(fā)展中國家發(fā)展主權人工智能,促進其在經濟、民生和治理等領域的應用創(chuàng)新。同時,提升發(fā)展中國家在國際人工智能治理體系中的代表權和發(fā)言權,保障各國人工智能發(fā)展和治理的機會平等。最后,加強人工智能國際對話交流和治理合作。發(fā)揮聯(lián)合國等多邊合作國際組織在人工智能國際治理中的作用,支持在聯(lián)合國框架和多邊國際合作框架下成立國際人工智能治理機構。同時,支持以《全球人工智能治理倡議》等為參考藍本,搭建全球人工智能治理合作平臺,研究制定具有全球共識的治理框架、標準規(guī)范、倫理指南和技術路線,加強人工智能供應鏈、跨境數(shù)據(jù)供應鏈和知識產權等重大問題和重要領域上的國際合作。
堅持安全至上,構建系統(tǒng)治理框架推動發(fā)展可信人工智能。無論人工智能的沖擊是否可能造成社會秩序“海嘯”,考慮到技術與經濟社會共生的復雜性,任何國家都不應忽略問題的嚴肅性。人工智能技術快速迭代,風險形式復雜多變,必須改變碎片化管理模式,統(tǒng)籌發(fā)展和安全,系統(tǒng)構建人工智能治理體系,完善系統(tǒng)管理框架,推動安全可信人工智能的發(fā)展。這也是我國《新一代人工智能倫理規(guī)范》和現(xiàn)有多數(shù)人工智能多邊倡議的核心原則。首先,構建風險系統(tǒng)治理框架。各國根據(jù)國情出臺人工智能專項立法,明確人工智能的法律主體地位,堅持對人工智能涉主體性應用進行合法性審查,強化對人工智能濫用的法律約束。加快健全完善法律、法規(guī)、政策、規(guī)范協(xié)同治理工具箱,根據(jù)各國國情建立健全監(jiān)管機構和風險監(jiān)管機制。其次,實施風險分類分級監(jiān)管模式。對人工智能可能的風險進行分類分級,明確風險評估的基本原則與方法,規(guī)劃制定風險事件響應機制和應對措施,形成人工智能風險管理規(guī)范。對企業(yè)人工智能活動中一般風險或低風險活動實施自愿行為準則,包括自主實施風險管理和自愿實施風險報告,對高風險活動則實施強制行為準則。再次,完善全生命周期風險系統(tǒng)管理。建立覆蓋從人工智能系統(tǒng)設計、研發(fā)、預訓練、評估、注冊、應用及監(jiān)測評估等各環(huán)節(jié),涵蓋從數(shù)據(jù)、算法、模型、技術文件到日志記錄和評估監(jiān)測等核心要素清單的全部內容,最大范圍和限度保障人工智能系統(tǒng)在全生命周期的準確性、魯棒性、透明性和可追溯性。最后,探索實施人工智能監(jiān)管沙盒。在高風險人工智能系統(tǒng)如人形機器人、無人自動駕駛等全面進入市場前,可以研究監(jiān)管沙盒模式設計和實施人工智能監(jiān)管沙盒,選擇合適地區(qū)合適時間和行業(yè)領域,在相對受控的環(huán)境下,用盡可能真實的環(huán)境測試和驗證人工智能系統(tǒng)的安全性和未知風險。
堅持能力為基,加強包容和普惠能力建設推動彌合“智能鴻溝”。技術發(fā)展水平與社會運用技術能力進步之間的匹配程度,直接影響社會是走向“繁榮”還是陷入“痛苦”。[25]因此,構建包容、普惠和可持續(xù)發(fā)展的人工智能治理體系的關鍵是提高易受影響和沖擊的弱勢企業(yè)、行業(yè)和群體的智能技術應用能力,彌合“智能鴻溝”。首先,加強智能基礎設施建設。各國都應加強寬帶互聯(lián)網和人工智能算力網絡建設,擴大人工智能的可及性和可用性,降低偏遠地區(qū)、中小企業(yè)和弱勢群體應用人工智能的技術門檻,保障應用人工智能促進發(fā)展的機會平等。其次,加強人才培養(yǎng)和交流合作。鼓勵人工智能人才交流合作,支持通過類似中國設立的南南合作與發(fā)展學院等形式,加強對發(fā)展中國家和欠發(fā)達地區(qū)、傳統(tǒng)行業(yè)人工智能人才的培養(yǎng)。同時,各國應加強免費數(shù)字資源供給,鼓勵和引導教育機構和大型人工智能企業(yè)等承擔社會責任,向社區(qū)和重點群體提供優(yōu)質免費人工智能教育資源,傳遞科學的人工智能知識。再次,加大對重點人群和重點行業(yè)的支持力度。針對易受人工智能沖擊影響人群,如出租車司機、設計人員,以及易受深度造假、網絡詐騙和社交媒體人群,如青少年、農村居民和傳統(tǒng)行業(yè)從業(yè)人員等,加強針對性的人工智能知識普及和技能培訓,提高其利用人工智能防范網絡謠言的信息辨識能力、保護個人數(shù)據(jù)和隱私的數(shù)字安全能力,以及對網絡游戲、短視頻和社交媒體的防沉迷能力。對公共交通、物流運輸和農業(yè)等可能受人工智能沖擊較大的行業(yè),加強轉型支持。最后,加強對人工智能創(chuàng)業(yè)的支持。應加大對再就業(yè)人員及大學生等群體人工智能技能培訓力度,提高再就業(yè)人員和新興職業(yè)群體的人工智能創(chuàng)新創(chuàng)業(yè)能力。鼓勵和支持人工智能創(chuàng)業(yè),對利用人工智能創(chuàng)業(yè)的新業(yè)態(tài)新模式實施包容審慎監(jiān)管。
堅持技術賦能,筑牢包容普惠可持續(xù)發(fā)展保障。技術發(fā)展引發(fā)的風險和問題,根本上仍需通過技術手段來預防和解決,制度和政策僅能主要發(fā)揮引導、激勵、監(jiān)督、規(guī)范和規(guī)制等作用。第一,加強應用安全技術體系建設。在支持人工智能關鍵核心技術和基礎技術研發(fā)的同時,加大對人工智能安全領域的研發(fā)投入,各國都應圍繞內容審查、應用監(jiān)管、風險研判、智能防御等關鍵領域建立人工智能治理技術體系,加快形成人工智能治理技術與基礎技術協(xié)同發(fā)展格局。第二,加快發(fā)展模型監(jiān)測監(jiān)管技術。一方面,要從算法模型結構、算法源頭數(shù)據(jù)集等源頭開始建立預防算法歧視、保障算法透明度和可解釋性的法律與管理體制機制。另一方面,要采用技術手段加強算法推薦、生物識別等涉及個人隱私保護問題相關技術的合理利用,以及加強對算法偏見、算法風險的識別和精準監(jiān)管。在此基礎上,各國可根據(jù)國情考慮是否對重點人工智能系統(tǒng)算法建立備案、審查和算法問責制度。第三,開展人工智能倫理、風險和安全壓力測試。借助人工智能國際交流合作,可研究制定人工智能“紅隊”系列標準規(guī)范,建立經過認證的第三方人工智能安全實驗室,或由各國根據(jù)國情建立“紅隊”實施機構,開展大型人工智能系統(tǒng)的自愿和強制倫理、風險和安全等壓力測試,開展算法影響第三方評估,強化風險預防。最后,加強人工智能發(fā)展的綜合技術節(jié)能。在國際層面,各國應支持先進人工智能芯片的自由貿易,提高智算中心和智能云服務的能源利用效率。在國家層面,各國應明確數(shù)據(jù)中心能源利用效率目標,科學布局一體化數(shù)據(jù)中心建設,充分利用自然地理條件和氣候資源降低數(shù)據(jù)中心能耗。同時,支持數(shù)據(jù)中心利用清潔能源及先進直接液冷技術,降低電耗和水耗,推動人工智能領域綠色低碳發(fā)展。
(本文系國家社科基金重大專項“促進實體經濟和數(shù)字經濟深度融合的理論機制與實踐路徑研究”的階段性成果,項目編號:24ZDA023)
注釋
[1]尼格尼維斯基:《人工智能:智能系統(tǒng)指南》,北京:機械工業(yè)出版社,2012年。
[2]張陽:《人工智能之父馬文·明斯基逝世 科學界巨星隕落》,《環(huán)球時報》,2016年1月27日。
[3]"Artificial Intelligence: The Return of the Machinery Question," The Economist, 25 June 2016, https://www.economist.com/news/special-report/21700761-after-many-false-starts-artificial-intelligence-has-taken-will-it-cause-mass.
[4]"Pause Giant AI Experiments: An Open Letter," 22 March 2023, https://futureoflife.org/open-letter/pause-giant-ai-experiments/.
[5]S. M. Kelly, "AI Is Not Ready for Primetime," 10 March 2024, https://edition.cnn.com/2024/03/10/tech/ai-is-not-ready-for-primetime/index.html.
[6]B. Mittelstadt et al., "The Ethics of Algorithms: Mapping the Debate," Big Data & Society, October 2016.
[7]張志堅、何藝華:《人工智能自主交易行為的私法規(guī)制》,《學術探索》,2024年第3期。
[8]蔡躍洲、陳楠:《新技術革命下人工智能與高質量增長、高質量就業(yè)》,《數(shù)量經濟技術經濟研究》,2019年第5期。
[9]謝偉麗、石軍偉、張起帆:《人工智能、要素稟賦與制造業(yè)高質量發(fā)展——來自中國208個城市的經驗證據(jù)》,《經濟與管理研究》,2023年第4期。
[10]馬克·珀迪、邱靜、陳笑冰:《埃森哲:人工智能助力中國經濟增長》,《機器人產業(yè)》,2017年第4期。
[11]肖峰:《人工智能與認識論的哲學互釋:從認知分型到演進邏輯》,《中國社會科學》,2020年第6期。
[12]岳平、苗越:《社會治理:人工智能時代算法偏見的問題與規(guī)制》,《上海大學學報(社會科學版)》,2021年第6期。
[13]聯(lián)合國教科文組織、人工智能國際研究中心,"Challenging systematic prejudices: an investigation into bias against women and girls in large language models," https://unesdoc.unesco.org/ark:/48223/pf0000388971。
[14]張淳藝:《警惕AI招聘夾帶就業(yè)歧視》,《中國城市報》,2023年9月18日。
[15]D. Acemoglu; P. Restrepo, "Automation and New Tasks: How Technology Displaces and Reinstates Labor," Journal of Economic Perspectives, 2019, 33(2).
[16]"Gartner: These Three Technologies Will Transform Customer Service By 2028," 4 September 2023, https://www.cxtoday.com/contact-center/gartner-these-three-technologies-will-transform-customer-service-by-2028/.
[17]M. Cazzaniga et al., "Gen-AI: Artificial Intelligence and the Future of Work," 14 January 2024, https://www.imf.org/en/Publications/Staff-Discussion-Notes/Issues/2024/01/14/Gen-AI-Artificial-Intelligence-and-the-Future-of-Work-542379.
[18]王林輝、胡晟明、董直慶:《人工智能技術、任務屬性與職業(yè)可替代風險:來自微觀層面的經驗證據(jù)》,《管理世界》,2022年第7期。
[19]"The Future of Jobs Report 2023," 30 April 2023, https://www.weforum.org/publications/the-future-of-jobs-report-2023/.
[20]C. B. Frey; M. A. Osborne, "The Future of Employment: How Susceptible Are Jobs to Computerization," Technological Forecasting and Social Change, 2017, 114.
[21]陳東、秦子洋:《人工智能與包容性增長—來自全球工業(yè)機器人使用的證據(jù)》,《經濟研究》,2022年第4期。
[22]D. Autor; A. Salomons, "Is Automation Labor-Displacing? Productivity Growth, Employment, and the Labor Share," NBER Working Paper, No. 24871, July 2018.
[23]B. Ünveren; T. Durmaz; S. Sunal, "AI Revolution and Coordination Failure: Theory and Evidence", Journal of Macroeconomics, 2023(78).
[24]李志祥:《倫理學視域下的人工智能發(fā)展》,《光明日報》,2024年2月19日,第15版。
[25]克勞迪婭·戈爾丁,勞倫斯·F. 卡茨:《教育和技術的賽跑》,賈擁民、傅瑞蓉譯,上海人民出版社,2023年。
Global Risk Challenges of Artificial Intelligence and the Construction
of a Multidimensional Governance Framework
Peng Xushu
Abstract: Artificial intelligence has human like intelligence, wide penetration, and element substitutability. While its disruptive innovation brings new opportunities for development, it also entails risks of "technological alienation" and "creative destruction", especially as weak artificial intelligence constantly evolves towards strong artificial intelligence. Artificial intelligence may pose risks such as ethical misconduct, employment disruptions, and exacerbate social polarization, and affect global efforts to address climate change. In the face of the global risks and challenges posed by artificial intelligence, it is necessary to address the current fragmented global governance and improve the governance system from multiple dimensions such as value orientation, national relations, governance priorities, development capabilities, and technological means, in order to promote the benefits of artificial intelligence for all mankind.
Keywords: artificial intelligence, inclusive and beneficial development, sustainable development, governance system
責 編∕鄧楚韻 美 編∕梁麗琛
