中國網/中國發展門戶網訊 近年來,隨著人工智能的突破性發展,以ChatGPT與Sora為代表的大模型正在重塑生產和生活方式,并催生了社會危害和犯罪風險的迭代升級。在公安實踐中,自2015年起,已出現相關人員利用人工智能技術實施犯罪的案件,并且呈現逐年增長的趨勢。人工智能介入各類犯罪后,使各類犯罪的法律風險及治理難度與日俱增。應高度重視人工智能可能帶來的威脅風險,并理順發展與安全、治罪與治理之間的關系。
人工智能犯罪概述
隨著人工智能技術發展,結合公共安全領域治理實踐,本文認為人工智能犯罪主要分為3個類別。人類利用人工智能技術進行的犯罪行為。使用人工智能工具或借助人工智能技術實施詐騙、制作傳播污穢物品等犯罪。針對人工智能系統進行的犯罪行為。人工智能研發過程中,研發者通過參數篡改、數據集污染等方式故意制造犯罪工具以實現自身犯罪目的。人工智能獨立實施的犯罪。未來可能出現的人工智能體,能夠跳出原有設計功能,自主實施犯罪行為或者與使用者、其他人工智能共同犯罪。目前,第3種類型的犯罪雖尚未出現,按照技術發展的邏輯,不排除此類技術將帶來相應的安全風險,建議科學界和法律界應聯合開展前瞻研究,未雨綢繆,將威脅降至最低。
人工智能犯罪常見類型
按照現行刑法規定能夠規制、規制不足和無法規制的犯罪進行分類,本文對近年國內外出現的人工智能相關犯罪進行統計分析,大多屬于上述3種人工智能犯罪類型的第1種類型,即人類利用人工智能技術進行的犯罪行為,主要涉及以下4類案件。
詐騙勒索類。利用人工智能進行詐騙勒索是人工智能犯罪最典型的類型之一。伴隨著生成式人工智能模型的發展,廣告設計深度偽造技術持續迭代,利用人工智能偽造的內容愈發逼真。犯罪分子借助這些模型或技術偽造出視頻、圖片及聲音等虛假內容,騙取受害者的信任后實施詐騙,或是利用偽造的信息進行勒索等犯罪活動,給受害者造成巨大損失。例如,2023年11月,最高人民檢察院發布檢察機關依法懲治電信網絡詐騙及其關聯犯罪典型案例中,詐騙團伙利用人工智能語音機器人實施電信網絡詐騙的案例共騙取1 437人、3 586萬余元。
網絡攻擊類。攻擊者可以使用人工智能技術自動收集被攻擊者的身份、社交關系等社會工程學信息,批量生成帶有個性化內容的釣魚郵件,或自動生成惡意軟件實施網絡攻擊。此外,還能使用人工智能技術對目標主機或網絡實施自動化的漏洞掃描,展開自適應攻擊。利用人工智能技術輔助網絡攻擊,降低了實施難度,提高了攻擊的成功率。2023年5月,日本東京的智慧城市網絡遭遇了人工智能驅動的勒索軟件攻擊,導致東京的地鐵系統和交通信號燈系統癱瘓,造成嚴重的交通擁堵。據研究機構Gartner發布的《2024年第二季度新興風險排行榜》,人工智能增強的網絡攻擊已成為全球企業、組織等數字化發展中的最大新興風險。
侵犯公民個人信息類。人工智能模型在訓練階段,需要大量的樣本作為訓練數據,通常會在網絡中自動爬取數據,并且在和用戶相互的過程中收集用戶相關信息,這些數據和信息包含公民個人信息,即人工智能模型獲取這些信息的行為易涉嫌侵犯公民個人信息。在使用階段,“AI換臉”等技術極易被人利用,造成侵犯公民個人信息的犯罪行為。例如,韓國出現多起利用深度偽造技術將女生頭像和身體部位合成后進行淫穢影像傳播的案件,被稱為“新N號房”事件,據報道,涉案人數可能達22萬人。
編造傳播虛假信息類。用人工智能技術生成包含文字、圖片或視頻,甚至含有“AI換臉”“AI換音”等內容的虛假新聞信息,并在社交網絡上傳播,易對大眾認知及開幕活動社會秩序產生干擾。若傳播的虛假信息中包含不實的災情、警情等內容并嚴重擾亂社會秩序,可能涉嫌編造、故意傳播虛假信息罪。例如,2024年以來,公安部公布10起打擊整治網絡謠言犯罪典型案例中[3],有4起涉及違法人員使用人工智能技術生產的虛假內容進行造謠;四川、甘肅等多地公安廳公布了多起網民利用人工智能技術制造謠言的案例,引發輿論持續關注。
人工智能犯罪態勢
案件數量快速增長。隨著人工智能技術的不斷成熟和普及,越來越多的犯罪分子開始利用這一高科技手段進行犯罪活動。奇安信集團《2024人工智能安全報告》指出,2023年,基于人工智能技術進行的深度偽造欺詐增長3 000%,基于人工智能技術生成的釣魚郵件增長1 000%。在可預見的未來全息投影,利用人工智能進行犯罪的案件會越來越多,給社會治理帶來嚴峻挑戰。
輻射范圍不斷擴大。人工智能犯罪從早期主要集中在個人資金安全、數據安全、網絡安全等領域,逐步擴展到金融、醫療、交通、政治、軍事、社會公共安全等多個方面,截至2024年9月,對法律法規、部門規章中公安機關執法辦案相關案件開展2個維度的涉人工智能犯罪分析,主案別。復雜案件中起主導作用的案件類別稱為主案別,1 071個主案別中的犯罪行為可能涉及人工智能的案別有214個,占比19.98%。細分類案件性質。案件本身具有的本質屬性,劃分案件類型的依據是由實體法的內容決定,故稱為細分類案件性質,2 840個細分類案件性質中犯罪行為可能涉及人工智能的有596個,占比20.98%。
犯罪手法加速升級。人工智能作為新一輪技術革命的代表,其模型算法不斷加快迭代升級。犯罪分子持續優化算法、提高模型性能,使得犯罪手段更加智能化、隱蔽化。這種快速迭代的趨勢,讓公安機關在打擊人工智能犯罪時面臨更大挑戰,需不斷更新技術手段和偵查方法。
技術門檻持續降低。隨著人工智能技術發展和普及,犯罪變得更加多樣且高效,可自動化實現復雜犯罪活動,即使不具備高技術背景的人也能參與其中。例如,ChatGPT可以輔助實現網絡攻擊或實施掃描,編寫惡意代碼和詐騙腳本;生成式人工智能可實現單張照片、秒級音頻生成高逼真的“AI換臉”以實施詐騙。
人工智能犯罪特點
相較于傳統犯罪,人工智能犯罪具有以下4個特點。
偽裝程度高。與傳統犯罪相比,利用人工智能技術生成內容實施的犯罪活動真實性更強,受害人難以識別出犯罪行為。深度偽造詐騙案例中,犯罪分子利用人工智能進行換臉、換音,冒充他人進行視頻、電話詐騙,真實度越來越高,肉眼難以辨別真偽,普通人難以察覺。例如,2024年2月,中國香港發生一起涉及多人“AI換臉”的詐騙案,詐騙者利用深度偽造技術制作受害公司多位高管的視頻并邀請受害職員參加視頻會議,整個會議僅有1位受害職員是真人,該職員見到與現實容貌相同的虛擬高管,信以為真,根據指示前后轉賬2億港幣,后向總部查詢才知被騙。
模型智能化程度高。人工智能模型的智能化程度越來越高,由人工智能驅動的網絡攻擊犯罪可進行自動化漏洞掃描,自動化地與受害者對話實施詐騙,自動化生成個性化的釣魚郵件,自動化生成虛假信息并傳播等。犯罪分子只需將要求告知人工智能模型,人工智能即可智能地執行相應任務,大大降低犯罪實施的難度,減少犯罪成本。
行為過程的不確定性風險更大。許多人工智能算法被稱為“黑箱”,其決策過程復雜且不可解釋;不法分子還有多種算法可供選擇,甚至可以將多個算法結合使用;算法的演變過程快速、非線性,對于使用這些復雜算法的犯罪行為,分析其運行機制更加困難,防護成本也更高。因此,人工智能算法具有多樣性、復雜性和“黑箱”等特性導致一些犯罪行為難以被及時發現或追蹤,不確定性相比傳統犯罪更高。例如,一個人工智能驅動的金融詐騙行為可能通過復雜的算法模式進行詐騙,傳統的偵查手段很難理解其工作原理,甚展場設計至無法預測其下一步行動;人工智能生成的深度合成視頻、虛假新聞攤位設計、惡意代碼等內容,很難追溯到源頭。
具備自主決策能力。在傳統刑事案件中,犯罪主體只能是法律意義上的人,包括自然人與法人等,對人工智能犯罪來說,除了人類利用人工智能技術或針對人工智能系統進行的犯罪行為,自動駕駛系統或具身智能機器人等由人工智能自身系統決策導致的獨立犯罪行為也可能發生。雖然生產廠商對自動駕駛或機器人系統進行了大量安全測試與訓練,但面對真實世界中更復雜的場景,智能決策機制可能會突破一些人類預先設定的基本原則,這將是人工智能犯罪完全不同于其他傳統犯罪的獨特之處。
國外人工智能犯罪治理的經驗梳理
鑒于人工智能犯罪高發態勢,世界道具製作各國在積極擁抱人工智能技術的同時,活動佈置也在加緊探索人工智能犯罪治理方法,重點從完善規制立法、積極協同聯動、加大技術研究、加強案件打擊等方面開展治理工作。
國外相關立法情況。國外非常重視人工智能立法工作,密集出臺一系列人工智能安全法律法規,筑牢人工智能犯罪治理的法律基礎和規范指導底座。美國的人工智能法律較為寬松,注重激勵創新,以利于搶占科技制高點。美國在人工智能治理立法方面傾向于較為寬松和靈活的監管方式,強調創新和競爭力,整體上更側重于行業自律和非強制性指導原則。同時,美國也在逐步加強監管力度,特別是在算法歧視和數據隱私方面進行規制。2018年至今,美國相繼出臺了《禁止惡意“深度偽造”法案》《“深度偽造”責任法案》《“深度偽造”報告法案》,通過一系列立法對人工智能犯罪,特別是涉及玖陽視覺深度偽造技術的犯罪,進行了防范。歐盟對人工智能的法律治理更為慎重,通AR擴增實境過較嚴格的法規預防人工智能技術潛在的社會危害。歐盟側重于通過全面立法來保護公民權利和建立高標準的監管環境,傾向于通過立法實現對人工智能的監管。2021年4月,歐盟發布《關于制定人工智能統一規則并修訂某些歐盟立法的條例》,這是全球首個全面的人工智能法律框架。2024年3月,歐盟正式發布全球首個人工智能治理綜合性法律《人工智能法案》,該法案基于風險預防的理念,為人工智能構建了一套覆蓋全過程的風險規制體系,是歐盟推進人工智能治理、搶占全球人工智能競爭高地的關鍵舉措。其他國家或地區在人工智能治理立法方面各有側重,反映出各自的政策導向、文化價值觀和社會經濟發展需求,形成了各具特色的立法方向。例如,2019年,新加坡推出亞洲首部《人工智能治理模型框架》;2023年12月,加拿大發布的《生成式人工智能技術的基本原則:負責任、可信和隱私保護》明確了開發、提供或使用生成式人工智能的個人信息保護問題。
國際對話合作。全球各國積極推動人工智能安全領域的合作。政府和社會協同。美國政府將部分社會人工智能政策和舉措編入法律并加以擴展,吸收社會先經典大圖進方法納入國家治理;德國通過購買社會人工智能監管服務來實現人工智能犯罪治理,積極成立包含廣泛領域國際專家的人工智能國際專家顧問委員會。加強國際對話。人工智能技術的跨國界性使得構參展建國際治理框架尤為重要。2024年9月,美國、英國和歐盟等簽署了歐洲委員會制定的《人工智能、人權、民主和法治框架公約》,該公約是全球首個具有法律約束力的人工智能國際公約,旨在確保人工智能系統生命周期內的活動完全符合人權、民主和法治,同時攤位設計有利于技術進步和創新。國際警務合作。人工智能犯罪高復雜性和跨國性需要各國共同應對。2023年6月,國際刑事警察組織與聯合國區域間犯罪和司法研究所(UNICRI)共同發布了“人工智能警務創新工具指南”。在該指南指導下,中國與緬甸執法部門合作,成功打擊了使用人工智能技術實施電信網絡詐騙集團,中國公安機關將犯罪嫌疑人從緬甸押解回國,充分彰顯國際警務合作在打擊跨國人工智能犯罪的有效性。
提前布局技術研究。世界各國通過成立專門機構、加大投入等方式,多措并舉戰略性布局人工智能技術研究。生成式人工智能的發展暴露出數據泄露、虛假內容生成等安全風險,這些風險需要通過前瞻性的技術研究和治理機制來應對。隨著人工智能技術的快速發展,各國紛紛加強對前沿領域的布局,以搶占戰略制高點,掌握未來產業發展的主動權,有效應對人工智能帶來的安全風險。例如,美國國家科學基金會建立國家人工智能科學院(NAAI),成員包括國土安全部等政府部門和谷歌公司等科技巨頭,組成美國政府重大基礎前沿研究的“國家隊”,全方位推動國家人工智能技術與產業的快速健康發展;2024年2月,英國國家科研與創新署宣布將投資1億英鎊支持人工智能研究,重點是設立9個人工智能研究中心,以提供下一代創新和技術,使人工智能能夠解決從醫療保健到節能電子等應用領域的復雜問題。
我國人工智能犯罪治理現狀及挑戰
我國人工智能犯罪治理行動
加強立法規制。目前,我國已經發布了一系列法律和政策,走出了一條探索人工智能犯罪治理的法治路徑。2017年6月,《中華人民共和國網絡安全法》開始實施,規定數據處理和傳輸過程中,人工智能技術不能被用于危害國家安全或侵犯公民權利等事件。2021年11月,《中華人民共和國個人信息保護法》中明確規定了個人信息處理合法性、透明性和數據最小化等基本原則,對依賴大數據、用戶畫像等人工智能技術的企業提出嚴格合規要求。2022年,《關于規范和加強人工智能司法應用的意見》發布,是為了貫徹黨的二十大精神和習近平法治思想、落實國家發展規劃綱要的具體舉措。2023年1月,《互聯網信息服務深度合成技術管理規定》實施,對深度合成技術嚴格監管,要求深度合成內容必須標識,防止其被用于制造虛假信息并誤導公眾。2023年8月,《生成式人工智能服務管理暫行辦法》開始實施,這是中國首個針對生成式人工智能的專門法規,要求提供生成式人工智能服務的公司確保技術安全和可靠,對提供、使用人工智能服務的企業和個人行為進行規范,明確了數字水印、安全評估、技術檢查等監管手段,同時禁止人工智能被用于虛假信息的傳播、詐騙等違法活動。
探索共治模式。持續推進行業治理。國內頭部科技企業推動人工智能自律自治,百度、華為等企業參與了《人工智能產業擔當宣言》的發布,強調企業在人工智能治理中的責任,確保人工智能系統的安全、可靠、可控,提高算法的透明性和可解釋性;全國網絡安全標準化技術委員會發布了《人工智能安全治理框架》1.0版,提供基礎性、框架性技術指南,促進人工智能的健康發展和規范應用。積極開展國際合作。2023年,習近平主席提出《全球人工智能治理倡議》,提議各國秉持共商共建共享理念,協力共同促進人工智能治理。第78屆聯合國大會上,中國提出了加強人工智能能力建設國際合作的決議,該決議獲140多個國家聯署,強調人工智能發展的3項原則,鼓勵國際合作和互助,共同提高全球人工智能發展能力。我國每年舉辦世界人工智能大會,促進全球科學家、企業家的交流合作,共同探討人工智能的發展與治理,連續3年組織召開“全球公共安全合作論壇(連云港)”,匯聚各國政府、執法部門及大型公仔學者共商公共安全治理策略,針對人工智能治理達成共識,共同倡議加強應對人工智能潛在風險等領域的合作。
加大技術攻關。人工智能技術作為新興前沿技術的代表,涉及多學科交叉,其發展融合了基礎研究和系統工程研究,但在多個領域的應用并未真正發揮作用,尤其在公共安全領域,人工智能技術賦能警務滯后于人工智能犯罪。國家高站位推動謀劃,部署推進“科技興警三年行動計劃(2023—2025年)”,將人工智能技術列為構建公安戰略科技力量體系的重要方面。通過人工智能相關的人才梯隊建設、科研項目保障及促進科技成果轉化等多種方式,加大人工智能相關技術攻堅。公安機關立足國家戰略和公共安啟動儀式全需求,研究人工智能技術賦能實戰的關鍵核心技術,加強與中國科學院等科研機構深入合作,探索研發公共安全領域治理工具,以科技手段持續提升公安機關預警、防范、打擊、處置能力,充分利用人工智能技術提高人工智能犯罪偵查的效率和精準度,全面提升公安實戰科技含量。
加強犯罪打擊。近年來,公安機關通過“凈網”“夏季行互動裝置動”等一記者會系列專項行動,打擊處理了一批利用人工智能技術開展的網絡謠言、電信詐騙、制作傳播淫穢色情音視圖文等案件,對人工智能相關犯罪形成了有效震懾。尤其是在打擊“AI換臉”系列犯罪的過程中,公安機關聯合相關全國重點實驗室等單位開展重點研究,適時組織人臉識別與活體檢測技術的安全測評,測評范圍覆蓋即時通信軟件、網絡平臺、游戲平臺、金融軟件等需要進行人臉識別登錄驗證的系統,及時發現人臉識別驗證系統存在的風險隱患,開展專項整治,升級安全保護措施和人臉識別算法,不給不法分子可乘之機。2023年8月,公安部新聞發布會上公布,依托“凈網”專項行動,偵破“AI換臉”案件79起,抓獲犯罪嫌疑人515人,有效遏制了人工智能相關犯罪勢頭。
我國人工智能犯罪治理面臨的挑戰
我國在人工智能犯罪治理方面,形成了多主體、多領域協同共治的良好局面,取得顯著成效。但隨著人工智能發展進入快車道,技術的演進衍生出復雜多變的新型風險,防范化解面臨挑戰。
人工智能安全法律法規體系有待完善。我國在人工智能立法上進行了有益探索,通過多層級、地域化、領域化立法初步構建了人工智能法律治理框架,但仍存在立法層級低、立法規定落后、體系銜接不暢等問題。2021年起,我國密集出臺了多部相關政策法規,對生成式人工智能相關技術應用進行了系統規范,但責任認定與歸結等問題不夠明確,操作性欠缺,尚未形成統一的生成式人工智能法律框架。當前,我國人工智能安全相關規制條款分散在不同層級的法律法規中,缺乏包裝設計統一的監管法律,難以形成治理合力。同時,現有法規缺乏具體操作標準,導致在實際應用中難以執行和監管。例如,對使用人工智能技術制作傳播網絡謠言,仍需使用現行民法中侵犯名譽權、誹謗罪等及刑法中詐騙罪、幫助信息網絡犯罪活動罪等法條進行起訴。
人工智能監管措施尚未完善。人工智能技術存在著較大的不確定性和不可控性,應該接受嚴格的安全評估,需要監管來確保這些安全措施得以實施。隨著人工智能技術的快速發展,尤其是生成式人工智能的濫用現象日益嚴重,對現有的監管方式帶來了重大挑戰。以合成視頻或合成語音為例,現有大模型生成工具提高了視頻和語音生成內容的合理性和逼真度,降低了虛假信息的生成成本,加大了公共安全領域風險治理難度。目前,大模型測評管控及人工智能犯罪風險評估等領域尚未形成成熟的監管措施,隨著技全息投影術的進一步發展,人工智能技術模擬真實物理世界的能力將進一步增強,監管措施存在明顯的滯后性,難以適用新的安全防范要求,需加強技術應對。
在人工智能犯罪治理領域國際合作面臨諸多挑戰。在人工智能犯罪治理中,國際合作面臨的挑戰和沖突主要源于地緣政治因素、文化和倫理差異、技術發展與安全問題以及國際合作機制不足等方面。此外,VR虛擬實境各國尚無人工智能技術使用的統一標準規范,尚未達成統一的關于人工智能治理的國際條約,不利于人工智能技術快速發展。例如,美國主導的“理念一致國家同盟”[19]與聯合國注重全球共識和可持續發展目標的實現,倡導建立一個敏捷、網絡化的全球治理機制存在沖突,這種分歧體現在監管模式、技術發展和安全問題的優先級設定等諸多方面;歐盟傾向于以人為本的監管模VR虛擬實境式,而美國則傾向于自主自治,歐盟和美國在人工智能監管方面的不同態度也導致了跨大西洋監管合作的困難;中國主張數據主權原則,美國采取利益攸關方準則,兩國跨境數據流動政策的核心關注、政策基調和沈浸式體驗戰略訴求依然存在根本差異。
我國應對人工智能犯罪挑戰的對策建議
隨著人工智能技術高速發展,我國安全監管剛剛起步,面對治理人工智能犯罪的挑戰,可從頂層設計、技術治理、加強監管、人才培養、宣傳教育與合作交流等方面綜合發力,構建全方位人工智能犯罪治理體系。
強化人工智能安全頂層設計,完善相關法律規制
建立高級別領導指揮體系,在省部級政府機關成立人工智能安全領導小組和專家組,為領導決策提供專業支撐。制定專門性法律,借鑒美國和歐盟的應對策略,在早期發展階段更加關注技術創新,在技術成熟期和大規模應用時實行更嚴格的監管,以確保人工智能技術盡量少帶來負面社會影響,推動法律法規適應人工智能技術的發展和應用場景變化,采取動態的法律更新機制,定期對法律條款進行更新,以適應新興技術。對于人工智能的開發者、提供商、使用者等相關方,建立相應的責任追究機制,完善處罰與追責體系;對于現行法律規定規制不足或無法規制的涉人工智能犯罪,采取完善相關司法解釋、調整相關犯罪的構成要件及設立新罪名的法律應對策略。創新人工智能治理方式,健全人工智能相關配套政策與技術規范,系統制定和完善與人工智能犯罪治理相關的國家和行業標準,特別是盡快制訂人工智能生成、合成內容標識的技術規范及配套的強制性標準,提全息投影高生成模型透明度,解決法庭科學中對證據結論可解釋的要求。
加強人工智能安全技術創新,提升技術應對能力
積極發揮人工智能技術的正向賦能作用,依托公安部與科學技術部聯合部署推進的“科技興警三年行動計劃(2023—2025年)”,加強技術攻關與應對。鑒于其“雙刃劍”效應,應從2品牌活動個方面加強技術保障。利用人工智能技術提升犯罪預防和偵查效率,建立人工智能犯罪發現和處置系統,開展常態化監測預警。提升人工智能系統與應用自身安全,構建準確、穩健、安全、隱私、公平和可解釋的人工智能算法,加強對軟硬件設施的安全防護,定期對人工智能系場地佈置統進行全面的安全檢查,及時發現和解決潛在的安全威脅,以確保人工智能系統滿足安全要求。
加強人工智能系統安全管理,建立分級監管機制
參照網絡安全等級保護體系,創設動態的人工智能分級分類監管機制,根據生成式人工智能服務的風險高低進行分類分級監管;并根據生成式人工智能服務適用的不同領域進行行業部門監管。分級分類監管和行業部門監管2種監管政策相輔相成,共同促進人工智能的體系化監管進一步加強。建立一套全面覆蓋技術、倫理和社會安全的人工智能風險評估體系,構建人工智能風險防控和應急響應機制。對高風險人工智能技術,可以借鑒歐盟《人工智能法》沈浸式體驗中的“沙盒監管”模式,“沙盒監管”可以減少法律對產業發展的負外部性,即在特定范圍內允許人工智能系統進行有條件的應用,進行小規模測試,同時在監管機構的指導下調平面設計整技術細節。加強人工智能安全相關信息的收集和分析工作,按照危害程度、影響范圍等因素對人工智能安全事件進行分級,及時向相關企事業單位通報預警信息,制定相應的大型公仔應急預案并定期組織演練,以應對人工智能發展中的各類安全風險。
加強人工智能安全人才培養,提升犯罪打擊能力
打擊人工智能犯罪需要培養一批“善偵查、專技術、懂包裝設計法律”的交叉復合型高素質人才,應當優先在公共安全相關高校設置專門的人工智能安全相關專業,持續跟進人工智能及其安全前沿趨勢,加強實際案例解析與培訓,研究設計科研實踐平臺與攻防靶場,舉辦相關競賽活動,搭建交流學習平臺,建立并培養人工智能犯罪打擊專門力量,定期開展人工智能犯罪專題研究,多角度應對潛在風險。
加強人工智能安全宣傳教育,提升公眾認知能力
加大人工智能安全教育與宣傳力度,借鑒全民反詐宣傳模式,依托知識科普和短視頻平臺等,提高公眾安全意識,使公眾能有效識別人工智能犯罪形式、保護個人信息、防范智能攻擊,提升辨別能力。聚焦數據安全、網絡謠言等熱點問題,通過線上線下相結合的方式宣傳人工智能安全法律法規、政策文件、國家標準等內容,及時通報公安機關打擊人工智能犯罪、加強人工智能安全監管的工作成效,提升公眾對人工智能安全觀和相關法律法規的認識。
加強人工智能犯罪國際合作,提升跨境處置能力
在全球化背景下,人工智能犯罪常具跨VR虛擬實境國性,各國需要共同應對。應大力推動國際執法合作,發揮高層互訪的引領作用,有效利用有關會晤機制平臺,定期與外國執法部門和有關國際組織就人工智能安全、打擊跨國犯罪、追逃追贓等議題深入磋商,共享研究成果和治理經驗,共同研究制定國際規則和標準,建立人工智能犯罪專屬數據庫,實時共享犯罪信息,有效凝聚共識、管控分歧,對跨境人工智能犯罪形成有力震懾。
(作者:高建新、孫錦平、蔡瑜坤、王崇鵬、楊燕奇藝果影像燕、王凱悅,北京市公安局。《中國科學院院刊》供稿)
發佈留言