日本乱码伦视频_99re热久久_青青青爽国产在线视频_午夜理伦三级在线观看 - 国产高清精品久久久久久久

?
  王牌專題研究 NEWS

攻堅AI治理的“最后一公里”,答好AI風險防控必答題

時間:2025-04-10來源:未知 作者:acebm 點擊:
編者按
 

人工智能時代,隨著AI應用逐漸滲入社會與個人生活的方方面面,人們在享受AI技術帶來的各種便利同時,AI幻覺、深度偽造、數字人犯罪、個人隱私等數據安全也逐漸成為廣大網友最擔心之事。

尤其是伴隨著大數據的濫觴,用戶數據泄露事件頻發,個人信息被濫用的風險日漸加劇,用戶叫苦不迭,如何為用戶的數據安全加一道“防盜墻”成為人工智能時代的必答題,這就需要加強對AI技術及應用領域的系統治理,攻堅AI治理的“最后一公里”。

王牌智庫認為,攻堅AI治理“最后一公里”,政府需扮演“智慧舵手”角色,企業要超越“合規即免責”的被動思維,公眾參與則需突破“數據勞工”的困境,與此同時,國際間的協同同樣關鍵。

一、重視AI的系統性風險

人工智能作為新一輪科技革命和產業變革的重要驅動力量,是推動數字治理變革的關鍵動力。當ChatGPT、Deepseek掀起全球生成式AI浪潮,當自動駕駛汽車駛入城市街頭,當AI醫生開始參與臨床診斷,人們正以空前的速度擁抱智能文明。但AI在推進社會變革的同時也帶來了一系列不容忽視的社會問題,如倫理困境、算法黑箱、數據濫用等。具體來講:

一是深度偽造難辨真偽。AI使內容生產更加快捷、簡單,一些心懷不軌的人則通過AI技術制作虛假新聞引發社會恐慌、用AI復活逝者賺取流量、用數字人換臉技術實施詐騙,擾亂公共秩序,觸碰法律和道德底線。

二是隱私泄漏危機四伏。隨著AI技術的發展,語音助手、智能家居等“飛入尋常百姓家”,但在使用中,一些應用系統會過度采集用戶數據,包括個人隱私信息,增加隱私泄漏風險。例如,滴滴公司曾被爆違法處理個人信息647.09億條,包括人臉識別、身份證號等敏感個人信息。另外,企業在使用AI工具尋求答案時,AI默認將提問的信息存入學習庫,存在數據泄漏的風險,可能會給企業帶來難以估量的損失。此前韓國三星公司就發生過此類事件,導致機密信息被盜取。

三是算法加劇社會歧視。由于AI系統的訓練數據通常來自人類社會,如果“喂”給系統的訓練數據帶有社會和文化偏見,將導致算法對特定群體做出不公平的判斷。此外,如果算法設計者存在主觀偏見,將制作出自帶歧視“基因”的AI工具,而這一“暗箱操作”具有隱蔽性,很難被發現,將加劇社會不公平、不平等現象。

四是AI侵權難以認定。AI企業為了訓練大模型需要大量數據,而這些數據可能包含已經發布的作品,如果這些作品是在未經許可或未付款的情況下獲取的,將侵犯創作者的合法權益。

五是引發學術誠信危機。隨著Deepseek、百度AI等生成式AI工具的普及,大學生過度依賴AI,滋生思考惰性,簡單地將生成的文本拼湊成論文,引發學術不端,大大降低了論文的學術價值和創新價值。可以預見,如果不對此類現象加以管控,學術誠信危機將影響各類學科研究,從長遠看也不利于個人的學術成長。

二、規范AI的冷思考

可以說,AI的技術革命是一把“雙刃劍”,尤其是面對AI滋生的新問題挑戰,AI治理、AI應用監管的邏輯也在發生變化,這是必須面對的挑戰。應構建高效聯動的治理框架,將問題發現與應對措施落到治理實踐中,促進AI產業健康發展。
01規劃AI產業發展路徑

立法劃定“紅線”。積極推進AI立法工作,針對AI發展中的權責不清、數據安全漏洞、技術濫用、內容侵權等問題,集思廣益探討AI立法草案,盡快發布有統領性的上位法,明確AI技術的使用邊界、數據保護標準、算法透明度等,為AI健康發展提供法律保障,為用戶合理維權提供法律支持。

制度規范發展。發布全國性AI產業標準化建設指南,針對工業、金融、醫藥、教育等各行業制定具體的技術要求和應用指南,形成統一的行業共識。對AI產業的基礎共性標準、基礎支撐標準、關鍵技術標準、安全管理標準等進行明確規定,為企業提供預見性指導,維護產業生態環境。完善學術誠信制度,通過制度約束,提高研究人員學術道德意識。

監管推動落實。建立專門的AI監管機構,負責對AI企業的技術研發、應用進行全程監督,及時發現并糾正違反法律和產業規定的行為,了解并分析產業內暴露出的最新風險隱患,修補可能出現的“漏洞”。引導企業加強自我監管,建立內部審查機制。

02提升規范治理質效

提升企業透明度。AI系統開發者應適度公開AI算法的基本原理、決策邏輯、數據來源及可能對用戶產生的影響,確保算法透明得到落實,有效避免企業的“黑箱操作”,增強用戶對AI工具的信任。

強化行業自律。組建AI產業協會,構建行業信用體系,并吸納金融、醫療、制造等領域的企業、高校、科研院所加入,制定協會公約,促進企業自律,維護良性生態。定期組織企業開展交流活動,打造AI技術、成果的交流與共享平臺,促進產業協同進步。

加強技術研發。AI系統開發者可加強研發,解決目前AI應用領域存在的學術造假、算法歧視等“痛點”問題。通過技術升級精準識別被篡改后的文字和圖片,打擊學術不端和偽造行為,規范AI技術應用。優化算法設計,確保算法本身沒有設計歧視,并使用一些公平性指標來評估AI模型的公平性。

03理性擁抱AI

積極擁抱AI。AI時代是社會發展的必然趨勢,如果不想被社會淘汰,我們應該積極擁抱AI,接受新事物,嘗試新技術,為生活工作提供便利,并及時反饋自己的使用體驗和改進建議,通過有效的反饋,促進AI健康發展。

合理使用AI。對于AI我們既不能棄之不用,也不能過于依賴,要認識到AI只是工具,絕不能代替個人的思考,不能養成靠“拐杖”行走的習慣,還應專注于提升自身能力,合理使用AI工具,不可把AI作為研究成果,杜絕學術造假行為。

理性辨別AI。在使用AI軟件之前要詳細了解隱私政策,確保自己的隱私安全、數據安全。對于AI生成的信息要有辨別能力,不輕信、不傳謠,對于通過網絡進行的錢財交易要高度警惕,防止AI欺詐。

三、治理AI須跟上AI技術節奏

治理AI,既要“放得開”,又要“收得住”,首要的任務是讓AI治理跟上技術更新的節奏。

畢竟,當下,人工智能已加速賦能千行百業,滲透到教育、醫療、政務、金融等場景,人們AI應用的“高逼格”場景產生了更多期待。怎樣應對AI不可控、被濫用、數據泄露、造假成本低等風險已經是重若千鈞,因此,必須在推廣應用中加固AI“安全護欄”。王牌智庫認為,可以從五方面著力:

01
構建敏捷的治理體系
強化動態立法機制,允許AI應用在可控環境中測試,快速積累監管經驗,采用"監管試點-反饋-修訂"循環,縮短政策制定周期,同時設立AI治理委員會,整合科技、法律、倫理專家,實現技術評估與政策制定的無縫銜接,建立數據共享平臺,打破部門壁壘,提升治理效率。
02
用技術監管技術
開發算法審計系統,自動檢測風險,強制要求AI系統提供可解釋性報告,明確決策邏輯,同時,建立并持續完善實時監控與預警系統,實時追蹤算法行為,提前識別技術濫用,規避風險。
03
建立技術使用的價值底線
組建包含技術專家、社會學家、公眾代表的倫理委員會,開展公眾咨詢,確保政策符合社會價值觀。同時,明確AI禁止領域,如深度偽造等,推動企業簽署倫理承諾書,將倫理責任納入商業考核。
04
構建技術治理共同體
統一技術規范,為AI創建國際統一的標準,同時建立全球數據共享機制,協調不同國家的數據監管政策,推動跨境執法合作,打擊跨國AI犯罪。
05
從"治理"到"共治"
將AI治理課程納入高等教育和社會教育,建立動態立法機制,開發技術嵌入式監管工具,建立"開發者-部署者-使用者"三級責任鏈,采用區塊鏈存證技術實現全流程可追溯,推行"技術文檔備案+核心代碼抽查"等讓算法透明化,便于責任認定。
 
結語

AI技術已經成為全球科技進步的新動能和主導力量,對AI技術及應用,要一分為二看待,既需要保持寬容度,又需要妥善處理好AI技術創新與治理之間持續升級的矛盾。

高質量數據是AI應用大規模落地的重要支撐,構建一個完善而成熟的數據市場也十分重要,應根據實際情況,建立符合自身需要的數據監管方案與路徑,建立技術演化預警系統,讓AI真正成為推動社會進步的普惠力量。

(作者:王牌智庫首席專家、董事長 上官同君)


上一篇:10萬億中央轉移支付,都被誰拿走了?

下一篇:權力脫韁的病灶在“智庫缺位”,“紅藍黑禁令”折射縣域治理之痛丨王牌銳評

?