攻堅AI治理的“最后一公里”,答好AI風險防控必答題
時間:2025-04-10來源:未知 作者:acebm 點擊: 次
人工智能時代,隨著AI應用逐漸滲入社會與個人生活的方方面面,人們在享受AI技術帶來的各種便利同時,AI幻覺、深度偽造、數字人犯罪、個人隱私等數據安全也逐漸成為廣大網友最擔心之事。
尤其是伴隨著大數據的濫觴,用戶數據泄露事件頻發,個人信息被濫用的風險日漸加劇,用戶叫苦不迭,如何為用戶的數據安全加一道“防盜墻”成為人工智能時代的必答題,這就需要加強對AI技術及應用領域的系統治理,攻堅AI治理的“最后一公里”。
王牌智庫認為,攻堅AI治理“最后一公里”,政府需扮演“智慧舵手”角色,企業要超越“合規即免責”的被動思維,公眾參與則需突破“數據勞工”的困境,與此同時,國際間的協同同樣關鍵。
一、重視AI的系統性風險
人工智能作為新一輪科技革命和產業變革的重要驅動力量,是推動數字治理變革的關鍵動力。當ChatGPT、Deepseek掀起全球生成式AI浪潮,當自動駕駛汽車駛入城市街頭,當AI醫生開始參與臨床診斷,人們正以空前的速度擁抱智能文明。但AI在推進社會變革的同時也帶來了一系列不容忽視的社會問題,如倫理困境、算法黑箱、數據濫用等。具體來講:
一是深度偽造難辨真偽。AI使內容生產更加快捷、簡單,一些心懷不軌的人則通過AI技術制作虛假新聞引發社會恐慌、用AI復活逝者賺取流量、用數字人換臉技術實施詐騙,擾亂公共秩序,觸碰法律和道德底線。
二是隱私泄漏危機四伏。隨著AI技術的發展,語音助手、智能家居等“飛入尋常百姓家”,但在使用中,一些應用系統會過度采集用戶數據,包括個人隱私信息,增加隱私泄漏風險。例如,滴滴公司曾被爆違法處理個人信息647.09億條,包括人臉識別、身份證號等敏感個人信息。另外,企業在使用AI工具尋求答案時,AI默認將提問的信息存入學習庫,存在數據泄漏的風險,可能會給企業帶來難以估量的損失。此前韓國三星公司就發生過此類事件,導致機密信息被盜取。
三是算法加劇社會歧視。由于AI系統的訓練數據通常來自人類社會,如果“喂”給系統的訓練數據帶有社會和文化偏見,將導致算法對特定群體做出不公平的判斷。此外,如果算法設計者存在主觀偏見,將制作出自帶歧視“基因”的AI工具,而這一“暗箱操作”具有隱蔽性,很難被發現,將加劇社會不公平、不平等現象。
四是AI侵權難以認定。AI企業為了訓練大模型需要大量數據,而這些數據可能包含已經發布的作品,如果這些作品是在未經許可或未付款的情況下獲取的,將侵犯創作者的合法權益。
五是引發學術誠信危機。隨著Deepseek、百度AI等生成式AI工具的普及,大學生過度依賴AI,滋生思考惰性,簡單地將生成的文本拼湊成論文,引發學術不端,大大降低了論文的學術價值和創新價值。可以預見,如果不對此類現象加以管控,學術誠信危機將影響各類學科研究,從長遠看也不利于個人的學術成長。
可以說,AI的技術革命是一把“雙刃劍”,尤其是面對AI滋生的新問題挑戰,AI治理、AI應用監管的邏輯也在發生變化,這是必須面對的挑戰。應構建高效聯動的治理框架,將問題發現與應對措施落到治理實踐中,促進AI產業健康發展。
01規劃AI產業發展路徑
立法劃定“紅線”。積極推進AI立法工作,針對AI發展中的權責不清、數據安全漏洞、技術濫用、內容侵權等問題,集思廣益探討AI立法草案,盡快發布有統領性的上位法,明確AI技術的使用邊界、數據保護標準、算法透明度等,為AI健康發展提供法律保障,為用戶合理維權提供法律支持。
制度規范發展。發布全國性AI產業標準化建設指南,針對工業、金融、醫藥、教育等各行業制定具體的技術要求和應用指南,形成統一的行業共識。對AI產業的基礎共性標準、基礎支撐標準、關鍵技術標準、安全管理標準等進行明確規定,為企業提供預見性指導,維護產業生態環境。完善學術誠信制度,通過制度約束,提高研究人員學術道德意識。
監管推動落實。建立專門的AI監管機構,負責對AI企業的技術研發、應用進行全程監督,及時發現并糾正違反法律和產業規定的行為,了解并分析產業內暴露出的最新風險隱患,修補可能出現的“漏洞”。引導企業加強自我監管,建立內部審查機制。
02提升規范治理質效
提升企業透明度。AI系統開發者應適度公開AI算法的基本原理、決策邏輯、數據來源及可能對用戶產生的影響,確保算法透明得到落實,有效避免企業的“黑箱操作”,增強用戶對AI工具的信任。
強化行業自律。組建AI產業協會,構建行業信用體系,并吸納金融、醫療、制造等領域的企業、高校、科研院所加入,制定協會公約,促進企業自律,維護良性生態。定期組織企業開展交流活動,打造AI技術、成果的交流與共享平臺,促進產業協同進步。
加強技術研發。AI系統開發者可加強研發,解決目前AI應用領域存在的學術造假、算法歧視等“痛點”問題。通過技術升級精準識別被篡改后的文字和圖片,打擊學術不端和偽造行為,規范AI技術應用。優化算法設計,確保算法本身沒有設計歧視,并使用一些公平性指標來評估AI模型的公平性。
03理性擁抱AI
積極擁抱AI。AI時代是社會發展的必然趨勢,如果不想被社會淘汰,我們應該積極擁抱AI,接受新事物,嘗試新技術,為生活工作提供便利,并及時反饋自己的使用體驗和改進建議,通過有效的反饋,促進AI健康發展。
合理使用AI。對于AI我們既不能棄之不用,也不能過于依賴,要認識到AI只是工具,絕不能代替個人的思考,不能養成靠“拐杖”行走的習慣,還應專注于提升自身能力,合理使用AI工具,不可把AI作為研究成果,杜絕學術造假行為。
理性辨別AI。在使用AI軟件之前要詳細了解隱私政策,確保自己的隱私安全、數據安全。對于AI生成的信息要有辨別能力,不輕信、不傳謠,對于通過網絡進行的錢財交易要高度警惕,防止AI欺詐。
治理AI,既要“放得開”,又要“收得住”,首要的任務是讓AI治理跟上技術更新的節奏。
畢竟,當下,人工智能已加速賦能千行百業,滲透到教育、醫療、政務、金融等場景,人們AI應用的“高逼格”場景產生了更多期待。怎樣應對AI不可控、被濫用、數據泄露、造假成本低等風險已經是重若千鈞,因此,必須在推廣應用中加固AI“安全護欄”。王牌智庫認為,可以從五方面著力:
AI技術已經成為全球科技進步的新動能和主導力量,對AI技術及應用,要一分為二看待,既需要保持寬容度,又需要妥善處理好AI技術創新與治理之間持續升級的矛盾。
高質量數據是AI應用大規模落地的重要支撐,構建一個完善而成熟的數據市場也十分重要,應根據實際情況,建立符合自身需要的數據監管方案與路徑,建立技術演化預警系統,讓AI真正成為推動社會進步的普惠力量。