編者按
全球第四次工業化浪潮助推了數字時代的“AI”智能見風瘋長,AI仿佛一夜之間占據了人們的頭腦空間,從生產、生活的方方面面,AI的確改變了人類的思維方式,提升了生活效率。
在工業生產中,自動化、數字化生產提高了企業生產質效;在醫藥健康領域,“數字醫生”可以幫助醫生精準快速診斷疾病;在教育領域,AI可以為學生制定個性化學習方案;在商業領域,數字人直播、智能試衣鏡給消費者帶來更貼心的服務……
然而,隨著AI的廣泛應用,一系列因AI而生的問題也逐漸浮出水面。本文將從多個角度探討如何規范AI發展,為生活和工作賦能。
隱憂:AI時代面臨的倫理與治理挑戰
隨著計算能力和數據資源的進一步提升,AI技術取得巨大突破。時至今日,AI已成為我們生活的一部分,正逐步改變人們認識世界、處理問題的方式。但AI在推進社會變革的同時也帶來了一系列不容忽視的社會問題。
一是深度偽造難辨真偽。2022年底,ChatGPT橫空出世,刷新了人們對生成式AI的認知。今年2月,OpenAI推出文生視頻模型Sora,生成的視頻畫面可媲美電影鏡頭。AI使內容生產更加快捷、簡單,一些心懷不軌的人則通過AI技術制作虛假新聞引發社會恐慌、用AI復活逝者賺取流量,甚至通過AI換臉技術實施詐騙,擾亂公共秩序,觸碰法律和道德底線。
二是隱私泄漏危機四伏。隨著AI技術的發展,語音助手、智能家居等“飛入尋常百姓家”,但在使用中,一些應用系統會過度采集用戶數據,包括個人隱私信息,增加隱私泄漏風險。例如,滴滴公司曾被爆違法處理個人信息647.09億條,包括人臉識別、身份證號等敏感個人信息。另外,企業在使用AI工具尋求答案時,AI默認將提問的信息存入學習庫,存在數據泄漏的風險,可能會給企業帶來難以估量的損失。此前韓國三星公司就發生過此類事件,導致機密信息被盜取。
三是算法加劇社會歧視。由于AI系統的訓練數據通常來自人類社會,如果“喂”給系統的訓練數據帶有社會和文化偏見,將導致算法對特定群體做出不公平的判斷。此外,如果算法設計者存在主觀偏見,將制作出自帶歧視“基因”的AI工具,而這一“暗箱操作”具有隱蔽性,很難被發現,將加劇社會不公平、不平等現象。例如,此前亞馬遜曾設計了一個AI招聘算法,該算法在讀取到帶有“women”的相關詞時,會自動降低簡歷的權重。
四是AI侵權難以認定。AI企業為了訓練大模型需要大量數據,而這些數據可能包含已經發布的作品,如果這些作品是在未經許可或未付款的情況下獲取的,將侵犯創作者的合法權益。例如,此前8家美國新聞機構對OpenAI提起訴訟,指控其私自使用他們的新聞作品訓練AI。同時,AI如果模仿已有作品的特征元素,生成與原作高度相似的內容,將侵犯原作的版權,此類生成式AI作品侵權事件在全國已多次發生。
五是引發學術誠信危機。隨著ChatGPT等生成式AI工具的普及,一些學生過度依賴AI,簡單地將ChatGPT生成的文本拼湊成論文,引發學術不端,大大降低了論文的學術價值和創新價值。如果不對此類現象加以管控,學術誠信危機將影響各類學科研究,從長遠看也不利于個人的學術成長。
思考:規范AI發展的智庫方案
任何一項技術性革命都是一把“雙刃劍”,AI技術也是如此,面對這些挑戰,應構建高效聯動的治理框架,將問題發現與應對措施落到治理實踐中,促進AI產業健康發展。
1、政府“三位一體”,規劃AI產業發展路徑
立法劃定“紅線”。積極推進AI立法工作,針對AI發展中的權責不清、數據安全漏洞、技術濫用、內容侵權等問題,集思廣益探討AI立法草案,盡快發布有統領性的上位法,明確AI技術的使用邊界、數據保護標準、算法透明度等,為AI健康發展提供法律保障,為用戶合理維權提供法律支持。
軟法規范發展。發布全國性AI產業標準化建設指南,針對工業、金融、醫藥、教育等各行業制定具體的技術要求和應用指南,形成統一的行業共識。對AI產業的基礎共性標準、基礎支撐標準、關鍵技術標準、安全管理標準等進行明確規定,為企業提供預見性指導,維護產業生態環境。完善學術誠信制度,通過制度約束,提高研究人員學術道德意識。
監管推動落實。建立專門的AI監管機構,負責對AI企業的技術研發、應用進行全程監督,及時發現并糾正違反法律和產業規定的行為,了解并分析產業內暴露出的最新風險隱患,修補可能出現的“漏洞”。引導企業加強自我監管,建立內部審查機制。
2、企業強化自治,提升規范治理質效
提升企業透明度。AI系統開發者應適度公開AI算法的基本原理、決策邏輯、數據來源及可能對用戶產生的影響,確保算法透明得到落實,有效避免企業的“黑箱操作”,增強用戶對AI工具的信任。
強化行業自律。組建AI產業協會,構建行業信用體系,并吸納金融、醫療、制造等領域的企業、高校、科研院所加入,制定協會公約,促進企業自律,維護良性生態。定期組織企業開展交流活動,打造AI技術、成果的交流與共享平臺,促進產業協同進步。
加強技術研發。AI系統開發者可加強研發,解決目前AI應用領域存在的學術造假、算法歧視等“痛點”問題。通過技術升級精準識別被篡改后的文字和圖片,打擊學術不端和偽造行為,規范AI技術應用。優化算法設計,確保算法本身沒有設計歧視,并使用一些公平性指標來評估AI模型的公平性。
3、用戶要辯證看待,趨利避害
積極擁抱AI。AI時代是社會發展的必然趨勢,如果不想被社會淘汰,我們應該積極擁抱AI,接受新事物,嘗試新技術,為生活工作提供便利,并及時反饋自己的使用體驗和改進建議,通過有效的反饋,促進AI健康發展。
合理使用AI。對于AI我們既不能棄之不用,也不能過于依賴,要認識到AI只是工具,絕不能代替個人的思考,不能養成靠“拐杖”行走的習慣,還應專注于提升自身能力,合理使用AI工具,不可把AI作為研究成果,杜絕學術造假行為。
理性辨別AI。在使用AI軟件之前要詳細了解隱私政策,確保自己的隱私安全、數據安全。對于AI生成的信息要有辨別能力,不輕信、不傳謠,對于通過網絡進行的錢財交易要高度警惕,防止AI欺詐。
結語
AI技術已經成為全球科技進步的新動能和主導力量,它將帶來一個充滿機遇又面臨挑戰的時代。為了確保AI技術的健康發展,既要“放得開”,又要“收得住”,需要為其戴上“緊箍咒”,及時洞察和掌控AI應用中出現的問題。同時,也要對AI保持寬容度,不能因噎廢食,容許其在可控的范圍內發生問題,嘗試“容錯機制”。秉持一種既規范又不失開放的態度,妥善處理好AI技術創新與治理之間的矛盾,即要遏制其危害,也不能阻礙其發展。通過政府、行業、社會同向發力,精心構建一套規范的發展體系、應用體系、管理體系,為社會治理現代化賦能,為經濟高質量發展助力。
(作者:王牌智庫首席專家、董事長 上官同君)