日本乱码伦视频_99re热久久_青青青爽国产在线视频_午夜理伦三级在线观看 - 国产高清精品久久久久久久

?
  智庫動態(tài) NEWS

于曉華:建立人工智能責(zé)任標(biāo)準(zhǔn) 促進(jìn)人工智能健康發(fā)展

時間:2023-05-04來源:未知 作者:acebm 點擊:
01
人工智能的可能風(fēng)險
 
隨著大型人工智能程序ChatGPT獲得了在自然語言處理方面的突破,可以預(yù)期人工智能大型模型很快會獲得大規(guī)模拓展和應(yīng)用,這會推動整個經(jīng)濟轉(zhuǎn)型和社會結(jié)構(gòu)變化。人工智能是未來的產(chǎn)業(yè)發(fā)展方向,是“國際競爭的新焦點”,和“經(jīng)濟發(fā)展的新引擎”。不過,人工智能的開發(fā)和使用可能會存在潛在多種政治、經(jīng)濟、社會、倫理以及國家安全等風(fēng)險。具體而言,包括以下幾個方面:
 
1.偏見和歧視風(fēng)險:人工智能系統(tǒng)的訓(xùn)練和應(yīng)用可能受到不平等和歧視性數(shù)據(jù)集的影響,導(dǎo)致其產(chǎn)生不公平的決策和結(jié)果,從而導(dǎo)致社會群體對立和社會矛盾激化。例如,在面部識別技術(shù)中,如果使用的數(shù)據(jù)集缺乏多樣性,則該技術(shù)可能會對某些人或群體進(jìn)行歧視性的識別。
 
2.隱私和安全風(fēng)險:人工智能技術(shù)處理大量的數(shù)據(jù),如果未正確管理這些數(shù)據(jù),可能會導(dǎo)致用戶隱私的泄露和系統(tǒng)安全的受損。例如,在個人數(shù)據(jù)分析和預(yù)測中,如果沒有保護(hù)用戶的數(shù)據(jù)隱私,可能會導(dǎo)致用戶的個人信息被濫用。
 
3.透明度和可解釋性風(fēng)險:人工智能技術(shù)可能難以解釋其決策和行為的邏輯,這可能會導(dǎo)致人們對其信任度下降。例如,在自動駕駛汽車中,如果無法解釋該技術(shù)在緊急情況下做出的決策,可能會導(dǎo)致人們對其使用的不信任。
 
4.安全和責(zé)任風(fēng)險:人工智能技術(shù)可能被濫用或被黑客攻擊,從而導(dǎo)致系統(tǒng)的崩潰和安全風(fēng)險的提高。此外,人工智能的使用也可能會導(dǎo)致意外傷害和財產(chǎn)損失,因此需要對人工智能技術(shù)的使用和決策進(jìn)行監(jiān)管和責(zé)任制。
 
5.社會和經(jīng)濟風(fēng)險:人工智能的普及和發(fā)展可能會導(dǎo)致某些職業(yè)和產(chǎn)業(yè)的消失,從而對社會和經(jīng)濟產(chǎn)生負(fù)面影響。例如,自動化生產(chǎn)線可能會導(dǎo)致失業(yè)率的增加,對經(jīng)濟產(chǎn)生負(fù)面影響。
 
所以,在歐美等人工智能技術(shù)領(lǐng)先的國家,面對可能的各種風(fēng)險未雨綢繆,在企業(yè)層面制定責(zé)任標(biāo)準(zhǔn),在國家層面制定各種監(jiān)管措施,來管理和減少這些風(fēng)險,以確保人工智能技術(shù)的發(fā)展與社會和諧發(fā)展相一致。
 
02
企業(yè)責(zé)任標(biāo)準(zhǔn)的制定:微軟和谷歌的例子
 
01.微軟的標(biāo)準(zhǔn)
 
ChatGPT的最大投資人為微軟公司,ChatGPT現(xiàn)在也融入到微軟的搜索引擎“必應(yīng)”中去了。微軟公司提出了一系列原則和行動,以確保人工智能的開發(fā)、應(yīng)用和使用符合道德和社會價值觀,保護(hù)用戶和社會的權(quán)益和利益,減少各種風(fēng)險。其主要包括以下四個方面:
 
1.透明度:微軟要求公開披露人工智能技術(shù)和算法的原理和運行方式,以便用戶和相關(guān)利益相關(guān)者了解其工作原理和可能影響。
 
2.公平性:微軟要求確保人工智能系統(tǒng)不歧視任何人,不對某些群體或個人進(jìn)行不當(dāng)或有害的區(qū)分對待。人工智能應(yīng)該被設(shè)計和使用,以符合包容性、多樣性和平等的原則。
 
3.隱私和安全:微軟要求確保個人信息的保護(hù),避免人工智能系統(tǒng)被濫用或被黑客攻擊。微軟會采取合適的措施來保護(hù)人工智能系統(tǒng)的安全性,防止信息泄露和濫用。
 
4.負(fù)責(zé)任的使用:微軟要求確保人工智能系統(tǒng)的使用是合法、符合倫理和社會可接受的。微軟要求在人工智能的開發(fā)和使用中考慮到其可能的影響,并在必要時采取措施減少或消除這些影響。
 
02.谷歌的標(biāo)準(zhǔn)
 
谷歌作為微軟的競爭對手,為了確保人工智能的開發(fā)和使用符合道德、法律和社會價值觀,和微軟類似,也制定了一系列類似的責(zé)任標(biāo)準(zhǔn),其主要包括以下幾個方面:
 
1.有意識的使用:谷歌要求人工智能系統(tǒng)的設(shè)計和使用必須是有意識的,并符合公共利益。它們應(yīng)該旨在解決實際問題,提高效率和創(chuàng)造價值,并且不能用于任何違反法律、倫理和社會價值觀的目的。
 
2.公平性和反歧視:谷歌要求人工智能系統(tǒng)必須保證公平性,并且不能歧視任何人或群體。它們應(yīng)該能夠為所有人提供公正的服務(wù)和機會,避免刻意或不必要地偏袒某些人或群體。
 
3.數(shù)據(jù)隱私和安全:谷歌要求保護(hù)用戶的數(shù)據(jù)隱私和安全,并確保人工智能系統(tǒng)不被濫用或被黑客攻擊。它們應(yīng)該有適當(dāng)?shù)陌踩Wo(hù)和風(fēng)險管理措施,并遵守相關(guān)的數(shù)據(jù)保護(hù)法律和標(biāo)準(zhǔn)。
 
4.透明度和可解釋性:谷歌要求人工智能系統(tǒng)的運作原理必須是透明和可解釋的。它們應(yīng)該能夠解釋其推薦和決策的基礎(chǔ),使用戶和利益相關(guān)者能夠了解其工作方式,進(jìn)而做出明智的決策。
 
5.人類控制和責(zé)任:谷歌要求確保人工智能系統(tǒng)的使用和決策受到人類控制,且需要負(fù)責(zé)任。人類應(yīng)該能夠監(jiān)督人工智能的行為和效果,并有權(quán)對其決策做出調(diào)整或糾正。
 
03
美國政府對人工智能的監(jiān)管體系
 
美國政府早就意識到人工智能是未來的產(chǎn)業(yè)發(fā)展方向,是“國際競爭的新焦點”,也是“國家安全”的重要內(nèi)容。美國在不斷支持人工智能技術(shù)發(fā)展的同時,也制定了一系列法律和政策來監(jiān)管人工智能的有序發(fā)展,減少人工智能的各種風(fēng)險。
 
1.《AI政策法案》(AI in Government Act of 2019):該法案于2019年簽署,旨在推動政府機構(gòu)更廣泛地采用人工智能技術(shù),包括人工智能培訓(xùn)和研究計劃、人工智能倫理原則和人工智能安全措施等。
 
2.《算法透明度法案》(Algorithmic Accountability Act):該法案于2019年提出,旨在要求企業(yè)公開其使用的算法及其可能的偏見和歧視性,并要求聯(lián)邦機構(gòu)評估算法的公平性和透明度。
 
3.《機器人責(zé)任法案》(Roboethics Commission Act):該法案于2019年提出,旨在要求成立一個由政府和私營部門代表組成的機器人倫理委員會,以指導(dǎo)和監(jiān)管機器人和人工智能技術(shù)的發(fā)展和使用。
 
4.《人工智能研究和發(fā)展政策》(National Artificial Intelligence Research and Development Strategic Plan):該政策于2016年發(fā)布,旨在推動美國在人工智能領(lǐng)域的研究和發(fā)展,并制定人工智能領(lǐng)域的倫理、隱私和安全準(zhǔn)則等。
 
除了以上法律和政策外,美國還有一些機構(gòu)和組織負(fù)責(zé)監(jiān)督和規(guī)范人工智能的發(fā)展和應(yīng)用,包括國家人工智能研究和發(fā)展戰(zhàn)略委員會、國家人工智能標(biāo)準(zhǔn)化委員會等。此外,一些州和城市也開始推出各自的人工智能監(jiān)管法規(guī),以確保人工智能技術(shù)的安全和透明度。
 
04
建立人工智能責(zé)任標(biāo)準(zhǔn),促進(jìn)我國人工智能健康發(fā)展的政策建議
 
1.建議全國人大制定《人工智能法》以及國務(wù)院制定相關(guān)的實施細(xì)則,以增強人工智能算法的公平性和透明性;同時確立人工智能開發(fā)和使用的安全責(zé)任和倫理標(biāo)準(zhǔn)。
 
2.建立跨部際的人工智能安全和責(zé)任委員會,協(xié)調(diào)人工智能相關(guān)政策,從根本上保障產(chǎn)業(yè)發(fā)展與國家安全的協(xié)調(diào)發(fā)展。人工智能不僅是一項技術(shù),它的發(fā)展對社會、經(jīng)濟、政治、安全以及法律等所有方方面面都會產(chǎn)生重大影響,而且這種影響是深遠(yuǎn)的,所以一個跨部委的協(xié)調(diào)機構(gòu)是必要的。
 
3.促進(jìn)行業(yè)和企業(yè)建立開發(fā)和應(yīng)用人工智能的責(zé)任標(biāo)準(zhǔn)。由于國家人工智能責(zé)任標(biāo)準(zhǔn)是一般性原則,不可能兼顧行業(yè)和企業(yè)的特殊性。這要求企業(yè)在開發(fā)和應(yīng)用人工智能的時候,除了遵守國家法律,還必須建立本行業(yè)和本企業(yè)相應(yīng)的人工智能責(zé)任標(biāo)準(zhǔn)。

(文章轉(zhuǎn)載自“長江產(chǎn)經(jīng)智庫”微信公眾號)


上一篇:民間智庫參與政府政策制定存在的障礙與對策

下一篇:面向制造強國的產(chǎn)業(yè)政策調(diào)整

?