具體內(nèi)容如下:原標(biāo)題:歐盟計劃嚴(yán)管AI:或考慮3至5年內(nèi)禁止公共場所人臉識別不同于美國的避免過度干預(yù)原則,歐盟正在考慮更為嚴(yán)格的人工智能政策。

近日,彭博社披露的一份歐盟人工智能“白皮書”草案顯示,歐盟計劃對人工智能開發(fā)者提出具有法律約束力的新要求,以確?,F(xiàn)代科技的開發(fā)和使用符合道德規(guī)范。
據(jù)路透社報道,這份長達(dá)18頁的草案建議3至5年內(nèi)禁止人臉識別技術(shù)應(yīng)用于公共場所,目的是留出更多時間評估技術(shù)風(fēng)險。草案指出:“基于這些現(xiàn)有規(guī)定,未來的監(jiān)管框架可能會進(jìn)一步推進(jìn),包括限時禁止公共場所使用人臉識別技術(shù)?!?/p>
歐盟委員會稱,需要出臺新的嚴(yán)格規(guī)定來支持現(xiàn)有的隱私和數(shù)據(jù)保護(hù)法規(guī)。
作為建議的一部分,歐盟還希望成員國任命相關(guān)部門監(jiān)督人工智能政策規(guī)則的執(zhí)行情況。
這份草案將于2020年2月中旬公布,最終內(nèi)容可能有所改變。
近年來,歐盟一再表示希望成為道德AI的領(lǐng)導(dǎo)者。
2018年12月,歐盟人工智能高級別專家組向社會發(fā)布人工智能道德準(zhǔn)則草案,開始討論“可信賴人工智能”并給出官方解釋。草案認(rèn)為,“可信賴人工智能”有兩個必要的組成部分:首先,應(yīng)尊重基本權(quán)利、規(guī)章制度、核心原則及價值觀,以確?!暗赖履康摹?,其次,應(yīng)在技術(shù)上強(qiáng)健且可靠,因為即使有良好的意圖,缺乏對技術(shù)的掌握也會造成無意的傷害。
2019年4月,歐盟委員會發(fā)布人工智能道德準(zhǔn)則,準(zhǔn)則由2018年12月公布的草案演變而來,提出實現(xiàn)可信賴人工智能的七個要素,要求不得使用公民個人資料做出傷害或歧視行為。
歐盟委員會當(dāng)時表示,正在采取三步行動以促進(jìn)可信賴人工智能健康發(fā)展:制定可信賴人工智能的關(guān)鍵要求;啟動利益相關(guān)者的大規(guī)模試點(diǎn)階段;為以人為中心的人工智能建立國際共識。
與歐盟的謹(jǐn)慎作風(fēng)不同,美國白宮在2020年1月7日提出10條人工智能監(jiān)管原則,要求避免聯(lián)邦機(jī)構(gòu)對人工智能應(yīng)用的過度干預(yù),強(qiáng)調(diào)監(jiān)管的靈活性。其中,靈活性原則指出,大多數(shù)情況下,試圖規(guī)定死板的人工智能應(yīng)用規(guī)則是不切實際且無效的,因為人工智能將以預(yù)期的速度發(fā)展,機(jī)構(gòu)需要對新的信息和證據(jù)做出反應(yīng)。
本文文章轉(zhuǎn)載自新浪新聞
