經(jīng)過了半年的醞釀之后,全球首部AI法案終于在上周末形成了初步協(xié)議。
12月9日,歐盟委員會成員Thierry Breton在社交媒體稱,“歐洲成為首個清晰敲定了AI使用法規(guī)的大陸,AI法案(AI Act)不只是一個規(guī)則手冊,它是歐洲初創(chuàng)公司和調(diào)研者引領全球AI競賽的發(fā)射臺?!?/p>
據(jù)路透社報道,歐盟國家和歐洲議會成員在經(jīng)歷了接近15個小時的談判之后終于達成了協(xié)議,此前一天還進行了將近24小時的辯論。雙方還將在未來幾天敲定細節(jié),最終立法還有可能會變化。
對于游戲業(yè)內(nèi)較為關心的版權歸屬問題,法案給出的規(guī)定是必須讓用戶有知情權(即告知用于他們在使用或者與AI內(nèi)容互動),還必須明確標出受版權保護的數(shù)據(jù)摘要,意味著AIGC內(nèi)容版權需要視訓練數(shù)據(jù)的版權歸屬決定。
全球首個AI法案初步成型
作為最近一年多來紅遍全球的創(chuàng)新技術,AI的優(yōu)勢和爭議都很明顯。業(yè)內(nèi)已經(jīng)有不少公司開始通過生成型AI進行創(chuàng)意迭代或者提升研發(fā)效率,甚至還被越來越多地運用到手游買量領域。然而,對于版權的擔憂,以及可能引發(fā)的行業(yè)裁員,也是這項技術被懷疑、被特定行業(yè)抵制的原因之一。
歐盟想要監(jiān)管AI以確保這項創(chuàng)新技術更好的研發(fā)和使用條件。AI可以創(chuàng)造很多利益,比如更好的意料、更安全和整潔的交通、更有效率的制造,以及更廉價和更可持續(xù)的能源。在2021年4月份,歐盟委員會提出了首個歐盟AI監(jiān)管框架,該框架表示,可以用于不同應用的AI系統(tǒng)將根據(jù)其對用戶構成的風險進行分析和分類。不同的風險水平將意味著或多或少的監(jiān)管,一旦獲得批準,這將是世界上第一條關于AI的監(jiān)管規(guī)則。
歐盟在AI法案介紹的時候提到,“鑒于這些技術的快速發(fā)展,AI監(jiān)管已經(jīng)成了歐盟的核心政策問題,政策制定者承諾制定‘以人為本’的AI法案,以確保歐洲人能夠從先進的新技術中受益,并根據(jù)歐盟的價值觀和原則運作?!?/p>
歐盟議會的首要任務是確保歐盟使用的AI系統(tǒng)是安全、透明、可追蹤、非歧視和環(huán)保的。AI系統(tǒng)應該由人來監(jiān)督,而不是由自動化來監(jiān)督,以防止有害的結果。這個法案要求ChatGPT這樣的基礎模型和通用AI系統(tǒng)在投放到市場之前遵守透明度義務。這些包括起草技術文件、遵守歐盟版權法以及傳播有關訓練內(nèi)容的詳細摘要等。
簡而言之,就是,帶有系統(tǒng)性風險的高影響力基礎模型必須進行模型評價、評估和減輕系統(tǒng)性風險,進行對抗性測試,向歐盟委員會報告嚴重事件,確保網(wǎng)絡安全,并報告其能源效率。存在系統(tǒng)性風險的通用AI可能會依據(jù)行業(yè)準則來遵守新法規(guī)。
Thierry Breton告訴媒體稱:“歐盟將自己定位為先驅(qū)者,理解其作為全球標準制定者角色的重要性,我相信,今天是具有歷史意義的一天”。
AI法案還對不同風險程度做出了差異化的規(guī)定,主要分為不可接受的風險等級、高風險和有限風險。
不可接受的風險AI系統(tǒng)指的是被認為會給人們帶來威脅的系統(tǒng),而且將被封禁,它們包括:
1)對人或特定弱勢群體的認知行為操縱:例如,鼓勵兒童危險行為的聲控玩具;
2)社會評分:根據(jù)行為、社會經(jīng)濟地位或個人特征對人進行分類;
3)實時和遠程生物識別系統(tǒng),如面部識別。
一系列例外情況是被允許的:例如,“后”遠程生物識別系統(tǒng),如果在重大延遲后進行識別將被允許用于起訴嚴重犯罪,但僅在法院批準后才能進行。
高風險指的是對安全或基本權利產(chǎn)生負面影響的AI系統(tǒng)將被視為高風險系統(tǒng),并將分為兩類:
1)在歐盟產(chǎn)品安全立法范圍內(nèi)的產(chǎn)品中使用的AI系統(tǒng),這包括玩具、航空、汽車、醫(yī)療設備和電梯。
2)AI系統(tǒng)分為8個必須在歐盟數(shù)據(jù)庫中注冊的特定領域:自然人的生物識別和分類;重要基礎設施的管理和運營;教育和職業(yè)培訓;就業(yè)、工人管理和自主創(chuàng)業(yè)機會;獲得和享受基本私人服務、公共服務和福利;法律執(zhí)行;移民、庇護和邊境管制管理;法律解釋和法律適用里的協(xié)助。
所有高風險AI系統(tǒng)將在投放市場之前,包括在它們的生命周期之中,都要進行評估。
對于ChatGPT這樣的生成型AI,法案的規(guī)定是必須遵守透明度要求:公布內(nèi)容由AI生成;設計模型以防止非法內(nèi)容生成;發(fā)布用于訓練數(shù)據(jù)的受版權保護的數(shù)據(jù)摘要。
法案還規(guī)定,有限風險的AI系統(tǒng)應符合最低透明度要求,允許用戶做出明智的決策。在與應用程序交互之后,用戶可以決定是否繼續(xù)使用它。當用戶與AI交互時,應讓他們中調(diào),這包括生成或操作圖像、音頻或者視頻內(nèi)容的AI系統(tǒng),例如深度偽造(deepfake)。
一旦雙方正式批準,該法案預計將于明年初生效,并應在兩年后正式施行。消費者有權對AI技術應用提出投訴并得到有意義的解釋,而違規(guī)罰款數(shù)額將從750萬歐元(810萬美元)或營業(yè)額的1.5%到3500萬歐元或全球營業(yè)額的7%不等。
AI圈的擔憂:不能因為有風險就因噎廢食
對于“突如其來”的監(jiān)管,歐洲很多公司同樣表達了擔憂,甚至有開發(fā)者借機暗諷歐盟“管太寬”,導致歐洲的AI技術落后于世界其他地區(qū)。
比如有同行專門對Thierry Breton之前發(fā)的一張全球AI法案分布圖進行對比,指出AI可能是唯一一個沒有AI發(fā)展的大陸。
法國AI公司Mistral CEO Arthur Mensch說,“我們不能對缺乏使用的發(fā)動機進行監(jiān)管,我們并沒有因為C語言可以研發(fā)惡意軟件就封禁它,而是禁止惡意軟件?!?/p>
隱私權集團European Digital Rights也對此持批評態(tài)度,其高級政策咨詢師Ella Jakubowska說,“很難對一項在歐盟首次實施、使整個歐盟的實時公共面部識別合法化的法律感到興奮。盡管議會努力限制其損害,但生物識別監(jiān)控和特征分析的整體方案充其量只是不冷不熱?!?/p>
對于隱私,法案規(guī)定政府只能在公共場所對某些犯罪的受害者進行實時生物識別監(jiān)測,防止真正的、當前的或可預見的威脅,如恐怖襲擊,以及搜查涉嫌嚴重犯罪的人。該協(xié)議禁止認知行為操作、無針對性地從互聯(lián)網(wǎng)或閉路電視錄像中抓取面部圖像,社交評分和生物識別分類系統(tǒng)來推斷政治、宗教、哲學信仰、性取向和種族。
企業(yè)集團DigitalEurope批評該規(guī)定和其最近的立法一樣,是給企業(yè)增加的另一個負擔。其總干事Cecilia Bonefeld-Dahl表示,“我們有了一個協(xié)議,但代價是什么?我們完全支持對AI安全使用的方式,而不是技術本身,但最新的監(jiān)管嘗試將本末倒置了?!?/p>