歐盟正在考慮采用分級方法來監管生成式人工智能(AI)模型。一項提案稱,歐盟將為3個級別的基礎大型語言模型建立規則,并對最強大的AI技術進行額外的外部測試。
根據擬議的規則,第一級將包括所有基礎模型;第二級針對“非常強大”的基礎模型,將通過用于訓練其大型語言模型的算力來區分,提案稱這些模型可能“超出了當前的技術水平,并且可能尚未被完全理解”;第三級被稱為大規模通用目的人工智能系統,將包括最流行的人工智能工具,并以用戶總數來衡量。
像ChatGPT這樣的聊天機器人依賴于大型語言模型即使用大量數據集來開發人工智能的算法,在此基礎上開發的生成式人工智能軟件可以通過文本、圖片和視頻來響應人類的提示,其技能水平有時候令人驚訝和擔憂。
目前,全球多國都在努力為生成式AI設置護欄,以應對這一新興技術迅速發展帶來的安全風險。歐盟有望成為第一個對人工智能制定強制性規則的西方政府。根據其擬議的《人工智能法案》,開發和部署人工智能系統的公司需要進行風險評估、標記人工智能生成的內容,并完全禁止使用生物識別監控等措施。談判人員希望在10月25日舉行的下次會議上完善該立法,目標是在年底前敲定法案。
歐盟3個機構的代表在本月早些時候的一次會議上普遍支持分級監管方法,但技術專家提出了更具體的建議。根據彭博社看到的10月16日的文件,這些想法目前正在形成,但隨著談判的展開,它們可能會發生變化。
知情人士表示,此舉的目標是不讓新初創企業承受過多監管負擔,同時又對大型企業進行控制。
以下為提案對三級監管的要求:
1.所有基礎模型(All Foundational Models)
人工智能開發人員在將任何模型投放市場之前都必須遵守透明度要求。他們必須記錄模型及其訓練過程,包括內部“紅隊”工作的結果,即獨立專家試圖將模型推向不良行為從而對安全性進行評判的過程。開發人員還將根據標準化協議進行評估。
模型投放市場后,公司需要向使用該技術的企業提供信息,并使它們能夠測試基礎模型。
公司必須對用于開發模型的內容以及如何管理版權問題提供“足夠詳細”的摘要,包括確保權利所有者可以選擇不將其內容用于訓練模型。公司還必須確保人工智能內容能夠與其他材料區分開來。
談判人員提議將基礎模型定義為一個能夠“勝任執行各種獨特任務”的系統。
2.非常強大的基礎模型(Very Capable Foundation Models)
開發這一級技術的公司將遵守更嚴格的規則。在投放市場之前,這些模型必須接受外部專家的定期紅隊審查,這些專家將接受歐盟新成立的人工智能辦公室的審查。測試結果將發送給該機構。
公司還必須引入系統來幫助發現系統性風險。這些模型投放市場后,歐盟將讓獨立審查員和研究人員執行合規控制,包括檢查公司是否遵守透明度規則。
談判代表還考慮為公司創建一個論壇,討論最佳實踐和自愿行為準則,這些準則將得到歐盟委員會的認可。
非常強大的基礎模型將根據訓練它們所需的算力進行分類,使用稱為FLOPS或每秒浮點運算的衡量標準。確切的門檻將由歐盟委員會在稍后階段確定,并將根據需要進行更新。
公司可以對這一評估提出異議。相反,即使調查后未達到閾值,委員會也可以認為模型“非常強大”。談判人員還在考慮使用該模型的“潛在影響”基于其上構建的高風險人工智能應用程序的數量,作為對技術進行分類的一種方式。
3. 大規模通用目的人工智能系統(General Purpose AI Systems at Scale)
這些系統也必須接受外部專家的紅隊檢查以識別漏洞,結果將發送給委員會的人工智能辦公室。公司還必須引入風險評估和緩解系統。
歐盟將認定任何擁有10000名注冊企業用戶或4500萬注冊終端用戶的系統都屬于大規模通用目的人工智能系統。委員會稍后將決定如何計算用戶數量。
公司可以就其大規模通用人工智能系統的地位提起上訴,同樣,歐盟可以讓其他系統或模型遵守這些附加規則,即使它們沒有達到閾值,但可能“引發風險”。
此外,提案表示,需要進一步討論來確定護欄,以確保通用目的人工智能系統和非常強大的人工智能系統都不會生成非法和有害內容。
大規模通用目的人工智能和非常強大的基礎模型的附加規則將由新的人工智能辦公室監督。該機構可以索取文件、組織合規測試、創建注冊制度審核紅隊測試人員并進行調查。該機構甚至可以“作為最后手段”暫停某個模型。
人工智能辦公室雖然位于歐盟委員會內,但將是“獨立的”。歐盟可以對大規模通用目的人工智能和非常強大的基礎模型收取費用,從而獲得資金來雇用辦公室人員。