欢迎来到【伏击游戏源码】【pacsvue源码】【洛阳源码】歐盟《人工智能法案》如何影響開源模型監管?聽聽專家怎麼說-皮皮网网站!!!

皮皮网

【伏击游戏源码】【pacsvue源码】【洛阳源码】歐盟《人工智能法案》如何影響開源模型監管?聽聽專家怎麼說-皮皮网 扫描左侧二维码访问本站手机端

【伏击游戏源码】【pacsvue源码】【洛阳源码】歐盟《人工智能法案》如何影響開源模型監管?聽聽專家怎麼說

2024-11-24 18:51:46 来源:{typename type="name"/} 分类:{typename type="name"/}

歐盟掃清了立法監管人工智能(AI)的歐盟最後障礙。

當地時間3月13日,人工歐洲議會以壓倒性票數通過《人工智能法案》(下稱「法案」),法案這標誌着距離全球首部AI領域的何影全面監管法規的正式立法,僅有一步之遙。響開型監

歐盟國家將於5月正式批准該法案,源模伏击游戏源码立法預計將於2025年初生效並於2026年實施,管聽其中某些條款將在今年內適用。聽專

值得注意的家麼是,免費、歐盟開源的人工模型的確獲得了《法案》中的某些豁免。但如果它們被認為構成「系統性風險」,法案開源並不能成為其免於遵守規定的何影理由,這表明更強大的響開型監pacsvue源码開源模型仍將面臨監管。

清華大學計算機系長聘教授,源模清華大學人工智能研究院視覺智能研究中心主任鄧志東告訴記者,「作為一個特殊領域,歐盟出台《法案》,加強對AI的管控,給開源模型更大的豁免權,可促進人工通用智能(AGI)的研發沿着安全、正確的方向,以公開、透明的方式迭代演化,相信這會是未來的政策方向。」

能否推進開源?

開源即將模型的源代碼和技術細節公開,並允許用戶根據其自身需要對模型進行任意使用和修改。洛阳源码被認為有提高技術透明度,讓用戶更容易、更便宜地使用,惠及開發者降低迭代成本,防止壟斷等好處。而閉源模型的源代碼和技術細節則完全被其提供商控制,不對外進行公開,也不允許用戶對這些模型本身進行更改。

鄧志東對記者表示,開源大語言模型會造成一些安全方面的濫用或風險,但因為有全人類的共同參與,即使出現某些安全方面的問題,但囿於模型架構等方面的aifast源码限制,可能也不會是致命的。

對於閉源模型,鄧志東認為其主要挑戰是絕大多數人不知道那些閉源的AGI巨頭都在幹什麼或打算幹什麼。

至於此舉是否會使閉源模型在市場競爭上處於劣勢,鄧志東則表示,當前尚無全球AGI安全監管規則,由幾家閉源公司決定人類的未來是非常危險的,特別是當一家AI頭部企業正在追求百萬塊量級高端GPU算力的時候。 因此,相對於少數幾個閉源模型競爭的不公平,全人類的安全更重要。

不過,在現實中可以看到,dtc 源码很多企業選擇了「兩條腿走路」,即開源其較小的大語言模型,但在最大的和最先進的模型上選擇閉源。

例如,一直堅持開源的法國人工智能初創公司MistralAI最新發布的Mistral-Large大模型尚未開源。谷歌開源的Gemma也僅為其輕量化的大模型版本,且谷歌仍可制定使用該模型的條款及所有權條款。而被特斯拉首席執行官馬斯克起訴的Open AI,在GPT3.0版本之前會通過論文公開其具體的技術細節,但在3.5版本之後,則不再公開。在GPT-4發布時,連最基本的模型參數都沒公布。

對此,鄧志東向記者表示,「當AI產品或產業發展到相當成熟度,從開源走向有限開源甚至閉源是必然趨勢。畢竟面臨激烈的市場競爭,企業要生存、要發展,要追求商業利益的最大化,也需要平衡前期的巨大投入。這個商業底層邏輯可能是企業實現AGI大模型開源的難點。」

首部AI立法如何規範生成式AI

對於備受矚目的生成式AI等功能強大的模型,《法案》計劃進行分層處理。第一層涵蓋所有通用模型,《法案》對其透明度作出明確要求,包括遵守歐盟版權法和詳細說明訓練方法和能源消耗。僅用於科研或開源的模型被排除在外。

第二層,如果通用人工智能(GPAI)用於訓練的累積計算量大於10的25次方每秒浮點運算次數(FLOPs),將被認為具有「系統性風險」,並將面臨模型評估、系統性風險評估和減輕等額外要求。然而目前,只有OpenAI的GPT-4確定處於這一範圍。此外,人造或操縱的圖像、音頻或視頻內容則需要明確標記。

歐盟輿論認為,其他國家和地區可能會使用該法案作為未來AI治理的藍圖,就像歐盟的《通用數據隱私法規》(GDPR)所起到的作用一樣。歐盟內部市場委員布雷頓就在法案通過後表示,歐洲現在是可信賴AI的「全球標準制定者」。

鄧志東告訴記者,要加大AI領域重大方向性的全球安全監管力度,特別是對AGI的安全風險進行分級管控。

他認為,既不要妨礙AI的探索與創新活力,以期其蓬勃發展加快增進人類福祉,但也必須考慮人類的整體安全利益,處理好各個發展階段的安全優先級別,在實踐中把握好最佳AI風險管控時機。

《法案》的處罰力度同樣可觀,違反者最高可被處以3500萬歐元或全球年營業額總額7%的巨額罰款以較高者為準。

不過,去年6月中旬,斯坦福大學AI研究實驗室發布的一項研究顯示,包括Open AI的GPT-4, Meta的LlaMa在內的10個主流大模型,均未滿足《法案》草案的要求。其中Anthropic的Claude 1等三個大模型得分最低,倡導開源的Hugging Face與非營利組織BigScience開發的Bloom得分最高。

斯坦福研究團隊在報告中表示:「主要基礎模型提供商目前基本上沒有遵守這些草案要求。他們很少披露有關其模型的數據、計算和部署以及模型本身的關鍵特徵的足夠信息。尤其是,他們不遵守草案要求來描述受版權保護的訓練數據的使用、訓練中使用的硬件和產生的排放,以及他們如何評估和測試模型。」

該研究團隊表示,研究結果證明目前基礎模型提供商遵守《法案》是可行的,並且《法案》的頒布和執行將為生態系統帶來重大變化,在提高透明度和問責制方面取得實質性進展。

(來源:第一財經)

責任編輯: 文劼