美國拒絕支持一項重大的國際人工智能安全報告

Senate Judiciary Subcommittee On Technology Examines Regulation Of Artificial Intelligence

(SeaPRwire) –   人工智能的進步速度比許多專家預期的要快,而且多項風險的證據「已大幅增加」。同時,目前的風險管理技術「正在改進但仍不足」。這些是第二份國際人工智能安全報告的發現,該報告於週二發布,在即將於 2 月 19 日至 20 日在新德里舉行的 AI Impact Summit 峰會之前。

該報告由 100 位專家指導,並得到包括英國、中國和歐洲聯盟在內的 30 個國家和國際組織的支持,旨在樹立「共同努力應對共同挑戰」的榜樣。但報告主席、圖靈獎得主科學家 Yoshua Bengio 證實,與去年不同的是,美國拒絕支持這份報告。

隨著人工智能的風險開始顯現,領先的人工智能開發者所在地已退出國際合作以理解和減輕這些風險的努力。此舉在很大程度上是象徵性的,報告的成敗並不取決於美國的支持。但 Bengio 表示,在理解人工智能方面,「全世界的共識越大越好」。

美國是猶豫於報告的內容,還是僅僅退出國際協議——它在 1 月份退出了 [此處應為被移除的連結] 和 [此處應為被移除的連結]——尚不清楚。Bengio 表示,美國在報告的早期版本中提供了回饋,但拒絕簽署最終版本。

在 2025 年國際人工智能安全報告中被提及的美國商務部,對於此決定未予回應。

報告內容

報告中寫道:「在過去一年中,通用人工智能模型和系統的能力持續提升。」其能力進展如此之快,以至於在第一份和第二份報告之間的一年中,作者們發布了兩次臨時更新,以應對重大變化。這與暗示人工智能已停滯不前的持續新聞報導形成對比。Bengio 表示,科學證據顯示「過去一年沒有放緩的跡象」。

為什麼許多人感覺進展放緩了?一個線索是研究人員稱之為人工智能表現的「參差不齊」。這些模型可以在國際數學奧林匹亞競賽問題上達到金牌標準,但有時卻無法計算「草莓」中的「r」的數量。這種參差不齊使得人工智能的能力難以評估,而直接與人類比較——例如流行的「實習生」類比——則具有誤導性。

雖然不能保證目前的進展速度會持續下去,但報告指出,趨勢與到 2030 年的持續改進一致。如果今天的速度持續到那時,專家預測人工智能將能夠完成需要人類工程師數天時間才能完成的範圍明確的軟體工程任務。但報告也提出了更引人注目的可能性,即如果人工智能在自身發展中提供實質性協助,進展可能會加速,從而產生在大多數維度上與人類相當或更強大的系統。

這可能會讓投資者興奮,但對於那些擔心社會未能跟上當前步伐應對新興風險的人來說,則令人擔憂。即使是 Google DeepMind 的執行長 Demis Hassabis 在 1 月份於達沃斯表示,他認為「對世界來說會更好」如果進展放緩。

Bengio 說:「無論是在政府還是在企業,明智的策略都是為所有可能的場景做好準備。」這意味著即使面對不確定性,也要減輕風險。

對風險的理解日益成熟

希望聽取科學家關於人工智能風險意見的決策者面臨一個問題:科學家們意見不一。自 ChatGPT 發布以來,Bengio 和另一位人工智能先驅 Geoffrey Hinton 一直警告說,人工智能可能對人類構成生存威脅。與此同時,人工智能所謂的「教父」之一 Yann LeCun 則將此類擔憂斥為「純屬胡說」。

但報告表明,基礎正在變得堅實。雖然有些問題仍然存在爭議,但報告指出,「在核心發現上存在高度的共識」。人工智能系統在與生物武器開發相關的基準測試中,例如對病毒實驗室協議進行故障排除,現在已經達到或超過了專家的表現。有強有力的證據表明,犯罪集團和國家支持的攻擊者正在積極利用人工智能進行網絡行動。

報告稱,隨著人工智能模型越來越擅長規避安全測試,未來衡量這些風險將面臨挑戰。Bengio 表示:「我們看到人工智能在測試時的行為與在使用時的行為不同。」他補充說,通過研究模型的「思維鏈」——在得出答案之前的中間步驟——研究人員已經確定這種差異「並非巧合」。人工智能的表現得「非常愚蠢」或「表現得最好」,這「嚴重阻礙了我們準確評估風險的能力」。

報告沒有提出單一的解決方案,而是建議採取多種安全措施——發布前的測試、發布後的監控——這樣,從一個層級中漏掉的東西就會被下一個層級捕捉到,就像水通過一系列越來越細的濾網一樣。一些措施針對模型本身;另一些措施旨在加強現實世界的防禦——例如,即使人工智能使設計生物武器變得更容易,也要使其更難獲取建造生物武器所需的材料。在企業方面,12 家公司在 2025 年自願發布或更新了前沿安全框架,這些文件描述了它們在構建更強大模型時管理風險的計劃——儘管報告指出,這些框架涵蓋的風險各不相同。

儘管有這些發現,Bengio 表示,這份報告讓他感到樂觀。當第一份報告於 2023 年底委託編寫時,關於人工智能風險的辯論是由意見和理論驅動的。他說,現在,「我們開始進行一場更為成熟的討論了」。

本文由第三方廠商內容提供者提供。SeaPRwire (https://www.seaprwire.com/)對此不作任何保證或陳述。

分類: 頭條新聞,日常新聞

SeaPRwire為公司和機構提供全球新聞稿發佈,覆蓋超過6,500個媒體庫、86,000名編輯和記者,以及350萬以上終端桌面和手機App。SeaPRwire支持英、日、德、韓、法、俄、印尼、馬來、越南、中文等多種語言新聞稿發佈。