OpenAI安全措施鬆動?競爭對手搶先恐成關鍵!

OpenAI可能調整AI安全措施以應對競爭對手的「高風險」AI系統,但強調不會輕易調整且仍會維持在更嚴格的安全標準。同時,OpenAI正更多地依賴自動化評估加速產品開發,但安全性測試時間可能縮短。《金融時報》報導與OpenAI聲明產生矛盾,顯示加速開發與AI安全措施的平衡備受關注。






<a href="https://finews.tw/tag/ai/" target="_blank">OpenAI</a>調整AI安全措施?

OpenAI可能調整AI安全措施,如果競爭對手推出「高風險」AI

  • 重點一:OpenAI更新了內部評估AI模型安全性的「準備框架」。
  • 重點二:如果競爭對手推出沒有類似安全措施的「高風險」AI系統,OpenAI可能會調整其安全要求。
  • 重點三:OpenAI強調,不會輕易調整安全措施,且仍會維持在更嚴格的安全標準。
  • 重點四:OpenAI正更多地依賴自動化評估來加速產品開發,但有報導指出安全性測試時間縮短。

OpenAI可能調整AI安全措施,考量競爭壓力

2025年4月15日,根據科技新聞網站TechCrunch報導,OpenAI更新了他們的「準備框架」,這是一個用來評估AI模型安全性的內部系統,並決定在開發和部署期間採取哪些必要的安全措施。

AI 安全措施與競爭壓力之間的平衡

這次的更新指出,如果其他AI公司推出「高風險」的AI系統,但沒有採取類似的安全措施,OpenAI可能會「調整」他們的安全要求。這項改變反映出,在商業AI開發者之間,快速推出模型的競爭壓力越來越大。

加速開發與安全性的平衡

OpenAI一直被批評為了加速產品上市,降低了安全標準,並且沒有及時提供詳細的安全測試報告。上週,12位前OpenAI員工在一份提交給伊隆·馬斯克(Elon Musk)控告OpenAI的案件中表示,如果OpenAI完成他們計劃的企業重組,公司可能會更進一步地降低安全標準。

OpenAI可能預料到這些批評,聲稱他們不會輕易地調整這些政策,並且會將安全措施保持在「更具保護性的水平」。

OpenAI在一篇部落格文章中表示:「如果其他領先的AI開發者推出沒有類似安全措施的高風險系統,我們可能會調整我們的要求。但是,我們會先嚴格確認風險情況確實已經改變,公開承認我們正在進行調整,評估這個調整不會顯著增加嚴重傷害的整體風險,並且仍然保持在更具保護性的安全水平。」

自動化評估與安全性測試時間縮短

更新後的「準備框架」也明確指出,OpenAI正更多地依賴自動化評估來加速產品開發。OpenAI表示,雖然他們沒有完全放棄人工主導的測試,但他們已經建立了一套「不斷增長的自動化評估工具」,據稱可以「跟上更快的發布速度」。

自動化 AI 評估以及安全性測試時間縮短

然而,有些報導與此說法相矛盾。《金融時報》報導指出,OpenAI給予測試人員不到一週的時間來進行即將推出的主要模型的安全檢查,相較於之前的版本,這個時間已經被壓縮。報導的消息來源還聲稱,OpenAI現在的許多安全測試都是在較早版本的模型上進行,而不是發布給公眾的版本。

OpenAI在聲明中否認了他們正在降低安全性的說法。

調整風險分類標準

OpenAI的框架還對模型的風險分類方式進行了其他變更,包括能夠隱藏自身能力、規避安全措施、阻止自身關閉,甚至自我複製的模型。OpenAI表示,他們現在將重點放在模型是否達到以下兩個閾值之一:「高」能力或「關鍵」能力。

OpenAI 調整 AI 模型風險分類標準

OpenAI對「高」能力的定義是指可能「擴大現有嚴重傷害途徑」的模型。而「關鍵」能力是指「引入前所未有的新嚴重傷害途徑」的模型。

OpenAI在部落格文章中寫道:「達到高能力的受監管系統,必須具備充分降低相關嚴重傷害風險的安全措施,才能部署。達到關鍵能力的系統,也需要在開發過程中採取充分降低相關風險的安全措施。」

這次更新是OpenAI自2023年以來首次對「準備框架」進行的更新。

OpenAI 安全措施
常見問題(FAQ)

OpenAI為何可能調整AI安全措施?
為了應對競爭壓力,如果競爭對手推出沒有類似安全措施的「高風險」AI系統,OpenAI可能會調整其安全要求。
OpenAI如何平衡加速開發與安全性?
OpenAI正更多地依賴自動化評估來加速產品開發,但強調不會輕易調整安全措施,並維持在更嚴格的安全標準。
OpenAI對AI模型的風險如何分類?
OpenAI現在將重點放在模型是否達到「高」能力(擴大現有嚴重傷害途徑)或「關鍵」能力(引入前所未有的新嚴重傷害途徑)這兩個閾值之一。


Finews 編輯
Finews 編輯

台灣最好懂得財經新聞網,立志把艱澀的財經、科技新聞用最白話的方式說出來。

文章: 398

發佈留言