跳到內容

其他

超人工智慧 (ASI)

ASI (Artificial Superintelligence)

假設中所有領域都遠超人類智能的 AI,通常被定義為 AGI 之後的下一個層級。

登入以收藏
ASI(Artificial Superintelligence,超人工智慧)是 AGI 之後的假設層級:不只跟人類能力相當,而是在所有認知領域大幅超越最頂尖的人類。AGI 是「跟一個有想法的成人專業人士一樣聰明」,ASI 是「在所有事情上都比最頂尖的人類聰明」。 它重要的原因是:ASI 是長期安全論證的焦點。如果 ASI 出現,系統目標跟人類價值觀的小偏差可能造成災難性後果,因為我們可能無法監督或修正一個比我們聰明的系統。Nick Bostrom 的《Superintelligence》(2014)形塑了現代多數討論;Sam Altman、Dario Amodei、Demis Hassabis 都公開談過 ASI 時程。 實際問題:有了 AGI 之後 ASI 是不是會自然跟著到(遞迴自我改進,模型訓練自己的後繼模型),還是需要額外突破?研究者意見分歧。「Fast takeoff」假設 AGI 到 ASI 是幾個月內;「slow takeoff」假設要幾年或幾十年。 對多數開發者,ASI 不是近期該擔心的事——當前模型在很多方面還遠離 AGI。但 ASI 影響實驗室怎麼安排安全研究的優先級、政府怎麼想 AI 政策。延伸閱讀:AGI、alignment、recursive self-improvement、AI safety。

最後更新: 2026-04-29

We use cookies

Anonymous analytics help us improve the site. You can opt out anytime. Learn more