跳到內容

公司

Anthropic

由前 OpenAI 研究員(Dario 與 Daniela Amodei)創立、以 AI 安全為核心使命的實驗室,推出 Claude,以 Constitutional AI 跟研究導向的安全文化聞名。

登入以收藏
Anthropic 是 2021 年由 Dario Amodei(CEO)、Daniela Amodei(總裁)跟幾位前 OpenAI 研究員在舊金山創立的 AI 實驗室。公司成立時就把 AI 安全當核心使命——他們認為 OpenAI 在能力上推進太快,安全工作做得不夠。主要投資者包括 Google($2B+)跟 Amazon($4B+)。 它重要的原因是:Anthropic 是第二大前緣模型實驗室,可能也是最重視安全的。他們的旗艦模型 Claude 已經有數百萬使用者,公司也發表大量 alignment、interpretability、Constitutional AI 相關研究。被廣泛認為對「讓強模型同時安全」採取最嚴謹方法。 主要貢獻:Constitutional AI(用 AI 反饋的訓練方法)、interpretability 研究(理解神經網路內部)、Responsible Scaling Policy(隨模型能力等級分級的安全承諾)、Claude 產品線——Opus(最強)、Sonnet(平衡)、Haiku(快又便宜)。 Anthropic 也很特別地是 Public Benefit Corporation——法律義務不只股東報酬,也包括「安全、有益的 AI」。在商業壓力下這能不能維持,是業界最關注的問題之一。延伸閱讀:Claude family、Constitutional AI、Dario Amodei、alignment、OpenAI。

最後更新: 2026-04-29

We use cookies

Anonymous analytics help us improve the site. You can opt out anytime. Learn more