架構
混合專家模型 (Mixture of Experts, MoE)
Mixture of Experts (MoE)
一種把模型拆成多個「專家」子網路的架構,每次只啟動少數幾個專家來處理輸入,讓參數量大增但運算成本不會等比上升。
架構
Mixture of Experts (MoE)
一種把模型拆成多個「專家」子網路的架構,每次只啟動少數幾個專家來處理輸入,讓參數量大增但運算成本不會等比上升。
We use cookies
Anonymous analytics help us improve the site. You can opt out anytime. Learn more