技術
知識蒸餾 (Distillation)
Knowledge distillation
用大模型(teacher)的輸出訓練小模型(student),讓小模型在更便宜的成本下保留大模型的能力。
技術
Knowledge distillation
用大模型(teacher)的輸出訓練小模型(student),讓小模型在更便宜的成本下保留大模型的能力。
We use cookies
Anonymous analytics help us improve the site. You can opt out anytime. Learn more