技术
知识蒸馏 (Distillation)
Knowledge distillation
用大模型(teacher)的输出训练小模型(student),让小模型在更便宜的成本下保留大模型的能力。
技术
Knowledge distillation
用大模型(teacher)的输出训练小模型(student),让小模型在更便宜的成本下保留大模型的能力。
We use cookies
Anonymous analytics help us improve the site. You can opt out anytime. Learn more