知识蒸馏
2025-03-28 14:01:58   1  举报             
     
         
 知识蒸馏(Knowledge Distillation)是一种模型压缩技术,通过让小型学生模型(Student Model)模仿大型教师模型(Teacher Model)的“知识”,实现轻量化部署且保持高性能。其核心思想是将复杂模型的泛化能力迁移到轻量模型中,广泛应用于移动端部署、边缘计算等场景。
    作者其他创作
 大纲/内容
 学生模型(Student Model)
  蒸馏
  知识迁移(Knowledge Transfer)
  数据
  迁移
  教师模型(Teacher Model)
  知识
  知识蒸馏
  知识蒸馏(Knowledge Distillation)算法原理图
   
 
 
 
 
  0 条评论
 下一页