Created by: zzchust
如题。
目前针对server-intelCPU进行速度优化,希望之后经过paddleslim量化的model,使用paddle-cpu版本进行inference是否会有加速作用?
针对server-intelCPU, paddle有哪些加速策略? 我能想到的: 小型化模型、剪枝、mkldnn加速库