Toybrick

do_quantization=False是精度最高的方式吗?

jefferyzhang

版主

积分
12953
楼主
发表于 2020-8-23 09:23:13 | 显示全部楼层
撇开模型训练过程谈精度都是耍流氓。模型精度和模型本身OP设计和训练过程有很大关系,和参数本身宽度关系不大。
如果你只是把现成模型转下,就认为精度是下降的,那是肯定的,因为改变参数宽度一定会造成运算结果和预训练结果不一样,不管你是把原模型FP32改成FP16、U8量化,甚至你把原模型FP32改成FP64,势必都会造成运算结果和原模型不一样。
建议你了解下量化技术,tensorflow的训练量化,和一些新模型降低参数的设计(现在模型发展方向都是朝着降低参数大小并提高精度发展)。

当然我们rknn的混合量化方式,玩的好的是可以在最大程度下保证原模型精度并提高速度的。
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

产品中心 购买渠道 开源社区 Wiki教程 资料下载 关于Toybrick


快速回复 返回顶部 返回列表