Toybrick
标题:
do_quantization=False是精度最高的方式吗?
[打印本页]
作者:
luxiaofei
时间:
2020-8-22 16:11
标题:
do_quantization=False是精度最高的方式吗?
do_quantization=False是精度最高的方式吗?做量化是不是只能提升速度,精度一定会下降?
作者:
jefferyzhang
时间:
2020-8-23 09:23
撇开模型训练过程谈精度都是耍流氓。模型精度和模型本身OP设计和训练过程有很大关系,和参数本身宽度关系不大。
如果你只是把现成模型转下,就认为精度是下降的,那是肯定的,因为改变参数宽度一定会造成运算结果和预训练结果不一样,不管你是把原模型FP32改成FP16、U8量化,甚至你把原模型FP32改成FP64,势必都会造成运算结果和原模型不一样。
建议你了解下量化技术,tensorflow的训练量化,和一些新模型降低参数的设计(现在模型发展方向都是朝着降低参数大小并提高精度发展)。
当然我们rknn的混合量化方式,玩的好的是可以在最大程度下保证原模型精度并提高速度的。
作者:
张晨晨
时间:
2021-1-26 18:19
jefferyzhang 发表于 2020-8-23 09:23
撇开模型训练过程谈精度都是耍流氓。模型精度和模型本身OP设计和训练过程有很大关系,和参数本身宽度关系不 ...
不是应该在跟原模型精度差不太多的情况下(精确到小数点后6位),之后再进行量化操作吗
作者:
wangkelin
时间:
2021-7-28 16:02
jefferyzhang 发表于 2020-8-23 09:23
撇开模型训练过程谈精度都是耍流氓。模型精度和模型本身OP设计和训练过程有很大关系,和参数本身宽度关系不 ...
如何计算量化后的RKNN模型的mAP啊
欢迎光临 Toybrick (https://t.rock-chips.com/)
Powered by Discuz! X3.3