|
板凳
楼主 |
发表于 2020-9-2 22:32:27
|
只看该作者
Trouble_Shooting里面有如下的一条:
问:转换模型时如果 do_quantization 为 False,是否也会进行量化,量化精度是什么?(因为转换后模型体积小了接近一半)
答:分两种情况,当导入的模型是量化的模型时,do_quantization=False 会使用该模型里面的量化参数,具体请参考 1.9 的回答。当导入的模型是非量化模型时,do_quantization=False不会做量化的操作,但是会把权重从 float32 转成 float16,这块不会有精度损失
但是像上面这样的确存在较大误差的情况,是不是要手动设置量化精度为float32?这个要一层一层的设置么? |
|