|
是的,理论上是这样的,但是我们现在rknn转换时候强制会用FP16,如果你模型是FP32的层,会有一点精度损失,至于如何强制rknn使用FP32,这个我已经跟相关部门提过需求了,等他们回应。
1. Caffe FP16 -> RKNN FP16 结果一定是一样的
2. Caffe FP32 -> RKNN FP16 结果小数点后会有一点点精度区别
3. Caffe FP16/32 -> RKNN 量化 INT8 如果量化好的话,结果是和FP16非常接近的,不会到值完全不一样的地步
然后RKNN是固定输入尺寸的,所以模型如果是允许变尺寸输入,转换RKNN时候是必须固定成一个尺寸的。 |
|