Toybrick
标题:
转换的rknn模型,量化的i16比不量化的float模型推理速度慢
[打印本页]
作者:
BW1994
时间:
2023-5-19 11:45
标题:
转换的rknn模型,量化的i16比不量化的float模型推理速度慢
使用量化的i16的模型推理速度比不量化的模型推理速度慢很多,这是什么原因呢?
使用netron 查看转换后的rknn模型,发现conv的weights是int16类型,但是bias是int64类型,是这个原因导致i16模型的推理速度非常慢吗?
欢迎光临 Toybrick (https://t.rock-chips.com/)
Powered by Discuz! X3.3