Toybrick

标题: 转换的rknn模型,量化的i16比不量化的float模型推理速度慢 [打印本页]

作者: BW1994    时间: 2023-5-19 11:45
标题: 转换的rknn模型,量化的i16比不量化的float模型推理速度慢
使用量化的i16的模型推理速度比不量化的模型推理速度慢很多,这是什么原因呢?

使用netron 查看转换后的rknn模型,发现conv的weights是int16类型,但是bias是int64类型,是这个原因导致i16模型的推理速度非常慢吗?





欢迎光临 Toybrick (https://t.rock-chips.com/) Powered by Discuz! X3.3