Toybrick

转换的rknn模型,量化的i16比不量化的float模型推理速度慢

BW1994

注册会员

积分
60
楼主
发表于 2023-5-19 11:45:56    查看: 2441|回复: 0 | [复制链接]    打印 | 只看该作者
使用量化的i16的模型推理速度比不量化的模型推理速度慢很多,这是什么原因呢?

使用netron 查看转换后的rknn模型,发现conv的weights是int16类型,但是bias是int64类型,是这个原因导致i16模型的推理速度非常慢吗?
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

产品中心 购买渠道 开源社区 Wiki教程 资料下载 关于Toybrick


快速回复 返回顶部 返回列表