Toybrick

RK3399pro 如何进行 16bit 的模型量化

mrzs

中级会员

积分
278
楼主
发表于 2019-7-26 16:24:34    查看: 6693|回复: 2 | [复制链接]    打印 | 只看该作者
深度学习模型在转 rknn的时候,如何设置16bit的量化呢。 试过quantization-dtype 为 f16 和u16 均不行 。

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有帐号?立即注册

x
回复

使用道具 举报

yaowei

中级会员

积分
375
沙发
发表于 2019-7-26 16:39:05 | 只看该作者
我觉得rknn暂时应该不支持16bit量化吧。。。
回复

使用道具 举报

Zen

中级会员

积分
201
板凳
发表于 2019-8-28 09:18:49 | 只看该作者
目前有这个
quantized_dtype = " dynamic_fixed_point-16"
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

产品中心 购买渠道 开源社区 Wiki教程 资料下载 关于Toybrick


快速回复 返回顶部 返回列表