Toybrick
标题:
RK3399pro 如何进行 16bit 的模型量化
[打印本页]
作者:
mrzs
时间:
2019-7-26 16:24
标题:
RK3399pro 如何进行 16bit 的模型量化
深度学习模型在转 rknn的时候,如何设置16bit的量化呢。 试过quantization-dtype 为 f16 和u16 均不行 。
作者:
yaowei
时间:
2019-7-26 16:39
我觉得rknn暂时应该不支持16bit量化吧。。。
作者:
Zen
时间:
2019-8-28 09:18
目前有这个
quantized_dtype = " dynamic_fixed_point-16"
欢迎光临 Toybrick (https://t.rock-chips.com/)
Powered by Discuz! X3.3