Toybrick

标题: RK3399pro 如何进行 16bit 的模型量化 [打印本页]

作者: mrzs    时间: 2019-7-26 16:24
标题: RK3399pro 如何进行 16bit 的模型量化
深度学习模型在转 rknn的时候,如何设置16bit的量化呢。 试过quantization-dtype 为 f16 和u16 均不行 。


作者: yaowei    时间: 2019-7-26 16:39
我觉得rknn暂时应该不支持16bit量化吧。。。
作者: Zen    时间: 2019-8-28 09:18
目前有这个
quantized_dtype = " dynamic_fixed_point-16"




欢迎光临 Toybrick (https://t.rock-chips.com/) Powered by Discuz! X3.3