Toybrick

标题: 网上下载的.pb transfer to .rknn,如何使input size=64 [打印本页]

作者: kiwigogogo    时间: 2019-9-9 17:38
标题: 网上下载的.pb transfer to .rknn,如何使input size=64
本帖最后由 kiwigogogo 于 2019-9-9 17:41 编辑

你好,我从网上下载了inception_v1_2016_08_28_frozen.pb,在RK3399Pro linux环境下,使用函数
rknn.load_tensorflow(tf_pb='inception_v1_2016_08_28_frozen.pb',                     
                               inputs=['input'],
                               outputs=['InceptionV1/Logits/Predictions/Reshape_1'],                    
                               input_size_list=[[224, 224, 3]])

以上函数可以成功转换成rknn,但是输入图片大小是224*224,降低了inference的FPS,这时FPS=9.96。
如果改成 input_size_list=[[64,64,3]],报错ValueError: cannot feed value of shape (1,64,64,3) for tensor 'input:0', which has shape (1,224,224,3)
请问怎么得到input_size=64的rknn模型呢?






作者: troy    时间: 2019-9-10 08:10
你必须找一个input为64的模型才行,原始模型输入是多少,rknn转出来就多少。
作者: kiwigogogo    时间: 2019-9-10 08:56
本帖最后由 kiwigogogo 于 2019-9-10 09:48 编辑
troy 发表于 2019-9-10 08:10
你必须找一个input为64的模型才行,原始模型输入是多少,rknn转出来就多少。 ...
我使用了量化 do_quantization=True, FPS提高到100多。还有两个问题:1、do_quantization=True得到的model精度是INT8吗?
2、请问还有什么方法可以提高FPS呢,除了do_quantization=True和重新finetune pb model?

作者: troy    时间: 2019-9-10 10:29
kiwigogogo 发表于 2019-9-10 08:56
我使用了量化 do_quantization=True, FPS提高到100多。还有两个问题:1、do_quantization=True得到的model ...

建议看下文档,文档上面对量化方式这些都有说明的,还支持混合量化。
作者: kiwigogogo    时间: 2019-9-10 17:26
troy 发表于 2019-9-10 10:29
建议看下文档,文档上面对量化方式这些都有说明的,还支持混合量化。

好的,谢谢




欢迎光临 Toybrick (https://t.rock-chips.com/) Powered by Discuz! X3.3