Toybrick

网上下载的.pb transfer to .rknn,如何使input size=64

kiwigogogo

注册会员

积分
86
发表于 2019-9-9 17:38:33    查看: 7556|回复: 4 | [复制链接]    打印 | 显示全部楼层
本帖最后由 kiwigogogo 于 2019-9-9 17:41 编辑

你好,我从网上下载了inception_v1_2016_08_28_frozen.pb,在RK3399Pro linux环境下,使用函数
rknn.load_tensorflow(tf_pb='inception_v1_2016_08_28_frozen.pb',                     
                               inputs=['input'],
                               outputs=['InceptionV1/Logits/Predictions/Reshape_1'],                    
                               input_size_list=[[224, 224, 3]])

以上函数可以成功转换成rknn,但是输入图片大小是224*224,降低了inference的FPS,这时FPS=9.96。
如果改成 input_size_list=[[64,64,3]],报错ValueError: cannot feed value of shape (1,64,64,3) for tensor 'input:0', which has shape (1,224,224,3)
请问怎么得到input_size=64的rknn模型呢?





回复

使用道具 举报

troy

版主

积分
2374
发表于 2019-9-10 08:10:37 | 显示全部楼层
你必须找一个input为64的模型才行,原始模型输入是多少,rknn转出来就多少。
回复

使用道具 举报

kiwigogogo

注册会员

积分
86
 楼主| 发表于 2019-9-10 08:56:22 | 显示全部楼层
本帖最后由 kiwigogogo 于 2019-9-10 09:48 编辑
troy 发表于 2019-9-10 08:10
你必须找一个input为64的模型才行,原始模型输入是多少,rknn转出来就多少。 ...
我使用了量化 do_quantization=True, FPS提高到100多。还有两个问题:1、do_quantization=True得到的model精度是INT8吗?
2、请问还有什么方法可以提高FPS呢,除了do_quantization=True和重新finetune pb model?
回复

使用道具 举报

troy

版主

积分
2374
发表于 2019-9-10 10:29:33 | 显示全部楼层
kiwigogogo 发表于 2019-9-10 08:56
我使用了量化 do_quantization=True, FPS提高到100多。还有两个问题:1、do_quantization=True得到的model ...

建议看下文档,文档上面对量化方式这些都有说明的,还支持混合量化。
回复

使用道具 举报

kiwigogogo

注册会员

积分
86
 楼主| 发表于 2019-9-10 17:26:07 | 显示全部楼层
troy 发表于 2019-9-10 10:29
建议看下文档,文档上面对量化方式这些都有说明的,还支持混合量化。

好的,谢谢
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

产品中心 购买渠道 开源社区 Wiki教程 资料下载 关于Toybrick


快速回复 返回顶部 返回列表