Toybrick

在移植deeplabv3+tensorflow 的模型,用的官方的deeplabv3 mobilenetV...

aimai

新手上路

积分
37
楼主
发表于 2021-5-13 16:03:11    查看: 8685|回复: 0 | [复制链接]    打印 | 只看该作者
在移植deeplabv3+tensorflow 的模型,用的官方的deeplabv3 mobilenetV2这个模型,模型可以成功转换成RKNN,可是在inference 的时候,就是一直卡死在 inference,没有输出done
我的配置是:
rknn.config(mean_values=[[127.5, 127.5, 127.5]], std_values=[[127.5, 127.5, 127.5]], reorder_channel='0 1 2')
rknn.load_tensorflow(tf_pb='./frozen_inference_graph_seg_new.pb',
                  inputs=['MobilenetV2/Conv/Conv2D'],
                  outputs=['ArgMax'],
                         input_size_list=[[INPUT_SIZE, INPUT_SIZE, 3]])
不知道怎么解决这个问题啦,希望能给我解答,谢谢
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

产品中心 购买渠道 开源社区 Wiki教程 资料下载 关于Toybrick


快速回复 返回顶部 返回列表