Toybrick

标题: 在移植deeplabv3+tensorflow 的模型,用的官方的deeplabv3 mobilenetV... [打印本页]

作者: aimai    时间: 2021-5-13 16:03
标题: 在移植deeplabv3+tensorflow 的模型,用的官方的deeplabv3 mobilenetV...
在移植deeplabv3+tensorflow 的模型,用的官方的deeplabv3 mobilenetV2这个模型,模型可以成功转换成RKNN,可是在inference 的时候,就是一直卡死在 inference,没有输出done
我的配置是:
rknn.config(mean_values=[[127.5, 127.5, 127.5]], std_values=[[127.5, 127.5, 127.5]], reorder_channel='0 1 2')
rknn.load_tensorflow(tf_pb='./frozen_inference_graph_seg_new.pb',
                  inputs=['MobilenetV2/Conv/Conv2D'],
                  outputs=['ArgMax'],
                         input_size_list=[[INPUT_SIZE, INPUT_SIZE, 3]])
不知道怎么解决这个问题啦,希望能给我解答,谢谢





欢迎光临 Toybrick (https://t.rock-chips.com/) Powered by Discuz! X3.3