|
在移植deeplabv3+tensorflow 的模型,用的官方的deeplabv3 mobilenetV2这个模型,模型可以成功转换成RKNN,可是在inference 的时候,就是一直卡死在 inference,没有输出done
我的配置是:
rknn.config(mean_values=[[127.5, 127.5, 127.5]], std_values=[[127.5, 127.5, 127.5]], reorder_channel='0 1 2')
rknn.load_tensorflow(tf_pb='./frozen_inference_graph_seg_new.pb',
inputs=['MobilenetV2/Conv/Conv2D'],
outputs=['ArgMax'],
input_size_list=[[INPUT_SIZE, INPUT_SIZE, 3]])
不知道怎么解决这个问题啦,希望能给我解答,谢谢
|
|