|
模型输入的单张图片大小为[200, 200, 1].
使用tensorflow/Keras时可以多张图片一起跑,输入的维度为 [?, 200, 200, 1]
将其转化为RKNN模型时,size设为[[200, 200, 1]]
使用rknn.inference(inputs=[image)输出时:
image维度为[200, 200, 1]时得到结果
image维度为[2, 200, 200, 1]时只能得到第一个[1, 200, 200, 1]的结果, 提示 输入的xxx应为40000,而不是80000
然后将image设置为一个列表,其中每一个对象是一个[200x200x1]的np.asarray对象,rknn.inference(inputs=image)。会报错:输入的列表长度应该是1,而不是3(测试时采用的是3个对象的列表)
然后将其转化为RKNN模型时,size设为[[9,200, 200, 1]]。转化模型时失败
请问,使用RKNN时,只能一次输入一张图片吗?(也就是不支持tensorflow类似的batch输入)
或者该如何才能较快地得到多个输入图片的结果, 输入维度为[?, 200, 200, 1]。 (如果分别使用多个rknn.inference时,太花费时间啦)
|
|