Toybrick

标题: caffe中Deconvolution层支持问题 [打印本页]

作者: zwdtc    时间: 2019-3-1 12:32
标题: caffe中Deconvolution层支持问题
大家好,

现在项目需要,我在caffe模型中加入了Deconvolution层,现在是8层conv+1层deconv, 但是感觉inference的速度好慢,120*80 输入的情况下只有10fps,请问是存在deconvolution支持不够完美的情况吗?

作者: zwdtc    时间: 2019-3-1 17:19
我们现在测下来好像有问题啊,现在是不是不支持deconvolution?
作者: troy    时间: 2019-3-1 18:19
zwdtc 发表于 2019-3-1 17:19
我们现在测下来好像有问题啊,现在是不是不支持deconvolution?

可以用最新的0.9.8.1的rknn-ToolKit进行测试,旧版本的好像有BUG,速度比较慢
作者: elooon    时间: 2019-3-1 18:21
zwdtc 发表于 2019-3-1 17:19
我们现在测下来好像有问题啊,现在是不是不支持deconvolution?

你的rknn-toolkit版本是0.9.8.1吗?
作者: zwdtc    时间: 2019-3-1 18:50
我们现在项目是做语义分割的,二元分类,在输入80x120情况下caffe输出为(2,80,120)
现在用    outputs = rknn.inference(inputs=[img])得到outputs为(1,1,19200)
我看官方api文档inference()函数可以有参数outputs指定输出的shape,有能指点下怎么写吗?
作者: seedlin    时间: 2019-3-4 12:05
zwdtc 发表于 2019-3-1 18:50
我们现在项目是做语义分割的,二元分类,在输入80x120情况下caffe输出为(2,80,120)
现在用    outputs =  ...

推理的输出shape,是在转换模型的时候,由模型指定的吧。
作者: zwdtc    时间: 2019-3-7 18:42
已经解决,谢谢!




欢迎光临 Toybrick (https://t.rock-chips.com/) Powered by Discuz! X3.3