|
一直在解释类似问题:
1. 硬件OP和软件OP并不是一一对应的
2. 各家框架OP都不是一一对应的,tf和caffe和onnx,写到模型文件里的op并不是一一对应的,甚至有很大区别
3. 以上两点差异,造成转换rknn成功率并不相同。个人使用感觉rknn对caffe和tf的支持比较友好,其他的模型格式只能说是尽可能最大程度去兼容。
3. DW卷积不建议在NPU上用,dw的出现是为了解决conv在嵌入式平台运行慢的问题,牺牲精度换取速度,但我们NPU卷积速度很快,dw conv反而慢,不需要去牺牲这精度搞dw。 |
|