Toybrick

标题: 模型量化时batch_size只能设置为1,否在会报错 [打印本页]

作者: gssg123    时间: 2020-7-1 11:27
标题: 模型量化时batch_size只能设置为1,否在会报错
在转换onnx模型时,进行量化时,如果batch_size设置为大于1,会报错
E ValueError: Cannot reshape a tensor with 1732800 elements to shape [1,8664] (8664 elements) for 'Reshape_989_7/Reshape_989_7' (op: 'Reshape') with input shapes: [200,19,19,24], [2] and with input tensors computed as partial shapes: input[1] = [1,8664].
--> Model process failed!



作者: leok    时间: 2020-7-1 14:26
rknn toolkit版本请更新到1.3.2
作者: gssg123    时间: 2020-7-1 18:34
leok 发表于 2020-7-1 14:26
rknn toolkit版本请更新到1.3.2

使用的时候已经更新到1.3.2
作者: lbq0111    时间: 2020-7-8 10:06
跟楼主遇到同样的问题,我是用30张图片做量化;
看楼主的提问应该是用了200个batch,安照rknn.py里面:
  1.         if rknn_batch_size <= 0 or rknn_batch_size > 128:
  2.             self.rknn_log.rknn_e('The rknn_batch_size is invalid (<=0 or >128), please set the correct value.')
  3.             return -1
复制代码

200个batch也过大了
作者: lbq0111    时间: 2020-7-8 14:23
做量化的onnx需要是支持动态batch的




欢迎光临 Toybrick (https://t.rock-chips.com/) Powered by Discuz! X3.3