Onnx 做量化时由于batch和reshape带来的问题?

@Frank 你好,顺道问一下,咱们现在npu是不是还不支持BiLSTM这个算子?另外,板子运行多个模型,比如多阶段的模型,先跑第一个nb,再跑第二个nb,再跑第三个nb才出结果,除了按顺序run模型有啥好的加载释放方式吗,以此来解决时间内存优化?

@librazxc 支持的算子在文档里面,你可以你查看,至于你说的多个nb的,只能按顺序跑,NPU不能同时跑多个nb文件的.

@Frank 感觉onnx转出来的基本不能用,模型输出结果和cpu差太多了!