600ms
inference 离线模型的推理时间 是会受到 在线推理生
inference 离线模型的推理时间 是会受到 在线推理生成的模型 的影响吗? 或者与云平台的拥挤程度有关系吗? 在执行离线推理时 最开始的推理时间 只有70 ms ,但是没有修改过代码的情况下 再次运行 竟然变成了1000ms 我尝试过重新跑一遍cpu和mlu在线推理的模型,发现离线推理的时间变成了200多ms 但是多运行几次在线推理的模型后 离线推理的时间竟然又增加变成600ms 甚至1200ms 请问究竟是什么原因导致这样的结果呢?代码部分应该是没有修改过的 按理说离线模型的时间不应该出现这么大的波动……?