很多时候去部署一个AI产品有很多问题,比如以下问题:

我的客户有没有GPU?CPU速度太慢了,GPU又带来了成本的问题以及体积和功耗的问题;

算法本身用什么框架做的,部署会有不同的问题,比如你如果caffe的模型,用caffe的cpu推理速度是及其慢的。

说到底还是效率带来的问题。

为了解决这个问题,OpenVINO是值得探索的一个方案。在最近的研究中发现,它的速度真的可以优化到极致,比起OpenCV dnn模块强很多,比起nccn等嵌入式推理框架,似乎强在支持的操作上,以及硬件支持,OpenVINO支持intel的u算力棒。intel的stick第二代比第一代的速度提高了8倍,个人认为,基本上可以当成一个小型的GPU来用了。

不知道在做的各位有没有自己测试过intel计算棒的速度 有的话记得评论一下。OpenVINO的官方介绍是这样的:

大概意思大家都懂。待更新,后面会看看这个东西如何与opencv结合实现加速。

最近有一些机器人,比如cozmo,已经出了第二代产品,感觉很有灵气,不错的产品呀!可惜它的服务在国内用不了。