近来有研究人员正研究怎样透过视频中的画面来自动产生3D模型场景。

有一个叫“continuous-time structure from motion”的概念是从一般2D视频中直接产生及获得3D场景数据。这个概念可以应用在未来机器人系统中的视觉组件,用作在现实世界中导航。当然现在理论上可以做到这一点,因为现在有很多高功率光学传感及先进的成像系统,以及跟踪摄像机方向和运动的内部运动传感器。

虽然现时可通过将视频中的每个frame当作静止图像来处理就可以制作3D模型场景。但这种方法在影像处理时间上十分缓慢,不太适合实时应用,例如机器人移动时需要实时感受周边环境及即时做出反应及决策。

现时研究人员正在发展这个continuous-time structure from motion 概念,这样可以更快地从视频中获取产生3D模型场景。

DLP打印光敏树脂一般有什么设定?

3D扫描可以几容易获取一个实物公仔3D数据呢?