Meta AI发布了一段视频,演示了Project Aria AR眼镜捕获点云原理,基于Llama AI SceneScript 模型可以将点云解释为如墙壁、窗户、门和家具等可识别的现实世界物体。
该捕获输出模式为一个英语文本文件,采用结构化标记代码格式化,并包含目标对象的尺寸。这些数据足以勾勒出目标对象的轮廓或使用边界框创建3D渲染。
基于Meta Quest 3运行SceneScript软件,研究人员可通过直通视图来显示重叠的点云数据和标记的场景元素。最令人印象深刻的是,SceneScript还可以创建更复杂的几何形状,使桌子、办公椅和沙发显示更多细节。
不过,虽然Meta Project Aria眼镜可捕获数据以重建场景,但原型设备搭载的高通Snapdragon 835处理器不足以进行处理;且Project Aria不包含深度传感器,所以点云仅基于视觉处理。
目前消费者还无法在Quest 3或Ray-Ban Meta智能眼镜上使用SceneScript,显然,Meta的研究为即将推出的AR眼镜勾勒了一个新的前景。
识别空间中物体的细节将带来更加身临其境的增强现实体验,使得虚拟内容可与周围环境进行交互,未来,像Quest 3 First Encounters这般的应用将能支持AR眼镜。
【以上内容转自“93913网”,不代表本网站观点。 如需转载请取得93913网站许可,如有侵权请联系删除。】
延伸阅读:
TOM2024-03-23 17:2203-23 17:22
TOM2024-03-23 17:1803-23 17:18
TOM2024-03-23 17:1703-23 17:17
TOM2024-03-23 17:1703-23 17:17