严格来说,视频并不是一个交互媒介,因为观众只是接收讯息,并不能跟视频里的画面实时互动。但是麻省理工学院(MIT)正在改变这一现实:该校计算机科学与人工智能实验室(CSAIL)研发了一项新技术,让观众可以伸出手“触碰”并操控影像里的物体,就像在真实世界里一样。
谷歌指派了四名员工(包括两名工程师和两名设计师)花费 30 个星期设计了 60 款测试应用,并在每个周一邀请公司内部的志愿者进行测试。现在,Daydream 团队对外分享了他们在设计过程中吸取的经验教训,VR 次元独家整理报道。
此前,为了适应 VR 内容的创作,出现了Maya 的 Oculus 插件,Unreal Engine 和 Unity 也相继宣布把编辑器 VR 化,三维开发中,三位建模和场景编辑都将 VR 化,唯独编程似乎还没 VR 化。
OpenAI 为什么要收购 Windsurf?
两年的 Rust 使用感悟
为什么没有像 BitTorrent 这样的 P2P 流媒体协议?
为什么人工智能公司的标志看起来像屁眼?
Fedora 变革的目标是实现 99% 的软件包可重复性
我认识的最好的程序员
Git 20 年,依然怪异,依然精彩
chroot 技术--Linux 系统的瑞士军刀
最近人工智能模型的进步感觉就像胡说八道
为什么 curl 用 c 语言开发