界面新闻记者 | 李彪
界面新闻编辑 | 刘方远
著名华裔人工智能科学家、斯坦福大学教授李飞飞近期创办了一家新的AI公司。这也是她2018年从谷歌离职重返斯坦福后,首次直接下场参与的创业项目。
李的个人领英主页也有了相应的更新变化,最上面的简历一栏显示她从2024年1月已经有了新职位,相关项目匿名显示为“something new”,工作状态为“全职”。
根据路透社报道,李飞飞所创办的新公司主要从事“空间智能”的研发,已完成种子轮融资,投资方包括a16z和RadicalVentures。 李飞飞本人也是RadicalVentures的合伙人之一,这是一家专注于人工智能和相关创新的独立基金,在加拿大注册成立,成立之初就拿到了AI领域的顶尖科学家Jeff Hinton、李飞飞等人的投资。
而新公司要做的“空间智能”也与李飞飞最近在许多场合频繁提及的AI应用方向一致。
按照其上个月在TED大会上发表的主题演讲介绍,空间智能是通过理解物体之间的关系,从中得到新的发现或预测。这是比传统视觉识别更高级的计算机视觉智能,是综合自然语言大模型、机器人、计算机视觉多领域研究成果的一门研究,机器可以像人类一样进行更复杂的视觉推理,进而采取更贴合实际的行动。
她在演讲中展示了一张“猫伸出爪子要把玻璃杯推向桌子边缘”的照片来帮助观众理解何为空间智能:人类大脑通常这一瞬间可以评估玻璃杯的几何形状、玻璃杯在真实三维世界中的位置、杯子与桌子、猫和其他物体的关系,并且可以预测接下来会发生什么,采取行动。
而空间智能所要做的就是教会计算机如何在真实的三维世界中行动。
去年11月,李飞飞领导实验室已经发布过一款“VoxPoser”智能机器人。这项研究把通用语言大模型与计算机视觉、机器人等多项技术结合在一起,允许机器人通过接入大模型来直接理解人类的自然语言指令,并将这些复杂指令转化为具体的行动规划。这款机器人不但能顺利完成类似于人类口头直接指派的“清扫垃圾到簸箕里”“打开抽屉并注意避开附近的花瓶”等日常任务,还能根据诸如“我是左撇子”“你偏离了1厘米”等特殊行为偏好来调整操作。
更为重要的是,团队宣称这款机器人可以做到“零样本”,即不需要提前接受过特定任务训练也能够完成训练。虽然此项目目前还处于实验室测试阶段,但也足以令常年受困于“数据不足”的机器人行业兴奋异常。
“让我们更接近一个人工智能不仅可以看到、创造,还与周围的物理世界互动的世界。”李飞飞在TED演进中这样总结空间智能的最终愿景。
让计算机像人一样“看到”,也是李飞飞多年人工智能研究的注脚。她近日出版的个人自传也用“我看见的世界”作为书名。
1976年,李飞飞出生于中国北京,在四川成都长大。1992年跟随父母前往美国移民定居,先后考入普林斯顿大学、加州理工学院攻读本科、研究生。
2005年,不满30岁、刚从加州理工学院拿到电子工程博士学位的李飞飞,便同自己的一名研究生共同发起了ImageNet项目。这个项目是她学术生涯的开端,也是其迄今为止为人工智能行业做出的最重要贡献。
ImageNet是一个拥有超过1500万张经过标注的高清图片,覆盖了22000个类别的大型图像数据库,庞大的数据集为人工智能深度学习模型的训练提供了丰富的资源。此后,她与学生发起了ImageNet Challenge挑战赛,从2010年至今已有14年的历史,每一年举办一次,已经成为了目前计算机视觉领域最受瞩目的顶尖赛事。
上述两项工作也被认为奠定了人工智能革命全面爆发的开端。2022年,李飞飞被选为美国工程院院士时,官方在颁奖词中写道,“李飞飞为建立大型机器学习和视觉理解知识库做出了贡献。”