Meta 最新6 模态大模型,让 AI 以更接近人类的方式理解这个世界。
比如当你听见倒水声的时候就会想到杯子,听到闹铃声会想到闹钟,现在 AI 也可以。
尽管画面中没有出现人类,AI 听到掌声也能指出最有可能来自电脑。
(资料图)
比如听到狗叫画出一只狗,同时给出对应的深度图和文字描述。
甚至做到不同模态之间的运算,如鸟的图像 + 海浪的声音,得到鸟在海边的图像。
团队在论文中写到,ImageBind 为设计和体验身临其境的虚拟世界打开了大门。也就是离 Meta 心心念念的元宇宙又近了一步。
网友看到后也表示,又是一个掉下巴的进展。
ImageBind 代码已开源,相关论文也被 CVPR 2023 选为 Highlight。对于声音 - 图像生成,论文中透露了更多细节。并不是让 AI 听到声音后先生成文字的提示词,而是 Meta 自己复现了一个 DALL · E 2,并把其中的文本嵌入直接替换成了音频嵌入。
结果就是 AI 听到雨声可以画出一张雨景,听到快艇发动机启动声可以画出一条船。如果想看更多示例,这里也放上论文的补充视频。其中比较有意思的是,床上没有人,但 AI 也认为打呼噜声应该来自床。
ImageBind 能做到这些,核心方法是把所有模态的数据放入统一的联合嵌入空间,无需使用每种不同模态组合对数据进行训练。并且用这种方法,只需要很少的人类监督。如视频天然就把画面与声音做了配对,网络中也可以收集到天然把图像和文字配对的内容等。
而以图像 / 视频为中心训练好 AI 后,对于原始数据中没有直接联系的模态,比如语音和热量,ImageBind 表现出涌现能力,把他们自发联系起来。
在定量测试中,统一多模态的 ImageBind 在音频和深度信息理解上也超越了对应的专用模型。
Meta 团队认为,当人类从世界吸收信息时,我们天生会使用多种感官,而且人仅用极少数例子就能学习新概念的能力也来自于次。比如人类在书本中读到对动物的描述,之后就能在生活中认出这种动物,或看到一张不熟悉的汽车照片就能预测起发动机的声音。
过去 AI 没有掌握这个技能,一大障碍就是要把所有可能的模态两两组合做数据配对难以实现。
现在有了多模态联合学习的方法,就能规避这个问题。
团队表示未来还将加入触觉、语音、嗅觉和大脑 fMRI,进一步探索多模态大模型的可能性
对于目前版本,Meta 也放出了一个简单的在线 Demo,感兴趣的话可以去试试。
Demo:https://imagebind.metademolab.com/demo
GitHub:
https://github.com/facebookresearch/ImageBind
论文:
https://dl.fbaipublicfiles.com/imagebind/imagebind_final.pdf
参考链接:
[ 1 ] https://ai.facebook.com/blog/imagebind-six-modalities-binding-ai/
下一篇: 最后一页
X 关闭
2022年中国家电行业一季度报告:国内累计销售额1540亿元
31省份新增本土确诊病例2971例、本土无症状感染者21355例
南方强降雨再起 北方周末暖热回归
南方地区将有明显降水过程 黄海南部海域有大雾
吴谢宇弑母案二审因“不可抗拒原因”中止审理
X 关闭
240余万吨!国家电投内蒙古公司圆满完成民生供暖煤供应工作
厨电行业逆势增长 集成洗碗机是集成灶行业的下一个风口吗?
梦天家居2021年度净利润1.83亿元 同比增长7.04%
亚振家居发布2021年年度亏损公告 营业收入同比下降11.53%
盾安环境9.71%股份转让悬而未决 一致行动人抛出减持计划