ai视觉迎来“gpt-3时刻”,通用视觉大模型之战打响
发布时间:2023-04-17
信息来源:财联社
字体: 【 】
近日,meta发布了一个人工智能模型,可以从图像中挑选出单个对象,以及一个图像注释数据集。该模型名为segment anything model(sam),meta官方表示这是有史以来最大的分割数据集。sam是计算机视觉领域发布第一个用于图像分割的、可通过提示(prompt)方式应用的通用大模型,类似自然语言领域(nlp)中的大模型chatgpt。英伟达人工智能科学家jim fan将meta的这项研究称作计算机视觉领域的“gpt-3时刻”之一——其分割方法可以通用,可对不熟悉的物体和图像进行零样本泛化,初步验证了多模态技术路径及其泛化能力。几乎同一时间,国内智源研究院视觉团队也推出通用分割模型seggpt,通用视觉大模型之战打响。视觉大模型能把任意图像从像素阵列解析为视觉结构单元,像人类视觉那样理解各类场景,这对自动驾驶、安防、智能家居、工业视觉等众多行业都将带来飞跃式提升。(财联社)
往期推荐
- 马斯克成立人工智能公司x.ai2023-04-17
- 沙特将投资1.8万亿元发展新能源,多家中企已开展合作2023-04-17
- 五部门:印发《2023年数字乡村发展工作要点》2023-04-14