Google发布由AI驱动的"多重搜索" 在单次查询中同时结合文本和图像
在其他以人工智能为重点的发布会中,Google今天分享了其较新的"多重搜索"功能现在将在移动设备上向全球用户提供,在任何已经有Google Lens的地方都可以使用。该搜索功能允许用户同时使用文本和图像进行搜索,于去年4月首次推出,作为Google搜索现代化的一种方式,以更好地利用智能手机的功能。
在此基础上的一个变种"multisearch near me",即针对本地企业的搜索也将在未来几个月内在全球范围内推出,同时还将推出针对网络的multisearch和针对Android用户的新Lens功能。
正如Google之前所解释的那样,多重搜索由名为"多任务统一模型"的人工智能技术提供支持,该技术能够理解各种格式的信息,包括文本、照片和视频,然后在主题、概念和想法之间得出洞察力和联系。Google将其应用于其Google Lens视觉搜索功能中,它将允许用户在视觉搜索查询中添加文本。
"我们通过引入Lens重新定义了我们对搜索的意义。此后,我们把Lens直接带到了搜索栏,并继续带来新的功能,如购物和逐步的家庭作业帮助,"Google负责搜索、助理、地理、广告、商务和支付产品的高级副总裁Prabhakar Raghavan在巴黎的一次新闻发布会上说。
例如,用户可以在Google搜索中调出一张他们喜欢的衬衫的照片,然后问Lens在哪里可以找到相同的图案,但要在不同类型的服装上,如裙子或袜子。或者他们可以把手机对准自行车上的一个破损部件,然后在Google搜索中输入"如何修复"这样的查询。这种文字和图像的结合可以帮助Google处理和理解它以前无法处理的搜索查询,或者单用文字输入会更困难。
这项技术对购物搜索最有帮助,用户可以通过这种方法找到喜欢的服装,但颜色或款式不同。或者可以拍一张家具的照片,比如一套餐桌,来寻找相匹配的物品,比如一张咖啡桌。
Google说,在多重搜索中,用户还可以通过品牌、颜色和视觉属性来缩小和细化他们的搜索结果。这项功能于去年10月向美国用户提供,然后于12月扩展到印度。Google表示,从今天起,全球所有用户都可以在移动平台上使用多重搜索功能,而且是在有Lens的所有语言和国家。
Google今天表示,"multisearch near me"的变化也将很快扩大。
Google去年5月宣布,它可以将多搜索查询引向当地企业(又称"multisearch near me"),这将返回用户正在寻找的、与当地零售商或其他企业的库存相匹配的物品的搜索结果。例如,在自行车零件损坏的情况下,你可以在带有照片的搜索查询中添加"我附近"的文字,以找到拥有替换零件的当地自行车店或五金店。
Google表示,这一功能将在未来几个月内应用于所有提供Lens的语言和国家。在未来几个月里,它还将扩展到移动设备之外,支持网络上的多重搜索。
在新的搜索产品方面,这家搜索巨头预告了即将推出的Google Lens功能,指出Android用户很快就能在手机上跨应用和网站搜索他们在照片和视频中看到的内容,同时还能留在应用或网站上。Google称这是"搜索你的屏幕",并表示只要提供Lens的地方就可以使用这一功能。
Google还分享了Google Lens的一个新的里程碑,指出人们现在每月使用该技术超过100亿次。