Google现在让你可以搜索难以描述的东西 - 从图片搭配文字开始
你喜欢那条裙子的样子,但你更希望它是绿色的。你想要那双鞋,但更喜欢平底鞋而不是高跟鞋。如果你能拥有与你最喜欢的笔记本相同图案的窗帘呢?我们不知道该如何在Google上搜索这些东西,但Google搜索产品经理Belinda Zeng本周早些时候向我展示了每一个真实世界的例子,答案总是一样的:拍一张照片,然后在Google Lens上输入一个词。
今天,Google推出了仅适用于美国的Google Lens多搜索功能的测试版,去年9月,Google在其Search On活动中预告了这一功能,虽然到目前为止我只看到了一个粗略的演示,但你应该不用等太久就能自己尝试:它将在iOS和Android上的Google应用中推出。
虽然它主要是针对购物开始的--这是最常见的要求之一--但Google的Zeng和该公司的搜索总监Lou Wang认为它可以做得更多。"你可以想象你面前的东西坏了,没有词来描述它,但你想修理它......你可以拍个照然后直接输入'如何修理',"Wang说。
事实上,它可能已经对一些坏掉的自行车起作用了,Zeng补充说。她说,她还通过截图Instagram上漂亮的指甲图片,然后输入关键词"教程",以获得社交媒体上没有自动出现的那种视频结果,从而了解了指甲的造型。你也可以拍一张照片,比如说,一株迷迭香,然后得到关于如何照顾它的说明。
Wang说:"我们希望帮助人们自然地理解问题,多重搜索将扩展到更多的视频、一般的图像,甚至是你在传统的Google文本搜索中可能找到的各种答案。"
听起来,其目的也是为了让每个人都处于平等地位,它不会与特定的商店合作,甚至不会将视频结果限制在Google拥有的YouTube上,而是会浮现出"我们能够从开放网络上索引的任何平台"的结果。但它也不会对所有东西都起作用,就像你的语音助手不会对所有东西都起作用一样,因为有无限可能的请求,而Google还在摸索出它们的意图。
Google希望人工智能模型能够推动一个新的搜索时代,而上下文--而不仅仅是文本--是否能够带着它进入这个时代,这是一个很大的开放性问题。这个实验似乎很有限(它甚至没有使用其最新的MUM人工智能模型),它可能不会给我们答案,但如果它成为Google搜索的核心功能,可能会相当有帮助。