Google 搜寻在美国已支援透过拍照+输入文字进行更精準搜寻 预期接下来也会推广至更多市场

Google标榜已经在Google Search服务加入「MUM」语言模型,藉此让搜寻系统更能理解使用者搜寻输入背后意指涵义,而透过Google Lens app拍摄照片,并且配合输入相关注解内容,更有助于系统了解特定影像背后可能对应搜寻需

Google标榜已经在Google Search服务加入「MUM」语言模型,藉此让搜寻系统更能理解使用者搜寻输入背后意指涵义,而透过Google Lens app拍摄照片,并且配合输入相关注解内容,更有助于系统了解特定影像背后可能对应搜寻需求,进而可协助使用者找到更多、更精準的解答内容。

Google在去年Search On活动上预告,将让使用者能透过Google Lens拍摄照片,或是上传图片,接着加上一段注解即可找到更符合预期解答的搜寻方式,稍早已经在美国境内开放Android、iOS平台的Google Lens app使用。

依照Google先前说明,此方式将能协助使用者更容易搜寻查找难以描述的物品,或是找寻相似物品,并且加上特定注解内容,例如「如何修复」、「如何前往」、「哪里可找」等描述,藉此让Google Search更进一步找到符合使用者需求的解答内容。

在此之前,Google标榜已经在Google Search服务加入「MUM」语言模型,藉此让搜寻系统更能理解使用者搜寻输入背后意指涵义,而透过Google Lens app拍摄照片,并且配合输入相关注解内容,更有助于系统了解特定影像背后可能对应搜寻需求,进而可协助使用者找到更多、更精準的解答内容。

而除了透过文字叙述方式,Google接下来也会透过更多图像内容,以及动态影片内容,以视觉化方式让使用者更容易理解所需解答。

原创文章,作者:阿浩,如若转载,请注明出处:https://www.53moban.com/925.html

联系我们

400-800-8888

在线咨询:点击这里给我发消息

邮件:admin@example.com

工作时间:周一至周五,9:30-18:30,节假日休息