近期,谷歌推出的新认证功能近来遭遇质疑,其原因在于该功能频繁提供错误搜索结果,例如,该功能曾建议用户使用清水来阻止喷溅的油花。本周早些时候,科技媒体曾报道,谷歌首席执行官桑达尔·皮查伊在接受采访时确认,这些认证功能产生的视觉问题是由于大型语言模型(LLM)的固有缺陷所致,而大型语言模型正是认证功能的核心技术。
皮查伊表示,这一问题的出现是因为大型语言模型在接收用户查询时,未能准确识别查询中的关键信息,导致生成了不恰当的建议。例如,当用户询问如何防止油溅时,来源:《financial times》在马斯克的人工智能初创公司xai宣布完成1天前模型可能错误地理解为需要使用液体来处理,从而推荐了清水。这种误解源于模型对于复杂查询的解析能力不足,以及对于实际情境的理解不够深入。
大型语言模型虽然在处理文本信息方面表现出色,但在处理涉及视觉或实际操作的查询时,其局限性便显露无疑。这是因为这些模型通常缺乏对物理世界和实际操作的直观理解,它们更多地依赖于文本数据的统计分析,而非实际经验或常识。

为了解决这一问题,谷歌正在探索多种方法来增强模型的实际应用能力。其中包括引入更多的视觉信息处理技术,以及结合人工智能和机器学习的新方法,以提高模型对复杂查询的理解和响应能力。谷歌也在考虑与第三方专家合作,通过专业知识来补充模型的不足。
尽管目前面临挑战,但大型语言模型仍然是实现认证功能的核心技术。皮查伊强调,解决这一视觉问题并非无解,而是需要进一步的技术创新和模型优化。他相信,通过不断的研究和开发,谷歌将能够克服这些技术障碍,为用户提供更加准确和可靠的搜索结果。
谷歌的认证功能虽然近期遭遇了一些技术挑战,但这并不意味着其技术路线存在根本性错误。相反,这正是一个技术进步的契机,通过解决这些问题,谷歌有望在人工智能领域取得新的突破。
版权声明:本文为 “联成科技技术有限公司” 原创文章,转载请附上原文出处链接及本声明;