谷歌解释了其人工智能系统如何理解人类语言并返回相关搜索结果。
谷歌搜索能够在多个 AI 模型的帮助下理解人类语言,这些模型协同工作以找到最相关的结果。
Google 搜索副总裁 Pandu Nayak 在公司官方博客上的一篇新文章中简单地解释了有关这些 AI 模型如何工作的信息。
Nayak 揭开了以下 AI 模型的神秘面纱,这些模型在 Google 如何返回搜索结果方面发挥着重要作用:
- RankBrain
- 神经匹配
- BERT
- 妈妈
这些模型都不能单独工作。他们都通过执行不同的任务来理解查询并将它们与搜索者正在寻找的内容相匹配,从而互相帮助。
以下是谷歌幕后的主要收获,看看它的人工智能模型做了什么,以及它如何为搜索者转化为更好的结果。
谷歌的人工智能模型解释
RankBrain
谷歌的第一个人工智能系统 RankBrain 于 2015 年推出。
顾名思义,RankBrain 的目的是通过根据相关性对搜索结果进行排名来找出搜索结果的最佳顺序。
尽管是谷歌的第一个深度学习模型,RankBrain 今天继续在搜索结果中发挥重要作用。
RankBrain 帮助 Google 了解搜索查询中的单词与现实世界概念的关系。
Nayak 说明了 RankBrain 的工作原理:
“例如,如果您搜索‘食物链最高层的消费者的头衔是什么’,我们的系统会通过在不同页面上看到这些词来学习食物链的概念可能与动物有关,并且不是人类消费者。
通过理解这些词并将其与其相关概念相匹配,RankBrain 了解您正在寻找通常称为“顶级捕食者”的东西。
神经匹配
谷歌在 2018 年将神经匹配引入搜索结果。
神经匹配允许谷歌使用更广泛的概念知识来了解查询与页面的关系。
神经匹配不是查看单个关键字,而是检查整个查询和页面以识别它们所代表的概念。
借助这种 AI 模型,当我们扫描其索引以查找与查询相关的内容时,Google 能够撒下更广泛的网络。
Nayak 说明了神经匹配的工作原理:
“以搜索“洞察如何管理果岭”为例。如果朋友问你这个,你可能会被难住。但是通过神经匹配,我们能够理解它。
通过查看查询中更广泛的概念表示——管理、领导力、个性等——神经匹配可以破译该搜索者正在寻找基于流行的、基于颜色的个性指南的管理技巧。”
BERT
BERT 于 2019 年首次引入,现在用于所有查询。
它旨在完成两件事——检索相关内容并对其进行排名。
BERT 可以理解单词在以特定顺序使用时如何相互关联,从而确保重要的单词不会被排除在查询之外。
这种对语言的复杂理解使 BERT 能够比其他 AI 模型更快地对 Web 内容的相关性进行排名。
Nayak 说明了 BERT 在实践中的工作原理:
“例如,如果你搜索‘can you get drug for someone pharmacy’,BERT 会理解你是想弄清楚你是否可以为别人买药。
在 BERT 之前,我们认为这个简短的介词是理所当然的,主要是分享关于如何开处方的结果。多亏了 BERT,我们明白即使是很小的词也可以有很大的意义。”
谷歌在搜索领域的最新 AI 里程碑——多任务统一模型(MUM)于 2021 年推出。
MUM 比 BERT 强大一千倍,能够理解和生成语言。
它对信息和世界知识有更全面的理解,同时接受 75 种语言和许多不同任务的培训。
MUM 对语言的理解将跨越图像、文本等未来。当您听到 MUM 被称为“多模式”时,这就是它的意思。
Google 正处于实现 MUM 潜力的早期阶段,因此它在搜索中的使用受到限制。
目前,MUM 被用于改进对 COVID-19 疫苗信息的搜索。在接下来的几个月中,它将在 Google Lens 中用作使用文本和图像组合进行搜索的一种方式。
概括
以下是对 Google 的主要人工智能系统及其作用的回顾:
- RankBrain:通过了解关键字与现实世界概念的关系来对内容进行排名。
- 神经匹配:让谷歌对概念有更广泛的理解,从而扩大谷歌能够搜索的内容量。
- BERT:让 Google 了解单词在以特定顺序使用时如何改变查询的含义。
- MUM:了解数十种语言和多种形式的信息和世界知识,例如文本和图像。
这些人工智能系统协同工作,以尽可能快地为查询找到最相关的内容并对其进行排名。