1. 您的位置:首页 > seo技术 >内容

常见问题解答:有关Google搜索中的BERT算法的所有信息

谷歌表示,其最新的重大搜索更新(包括BERT算法)将有助于其更好地理解用户搜索查询背后的意图,这应该意味着更相关的结果。 该公司表示,BERT将影响10%的搜索量,这意味着它可能会对您品牌的自然可见度和点击量产生一些影响-您可能不会注意到。

这是我们对Google迄今所称的“搜索历史上最大的飞跃之一”的了解。 当您准备进一步学习时,请查看我们的配套文章:深入探究BERT:Dawn Anderson撰写的BERT如何推动自然语言理解的火箭。

BERT是何时在Google搜索中推出的?

BERT于2019年10月21日当周开始在Google的搜索系统中推出英语查询,包括精选摘要。

Google的Danny Sullivan说,该算法将扩展到Google提供搜索功能的所有语言,但目前尚无时间表。 BERT模型也被用于改善两个国家的特色片段。

什么是BERT?

BERT代表来自变压器的双向编码器表示形式,是一种基于神经网络的自然语言处理预训练技术。 用简单的英语,它可以帮助Google更好地识别搜索查询中单词的上下文。

例如,在短语“九至五”和“四分之一至五”中,“至”一词具有两种不同的含义,对人类来说可能是显而易见的,但对搜索引擎而言则不那么明显。 BERT旨在区分这些细微差别以促进更相关的结果。

Google于2018年11月开源BERT。这意味着任何人都可以使用BERT来训练自己的语言处理系统来解决问题或执行其他任务。

什么是神经网络?

简单地说,神经网络算法是为模式识别而设计的。 对图像内容进行分类,识别笔迹甚至预测金融市场的趋势,都是神经网络在现实世界中的常见应用-更不用说点击模型之类的搜索应用了。

他们训练数据集以识别模式。 Google使用Wikipedia的纯文本语料库对BERT进行了预培训,并在将其开源时进行了解释。

什么是自然语言处理?

自然语言处理(NLP)是指处理语言学的人工智能的一个分支,其目的是使计算机能够理解人类自然交流的方式。

NLP带来的进步示例包括社交监听工具,聊天机器人和智能手机上的单词建议。

就其本身而言,NLP并不是搜索引擎的新功能。 但是,BERT通过双向培训代表了NLP的进步(更多内容请参见下文)。

BERT如何工作?

BERT的突破在于它能够基于句子或查询中的整个单词集来训练语言模型(双向训练),而不是传统的以有序单词序列(左至右或左组合词)进行训练的方法。 -到右和从右到左)。 BERT允许语言模型根据周围的单词学习单词上下文,而不仅仅是基于紧随其后的单词。

Google将BERT称为“深度双向”,因为单词的上下文表示“从深度神经网络的最底层开始”。

“例如,'银行'一词在'银行帐户'和'河岸'中将具有相同的上下文无关表示 上下文模型会根据句子中的其他单词生成每个单词的表示形式。 例如,在句子“我访问了银行帐户”中,单向上下文模型将基于“我访问了”但未访问帐户”表示“银行”。 但是,BERT使用上一个和下一个上下文来表示“银行”,即“我访问了...帐户。””

Google展示了BERT在搜索中的应用如何影响结果的几个示例。 在一个示例中,“成人数学练习书”查询以前在自然搜索结果的顶部浮出了6至8年级书的清单。 应用BERT后,Google会在结果顶部显示一本名为“成年数学”的书的清单。

BERT_book_example
图片来源:Google。

您可以在该查询的当前结果中看到6-8年级的书仍在排名中,但是有两本专门针对成年人的书,现在已经超过了该书,包括精选的摘要。

类似于上面的搜索结果更改反映了对使用BERT的查询的新理解。 青年成人的内容不会受到惩罚,而是针对成人的列表被认为与搜索者的意图更加吻合。

Google是否使用BERT来进行所有搜索?

不,不完全是。 BERT将增进Google对美国英语搜索中十分之一的了解。

谷歌在博客中写道:“特别是对于更长,更多的对话查询,或者在诸如“ for”和“ to”之类的介词对含义有重大影响的搜索中,搜索将能够理解您查询中单词的上下文。 。

但是,并非所有查询都是对话式的或包含介词的。 品牌搜索和较短的短语只是可能不需要BERT的自然语言处理的两种类型的查询示例。

BERT将如何影响我的精选片段?

正如我们在上面的示例中看到的那样,当应用BERT时,BERT可能会影响结果。

在下面的另一个示例中,Google比较了查询的特色片段“没有路边的山坡上停车”,并解释说:“过去,这样的查询会使我们的系统感到困惑-我们过分重视“路边”一词并忽略了“否”一词,不了解该词对适当响应此查询有多重要。 因此,我们将返回在路边的山坡上停车的结果。”

图片来源:Google。

BERT和RankBrain有什么区别?

BERT的某些功能听起来可能类似于Google的第一种用于理解查询的人工智能方法RankBrain。 但是,它们是可以用于通知搜索结果的两种独立算法。

“关于RankBrain,首先要了解的是它与常规的自然搜索排名算法并行运行,并且用于对由这些算法计算出的结果进行调整,” Perficient Digital总经理Eric Enge说。

RankBrain通过查看当前查询并查找类似的过去查询来调整结果。 然后,它检查那些历史查询的搜索结果的性能。 “基于所见,RankBrain可能会调整常规自然搜索排名算法结果的输出,” Enge说。

RankBrain还可以帮助Google解释搜索查询,以便它可以显示查询中可能不包含确切单词的结果。 在下面的示例中,尽管该塔的名称未出现在“巴黎地标高度”查询中,但Google能够确定用户正在搜索有关埃菲尔铁塔的信息。

“ BERT的工作方式完全不同,” Enge说。 “传统算法的确会尝试查看页面上的内容,以了解其内容以及与之相关的内容。 但是,传统的NLP算法通常只能查看单词之前的内容或单词之后的内容以了解其他上下文,以帮助其更好地理解该单词的含义。 BERT的双向组成部分使其与众不同。” 如上所述,BERT在查看单词之前和之后的内容,以了解单词的含义和相关性。 “这是自然语言处理过程中的一项重要改进,因为人类交流自然而然地就变得层次分明且复杂。”

Google使用BERT和RankBrain来处理查询和网页内容,以更好地理解单词的含义。

BERT并不是要取代RankBrain。 Google可以使用多种方法来理解查询,这意味着BERT可以与RankGoogle一起与其他Google算法一起单独应用,取决于搜索词,或者完全不组合。

BERT可能还会影响其他哪些Google产品?

Google关于BERT的公告仅与搜索有关,但是,对Assistant也会有一些影响。 当在Google Assistant上进行的查询触发它以提供搜索功能的摘要或Web搜索结果时,这些结果可能会受到BERT的影响。

Google告诉Search Engine Land,目前BERT尚未用于广告,但是如果将来与BERT集成,它可以帮助缓解困扰广告客户的某些不良匹配形式。

“如何优化BERT?” 那不是真正考虑的方法

Sullivan说:“对于BERT而言,没有什么要优化的,也没有任何人可以重新考虑的。” “我们寻求奖励丰富内容的基本原则保持不变。”

Google一直建议要保持良好的排名,以始终牢记用户的心意,并创建满足其搜索意图的内容。 由于BERT是为了解释这种意图而设计的,因此向用户提供他们想要的东西仍然是Google的首选建议。

现在,“优化”意味着您可以将更多的精力放在写得好,清晰的文章上,而不用在为观众创建内容和机器的线性短语构造之间妥协。

想更多地了解BERT?

这是我们在BERT上的其他报道和其他资源。

  • 深入了解BERT:BERT如何推动火箭对自然语言的理解
  • 为什么您可能没有注意到Google BERT更新
  • 欢迎BERT:Google最新的搜索算法可更好地理解自然语言
  • 前所未有地更好地了解搜索-Google关键字博客
  • 开放源代码BERT:自然语言处理的最新技术培训-Google AI博客
  • BERT从HotpotQA开始对问题进行解答— Github
  • 介绍BERT的研究论文:用于语言理解的深度双向变压器的预训练—康奈尔大学

本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。如若转载,请注明出处:http://www.botadmin.cn/sylc/10259.html