谷歌BERT:它是什么以及如何优化它

凯利是在WebFX协理文案。她有一个学士学位,在语言学学位,并讲授介绍印刷出版和布局的过程中,在杨百翰大学。当她不写,你可以找到她的阅读,重新绘制的肖像画圆珠笔,收集相关的任何东西狐狸,以及创建和学习语言。

听说谷歌的新更新了吗,BERT?

如果你很喜欢,你可能有过搜索引擎优化(SEO)

SEO世界的谷歌伯爵的炒作是合理的,因为BERT正在更多地搜索有关单词背后的语义或意义而不是单词本身。换句话说,搜索意图比以往任何时候都更重要。

谷歌最近更新了影响SEO世界的BERT影响1在10个搜索查询中谷歌预计,随着时间的推移,这种情况将在更多的语言和地区中增加。

由于BERT对搜索的巨大影响,拥有高质量的内容比以往任何时候都更加重要。

为了使您的内容能够最好地为BERT(以及搜索意图)提供服务,在本文中,我们将介绍BERT如何与搜索一起工作,以及如何使用BERT为您的站点带来更多流量。

想和SEO专家交谈吗?联系WebFX

伯特是什么?

BERT代表transformer中的双向编码器表示。

这是一个充满了非常专业的机器学习术语的术语!

它的意思是:

  • 双向:BERT同时对两个方向的句子进行编码
  • 编码器表示:BERT的句子翻译成文字的表示这意味着它可以理解
  • 变形金刚:允许BERT到编码用相对位置来在句子中的每一个字,因为这在很大程度上上下文取决于词序(这比记住这些句子中究竟是如何进入框架更有效的方法)

如果您重新定义一下,您可以说BERT使用转换器对目标单词两边的单词表示进行编码。

在其基础上,名称意味着BERT是一个全新的,从未完成的 - 之前的最先进的自然语言处理(NLP)算法框架。这种结构为谷歌的人工智能增加了一层机器学习,旨在更好地理解人类语言。

换句话说,通过这种新的更新,Google的AI算法可以阅读句子和查询,具有更高级别的人类上下文理解和常识。

虽然它并不在同一水平,人类可以理解的语言,但它仍然是向前迈进了一大步了NLP到机器的语言理解。

伯特不是什么

Google Bert不会改变网页如何判断像先前的算法更新,例如企鹅或熊猫。它不会将页面评定为正或负面。

相反,它改善了对会话搜索查询中的搜索结果,因此结果更好地匹配它们背后的意图。

伯特历史

BERT出现的时间比几个月前推出的BIG更新还要长。自2018年10月该研究论文发表以来,自然学习处理(NLP)和机器学习(ML)社区一直在讨论这个问题BERT:深度双向变形语言理解的预训练出版了。

不久之后,谷歌发布了一个突破性的、基于论文的开源NLP框架,NLP社区可以使用它来研究NLP并将其纳入他们的项目中。

从那时起,有几个新的基于BERT或合并的NLP框架,包括谷歌和丰田的合并ALBERT, Facebook的RoBERTa,微软的MT-DNN和IBM的BERT-mtl。

引起了社会各界NLP占多数的海浪BERT提到在互联网上,但BERT提到在SEO界都获得牵引力。这是因为BERT注重长尾查询语言和阅读网站的人会为搜索查询提供更好的结果。

BERT是如何工作的?

Google Bert是一个非常复杂的框架,并了解它需要多年的研究NLP理论和过程。

搜索引擎优化的世界不需要深入研究,但了解它在做什么以及为什么会对理解它将如何影响搜索结果很有用。

所以,这是谷歌伯特的作品:

谷歌伯特解释

这是BERT如何查看句子的上下文或整个搜索查询:

  • BERT需要查询
  • 逐字分解
  • 着眼于词之间的所有可能的关系
  • 建立一个双向地图,概述单词在两个方向之间的关系
  • 分析单词搭配时的语境意义。

好的,为了更好地理解这个,我们将使用这个例子:

每一行代表“熊猫”的含义如何改变的句子中,反之亦然等词的含义。的关系是双向的,所以箭在双头。

当然,这是一个非常非常简单的例子,展示了BERT如何看待上下文。这个例子只检查了我们的目标词“panda”和句子中其他有意义的部分之间的关系。

BERT,然而,分析句子中所有单词的上下文关系。该图像可能会更准确一些:

伯特的一个类比

BERT使用编码器和解码器来分析单词之间的关系。

想象如何作为翻译过程的幂函数提供了一个非常好的例子是如何运作的。

你从一个输入开始,无论你想要翻译成另一种语言的句子。让我们说你想将上面的熊猫句子从英语翻译成韩国。

虽然伯特不懂英语或韩语,所以它使用编码器来翻译“除了竹子以外的熊猫吃什么?”进入它确实理解的语言。

这种语言是它在其分析语言过程中为自己构建的语言(这就是编码器表示的作用)。BERT根据单词的相对位置和对句子意义的重要性对单词进行标记。然后它将它们映射到一个抽象的向量上,从而创造出一种假想的语言。

因此,BERT将我们的英文句子转换为其虚构的语言,然后使用解码器将虚构的语言转换为韩语。

该过程很好的翻译,但它还提高了基于BERT的任何NLP模型的能力,以正确地解析语言歧义,如:

  • 代词的参考
  • 同义词和同音异义词
  • 或者有多种定义的单词,比如" run "

伯特是pre-trained

BERT是经过预先训练的,这意味着它有大量的学习能力。但是BERT与以前的NLP框架的一个不同之处在于,BERT是在纯文本上预先训练的。

其他的NLP框架需要一个单词数据库,语言学家煞费苦心地在语法上做了标记,以便理解单词。

语言学家必须在数据库中标记每个词的词性。这是一个严格而苛刻的过程,可能会在语言学家之间引发冗长而激烈的争论。词性可能很微妙,特别是当词性因为句子中的其他单词而发生变化时。

BERT自己做到了这一点,而且是在无监督的情况下完成的,这使它成为世界上第一个这样做的NLP框架。它是用维基百科训练的。这超过了25亿个单词!

BERT可能并不总是准确的,但是它分析的数据库越多,它的准确性就越高。

伯特是双向的

BERT对句子进行双向编码。简单地说,BERT在一个句子中选取一个目标单词,然后从两个方向查看它周围的所有单词。

BERT的深深双向编码器是NLP框架中是唯一的。此前NLP框架,如只在一个方向OpenAI GPT编码的句子,由左到右OpenAI GPT的情况。

后来的模型,如ELMo,可以同时训练目标词的左侧和右侧,但模型独立地连接编码。这就导致了目标词两边上下文的脱节。

另一方面,BERT识别目标单词两边的所有单词的上下文,并且它同时完成这一切。这意味着它可以完全看到和理解单词的意思如何影响句子的上下文作为一个整体。

也就是说如何相互关联(这意味着他们一起出现的频率)就是语言学家呼吁搭配。搭配词是经常一起出现的话 - “圣诞”和“礼物”的每一个内几句话经常发现,例如。

能够识别搭配词有助于确定这个词的含义。在我们的例子形象更早,“象鼻”可以有多重含义:

  • 一棵树的主要木质茎
  • 躯干人或动物的躯干
  • 用于举行旅行项目的大盒子
  • 大象的能卷握东西的鼻子
  • 储物间车辆的储物间

确定这个句子中所使用的单词的意思的唯一方法是看看周围的搭配。“低音炮”经常出现在“汽车”中,“后备箱”也经常出现,所以根据上下文,“汽车储物舱”的定义可能是正确的答案。

这正是当它看着句子时伯特所做的。它通过使用从预培训中学到的单词的搭配来标识句子中每个单词的上下文。

如果BERT从一个方向读这句话,就有可能错过识别“汽车”在低音炮和后备箱之间的共享配置。

能够通过双向观察句子,整体解决这个问题。

BERT使用变压器

BERT的双向编码功能与变形金刚,这是有道理的。如果你还记得,BERT中的“T”代表变形金刚。

谷歌识别BERT是他们突破的结果变形金刚研究.谷歌将transformer定义为“处理与句子中所有其他单词相关的单词的模型,而不是按顺序逐个处理。”

变压器使用编码器和解码器来处理一个句话之间的关系。BERT采取句子的每个单词,并赋予它的词的意思的表示。如何强烈每个字的含义是与由线的饱和度来表示彼此。

在下面的图像的情况下,在左侧,“它”是最强烈地连接到“该”和“动物”,识别在该上下文中什么“它”指的是。在右边,“它”最强烈地连接到“一条街”。

代词参考这样的曾经是主要的问题是语言模型遇到了麻烦,解决一个,但BERT可以做到这一点。

自我关注图

如果你是一个NLP爱好者,想知道变形金刚是什么以及它们是如何工作的,你可以看看这个视频这是基于一篇开创性的文章:注意力是你所需要的.他们是一个很棒的视频和一个优秀的论文(但在所有诚实中,它都在我的头上。

对于我们这些麻瓜来说,BERT背后的变形金刚的技术效果转化为谷歌搜索更好地理解搜索结果背后的上下文,也就是用户意图。

BERT使用掩码语言模型(MLM)

BERT的训练包括使用蒙面语言模型预测句子中的单词。这样做的作用是掩盖句子中15%的单词,像这样:

  • 什么[MASK]吃竹子比其他?

然后,BERT必须预测这个隐藏词是什么。这做了两件事:它在单词上下文中训练BERT,并提供了一种衡量BERT学习了多少的方法。

该屏蔽字防止BERT从学习到复制和粘贴输入。其它参数如移位解码器右侧,下句的预测,或者回答的上下文,有时无法回答的问题也这样做。

BERT提供的输出将显示BERT正在学习和实现关于单词上下文的知识。

什么BERT影响?

这对搜索来说意味着什么?

使用BERT所做的转换器双向映射查询是特别重要的。这意味着算法正在考虑词汇(如介词)背后细微但有意义的细微差别,这些细微差别可能会彻底改变查询背后的意图。

以这两个不同的搜索页面结果为例。我们将继续我们早期的熊猫和竹子主题。关键字:

除了竹子,熊猫还吃什么

除了竹子,熊猫还吃什么

熊猫竹子

谷歌搜索熊猫竹子

注意结果页非常相似?几乎一半的有机结果都是一样的,和人民也要求(PAA)的部分有一些非常类似的问题。

然而,搜索意图却大不相同。“熊猫竹子”是非常广泛的,所以很难确定的意图,但它可能是想知道熊猫的竹子饮食。搜索页面的点击率相当高。

另一方面,“熊猫除了吃竹子之外还吃什么”的搜索意图非常明确,以至于搜索页面上的结果完全错过了。唯一接近于达到目的的结果可能是PAA的两个问题

  • 熊猫吃什么肉?
  • 熊猫怎么能在竹子饮食上生存?

可以说是两个Quora问题,其中一个是非常好笑的:

  • 熊猫能被训练吃竹子以外的食物吗?
  • Pandas吃人类吗?

确实是苗条的挑选。

在这个搜索查询中,单词“other than”在搜索意图的含义中扮演着重要的角色。在BERT更新之前,谷歌的算法在返回信息时通常会忽略函数/填充词,比如“other than”。这导致搜索页面无法匹配搜索意图,就像这样。

由于BERT只影响10%的搜索查询,所以在撰写本文时,左页没有受到BERT的影响也就不足为奇了。谷歌提供的这个例子伯特解释说页面显示BERT如何影响搜索结果:

你能在前后给别人买药吗

有特色的片段

伯特最重要的影响之一将会继续精选片段。

特色片段是有机的,依赖于机器学习算法,BERT正好符合要求。

精选片段结果从第一个搜索结果页面最经常拉,但现在可能有一些例外。因为它们是有机的,很多因素可以使他们改变,包括像BERT新算法的更新。

使用BERT,影响精选片段的算法可以更好地分析搜索查询背后的意图,并更好地将搜索结果与之匹配。

它也可能是BERT就能拿结果的冗长的文字,找到核心概念,并总结内容片断特色。

国际搜索

由于语言有类似的基本语法规则,BERT可以提高翻译的准确性。

每次BERT学会翻译一门新语言,它就会获得新的语言技能。这些技能可以转移并帮助BERT用它从未见过的更高精度的语言进行翻译。

我如何优化我的网站BERT?

现在我们来讨论一个大问题:如何优化谷歌BERT?

简短的答案?

你不能。

伯特是AI框架。它使用它获得的每一条新信息学习。它处理信息并使决策的速率甚至甚至没有BERT的开发人员可以预测伯特将制作的选择。

可能的是,伯特甚至不知道为什么它做出了它的决定。如果它不知道,则SEO不能直接优化它。

不过,要想在搜索页面中排名,你可以做的是继续生产符合搜索意图的人性化内容。

BERT的目的是为了帮助谷歌了解用户的意图,因此优化了BERT用户意图将优化。

  • 所以,做你一直在做的。
  • 研究你的目标关键词。
  • 以用户为中心,生成他们想看到的内容。

最后,当你写内容的时候,问问自己:

  • 我的读者可以找到他们在内容中寻找的东西吗?

让你的网站伯特-准备好WebFX!

WebFX如何让你的网站完美的谷歌BERT?

WebFX是A.全方位服务数字营销公司.我们已经在优化的业务中超过20年了。拥有200多个专业内容撰写专家,我们将在轨道上获取您的网站符合搜索意图的内容任何你想要的关键字。我们最擅长搜索引擎优化

在线联系我们或者打电话给我们888-601-5359学习更多!