现在,这并不是什么新鲜事。随着用户越来越多地将他们的设备视为伴侣,并且语音搜索不断激增,查询变得越来越具有对话性。 2013 年的Hummingbird更新是 Google 对这一趋势的首次著名回应。然而,BERT 的不同之处在于它处理和理解语言的方式。 BERT 如何工作? BERT 是一种基于神经网络的自然语言处理预训练技术。
用人类的语言来解释:“神经网络”的意思是“模式识别”。自然语言 扎洛数据库 处理 (NLP) 的意思是“一种帮助计算机理解人类如何交流的系统”。所以,如果我们把两者结合起来,BERT 就是一个系统,通过这个系统,谷歌的算法利用模式识别来更好地理解人类如何交流,从而为用户返回更相关的结果。 在实际操作中,情况会怎样?假设你的男朋友有服用抗生素的倾向,但身体状况不佳,无法自己去取药: BERT Google 算法更新药房 谷歌现在能够更好地理解这种微妙的细微差别,“你能为某人的药房拿药吗”意味着一个人想为别人拿药,而不是为自己拿药。
“2019 年巴签证”也是如此: BERT Google 算法更新巴西 BERT 使 Google 的算法能够更好地理解“to”和“need”在上下文中意味着搜索者……嗯,需要签证才能前往美国!对我们来说,这似乎很简单;但对机器来说,这是一种微妙的理解,不容易被哄骗。 我应该如何应对 BERT? 这是一种奇怪的情况,可能会违背你的直觉:你实际上不必做任何事情来“应对”或“准备” BERT。