推荐阅读
相关文章
网络推广您当前位置: 主页 > 网络学院 > 网络推广

人工智能何时会完全影响搜索算法?

发布日期:2020-07-05 来源:优橙 浏览量:
摘要: 在过去的一两年里,人工智能已经成为最热门和迅速进入实用的技术。我之前已经写了人工智能将完全改变搜索引擎优化,我也介绍了人工智能在搜索算法中的实际应用,但是应该注意
在过去的一两年里,人工智能已经成为最热门和迅速进入实用的技术。我之前已经写了人工智能将完全改变搜索引擎优化,我也介绍了人工智能在搜索算法中的实际应用,但是应该注意到,到目前为止,人工智能在搜索算法中的应用并不广泛。也许影响人工智能在搜索算法中广泛应用的最重要的因素是搜索引擎工程师不知道人工智能系统如何做出判断,然后导致另一个重要的问题:难以调试。

人工智能是个黑盒子

以一种不太严格但容易理解的方式说,深入学习是对现有数据(大量数据)进行标记,然后系统总结数据和结果之间的关系(即标记的数据),当面对新数据时,它可以根据自己总结的规则给出判断。对于围棋来说,无论是历史游戏还是自我游戏,AlphaGo都知道棋盘和结果(也是一种标签)。当面对新的棋盘面时,系统将总结规则并判断赢得游戏的概率。然而,人工智能系统发现数据的哪些特征和结果之间的关系甚至对创建人工智能的工程师来说都是未知的。

因此,目前的人工智能系统是一个黑匣子。我们知道人工智能的判断有很高的准确率,但是我们不知道为什么或者怎么做。

人工智能在搜索算法上也是如此。百度搜索工程师的声明很少见到,现在只知道百度全在人工智能。谷歌工程师已经明确表示,他们不确定RankBrain到底是如何工作的。在这种情况下,在算法中广泛使用人工智能会更加麻烦。一旦出现异常结果,不知道原因是什么就不可能调试。

我写这篇文章是因为前几天我在纽约时报上看到一篇文章,“人工智能能学会解释自己吗?”非常有趣。心理学家Michal Kosinski将20万个社交网络账户(一个约会网站)的照片和个人信息(包括许多内容,如性取向)输入到面部识别人工智能系统中,发现人工智能仅在看到照片时判断性取向的准确性很高。通过照片人工判断一个人是不是同性恋的准确率为60%,比掷硬币的准确率高,但人工智能判断一个人是不是同性恋的准确率高达91%,比判断一个女人的准确率83%低。

从照片上看,没有诸如声调、语调、姿势、日常行为、人际关系等信息来帮助判断。同性恋者有纯粹的面部特征吗?我个人的经验是,以貌取人是不可靠的。我以前认识几个同性恋。他们都很有男子气概。他们一年到头都保持健康,礼貌待人,但没有女性气质。从外表看不到它们。它还能取决于一些服装特征吗?表情?背景?人工智能从照片中看到了哪些我们人类可能会忽略的特征,或者是人类根本看不到的特征,准确率为91%。我不知道,但我只知道人工智能看起来很精确。

不能解释自己的AI无法被信任

,一个黑盒特征,有时是不相关的,比如判断性取向。有时候你不能这么匆忙,比如去看医生。尽管人工智能系统诊断某些癌症的准确率已经达到人类医生的水平,但最终的结论是医生仍然需要这样做,特别是当人工智能不能告诉我们其诊断的原因时。除非人工智能能解释它为什么在未来做出这种诊断,否则对人工智能100%的信心有一个很大的心理障碍。

就在几天前,新加坡政府开始测试无人驾驶公交车。这显然是一个正确的方向,我相信这将在不久的将来成为现实。虽然自驾汽车的事故率比人的事故率低,但我们都知道它实际上是比较安全的,但过马路时,停在附近的公共汽车没有司机,我会不会有点担心,怕它突然启动?开车的时候,我转过头,发现公共汽车上没有司机在我旁边。我会被吓一跳,下意识地远离它吗?至少最初是这样。和几个朋友谈论这件事既理性又感性。

以前的程序是基于确定性和因果关系运行的,比如搜索算法中的哪些页面特征是排名因素,以及每个特征有多少权重。这是由工程师选择和决定的。虽然可以通过敲打头部来决定选择,但是在监测效果和调整参数之后,将会达到令人满意的平衡。人工智能系统并不依赖于工程师对因果关系的判断,而是更善于发现概率和相关性之间的联系。对人们来说,以概率和相关性为特征的判断通常很难解释,例如,它们看起来是否好,取决于情绪。

要求人工智能系统解释它的判断不仅是一个心理问题,而且以后可能成为一个道德和法律问题,就像看医生一样。另一个例子涉及到用户的利益,如贷款,人工智能根据大量数据做出拒绝贷款的决定,但银行不能解释为什么拒绝,如何为用户解释?今年,欧盟可能会颁布法规,要求机器做出的决定必须得到解释。这对谷歌和Facebook等全球企业来说是一种压力。在许多领域,比如军事、法律和金融,所有的决策都需要有人来承担责任。如果一个决定不能说明原因,恐怕没有人敢承担责任。

人工智能需要解释的另一个原因是,如前所述,人工智能着眼于概率和相关性,但着眼于相关性做出决策有时会导致严重的错误。《纽约时报》的文章举了一个例子。由数据训练的人工智能系统辅助医院急诊室分诊,整体效果良好,但研究者仍不敢真正应用,因为数据中的相关性可能会误导人工智能做出错误的判断。例如,数据显示患有肺炎的哮喘患者的最终恢复情况好于平均水平,并且这种相关性是真实的。如果人工智能系统根据这些数据对患有肺炎的哮喘患者给予较低的治疗水平,那么可能会发生事故。这些病人最终健康状况良好的原因是,他们得到了最高的评分,并在到达时得到了最好和最快的治疗。因此,有时真正的原因不能从相关性中看出。

可解释人工智能是一个新兴的领域,其目的是让人工智能解释自己的判断、决策和过程。去年,国防高级研究计划局(Darpa)启动了由大卫葛宁博士领导的XAI计划。谷歌仍然是这个领域的领导者,而深度梦似乎是这项研究的副产品:

人工智能与SEO

回到搜索算法和搜索引擎优化,搜索引擎仍然不能完全应用人工智能的原因之一可能是人工智能的判断没有被解释或理解。如果该算法使用当前的人工智能,一旦排名异常,工程师将无法知道原因是什么以及如何调整。

我认为自动驾驶仪是人工智能付诸实践的第一个领域之一,它与它是否能被解释有关。大多数自动驾驶汽车的决策不需要解释太多,或者解释一目了然。它离前车太近了,不能减速或刹车。这种判断不需要进一步解释。

搜索引擎优化的人可能也有同样的疑虑,竞争对手的页面看起来没什么特别的,内容不太好,视觉设计一般,外链常见,页面优化每个人都一样,为什么排名那么好?现在搜索算法也可以探究原因,搜索工程师可能有内部工具来查看排名的合理性。如果搜索工程师看到一个非常糟糕的页面,而且它在最前面,但他们不知道原因,也找不到答案,他们的内心可能会很焦虑。

XAI的研究刚刚开始,这给了搜索引擎优化研究者最后的缓冲期。从人工智能系统在其他领域粉碎人类的表现来看,一旦将其应用于大规模搜索,作弊和黑帽搜索引擎优化很可能会成为过去。当前常规的搜索引擎优化工作可能变得微不足道。SEOs需要回归网站的本质:没有其他方法可以提供有用的信息或产品。

全国统一客服热线

13809509600

周一至周五 9:00-22:30

法定节假日 9:00-23:00

微信公众号