上驷网络倪圣男百度又出新百度算法伴随一声巨响惊雷算法出世

百度最近可谓动作不断,惊喜连连。继“飓风算法”“清风算法”“闪电算法”之后,近日又推出“惊雷算法”,真可谓是平地一声惊雷,惊到了一众SEO相关从业者。

“惊雷算法”旨在严厉打击通过刷点击提升网站搜索排序的作弊行为;对于网站存在点击浏览,流量作弊的行为进行惩罚;另对有判罚记录的网站加以严惩,严重者将长期封禁。如网站在此期间有流量大幅异常,可在反馈中心—流量异常投诉。

历数一下百度推出的算法:

(1)飓风算法:严厉打击刷点击作弊的行为

(2)清风算法:严惩网页标题作弊

(3)闪电算法:移动搜索页面首屏加载时间将影响搜索排名

(4)惊雷算法:严厉打击刷点击作弊行为

“惊雷算法”一出,肯定有人在担忧,有人暗暗窃喜;有人开始审视自己,有人还在持续观望。当然,也有许多人像我们一样不惊不喜,不慌不忙。因为我们,一直是用心在做内容。

上驷网络–倪圣男

百度飓风百度算法如何应对应对措施有哪些

2017年7月7日,有人在过七夕,而百度却推出了飓风算法。那么,面对百度飓风算法,我们应该如何面对或者应对呢?应对措施有哪些呢?笔者经过思考,感觉有以下可行办法:(1)所有采集的内容全部做二次伪原创或者进行同义词的替换、对内容进行二次的聚合,从而满足自己原创的价值。(2)如果只是为了做内容填充,为了填充底层库,可以选择无视百度飓风算法。因为很多大型网站之间也会相互转载内容,但是并没有被惩罚过。另外,世界上并不是只有一个百度搜索引擎,还有其他很多搜索引擎(3)百度搜索引擎并不是万能的,百度飓风算法一定会有一些漏网之鱼,算法一定不是很完善,前期我们可以无视他们。(4)选择一些新站或者屏蔽了百度搜索引擎的网站进行内容采集和收录。例如:微信、需要权限才可以访问看到内容的网站。(5)尊重对方的版权,仅仅在文章末尾或者文章标题下面注明出处即可。(6)对采集的内容进行二次的聚合,让自己的原创内容或者伪原创内容和采集的内容一起来做成新的专题或者聚合页面来获得排名和流量。(7)虽然百度有了原创内容提交渠道,但是要知道时间标签这个东西在一定程度上还是决定了内容是谁第一时间创造的。因此,我们可以通过修改采集内容的时间标签,来让自己变成原创。另外,我们在选择采集不采集的时候,不仅仅要考虑百度飓风算法,应该还考虑我们自己是否可以创造出太多用户需要的内容。如果不能,那么,为了用户阅读内容和网站流量,还是采集一些内容的好。

转载请注明出处。

百度清风百度算法即将来袭站长们都做好准备了吗

9月14号,百度站长平台出了一条公告:百度搜索将于9月底推出清风算法,旨在严惩网站通过网页标题作弊,欺骗用户并获得点击的行为;从而保证搜索用户体验,促进搜索生态良性发展。

相信看到这个消息的SEO小伙伴们大部分都要哭了吧,毕竟以前为了排名,标题党和关键词堆砌这些手法用得不少,不过距离清风来袭还有一周多的时间,所以小伙伴们还是有补救的机会的,不要因为怕麻烦因小失大呀。

先总结下这次清风要扫荡的内容,主要就是两点:

1、标题内容虚假

这个很好理解,简单来说就是题不对文,俗称标题党,明明自己内容上并没有这部分的内容,标题上却用上了。

百度上的作弊详解中上用了“官网”的例子,小伙伴们要做一下处理才行了,这个应该是重点打击的对象。另外还有其他一些举例,在这里就不一一列举了,建议大家仔细阅读百度的《网页标题作弊详解》。

2、标题重复堆砌

一个关键词,多次出现在标题中,这种就属于重复堆砌,为了提高关键词的密度,相信这个手法不少小伙伴都用过,标题上如果有关键词重复了三次或三次以上的应该会被列入作弊范围,为了防止网站内容被大批量干掉,该改的还是赶紧改吧。

这次百度准备上线的清风算法,给出了非常详细的错误案例解析和标题建议,给我的感觉就是要规范化百度搜索结果的内容,让用户更加容易从标题上就能识别找出自己想要的内容,同时也保护了内容原创者的权益。

不过对于SEO们来说,不断更新的算法,优化的确越来越难做的,是时候做出改变,更加专注于内容才是正路。

百度李彦宏畅谈移动互联网人工智能和大数据百度算法

李彦宏登上时代周刊

最近百度创始人李彦宏最近登上了《时代》周刊的封面,再一次吸引了世界的目光。

在前不久的极客公园大会上,他谈了对移动互联网、人工智能和大数据算法的思考。

对移动互联网的思考

百度布局移动互联网比较滞后,从而导致了它是BAT中最弱的那个巨头。在2002到2003年期间,移动互联网已经开始兴起,但是李彦宏觉得,“手机有什么好重要的,这么小的屏幕,那么慢的速度,每个字节都要为它付费”。现在看来,他仍旧认为2002年和2003年的确不是移动互联网的机会,但是这种等等看的心态导致了后来百度在移动互联网布局的落后,到了 2011 年移动互联网兴起了,其他公司抓住了这一波机会,迅速崛起,而百度却错过了。

对人工智能的思考

对于做搜索起家的百度,人工智能是它的强项。当人工智能时代来临时,它厚积薄发的优势就出来了。因为百度从六七年前就开始布局人工智能技术。它一直在做的搜索,其实就是一个人工智能问题:用户搜索想要找的东西,互联网给出对应的答案。“搜索的本质和人工智能的定义是一样的,就是让机器明白人在说什么。

对大数据算法的思考

李彦宏对信息流的解释是:“信息流并不代表完全靠算法决定的内容流,它也是可以结合算法、社交等各种信号揉在一起的内容。”脸谱、推特、微信朋友圈、微博是社交为特征的信息流,百度和今日头条则是以大数据算法为特征的信息流。两者相比较,大数据算法组织的效率更高。而以社交为特征的推荐更有粘性。

百度和今日头条采用大数据算法推荐内容,目前都面临着所推荐的内容质量不高,低俗和耸人听闻的诟病。李彦宏的看法是,随着大数据算法的进步和人们使用越来越多,大数据算法所提供的内容,其质量也会越来越高。

个人的反思

英雄所见略同。不难理解最近刷爆头条圈的“互粉”大事件了!

“互粉”是趋势

深入解读百度飓风百度算法如何正确理解对恶劣采集的零容忍

2017年7月7日,百度搜索引擎推出“飓风算法”,全文如下:

“百度推出飓风算法,严厉打击恶劣采集

百度搜索于近日推出飓风算法,旨在严厉打击以恶劣采集为内容主要来源的网站,同时百度搜索将从索引库中彻底清除恶劣采集链接,给优质原创内容提供更多展示机会,促进搜索生态良性发展。

飓风算法会例行产出惩罚数据,同时会根据情况随时调整迭代,体现了百度搜索对恶劣采集的零容忍。优质原创站点如发现站点索引量大幅减少且流量大幅下滑现象,可在反馈中心进行反馈。”

可以看出,“飓风算法”的主要目的是打击采集为主要来源的网站。这已经不是百度第一次提出要保护原创文章的网站了。那么为什么百度要这样做,“飓风算法”之后我们网站的内容该怎么样建设,网站SEO将会何去何从?今天CRAZYSEO工程师就和大家讨论一下。

首先,从原创网站的角度出发,如果自己原创的文章总是被其他网站采集,并且采集的网站关键词排名要高于自己的网站,原创网站的内容创作人员很容易失去信心。一篇原创文章需要至少30分钟的时间,如果是专业性的内容甚至需要几个小时才能完成,如果轻而易举的被别人采集,加上自己网站没有得到相应的排名和流程,这是非常痛苦的过程,久而久之会导致失去创作的动力。这种情况是百度不愿意看到了,如果没有了高质量的内容,搜索引擎将会是空中楼阁。这也就是为什么百度力推百家号的原因了,目的还是在于鼓励创作者的激情,获得源源不断的内容。

其次,站在搜索引擎用户的角度出发,如果一篇文章被大量采集,并且都能获得不错的排名,用户搜索看到了结果将会非常的雷同,这就失去了搜索引擎的本质。搜索结果的质量下降会直接导致用户的流失,这是搜索引擎最不愿意看到的结果。

最后,作为搜索引擎,如果不通过一次次的算法更新剔除恶劣采集的链接,搜索结果将会不断下降,毕竟搜索引擎是核心算法都是程序,不可能做到完美,每过一段时间就会有黑帽SEO总结出其中的算法规律,就像我们前面提到的采集贴吧内容的方法,哪个时期,这种方法几天之内就能把关键词排名做到前三。

那么“飓风算法”之后,作为SEOER该如何调整策略,才能让自己的网站排名快速上升了?其实作为一个白帽SEO,“飓风算法”的更新对我们的还是非常有利的。白帽SEO的核心就是关键词的挖掘和内容的建设。我们平时最头疼的问题就是自己辛苦原创的内容被别人抄袭,折腾了几个月,网站排名还没有黑帽SEO网站的效果好等等。

在“飓风算法”之后,我们应该更加坚定的坚持自己的SEO方向,将更多的精力和时间投入到挖掘用户的需求和内容的建设上面。如果遇到自己网站的内容被采集或者抄袭,可以到百度站长工具投诉,如图1:

图1

内容方面要紧密结合用户需求,具体的方法主要有以下三步骤:

1.挖掘关键词;

2.分析隐藏在关键词背后的用户需求,这一点就需要对关键词进行深入的分析,了解用户搜索某一个关键词到底想要得到什么结果;

3.为关键词撰写内容,内容的撰写就要按照第二点中提到的满足用户的需求。千万不可自己臆想猜测,杜撰故事。这样的内容即便是逃过了搜索引擎的算法,也会最终被用户抛弃。

百度官方公告最后提出:“百度搜索对恶劣采集的零容忍”,这是一个信号,意味着后续百度搜索引擎会用更强的力度对待采集、低质量内容。我们在SEO过程中要更加的谨慎,切记不要越过红线。SEO的标准翻译是搜索引擎优化,不要和某些机构说的那样将SEO妖魔化,认为SEO就是作弊。

百度最新闪电百度算法更新解读冯炳良分享

我跟大家说:移动网站的优化,速度最重要,速度占据很重的算法排序因素。所以,在设计移动端网站的时候,内容要尽可能极简。大家可以看看很多的移动站点,内容就是主体内容为主。没有任何杂质。但这只是第一步,还会继续优化下代码,JS,图片,空间速度等方面。

百度站长平台今天发布了一篇产品动态:「关于百度上线 “闪电算法”的公告」。

主旨内容主要是要通过闪电算法改进百度用户搜索体验,给访问速度更快的网页,体验更好的网页更好的网页质量评价。

我挑几点重要的给大家罗列下:

2017年10月初,“闪电算法”上线,移动搜索页面首屏加载时间将影响搜索排名。移动网页首屏在2秒之内完成打开的,在移动搜索下将获得提升页面评价优待,获得流量倾斜;同时,在移动搜索页面首屏加载非常慢(3秒及以上)的网页将会被打压。

百度用户体验部研究表明,用户期望且能够接受的页面加载时间在3秒以内。若页面的加载时间过慢,用户就会失去耐心而选择离开,这对用户和站长来说都是一大损失。“闪电算法”不仅体现了百度移动搜索对于页面加载速度更加重视的决心,也体现了百度移动搜索希望站长能够站在和用户共赢的角度对网站进行优化的期待。

使用通用加速方案(如MIP、AMP)对网页进行综合加速。比如,使用MIP可以将网页的加载速度提高30% ~ 80%,对部分试验站点的加速可以提高至85%,实现网页的瞬时到达。

全文大家自己到百度站长平台去找,这里就不直接贴了。

百度MIP的加载速度:

根据百度的全网速度数据,一般非MIP页的首页加载时间约在3200毫秒左右,而使用MIP技术的网页,首页加载时间约为1640毫秒。

为什么这么强调速度?

移动端强调速度是正常的。因为情况跟PC时代不同。PC时代浏览器,可能同时打开很多张网页,用户使用电脑是多线程的。用户可以看到一个网页还没打开,他可以先回复一个信息再过来看,可能就打开了。但是手机移动端,受限于界面,人是单线程处理事情。如果超过3秒还没响应,用户必然就失去耐心了。

所以,闪电算法只是一个开始。搜索引擎会不断优化移动搜索体验。这也是我建议大家为什么要做MIP的原因。移动端的速度优化是多方面,长期的。要时常关注移动端的访问速度情况,这种算法所要处理的情况节奏是比较快的。可能一旦发现你的网页速度无法接受,可能就要处理这个网页的排名了,不大可能会等到一个统一的数据更新时间。

所以,MIP要尽快做,M站点的速度也要时常检查下。

百度开源全新肿瘤识别AI百度算法准确率超专业病理医生

近日,百度研究院发表论文提出一种名为“神经条件随机场”的全新病理切片分析算法,将肿瘤识别定位准确率大幅提高。在公开数据集 Camelyon 16大赛测试集上,该算法的肿瘤定位 FROC 分数达到0.8096,超过专业病理医生水平以及由哈佛和麻省理工学院联合团队所保持的最好成绩。

除了病理学切片分析方面的研究,百度还在积极探索 AI 在眼底影像、放射影像、以及智能问诊等其他一些医疗领域的应用。

一直以来,病理切片分析都是癌症诊断中的黄金标准。但是即便对于经验丰富的病理医生来说,病理切片的阅片流程也十分困难复杂。一张40倍放大的电子化病理切片通常由超过十亿个像素点组成,磁盘空间大小超过1GB。

然而淋巴结附近微转移肿瘤细胞群可能最小只有不到1000像素的直径。而一旦发现微转移肿瘤细胞群,病人的治疗方案和预后可能就会有极大差别。因此,详尽的阅读病理切片,且不漏掉任何一处具有临床价值的病灶,如同大海捞针,是一项十分复杂和耗时的任务(如图一所示)。

为了帮助病理医生更有效地阅读病理切片,研究人员提出了许多深度学习算法,来预测病理切片中的肿瘤细胞区域。由于原始病理切片的图片尺寸十分庞大,绝大部分深度学习算法只能将每张病理切片剪切成大量尺寸小些的图块,比如256×256像素。这样经典的深度卷积网络就可以被用来训练及预测每张图块是否是肿瘤区域。

然而在不知道图块周边区域的情况下,仅凭单张图块,有时候很难预测其是否为肿瘤区域,尤其是在肿瘤与正常组织交界部位。由此产生的假阳性也十分显著,如图二所示。

当病理医生碰到这种困难的情况时,通常会缩小当前感兴趣的图块,以观测周边区域,作出更准确的判断。类似的,百度研究院提出一种全新的深度学习算法,一次性输入一组3×3的图块,并联合预测每一张图块是否有肿瘤区域。图块之间的空间关系可以通过一种名为“条件随机场”的概率图模型来模拟。整套算法框架可以在 GPU 上进行端到端的训练,而不需任何后处理的步骤(如图三所示)。

由于考虑到了相邻图块之间的空间关系,该算法让假阳性得以大大降低,算法预测的肿瘤区域也更加平滑(如图四所示)。对比之前的算法,这种算法除了真实肿瘤区域外,几乎没有引入任何其他假阳性区域。

图四. (a) 原始病理切片; (b) 病理医生标注,其中白色部分为肿瘤区域; (c) 以前算法预测的肿瘤区域; (d) 百度研究院“神经条件随机场”算法预测的肿瘤区域。

在 Camelyon 16大赛的测试集上,“神经条件随机场”算法获得了高达0.8096的肿瘤定位 FROC 分数,不仅显著超越了专业的病理医生水平(0.7240),也超过了之前大赛的最好成绩(0.8074)。同时,百度研究院也在 Github 上开源了整套算法代码,以便其他研究人员在此基础上进行更深入的研究,促进人工智能在医学图像分析领域取得更加长足的发展。

在提高病理切片检测的效率、准确性上,这种新的肿瘤检测算法拥有很大潜力。它让病理学家能更聚焦由算法突出的肿瘤区域,而不必搜索整个切片。当然,对算法的全面评估,也需要更大的数据集来做进一步临床研究。

百度算法更新频频SEO站长该何接招

百度最近又更新算法了,以前的好多优化技术都不行了,可真悲催”,经常听到SEO站长们这样的感叹。可百度算法更新对于我们SEO站长来说,真的就是一件不幸的事吗?针不断更新的百度算法,我们SEO站长又该以怎样的心态去面对?

首先,先了解一下概念,SEO即搜索引擎优化,也就是将包括网站在内的依附于搜索引擎展现的产品优化的更利于用户体验、更利于用户问题解决、对搜索引擎更友好。而我们SEO站长也就是策划执行这些产品优化的一系列过程的人,其服务对象是精准客户和搜索引擎,是大部分网民的根本利益。

因此,我们有必要做出一个区分。对于一些游走于搜索引擎法律边缘、利用搜索引擎漏洞来满足一小部分人私利的以黑帽SEO来自居的网络黑客来说,他们远远的背离了SEO的根本含义和道路,只是网站黑客,不能说是SEO站长。所以我们要将这部分站长和真正的SEO站长区分开来。

其次,当我们把网站黑客从SEO站长中剥离开来之后就不难发现,我们真正的SEO站长不但不用为百度搜索引擎的算法更新而悲伤,反而要高兴,因为百度算法的更新就相当于一部法律的完善和进步,是让网站优化环境更加公平,是对我们真正SEO站长的支持,是对网站黑客的打击。

因此,我们是真正的SEO站长,真正的在践行SEO的宗旨和精神,我们欢迎并期待着任何搜索引擎的算法更新。

世界权威评测冠军百度人脸检测百度算法PyramidBox

近日,百度凭借全新的人脸检测深度学习算法 PyramidBox,在世界最权威的人脸检测公开评测集 WIDER FACE 的「Easy」、「Medium」和「Hard」三项评测子集中均荣膺榜首,刷新业内最好成绩。本文将通过论文简要介绍这一算法背后的技术。

1 引言

人脸检测是各种人脸应用中的一项基本任务。Viola – Jones [1] 的开创性研究利用具有类哈尔特征的 AdaBoost 算法来训练级联的人脸与非人脸分类器。此后不断有人进行深入研究 [ 2,3,4,5,6,7 ] 来改进级联检测器。之后,[ 8,9,10 ] 通过对可变形面部关系的建模,将可变形部件模型 ( DPM ) 引入到人脸检测任务中。这些方法主要是基于设计的特征,这些特征不具有很好的可表示性,而且是通过分离的步骤训练出的。

近年来,卷积神经网络 ( CNN ) 取得了巨大突破,基于 CNN 的现代目标检测技术在人脸检测方面取得了很大进展,包括 R – CNN [ 11、12、13、14]、SSD [15]、YOLO [16]、FocalLoss [17] 及其延伸产物。得益于强大的深度学习方法和端到端的优化,基于 CNN 的人脸检测器性能显著增强,为以后的方法划定了一个新的基线。

当下基于 anchor 的检测框架旨在检测不受控制的环境中的非常规面部,例如 WIDER FACE[ 18 ]。SSH [ 19 ] 和 S3FD [ 20 ] 开发了尺度不变网络,以在单个神经网络中检测来自不同层的尺度各异的人脸。人脸 R – FCN [ 21 ] 利用位置敏感的平均池,对分数图上嵌入的响应进行重新加权,并消除人脸每个部位中非均匀分布的影响。FAN [ 22 ] 提出 anchor 级别的注意机制,通过突出面部区域的特征来检测被遮挡的面部。

虽然这些工作为设计 anchor 和相关网络来检测不同尺度的人脸提供了一种有效的方法,但如何利用语境信息进行人脸检测还没有引起足够的重视,这一问题应该在非常规人脸检测中发挥重要作用。显然,人脸从不单独出现在现实世界中,肩部或身体通常也一起出现,它们提供了可兹利用的丰富的语境关联资源,尤其是在分辨率低、模糊和外部遮挡导致面部纹理不可区分的情况下。针对这一问题,我们提出了一种新的语境辅助网络框架,以充分利用语境信号,具体步骤如下:

首先,网络不仅要能学习人脸特征,还要能学习头部和身体等语境部分的特征。为了实现这一目标,我们需要额外的标签,并设计与之匹配的 anchor。在本任务中,我们使用半监督解决方案来生成与面部相关的语境部分的近似标签,并且发明了一系列名为 PyramidAnchors 的 anchor,以便将其添加到基于 anchor 的一般架构中。

其次,高层次的语境特征应与低层次的语境特征充分结合。常规人脸和非常规人脸的外观可能存在很大差别,这意味着并非所有高级语义特征都有助于识别较小的人脸。我们研究了 Feature Pyramid Networks( FPN ) [ 23 ] 的性能,并将其修改为较低级别的 Feature Pyramid Network( LFPN ),以将对彼此有帮助的特征连接在一起。

第三,预测分支网络应充分利用联合特征。为了将目标人脸周围的语境信息与更广更深的网络相结合,我们引入了语境敏感预测模块 ( CPM )。同时,为了进一步提高分类网络的性能,我们提出了一种可以预测模块的最大输入输出层。

此外,我们还提出了一种名为「数据-anchor-抽样」的训练策略,对训练数据集的分布进行调整。为了学习更具代表性的特征,非常规人脸样本的多样性非常重要,可以通过跨样本的数据扩充来获得。

为表述清晰,本研究可以概括为以下五点:

1. 本文提出了一种基于 anchor 的语境辅助方法,即 PyramidAnchors,从而引入有监督的信息来学习较小的、模糊的和部分遮挡的人脸的语境特征。

2. 我们设计了低层次特征金字塔网络 ( LFPN ) 来更好地融合语境特征和面部特征。同时,该方法可以在单次拍摄中较好地处理不同尺度的人脸。

3. 我们提出了一种语境敏感的预测模型,该模型由混合网络结构和最大输入输出层组成,从融合特征中学习准确的定位和分类;

4. 我们提出了可以感知尺度的数据-anchor-抽样策略,改变训练样本的分布,重点关注较小的人脸。

5. 在通用人脸检测基准 FDDB 和 WIDER FACE 上,我们达到了当前最佳水平。

3 PyramidBox

3.1 网络架构

基于 anchor 的拥有复杂 anchor 设计的目标检测框架已被证明在不同层级的特征图上执行预测时,可以有效地处理可变尺度的人脸。同时,FPN 结构表明将高层级特征和低层级特征融合能带来很大的优势。PyramidBox(图 1)的架构使用了于 S3FD[20] 相同的扩展 VGG16 主干架构和 anchor 尺度设计,可以生成不同层级的特征图和等比例的 anchor。低层级 FPN 被添加到这个主干架构上,并且使用一个语境敏感的预测模块作为每个 Pyramid 检测层的分支网络来获得最终的输出。该方法的关键在于我们设计了一种新型的 Pyramid anchor 方法,它可以在不同层级为每一张人脸生成一系列的 anchor。架构中每个组件的细节如下:

Scale-equitable 的主干网络层。我们使用了 S3FD 中的基础层和额外卷积层作为我们的主干网络层,其中保留了 VGG16 中的 conv 1_1 层到 pool 5 层,然后将 fc 6 层和 fc 7 层转换为 conv fc 层,再添加更多的卷积层使其变得更深。

低层级特征金字塔层。为了提高人脸检测器处理不同尺度的人脸的能力,高分辨率的低层级特征扮演着关键角色。因此,很多当前最佳的研究 [25,20,22,19] 在相同的框架内构建了不同的结构来检测可变尺寸的人脸,其中高层级特征被用于检测尺寸较大的人脸,而低层级特征被用于检测尺寸较小的人脸。为了将高层级特征整合到高分辨率的低层级特征上,FPN[23] 提出了一种自顶向下的架构来利用所有尺度的高层级语义特征图。最近的研究表明,FPN 类型的框架在目标检测和人脸检测上都得到了相当不错的性能。

通过从中间层开始自上而下的结构,我们构建了低层级的特征金字塔网络 (LFPN),其感受野接近于输入尺寸而不是顶层的一半。此外,每个 LFPN 块的结构和 FPN [23] 一样,更多信息详见图 2(a)。

图 1:PyramidBox 架构。它包含 Scale-equitable 主层、低层级特征金字塔层 (LFPN)、语境敏感的预测层和 PyramidBox 损失层。

图 2:(a) 特征金字塔网络。(b) 语境敏感的预测模块。(c)PyramidBox 损失。

4 实验

表 1:从不同层开始的 LFPN 的表现。

表 2:PyramidAnchors 的参数。

表 3:语境敏感的预测模块。

表 4:PyramidBox 在 WIDER FACE 验证子集上的对比结果。

论文:PyramidBox: A Context-assisted Single Shot Face Detector

论文链接:https://arxiv.org/pdf/1803.07737.pdf

人脸检测研究从多年前就已开始,然而,在不受控制的环境中检测小的、模糊的及部分遮挡的人脸仍旧是一个有待解决的难题。针对棘手的人脸检测问题,本文提出了一种语境辅助的单次人脸检测新方法——PyramidBox。考虑到语境的重要性,我们从以下三个方面改进语境信息的利用。首先,我们设计了一种全新的语境 anchor,通过半监督的方法来监督高层级语境特征学习,我们称之为 PyramidAnchors。其次,我们提出了一种低层次级特征金字塔网络,将充分的高层级语境语义特征和低层级面部特征结合在一起,使 PyramidBox 能够一次性预测所有尺寸的人脸。再次,我们引入了语境敏感结构,扩大预测网络的容量,以提高最终的输出准确率。此外,我们还采用「数据-anchor-采样」的方法对不同尺寸的训练样本进行扩充,增加了较小人脸训练数据的多样性。PyramidBox 充分利用了语境的价值,在两个常用人脸检测基准——FDDB 和 WIDER FACE 上表现非凡,取得当前最优水平。

面对百度9月底推出的清风百度算法SE0er该如何应对

为了保证并提高搜索搜索用户的体验,百度将于9月底推出清风算法。清风算法主要是针对网页标题作弊,旨在严惩通过页面标题作弊,欺骗搜索用户并获得点击的行为。

什么样的标题属于是作弊行为呢?百度的官网文件《网页标题作弊详解》明确指出了:

1、标题作弊主要指标题内容虚假、或在标题中故意堆砌关键词等行为。

2、标题内容虚假指标题表述的内容与网页内容不相符,有欺骗用户嫌疑。

3、标题故意堆砌指在标题中多次重复、过度堆砌关键词。

以上3中行为均属于网页标题作弊。以下的示例中的标题可能就需要好好改改了!

那么什么样的标题才能给用户好的搜索体验呢?百度的官网文件《网页标题作弊详解》中同样给出了答案:

《网页标题作弊详解》中给出了首页,栏目页,聚合页,内容页标题的详细撰写建议,并给出了合理标题的示例,供大家参考。大家可以去百度站长平台去查看《网页标题作弊详解》的全文,也可直接点击http://zhanzhang.baidu.com/college/documentinfo?id=1087查看。

作为SEOer ,针对百度推出的算法,我们应该只能照着它的规则来。其实说实话,百度每一次的推出的算法,也是从搜索用户的角度出发,为了给搜索用户更好的体验,其实在本质上和SEOer的目的是一样的,都是为了今后更好的发展!