除了知网 你还应该知道的5大学术文献搜索网站

学术论文的写作除了在知网进行相关文献检索之外,其实还有不少优秀的学术文献搜索引擎可以获取相关学术资料。

今日学术君就为大家推荐5个「实用学术文献检索」的网站,供大家参考。

1.Citeseerx

「Citeseerx」官网首页

http://citeseerx.ist.psu.edu/

CiteSeerX是免费论文搜索网,是CiteSeer的换代产品,,而CiteSeer引文搜索引擎是利用自动引文标引系统(ACI)建立的第一个学术论文数字图书馆

2007年重新设计了CiteSeerX并投入运行。

CiteSeerX的宗旨就在于有效地组织网上文献,多角度促进学术文献的传播与反馈。

CiteSeerX的检索界面简洁清晰

默认为文献(Documents)检索

还支持Authours、tables检索

若选择“IncludeCitations”进行搜索

期刊文献等检索范围会扩大

不仅包括学术文献全文的数据库

还会列出数据库中每篇论文的参考文献

点击“AdvancedSearch”

进入高级检索界面

高级检索会增加检索的精确度,除了支持作者、作者单位、篇名等基本检索之外,还支持文本内容以及用户为论文定义的标签等更为详细的检索。

详细的内容检索

2. FindaRticles

「FindaRticles」首页

2019/20190426A/F0114964

Information Find Articles

作为文献论文搜索引擎

提供了多种顶极刊物的上千万篇论文

涵盖多方面的内容

包括艺术、商业、计算机与技术等

该网站大部分为免费全文资料

检索操作简单

查找十分方便

FindaRticles资料来源较为广泛

主要是来自于杂志、定期刊物和报纸等。

直接输入需要查找的文章或者关键词

在进行关键词检索的时候

会出现相关的内容搜索以及类似文章链接

比如输入“Science”

会出现相关的文献资料

左侧一栏是“Related Searches”

点击需要浏览的文章后

下方会出现Related Articles”

尽可能地为读者用户提供最全面的资料

3. HighWire

「 HighWire」官网首页

http://highwire.stanford.edu/

「HighWire」

斯坦福学术文献电子期刊

由美国斯坦福大学图书馆创立

全球最大的学术文献出版商之一

世界上最大的免费科学期刊库

收录的期刊覆盖以下学科:

生命科学、医学、物理学、社会科学

输入需要查找内容的关键词即可

提供免费全文阅读

4.mathoverflow

「 mathoverflow」官网首页

2019/20190426A/F0115731

MathOverflow

StackExchangeNetwork技术问答网站一员

MathOverflow

是一个互动数学网站

是一种论坛式的交流互动模式

是专业数学家的网络社区

该网站的最大特点就是

用户可以在网站免费提交问题

浏览问题

索引相关学术内容

对问题或答案投票和评论

通过这些活动用户可以获取徽章和声望值

这里集聚了世界许多数学领域著名人士

比如大家比较熟悉的华裔数学家陶哲轩

会解答大家提出的相关数学问题

5.cnpLINKer

cnpLINKer官网首页

http://cnplinker.cnpeak.com/

cnpLINKer由中国图书进出口总公司开发的在线数据库检索系统,是一个查阅国外各类期刊文献的综合性网络平台。

期刊搜索

界面简洁

操作方便

支持中英文搜索界面

提供外文期刊检索功能

方便需要查找外国文献的青椒学者们

支持电子全文阅读

除此之外还支持查询期刊国内馆藏情况

小提示:

需要进行注册才能进行阅读电子全文

微信搜索功能没想到即然这么强大 比浏览器还好用啊

关于微信的文章,教授已经写了很多,比如之前关于微信收藏功能的文章,很多机友就在后台留言回复,原来微信收藏功能那么强大。(详情点击:原来微信的收藏功能还能这么玩,幸亏知道得早!)不过,微信之所以能成为社交应用的巨头,垄断了好几亿的用户,正是它的功能一直在不断地更新,因此变得越来越强大。

聪明的机友一定觉察到什么了……没错,教授今天要分享的内容,依然是关于微信的功能,不过这一次不是收藏功能了,而是大家习以为常的搜索功能。

可能很多机友会发懵:什么,微信的搜索功能也可以写,不是很普通吗?其实不用不知道,如果仔细去研究它,你确定真的会使用微信的搜索功能吗?

话不多说,赶紧来分享一波吧!

微信返钱

说到网购,很多机友应该都会选择某猫某东吧?其实,在微信上也是可以购物的!没开玩笑,只要你在微信搜索框输入某款商品,再点击“商品”选项,微信就会出现此类商品的详情,点击进去会跳转到某东的小程序,可以了解更多详情以及购买。

这是因为此前微信投资了某东平台,并在微信上给了某东一个流量入口。不过这不重要,重要的是,你在这个平台购买的商品,不仅可以保证质量,还可以返钱!少则1、2元,多则7、8元,是不是很划算呢?

微信搜歌

现在我们用手机,除了玩游戏、发微信,用手机听歌也是少不了的,不过受限于版权,各个音乐应用都有局限,有时候并不能找到想要听的歌曲,为此有些机友可能会下载好几个音乐应用以满足需要。

不过你知道吗?其实利用微信搜索,也能轻松搜到自己喜欢的音乐,基本上每个音乐平台都有。不仅如此,你还能发现朋友圈里有哪些好友也听过这首歌,轻易找到跟你口味的好基友!

搜表情包

微信聊天,怎么可能少得了斗图?不过让人dan疼的是微信的表情收藏数量最多只有200个,一旦“战争”升级,根本就不够用啊!

其实你知道吗?用微信的搜索功能就能解决难题了。在搜索框输入你想要的表情包,比如最近很火的“真香警告”,一搜就能发现大量相关表情包了,而且连水印都没有,一键就能发送给好友,方便!

找工作

什么?微信还能搜索到工作?你没看错,在搜索框选择【朋友圈】,输入工作相关的词语,比如“招聘”,就能看到朋友圈曾经发过的工作信息了;这还不算,还能根据【发布人】和【时间】来搜索,搜索更精准!

免费看小说

上下班路上,很多人都会用看小说来打发时间,如果你也有这种爱好,那么下次只要用微信搜索,就能搞定了!

在搜索框输入关键词,比如“重生”,然后选择【小说】版块,立刻就能找到相关的小说,点击跳转到【微信读书】,还能选择限时免费版块,上下班路上再也不寂寞了。

搜索学习资料

很多时候我们想要搜索一些学习资料,潜意识里都是打开浏览器、登录某个网站搜索,不过,现在微信搜索也是一个不错的渠道哦~

搜索问答

生活和工作上,一旦有问题,大多数人都是直接用某度知道,或者用某乎来解答疑问。其实用微信搜索也可以,输入相关疑问词语后,你可以发现微信界面会出现某乎的相关问答,这样你就不用同时打开两个手机应用了。

语音搜索

虽然现在男女老少都会用微信,不过有些老人家受限于文化水平,遇到一些文字可能就不会打了,别着急,微信搜索已经考虑到这个问题,点击搜索框里的语音输入符号,说出你想要搜索的内容就可以啦~

快速翻译

假如你出去吃西餐,看不懂“鸡肠字”,又或者想要把中文翻译成英文,那么在微信搜索框输入文字后,直接加上“翻译”二字,神奇就会出现了!从此不用再特意打开翻译应用,在微信也能快速翻译文字~

怎么样?你觉得微信的搜索功能够强大吗?你还知道有哪些很少人用的微信功能,不妨也来秀一波呗!

怎么样是不是觉得微信搜索的功能很强大呢?不承认也不行啊···哈哈 喜欢的朋友点赞加关注蛤~~

搜索资源靠不靠谱,加入搜索书生全年会员就知道

Jan.

14

搜索书生自去年到今年开始创办研究学院,从无到有,拉开社群化圈子聚容,定向等我服务一些针对性客户,客户可以主动和搜索书生本人一起共创自己店铺的发展,加入会员可以一对一指导店铺发展方向。

今天是搜索书生陪伴您的第690

相信,你一定会有这些各种痛点,比如:

现在对平台规则相对不了解?

怎么优化团队运营能还是不成熟?

技术资源始终效果不太理想?

每年外部学习成本费用投入大?

遇到一些应急问题无导师解答?

线下培训培训完成后落地差?

平台资源活动不知如何对接?

品牌店铺玩法打造没有方向?

…….

1.搜索书生亲自拜访企业,解决企业的问题,提供一站式指导,在指导过程中,首先先调研下客户的店铺问题,然后提前制定讲课内容,然后去往会员公司。参加内容可以做到百分百解决客户难点。

2.线下店长私家班是搜索书生承办的在北京,广州,上海,杭州,等四个地方承办的线下课程,每场收费是8800元/人,两天一夜的课程,帮助商家快速提高当前的运营能力。

1.搜索书生每年都会研究出一些新玩法然后给予会员去实践学习,帮助商品和店铺快速成长,目前新玩法免扣点玩法已经开始投入使用了,可以供给会员使用。按照平台正常玩法,提供基本扣点扶持,然后减掉佣金,扶持站外资源流量,提高搜索效果。

2.第一页红排名指的是我们搜索书生团队的运营帮助你选择一款产品出来,这个服务在搜索书生这边收费是9000元一款,三个关键词上到首页,那么我们这次会员享受的是一次性,教程模式学习,手把手对接我们运营教你如何上到首页三个关键词产品。

1.搜索书生作者本人直接管理会员体系,提供资源整合,人脉交流,问题解答,等一系列指导性服务,帮助商家遇到问题可以找到人去解决的困扰。

2.线上私家班主要针对企业对员工流失做的一个保护措施,企业在培育员工的时候出现员工离职,那么公司向再培养一个人,提供线上课程快速学习,尽快上手工作的服务,课件的更新是随着平台规则变化一起更新的。

1.搜索书生整合对接很多资源,比如做搜索技术,做快车技术,做活动技术,做广告策略,从整体的技术对接,帮助商家实现流量获取无难点。

2.书生周刊针对搜索书生日常写的文章,很多没有全面解释的,进行整理后,通过周刊进行发放给各位学员,学员可以通过复习,更快的入手文章的内容。

1.搜索书生对接站外销量返利资源,通过社群的营销,帮助企业的销量单品快速得到提升,从而得到销售排名。

2.提供搜索书生做店铺的六个玩法,玩法已经沉淀最新流程,企业可以随时选择一个玩法帮助快速做好店铺。

联系方式(一)

联系方式(二)

搜索书生(sousuoshusheng)是一个专注京东搜索规则分享(share)与交流的平台,平台文章励志做最好的文章汇总和原创者。

Google搜索回归无望 网友 李彦宏做梦都要笑醒

今年10月,谷歌CEO还信誓旦旦地说,Google搜索中国版非常有希望,谁知短短两个月后已然凉凉。

据The Intercept消息,Google决定关闭“蜻蜓”项目的整体数据来源,工程师们也陆续转移到谷歌在其他发展中国家的项目中去,如印度、印尼和巴西。Google CEO桑德尔·皮猜也在国会听证中明确指出:目前没有在中国推出搜索服务的计划。

“蜻蜓”项目的内容,就是打造Google搜索中国版。据The Intercept今年8月的爆料,谷歌从2017年便开始着手于这个项目。

由于开发一个搜索引擎需要大量的搜索数据来“调教”算法,谷歌便开始通过很久以前收购的一个导航网站来进行这个特别的“市场调查”。导航网站的搜索框连接的是百度,谷歌在中间把用户的搜索行为记录下来,就形成了一个庞大的数据集,他们通过这样的方式来重新了解告别多年的中国用户。

但问题在于,谷歌进行的这个“调查”没有经过内部隐私团队的审查,反而是一批媒体最先将这一细节曝光。摊牌后,结果可想而知:隐私团队坚决反对“蜻蜓”项目的这种操作。

最后,Google中国版项目也没能力挽狂澜,只能被迫中止。

在反对“蜻蜓”项目的大军中,还有一部分谷歌员工认为,为了服务中国用户而去专门打造一个定制化版本,不符合谷歌的价值观。

原定在2019年上半年诞生的Google搜索中国版,就这样胎死腹中,许多网友都表示非常失望。

8年前,Google退出中国市场,此后国内搜索引擎便是百度一家独大。今年,谷歌可能重回中国的消息层出不穷,8月,《人民日报》在海外社交媒体上说欢迎Google回归,但前提是遵守中国法律。

百度CEO李彦宏也表示:“如果现在Google回来,百度正好可以真刀真枪地再PK一次,再赢一次。”

但现在看来,是没有这个机会了。

苹果应用商店在WWDC开幕前迎来巨变:加入搜索广告

原标题: 苹果应用商店在WWDC开幕前迎来巨变:加入搜索广告

文/郭晓光

在中国的端午节前一天,苹果公司全球市场营销高级副总裁菲尔·席勒(Phil Schiller)电话连线新浪科技,在下周的全球开发者大会开幕前(WWDC)透露了一些应用商店方面的消息。重点包括:1.更完善的应用审核;2.新的商业模式;3.应用商店搜索中加入广告。

第3点很令人意外,可说是巨变。

一 应用审核速度加快

席勒公布的第一个消息与应用审核速度有关。他谈到目前App Store每周有10万次应用审核,过去几年里,苹果一直提升审核速度及质量。截至目前,苹果已经缩短了审核时间,现在有50%的App在24小时内便可得到审核,90%则可在48小时内得到审核。同时,苹果会确保审核的质量。

2008年7月11日苹果App Store上线。虽然此前也有供人下载App的应用,但只有苹果公司真正将它变成了“软件+商店”的经营模式,由此促进iOS生态的发展,成就今天的iPhone。

根据苹果官方统计,截至去年6月,App Store中已经有超过150万款应用;自App Store发布以来,共为开发者带来了400亿美元的分成。

加快审核对App Store绝对是个利好消息,多年前曾有开发者抱怨App提交后10多天后审核也无法通过,但今年其实已经有所改善,从之前的10多天加速到3天左右。现在提交后,基本2天、甚至当天便可完成。

二 加强版订阅模式

席勒带来的第二个消息与App商业模式有关。

目前,App Store平台上的商业模式有:免费应用内的广告、免费应用的内购、付费应用以及订阅。

此前订阅这种模式只适用于某些类别,比如音视频流媒体、云数据、报纸书刊订阅等服务,但现在,订阅扩展到了所有应用类别,例如游戏,以前内购刀剑是一次性消费行为,当开发者将订阅模式加入自己游戏中,用户可以每月付费的方式定期获取装备,开发者也可以给订阅用户一些优惠。

订阅分成方式也更新了。过去是“三七开”(苹果分得30%收入,开发者获得70%);从下周App Store新政实施之后,第一年仍是三七开,但第二年开始变为85:15,开发者获取85%的收入,苹果得15%。这是对开发者更大的吸引和更多的挑战,这条规则会促使开发者在经营过第一年后获得更多收入,刺激开发者想出更多办法做出更好的内容留住用户,让自己的App走得更长远一点。

另一些是“价格点”的更新。席勒在电话中告诉新浪科技,更新价格点可以让开发者在不同区域和市场有灵活定价权利,用户也有能更好控制自己的订阅。2014年底,苹果尝试在中国推出1元应用,从此结束了App Store六年以来最低6元(0.99美元)的定价方式。

三 Search Ads搜索广告

第三点是最令人惊讶的改变,苹果在App Store平台的搜索结果中加入广告。

搜索广告将作为首个显示结果出现在搜索结果页中。苹果希望,通过它帮助开发者更有效地推广自己的App。席勒谈到这点时候说:用户不会对搜索引擎或社交媒体中的广告陌生。

尽管谷歌官方的应用商店Google Play中早有类似行为,但苹果宣布自己也会做搜索广告,可说是巨变。尤其在国内,人们刚刚经历百度魏则西事件之后,搜索与广告这个两个词放在一起显得比较敏感。

席勒解释苹果做这件事的几个特点:广告会有蓝色背景和图标,会被清晰的标识出这是一个广告;与搜索结果关联度很高的才会出现在广告位置上;搜索结果只是App,不能通过搜索得到别的东西;13岁以下的青少年不会看到搜索广告;另外还有些关于保护用户隐私的细节,例如不会追踪用户信息,不会与开发者分享用户数据等。

席勒称,对一些小型独立开发者来说,这套搜索系统会很高效;定价系统采用CPC模式(Cost Per Click,网络广告的收费计算形式)只有用户点击广告才会计费。

这种商业模式能给苹果带来多少收入并不确定。并且苹果也在谨慎尝试这种模式,他们在今年夏季(应该就在WWDC前后)开始测试,秋季在美国正式推出,之后才是中国等其他市场推出,但没有具体时间表。

四 搜索广告对苹果是好事吗

新浪科技在得到这个消息后立即询问了一些开发者,得到的答案比较乐观,实际上我们本以为他们会非常排斥这件事。

原本我们担心搜索结果会破坏App Store的公平原则,但一些App开发者说,他们相信苹果的准线,苹果的官方广告至少会让之前社交推广或通过刷榜公司那些混乱无序的方式得到改善。

部分App开发者为我们介绍说,目前App自增长(指不进行任何干预或营销)很难,业内常见的App推广办法找付费渠道推广,但这些公司有可能为了挣钱而数据造假,广告主付钱后还需要甄别真实数据;另一方面,很多推广渠道不愿意接受量小的App(比如财经类App无法像游戏用户量那么大);而刷榜行为,是早期很多创业者做给投资者看的,刷量会像吸毒一样无法停止,恶意刷榜还有可能被苹果下架。

“如果有了官方搜索广告,我们至少能找到一条更可靠的途径推广自己的应用”,来自新浪财经开发团队成员说,只是希望苹果不会像曾经的百度一样。

五 关于搜索广告的一些关键问题

问:搜索广告在其他平台出现吗?

答:目前会在iPhone和iPad两类不同设备的App Store中出现。

这是两个用户量和活跃度最好的平台,我们预估若它的效果较好,迟早会在其他平台出现。

问:广告会很多吗?

答:不会,这不是卖榜单,只是搜索结果第一位变成了广告位。苹果还比较克制,搜索结果中的广告有且仅有一条。并且会用蓝色背景和图标,清晰标识出这是一个广告。

问:会不会泄露用户隐私?

答:苹果官方称不会追踪用户信息,不会与开发者分享用户数据等。这也是苹果一直坚持,希望在搜索广告业务上也会这样。

问:搜索广告会影响正常的搜索结果吗?

答:席勒的答案是不会,搜索相关级别优于付费。就像我们上文描述的,与搜索结果关联度很高的广告才会出现在最顶端广告位上。

问:搜索广告怎么计费?

答:广告主可以设置每次点击的最大点击成本,就是每一次点击计一次费。广告主支付的钱多少取决于你的竞争对手出价高低。

苹果允许用户自己设置上限,避免超支;广告主可以设置每天最大花销,以控制预算。

问:苹果说13岁以下的青少年用户不会看到广告,年龄如何判断?

答:Apple ID中是有出生日期的,并且苹果标注“您需要提供正确的出生日期,才能启用部份 Apple 服务”。

不排除有人更改。目前是看用户自觉程度,但我们猜,如果苹果想严格一点,可以建立实名认证机制,但这将是个浩大工程。

p.s. 以上某些细节可能会在测试之后更改,等它正式上线我们再重新评价。

网络搜索大数据如何揭示社会心理

网络搜索大数据如何揭示社会心理?

网络搜索的广泛使用及其与大众日常生活的紧密交织,使得借助网络搜索大数据研究人类的社会心理与行为规律成为可能。针对网络搜索数据中所蕴含的潜在巨大学术价值,南开大学社会心理学系陈浩副教授与中山大学传播与设计学院赖凯声副研究员、新加坡国立大学心理学系余荣军教授等人,合作撰写了英文综述《网络搜索数据如何启示社会心理学》,近日发表在网络心理学国际著名刊物《网络心理、行为与社交网络》(Cyberpsychology, Behavior, and Social Networking, 简称Cyber)上。

这篇刊发于《Cyber》2017年第10期的综述文章,分别从网络搜索数据应用于性心理、自杀、心理健康、社会偏见与不平等、公共政策与公众舆论等诸多议题研究的前沿进展,其所具备的优势、面临的挑战以及未来方向等内容,对网络搜索大数据如何助力人类的社会心理与行为研究进行了较为系统的梳理、总结和评论。赖凯声为论文第一作者,陈浩和余荣军为论文共同通讯作者。

《Cyber》是关于社交网络对社会、行为和心理影响问题的权威同行评议期刊,过去二十年中一直是社交网络和虚拟现实研究成果的刊发重镇,它见证了心理学和传播学中有关技术、人类行为与社会间复杂交互关系研究的学术共同体的快速成长。《Cyber》2016年的SSCI影响因子为2.57,是心理学和传播学两大学科双一区期刊。

下文为该综述的中文概述翻译:

互联网的普及及其引发的信息技术革命,使得人们步入了信息充裕的大数据时代(Cukier, 2010)。作为人们获取日常信息的重要渠道,网络搜索数据客观、详尽地记录了用户的搜索行为和信息,这使得借助网络数字化痕迹资料来研究人类的心理与行为规律成为可能(Wilson, Gosling, & Graham, 2012; Asur & Huberman, 2010)。网络搜索是人们最为流行的网络行为活动之一。皮尤互联网研究中心2012年一份关于美国互联网用户搜索引擎使用调查的数据显示:近90%的美国互联网用户通过搜索引擎来获取信息(Purcell, Brenner, & Rainie, 2012)。人们可能借助网络搜索感兴趣的电影、关注的名人动态、最新的社会政策等。其内容涉及工作、学习、娱乐、消费等方方面面,与人们的日常生活有着广泛而密切的联系。

一、人们为什么要网络搜索?

作者认为,网络搜索本质上属于信息搜索或信息搜寻行为,可主要采用以下几种理论视角解释人们的网络搜索动机:

(1)进化视角的观点认为,拥有搜寻、管理和应用信息的能力有利于增加早期人类成功找到合适的配偶和食物的几率(Spink, 2010)。因此,信息搜索可以提高人类生存、发展和繁衍的优势,并满足人们适应和控制环境的基本需要。

(2)信息学的观点认为,人类具有与寻求答案、降低不确定感、意义寻求等动机相关的信息需求,因而信息搜寻行为即是满足和实现人们信息需求的过程(Case, 2007)。

(3)传播学的观点,把网络搜索视为一种媒介的消费行为。例如,游戏理论(Play Theory)倾向于将信息搜索视为一种娱乐媒介,而不是常规视角下关于现实信息的获取工具(Case, 2007)。

(4)教育学的观点,则认为网络搜索是为了满足人们在搜索中学习的需要。例如,根据学习动机由浅入深的程度将网络搜索活动分为:查询式搜索、学习式搜索和研究式搜索三种类型(Marchionini, 2006)。

那么,网络搜索的心理学内涵是什么?作者认为,用户的一次网络搜索,即意味着用户对该内容的一次关注或兴趣。从群体层面看,网络搜索引擎提供的针对特定搜索词的时空频率,即可反映特定用户群体在特定时间和空间内,对该问题的关注或兴趣程度。

二、网络搜索大数据的研究优势

作者认为,相较于社会科学传统研究中经常采用的问卷法、实验法而言,网络搜索大数据主要在数据客观性、生态效度、时效性以及宏观公共政策实践方面具有优势或独特价值。

(1)数据的客观性、生态效度高。网络搜索引擎数据的用户人群覆盖面大,数据客观性和生态效度均较高。

(2)时间精度高。网络搜索引擎在响应用户搜索指令的同时也实时产生了搜索记录,从理论上而言可实现对用户搜索行为的实时追踪。

(3)在区域公共政策层面的应用价值高。结合搜索行为发生的地理位置信息,网络搜索数据可实现对县、省市、州、国家等不同区域水平的研究议题进行操作化测量,为研究者挖掘宏观层面的社会心理现象及其时空变化规律提供新的证据资料。

三、基于网络搜索大数据的社会心理研究前沿与进展

作者分别从性心理与行为、自杀行为、心理健康、社会偏见与不平等议题、公共政策效果与公众反应等方面对当前研究进展进行了详细梳理。

(1)性心理与行为

由于网络搜索数据具有客观性优势,越来越多的社会科学研究者借助网络搜索数据来探索大规模人群的性心理及其相关行为的影响和作用规律。例如,Markey和Markey(2013) 通过色情词汇搜索量来研究人类性及求偶行为的季节变化规律,发现色情词汇在Google上的搜索量较为稳定地表现出以6个月为周期的波动特征,并且在夏天和冬天搜索量达到峰值。Markey和Markey(2010)还借助Google Trend数据研究了美国三次政治选举之后大众的色情信息寻求行为规律,结果发现如果某一州所支持的政党在选举中最终获胜,那么该州大众在大选后一周的色情相对搜索量显著高于所支持政党最终失败的州。该结果验证了进化心理学的“挑战假说”,即在竞争中获胜的个体,相对于在竞争中失败的个体拥有更多的睾丸素水平的提升以及对性行为兴趣的增强(Archer, 2006)。

此外,Maclnnis和Hodson(2015)利用Google搜索引擎上与性相关内容的搜索数据发现,州水平的宗教性与性相关内容的一般性网页搜索具有中高度的正相关,州水平的保守主义倾向与性相关图片的搜索也具有中高度的正相关。该研究结果表明,对于保守主义倾向和宗教性越强的州,其大众在匿名化的私人网络空间中对性相关内容的关注度反而越高。这与人们通常认为美国的宗教信仰程度和保守主义,与反对非传统性行为是密切相关的直觉是相反的,为此研究者还从精神分析理论的角度对该结果进行了解释。

(2)自杀行为

借助网络搜索数据揭示人类的自杀行为特征也是相关研究的一大热点。例如,McCarthy(2010)最早将自杀相关的Google搜索数据应用于自杀问题。他的研究结果发现,美国2004至2007年期间以“自杀”为关键词的Google搜索量,与美国疾控中心(Centers of Disease Control)提供的实际自杀和故意自残率存在一定的关联,但在不同人群中有所不同。自杀搜索量与整体人群的实际自杀率数据呈显著负相关,与故意自残率相关不显著;但“自杀”的搜索量与15-25岁的青少年群体的实际自杀率和故意自残率均呈显著正相关。与已有自杀研究中关注自杀相关搜索的时间序列数据不同,Gunn III和Lester(2013)则研究了不同地域的自杀搜索量与实际自杀之间是否存在关联。他们发现2009年,美国50个州的实际自杀率与“自寻了断”等搜索量呈现正相关。

(3)心理健康

网络搜索数据也被用于探索各地区、国家水平的抑郁、焦虑等心理健康特征。例如,人们普遍认为高纬度的个体在冬季更容易陷入情绪低落状态,但之前并没有实证研究在全球范围内检验人们的情绪随季节变化的规律。因此,Yang,Huang,Peng和Tsai(2010)以“抑郁(depression)”为关键词的Google搜索量作为测量抑郁的代理指标,考察了2004年1月1日至2009年6月30日期间,全球54个国家抑郁的季节与地域波动规律。结果发现南北半球的抑郁波动规律相反,且抑郁的搜索量与气候中的温度呈显著负相关。但是抑郁与温度之间的负相关强度是依赖于纬度的。纬度越高的地区,抑郁的搜索量与温度的负相关程度越高;纬度低的地区,二者的关系则减弱了。

(4)社会偏见与不平等

社会偏见与不平等问题是社会心理学的重要研究议题之一,研究者也尝试发挥网络搜索证据的优势,并展开了一系列的探索。例如,Stephens-Davidowitz(2014)认为,在研究社会偏见问题时,问卷调查法具有社会称许性反应,人们倾向于隐藏社会不接受的态度,例如对黑人的负面感受。相比其他方式而言,人们在Google上进行色情等敏感性搜索的方式更容易表达其真实的兴趣。因此,他搜集了美国2004~2007年期间有种族歧视性语言的关键词搜索量作为测量一个地区种族歧视的代理指标,并进一步探讨了种族歧视给黑人总统候选人带来了多大程度的负面影响。研究结果发现,在控制了其他变量的情况下,种族歧视搜索量仍能稳健地负向预测奥巴马的投票支持率,并且种族歧视使得奥巴马在2008和2012的选举中付出了大约4个百分点的大众选票损失代价。

在社会不平等方面,已有研究证据表明:社会不平等会使得人们更加关注社会等级,进行更多的社会比较,从而导致阶层竞争(例如,Bowles & Park, 2005)。Walasek和Brown(2015)根据社会等级假说(social rank hypothesis)出发,认为处于不平等社会的个体更倾向于把资源投入到地位寻求行为(status-seeking behaviors),例如更加关注从表面上看来与地位直接相关的商品上。在控制了各州的人均收入等社会经济变量的条件下,他们借助基于Google网络搜索数据发现,来自收入越不平等的州,人们对于阶层相关物品的关注越高,对奢侈品等与外在地位直接相关的物品搜索量越大,从而在宏观州层面验证了社会等级假说。此外,他们关于收入不平等与阶层物品关注之间的关系在国家水平上也得到了进一步的验证。

(5)公共政策与公众反应

网络搜索数据还可用于探索人们对于健康类公共政策的行为反应规律,检验烟草、堕胎等公共政策的实际效果。例如,Huang,Zheng和Emery(2013)利用搜索数据(百度指数和Google搜索指数)考察中国网民对室内公共场所禁止吸烟政策的反应。结果发现,关于“禁烟”、“电子烟”以及“戒烟”的网络搜索量与媒体报道量显著正相关,证明了至少在短期内,禁烟政策对大众的吸烟行为有显著影响。Reis和Brownstein(2010)利用Google上“堕胎”的网络搜索数据,研究了美国国内50个州以及37个国家的堕胎搜索量与当地实际堕胎率、堕胎政策(是否合法)的之间的关系。研究结果发现,无论是在美国国内,还是全球不同国家之间,堕胎的网络搜索量与当地堕胎政策的合法性或堕胎服务可得性有着直接关联,并且与实际堕胎率之间均呈现显著的负相关。他们认为,在堕胎合法的地区,人们越容易通过直接渠道获得堕胎服务,因而相对于堕胎不合法的地区的堕胎网络搜索量会更少。该研究结果验证了已有研究认为本地堕胎限制政策会导致人们向外地寻找堕胎服务的观点(例如,Haas-Wilson, 1993)。可见,网络搜索数据可作为评估公共健康政策效果的一种经济、便捷的重要数据来源之一。

(6)小结

根据研究目的和视角的不同,网络搜索数据目前应用于社会心理问题的研究可归纳为描述性、相关性、因果推断性、预测性以及政策效果评估性五种类型。其中,描述性研究主要借助网络搜索数据来揭示人们对某一议题本身的关注度或其背后的心理特征,随时间和空间变化的规律(例如,Yang, Huang, Peng, & Tsai, 2010)。相关性研究旨在挖掘人们针对某一主题的网络搜索行为与其他行为(尤其是线下实际行为)之间的相关关系(例如,McCarthy, 2010)。因果推断研究的开展通常基于一定的假设推导或理论观点,希望借助网络搜索数据指标代理大众的特定心理与行为变量,挖掘其与其他变量之间的关系,从而为变量之间的因果关系提供客观数字轨迹证据(例如,Walasek & Brown, 2015)。预测性研究主要是基于网络搜索数据能较好地反映人们在从事重要行为决策(例如,自杀)当时或之前心理状态的假设,因此希望通过网络搜索数据对宏观人群的重要行为问题进行预测(例如,Hagihara, Miyazaki, & Abe, 2012)。政策效果评估性研究,充分发挥了网络搜索数据可低成本实现对大范围人群针对某一社会议题的关注度进行跨时间、跨地域追踪研究的优势,主要探索公众对特定政策的实际反馈行为在特定时空中的映射模式(例如,Huang, Zheng, & Emery, 2013)。

四、挑战与未来方向

最后,作者总结了网络搜索研究需要注意样本的代表性偏差、在构建网络搜索指标时面临的信效度挑战、相关研究的可重复性问题与预测陷阱、分析水平局限等问题。例如,在分析水平上,绝大多数已有的网络搜索研究主要在州、国家等群体层面展开,相关结论能否推论到个体水平仍有待后续研究进行检验。当然,这种局限在一定程度上与出于数据隐私等因素考虑,当前研究者仅能获取群体水平的匿名化数据有一定关系。

在未来研究方面,作者认为未来的网络搜索大数据研究,应该充分发挥其在数据获取的时间和地理颗粒度、获取成本等方面的优势,去探索已有传统问卷调查、实验等手段无法或者很难实现的未知领域。例如,网络搜索数据在揭示社会偏见、性偏好等私秘程度和社会赞许程度较强的研究主题上具有独特的方法论价值。此外,未来的网络搜索研究可进一步整合社会心理学相关理论资源,提升大数据研究的理论价值。例如,已有研究者借助网络搜索的数据资源优势在宏观群体层面检验了“挑战假说”、“社会等级假说”,有效地整合了大数据的技术优势与社会科学的问题意识和理论优势。

五、结语

基于网络搜索大数据的社会心理学研究,为探究大规模群体层面的学术问题,尤其是敏感性议题,开辟了新的路径,从而能够与传统的研究方法相互补充。它将传统关注个体水平的社会心理学研究,进一步拓展至各种不同规模群体的分析水平下来理解人类行为,这无疑将会深化我们对于互联网时代背景下社会行为和群体心理机制的理解。

原文内容参见:Lai, K., Lee, Y., Chen, H., & Yu, R. (2017). Research on web search behavior: How online query data inform social psychology. Cyberpsychology, Behavior, and Social Networking, 20(10), 596-602.

期刊网站链接:2019/20190426A/F0114568

编辑:潘雨 江祥雪

· · · · · ·

KDD2018 | 电商搜索场景中的强化排序学习 形式化 理论分析以及应用

机器之心发布

作者:胡裕靖

在淘宝的商品搜索场景中,给商品进行打分排序是一个典型的多步决策问题。尽管 Learning to Rank(LTR)被广泛用于排序问题,但现有的方法并没有考虑同一个搜索会话中不同决策步骤之间的关联性,因而无法直接用于电商搜索场景中的商品排序。本文提出用强化学习来解决对商品多步排序决策问题,它在模拟实验及淘宝搜索场景中有非常好的效果。实验证明,本论文提出的算法在多步排序问题中的性能要高于现有的Online LTR方法。

本文主要贡献如下:

(1)对电商搜索场景中的多步排序问题进行形式化描述,定义搜索会话马尔科夫决策过程问题模型(Search Session Markov Decision Process, SSMDP);

(2)从理论上分析 SSMDP 的性质,并证明累积奖赏最大化对于多步排序问题的必要性;

(3)提出全新的策略梯度算法 Deterministic Policy Gradient with Full Backup Estimation(DPG-FBE),解决了 SSMDP 中奖赏值方差较大以及奖赏分布高度不平衡的问题。

一、背景

在任何一个电商平台中(如:淘宝、亚马逊等),商品搜索都是一项基础性的服务。用户通过商品搜索引擎对目标商品进行搜索、浏览、比较,进而选取自己满意的商品购买。本文关注商品搜索场景中对商品进行打分排序的问题。具体地,商品排序问题可以从一个搜索会话中用户与搜索引擎之间交互的角度来进行描述:(1)用户进入搜索引擎,输入 query;(2)对候选商品进行打分排序,并从中选取分数最高的前 K(比如:K=10)个商品进行展示;(3)用户在商品展示页面上进行浏览、点击、购买、翻页等操作;(4)当用户选择翻页时,搜索引擎将对未展示商品进行重新排序,然后又展示分数最高的前 个商品;(5)这一过程将持续进行下去直到用户退出搜索会话(比如:发生购买或者放弃搜索)。

用户在搜索会话中的操作(比如:点击商品)是反映用户对商品偏好的信号。从统计的角度来看,这些信号可以用来学习排序打分函数,使得用户更喜爱的商品(比如:点击率更高的商品)能够有更高的排序分数或次序。Learning to Rank(LTR)方法正是基于这样的思想而提出。早期基于监督学习的 LTR 方法大致可以分为 Point-wise LTR、Pair-wise LTR 以及 List-wise LTR。最近十多年,在线学习的理论模型和技术也被很多研究者将引入到 Learning to Rank 领域中,使得一系列 Online LTR 方法被相继提出,如:BatchRank [1]、 CascadeKL-UCB [2]、RankedExp3 [3] 等。

尽管 LTR 研究领域蓬勃发展,但现有的 LTR 方法基本上都无法直接用于电商搜索场景中的商品排序问题。其原因在于,同一个搜索会话中的不同排序决策之间是存在一定相关性的。举一个直观的例子,用户在一页一页浏览商品时,看过的商品必然会对用户如何看待后续页面上的商品产生影响。然而,现有的 LTR 方法并没有考虑这种相关性,对每一个排序决策步骤均独立看待。为了利用这种同一搜索会话中不同排序决策步骤之间的相关性,本文提出将强化学习(Reinforcement Learning)应用于商品排序问题中,并考查最大化累积奖赏这种机制在其中的具体作用。本文接下来的内容包括对商品排序问题的形式化建模、理论分析、新型算法设计以及实验结果。

二、搜索排序问题形式化

如前所述,在淘宝、天猫等电商平台的商品搜索场景中,对商品的打分排序是一个多步顺序决策问题。本节将提出搜索会话马尔科夫决策过程模型(Search Session Markov Decision Process, SSMDP),作为对搜索排序问题的形式化定义。在此之前,我们通过手机淘宝中具体的例子复述用户和搜索引擎之间的会话过程,加强直观感受。

图 1. 手机淘宝中搜索会话示意图

如图所示,用户和搜索引擎之间的搜索会话过程为:

(1)用户在手机淘宝的搜索框中输入「可乐」作为 query,并点击「搜索」按钮。 (2)搜索引擎执行一次商品排序,并展示第一个可乐商品页面。

(3)用户浏览第一个商品展示页,并点击其中某些商品进入详情页。

(4)用户发现并没有满意的商品,于是向下滑动手机屏幕,提出翻页请求。

(5)搜索引擎接到翻页请求,执行第二次商品排序,并展示第二个可乐商品页面。 (6)经过若干次这样的「翻页-排序-浏览」回合,搜索会话将最终在用户购买某个可乐商品或者放弃浏览时结束。

2.1 搜索排序问题建模

我们首先对搜索会话过程中的上下文信息和用户行为进行建模,定义商品页、商品页历史、成交转化率等概念,它们是定义状态和状态转移关系的基础。

定义 1. [Top K List]

给定商品集合 D,排序函数 f,以及一个正整数关于 D 和 f 的 top K list,记为 ,是用函数f对 D 中商品进行打分以后的前 K 个商品的有序列表。其中,是排在第 k 位的商品(),并且对于任意,都有

定义 2. [Item Page]

令 D 为关于某个 query 的商品全集,为一个页面能够展示的商品数量。对于一个搜索会话的任意时间步 t (),其对应的 item page 是关于的第(t-1)步的打分函数 和未展示商品集合 的 top K list 。对于初始时间步 t = 0,有。对于其他任意时间步 ,有

定义 3. [Item Page History]

令 q 为一个搜索会话的 query。对于初始时间步 t = 0,对应的初始 item page history 为 。对于任意其他时间步 ,对应的 item page history 为。在这里,为第(t – 1)步的 item page history,为第 t 步的 item page。

对于任意时间步骤 t,item page history 包含了用户在 t 时刻能够观察到的所有上下文信息。由于商品全集 D 是一个有限集合,不难发现一个搜索会话最多包含 个 item page。对于搜索引擎来讲,它在一个搜索会话中最多决策 次。根据我们之前的数据分析,不同的用户会在不同的时间步上选择购买或者离开。如果我们把所有用户看作一个能够采样出不同用户行为的 environment,就意味着这个 environment 可能会在任意时间步上以一定的成交转化概率(conversion probability)或者放弃概率(abandon probability)来终止一个搜索会话。我们形式化定义这两种概率如下。

定义 4. [Conversion Probability]

对于一个搜索会话中的任意 item page history ( t > 0 ),令 表示用户在观察到 之后发生购买行为的随机事件,则 的 conversion probability,记为 ,就是事件 在 下发生的概率。

定义 5. [Abandon Probability]

对于一个搜索会话中的任意 item page history ( t > 0 ),令 表示用户在观察到 之后离开搜索会话的随机事件,则 的 abandon probability,记为 ,就是事件 在 下发生的概率。

由于 是在(t – 1)时刻的 item page history 上执行动作 的直接结果,因此 和 也表征了 Agent 在 上执行动作 之后环境状态的转移:(1)以 的成交概率终止搜索会话;(2)以 的离开概率终止搜索会话;(3)以的概率继续搜索会话。方便起见,我们对用户继续进行搜索会话对概率也进行形式化描述。

定义 6. [Continuing Probability]

对于一个搜索会话中的任意 item page history ( t > 0 ),令 表示用户在观察到 之后继续停留在会话中的随机事件,则 的 continuing probability,记为,就是事件 在 下发生的概率。

显然,对于任意 item page history h,都有成立。特殊地,对于初始 item page history 来讲,是一个必然事件(即)。这是因为在第一个 item page 展示给用户前,不可能存在成交转化事件和离开事件。

2.2 搜索会话马尔科夫决策过程

基于上面定义的几个概念,我们可以定义 search session MDP(SSMDP)如下:

定义 7. [Search Session MDP]

令 q 为某个 query,D 为和 q 相关的商品全集,K 为一个页面可展示的商品数量,关于 q、D 和 K 的 search session MDP 是一个元组,记为。该元组中的每个要素分别为:

  • 为搜索会话最大决策步数,
  • 为关于 q 、D 和 K 的所有可能的 item page history 的集合,其中 为 t 时刻所有可能 item page history 的集合,
  • 为状态空间,是包含所有的继续会话事件的非终止状态集合(nonterminal state set),和分别是包含所有成交转化事件和离开事件的终止状态集合(terminal state set),
  • A 为动作空间,包含搜索引擎所有可能的排序打分函数,
  • 为奖赏函数,
  • 为状态转移函数,对于任意时间步、任意 item page history 和任意动作 ,令 ,则 agent 在状态 上执行动作 a 后,环境转移到任意状态 的概率为

在一个 Search Session MDP 中,Agent 是搜索引擎,环境是所有可能用户共同构成的总体。环境的状态表征了用户总体在对应 item page history 下的动向(继续会话、成交或离开)。动作空间 可以根据任务需要进行设定(例如:离散的动作空间或连续的动作空间)。环境状态的转移则直接基于我们之前定义的成交转化概率(conversion probability)、放弃概率(abandon probability)以及继续会话概率(continuation probability)。奖赏函数与具体的任务目标高度相关,我们将在下一节进行讨论。

2.3 奖赏函数

在一个 Search Session MDP 中,奖赏函数 R 是对每个状态下的每个动作的即时效用的量化评估。具体地,对于任意的非终止状态 ,任意动作 ,以及任意其他状态 ,表示在状态 s 中采取动作 a,并且环境状态转移到 s’ 的情况下,Agent 从环境获得的即时奖赏期望。因此,在搜索排序问题中,我们必须将用户在每个商品展示页面的反馈信息(翻页、点击、购买等)转化为学习算法能够理解的奖赏值。

在 online LTR 研究领域,用户的点击反馈被广泛用作定义奖赏值的基础 [1,4,5]。然而,在电商场景中,买家和卖家之间的成功交易要比用户点击更加重要。基于阿里巴巴让天下没有难做的生意的使命,也就是,我们定义的奖赏函数将尽可能多地促进用户与卖家之间的交易。对于任意时间步 、任意 item page history 和任意动作 ,令 。在观察到 item page history ,用户将以 的平均概率购买商品。尽管不同的用户会选择不同的商品进行购买,但从统计的角度来看,在 上发生的成交转化事件对应的商品成交价格必然会服从一个特定的分布。我们用 表示 item page history 的成交价格期望,则 agent在状态 上执行动作 a 并且环境转移到任意状态 的奖赏定义如下:

在这里,为 上发生的成交转化事件对应的终止状态。从我们的奖赏函数定义可以看到,Agent 只有在成交发生时才能从环境获得正的奖赏。在其他情况下,Agent 获得的奖赏值都是零。需注意,任意 item page history 的成交价格期望通常是未知的。在具体应用中,我们可以用每一次的实际成交价格作为对应成交事件的奖赏信号。

三、理论分析

在将 Search Session MDP 模型进行实际应用之前,我们需要对一些细节做出说明。本节将首先证明 Search Session MDP 的状态具有马尔可夫性质,以证明该理论模型是良定义的。然后我们将在上一节给出的奖赏函数的基础上对折扣率进行理论分析,证明在搜索排序问题中最大化长期累积奖赏的必要性。

3.1 马尔可夫性质

上一节定义的 search session MDP(SSMDP)可以看作是 MDP 模型的一个实例,但要保证 SSMDP 是良定义的,我们需要证明 SSMDP 中的状态都具有马尔可夫性质(Markov Property)。马尔可夫性质指的是对于任意的状态动作序列

,都有如下等式成立:

也就是说,当前状态 的发生概率仅仅取决于最近一个状态动作对 ,而并非整个序列。我们可以证明对于一个 SSMDP,它的所有状态都具有马尔可夫性质。

命题 1

对于任意 search session MDP ,其状态空间 S 中的任意状态都具有马尔可夫性质。

证明:

我们只需证明对于任意时间步 和关于 t 的任意状态动作序列,都有等式 成立即可。

除了状态 以外,序列 中的其他所有状态都是非终止状态(non-terminal state)。根据状态的定义,对于任意时间步

,必然存在一个 item page history与状态 相对应,且有

。因此,整个序列可以重写为 。需注意的是,对于任意时间步 ,都有

成立。其中,也就是关于 时刻的动作 和未展示商品 的 top K list。给定 ,集合 一定是确定的。所以,也就是状态动作对 的必然和唯一结果。那么事件 也就能够等价地表示为事件 。基于此,我们可以进行如下推导:

第三步推导成立是由于对于任意时间步 , 都包含在 中。类似地,第四步推导成立是由于事件 已经包含了 的发生。

3.2 折扣率

在这一小节我们将讨论本文最重要的问题:延迟奖赏(delay reward)对于搜索排序的优化到底有没有作用?简单地来说,也就是 search session MDP 的折扣率(discount rate)到底应该设多大。在任意 MDP 中,折扣率 y 的大小直接决定了 future rewards 在 agent 的优化目标中所占比重。我们将分析优化长期累积奖赏与优化搜索引擎的经济指标这两个目标之间的关系给出答案。

令 为一个关于 query q、商品全集 D 和正整数 K ( K > 0 ) 的 SSMDP。给定一个确定性策略 ,记每个时间步

对应的 item page history 为 ,我们把在策略 下能够访问的所有状态都展示在图 2 中。

图 2. Search Session MDP 在固定策略 下能够访问的所有状态示意图

在这个图中,红色的节点表示 item page history,注意它们并不是 SSMDP 的状态。方便起见,在本文接下来的部分,我们将把

分别简化记为

不失一般性,我们设 SSMDP 的折扣率为 。由于 SSMDP 是一个有限时间步 MDP(finite-horizon MDP),所以折扣率可以取到 1。对于任意时间步 ,状态 的 state value 为

其中,对任意 为 agent 在未来时刻 (t + k)的 item page history 中收到的即时奖赏。根据我们奖赏函数的定义, 在策略 下的期望值为 。在这里,为 item page history 的成交价格期望。由于 表达的是在 发生的条件下的长期累积奖赏期望,所以我们还要把从 到达 item page history 的概率考虑进来。记从状态 到达 的概率为 ,根据状态转移函数的定义可以得到

从状态 到 item page history 的概率为 1 是因为 是状态动作对

的直接结果。将上面的几个公式综合起来,我们可以进一步计算 如下:

根据图 2 中展示的每个 item page history 的 conversion probability 以及成交价格期望,我们也可以将搜索引擎在策略 的作用下在一个搜索会话中引导的成交额期望表达出来,即

通过比较 ,不难发现当折扣率 y = 1 时,有 成立。也就是说,当 y = 1 时,最大化长期累积奖赏将直接带来搜索引擎成交额的最大化。当 y < 1 时,由于 是 的上界,所以最大化 并不一定能够最大化

命题 2

为任意 search session MDP。对于任意确定性策略 和折扣率 ,都有式子 成立,其中 为 agent 在策略 和折扣率 y 下的状态值函数, 为搜索会话的初始状态,搜索引擎在策略 下的单次搜索会话成交额期望。并且仅当 y = 1 时,有 成立。

证明:

我们只需证明当 y < 1 时,有 成立。这是显然的,因为二者之差,即在 y < 1 时一定为正。

至此,我们可以回答之前提出的问题:站在提高搜索引擎成交额的角度,搜索排序问题中考虑延迟奖赏是必要且必须的。从理论上,这是因为最大化无折扣累积奖赏能够直接优化搜索引擎的成交额。究其深层原因,是因为用户在搜索商品的每个步骤(即每个 item page history)的行为都是基于之前观察到的所有信息(或者大部分信息)做出的反应,这天然决定了搜索排序问题的序列决策本质。

四、算法设计

本节将提出一个全新的策略梯度算法,用于学习 Search Session MDP 的最优排序策略。采用策略梯度算法能将排序策略用参数化的函数来表示,并直接对策略函数的参数进行优化。这能够同时解决 Search Session MDP 中排序策略的表示以及大规模状态空间的难题。我们首先在 Search Session MDP 的语境下对策略梯度方法进行简要回顾。另 为一个 Search Session MDP,为参数化的排序策略函数,其参数为 。Agent 的学习目标是找到最优的策略函数参数,使得它在所有可能状态-动作-奖赏轨迹中的 -步回报最大:

在这里,为形如 的状态-动作-奖赏轨迹,它服从策略参数为 时的轨迹概率分布 为轨迹 对应的 -步回报。需注意的是,如果在轨迹 中到达终止状态的步数小于 ,那么对应的奖赏和 将在那个状态进行截断。优化目标 关于参数 的梯度为

其中,表示在轨迹 中,从时间步 t 到时间步 之间的奖赏之和。此梯度更新公式是著名的REINFORCE 算法 [6] 的核心。Sutton 等人提出的策略梯度定理(policy gradient theorem)[7] 提供了更加一般的策略梯度更新方法。一般地, 的梯度为

在这里,为策略 下的状态动作值函数。如果策略 是一个确定性策略(deterministic policy),那么 的梯度可以重写为

Silver 等人证明了确定性策略梯度(deterministic policy gradient)[8] 是一般性的随机策略梯度(stochastic policy gradient)在策略方差趋近于 0 时的极限。状态动作值函数 可以通过蒙特卡洛估值方法(Monte Carlo evaluation)或时间差分方法(temporal-difference learning)进行估计。例如,REINFORCE 算法采用的就是蒙特卡洛估值方法,而 Sutton 等人提出的演员评论家方法(actor-critic method)[9] 则采用的是时间差分方法对值函数进行估计。

我们基于确定性策略梯度算法(deterministic policy gradient,DPG)[8] 提出学习 Search Session MDP 最优排序策略的算法。我们并没有基于更一般的随机策略梯度方法,因为计算随机策略的梯度通常需要更多样本,且这一点在高维动作空间问题中更为明显。然而,在 Search Session MDP 中,对状态动作值函数 进行估计面临两个难点。首先,Agent 在每个状态上所能获得的即时奖赏具有很大的方差。从奖赏函数的定义可以看到,任意状态动作对(s, a)对应的即时奖赏要么为 0,要么为 (s, a)对应的 item page history 的成交价格期望 m(h),而 m(h)的值通常比 0 大很多。对 进行估计的第二个难点在于每个状态上的即时奖赏分布的高度不平衡。对于任意状态动作对(s, a),由(s, a)引导的成交转化事件(产生非零即时奖赏)发生的概率要远远低于由(s, a)引导的继续会话事件和离开事件(这两类事件产生值为 0 的即时奖赏)。不单是即时奖赏,Search Session MDP 中状态-动作-奖赏轨迹的- 步回报也同样存在方差较高和分布不平衡的问题。这是因为在任何一条可能的状态-动作-奖赏轨迹中,只有最后一步的奖赏值可能为非零。因此,如果简单地采用蒙特卡洛估值方法或者时间差分方法来对 进行估计将会导致不精确的值函数更新,从而影响参数 的优化。

我们解决上述问题的方法类似于基于模型的强化学习方法 [10,11],借助对环境模型(奖赏函数和状态转移函数)的近似估计来完成可信的值函数更新。根据贝尔曼等式,任意状态动作对(s, a)在策略 下的状态动作值为

其中,表示贝尔曼操作。令为(s, a)引导的 item page history。根据 Search Session MDP 的状态转移函数定义,在环境接收(s, a)之后,只有 这三个状态能够以非零的概率被访问,所以 可以简化为

在这里,分别为 item page history 对应的成交转化概率、继续会话概率和成交价格期望。一般地,我们会用一个带参函数 来对 进行近似计算,其优化目标是最小化参数 w 的均方误差(MSE,Mean Squared Error)

而 MSE(w)关于 w 的梯度为

由于 未知,我们无法准确地计算出 的值。一个普遍的做法是将 作为 的代替来计算出 的近似值,所以我们可以得到

其中,表示(s, a)引导的 item page history。在我们实际采用随机梯度法来优化 w 时,就能用一种完全回退(full backup)的方式来对 w 进行更新。具体地,对于我们观察到的任意状态动作对(s, a)及其对应的 item page history ,w 的变化量为

在这里,为学习率,为 item page history 对应的继续会话事件。这种完全回退的更新方法可以避免单步样本回退方法(one-step sample backup)带来的采样误差。同时,在我们的问题中,这种完全回退方法的计算量并不比单步样本回退方法的计算量大。

我们的策略梯度算法在确定性策略梯度定理 [8] 和对 Q 函数的完全回退估计的基础上提出,我们将其命名为 Deterministic Policy Gradient with Full Backup Estimation (DPG-FBE)。与已有的基于模型的强化学习算法 [10,11] 不同,DPG-FBE 算法并不需要维护完整的奖赏函数和状态转移函数模型,而只需要对 Search Session MDP 中的成交转化概率模型 、继续会话概率模型 和成交价格期望模型 进行建模。任何可能的统计学习方法都可以用来对这三个模型进行在线或离线地训练。DPG-FBE 的细节展示在算法 1 中。

如算法 1 所示,DPG-FBE 算法的策略函数参数 和值函数参数 会在每个搜索会话结束后进行更新。为了保证算法学习到好的排序策略,探索(Exploration)机制必不可少(算法第 行)。对于离散动作空间问题,探索可以通过 -贪心方法实现;而对于连续动作空间问题,探索则可以通过对 的输出添加高斯噪音来实现。DPG-FBE 算法并未对策略函数 和值函数 采用的具体模型做任何假设,但由于 Search Session MDP 通常具有很大的状态空间和动作空间,所以我们建议尽量采用非线性模型(例如:神经网络)来进行学习。为了确保学习的稳定性以及解决函数近似带来的收敛性问题,样本池(replay buffer)和目标更新(target update)等 [12, 13] 在深度强化学习中广泛应用的技巧,也建议在 DPG-FBE 算法的具体实现中采用。

五、实验与分析

为了对 DPG-FBE 算法的性能进行验证,我们进行了两组实验。在第一组实验中,我们构建了一个简易的在线购物模拟器,并对 DPG-FBE 算法以及目前最新的几个 online LTR 算法进行对比测试。在第二组实验中,我们将 DPG-FBE 算法在淘宝搜索引擎中进行投放,以检验其实际应用效果。

5.1 模拟实验

模拟实验中使用的在线购物模拟器基于淘宝中部分商品和用户的统计信息构建。其中,商品被表示为形如 的 n 维特征向量。搜索引擎的排序动作也是一个 n 维向量,我们用 来表示。对于任意商品

,它在排序动作 作用下的打分为 和 的内积 。我们选择了连衣裙类目商品的 20 个重要商品特征,并根据这些特征的分布进行随机采样,生成了 1000 个虚拟的商品。搜索会话中展示给用户的每一个商品页面包含 10 个商品。因此,一个搜索会话最多会包含 100 轮排序。用户在每个商品展示页面的行为(比如:点击、购买、离开等)通过用户行为模型进行模拟,该模型是从淘宝的连衣裙类目的用户行为数据中构建的。在一个搜索会话中,给定最近展示的 个商品展示页面,用户行为模型将输出用户点击商品、购买商品、继续会话以及离开会话的概率。一个搜索会话将在用户购买商品或者离开会话时结束。

我们采用深度神经网络作为策略函数和值函数的模型,实现了 DPG-FBE 算法的深度强化学习版本 DDPG-FBE。同时,我们也实现了 DPG 算法的深度强化学习版本,即 DDPG 算法 [13]。环境的状态是从当前搜索会话的最近 4 个商品页面中抽取的 180 维特征向量。DDPG-FBE 和 DDPG 两个算法的网络结构和参数采用相同的设置:(1)actor 和critic 网络都采用 2 个全连接的隐层,第一个隐层包含 200 个单元,第二个隐层包含 100 个单元,隐层所有单元的激活函数都是 textit{relu};(2)actor 网络的输出层包含 20 个单元,每个单元的激活函数为 textit{tanh},critic 网络的输出层只有 1 个单元,无激活函数;(3)actor 网络的输出会作为输入接到 critic 网络的第二个隐层前;(4)actor网络和 critic 网络的参数通过 Adam 算法进行优化,学习率分别为 ;(5)目标网络的更新比例 设置为 。我们设置了 0、0.1、0.5、0.9 和 1.0 五组折扣率,分别测试 DDPG-FBE 算法和 DDPG 算法在不同折扣率下的性能。同时,为了和两个强化学习算法进行对比,我们也实现了五个 online LTR 算法:point-wise LTR 算法、BatchRank 算法 [1]、CascadeUCB1 算法 [2]、CascadeKL-UCB 算法 [2] 和 RankedExp3 算法 [3]。同 DDPG-FBE 和DDPG 类似,我们实现的 point-wise LTR 算法学习也是在搜索会话的每个状态下输出一个 20 维的排序权重向量。我们采用深度神经网络作为 point-wise LTR 的模型,并用 logistic regression 算法对其进行训练,训练目标为最大化总成交额。其他的 online LTR 算法则是基于的多臂老虎机模型的遗憾最小化算法(regret minimization algorithm)。对每个算法的测试包含 100,000 个搜索会话,我们记录下被测算法在每个搜索会话中引导的成交额,并将结果展示在图 3、图 4 和图 5 中。

图 3. DDPG-FBE 算法在模拟实验中的测试结果

图 4. DDPG 算法在模拟实验中的测试结果

图 5. 五个 online LTR 算法在模拟实验中的测试结果

首先考察 DDPG-FBE 算法的测试结果。从图 3 中可以看到,随着折扣率 y 变大,DDPG-FBE 算法的性能逐渐改善。DDPG-FBE 算法在折扣率 y = 0 时引导的成交额要远远低于它在其他折扣率下引导的成交额。由于 y = 0 表示只考虑最大化即时奖赏,这样的结果也就说明延迟奖赏在搜索排序决策中的重要性。不难发现,DDPG-FBE 算法在折扣率 y = 1 时引导的成交额最大(比第二好的结果高出 2%),这也进一步验证了我们在上一节给出的理论结果。值得一提的是,在淘宝搜索这样的大规模场景中,即便是 1% 的提升也是很可观的。同样地,DDPG 算法也是在折扣率 y = 1 时引导了最高的成交额。然而,与 DDPG-FBE 算法相比,DDPG 算法并没有学到很好的排序策略。如图 4 所示,DDPG 算法所有的学习曲线最终在 y 轴方向都没有超过 40,而 DDPG-FBE 算法在 y = 1 时最终收敛到 55 左右。我们测试的 5 个 online LTR 算法引导的成交额都没能超过 DDPG 算法引导的最高成交额。由于这些算法并非为多步排序决策问题所设计,所以这样的结果并不奇怪。

5.2 搜索排序应用

第二个实验是一个实际的应用。我们将 DDPG-FBE 算法应用到淘宝搜索引擎中,提供实时在线商品排序服务。淘宝的搜索任务面临两大挑战,一个是大量在线用户导致的高并发度的需求,另一个则是对用户所产生的海量数据的实时处理。具体来说,淘宝搜索引擎每秒需要同时响应数十万计的用户的搜索请求,并同时处理这些用户产生的行为数据。在大促活动中(比如:天猫双十一),在淘宝中产生的数据量以及数据产生速度都要比平时高数倍。

图 6. 基于数据流的强化学习排序系统构架

为了满足对高并发度和海量数据处理的需要,我们设计了一套基于数据流的强化学习商品排序系统,并在此基础之上实现 DPG-FBE 算法。如图 6 所示,整个系统主要包含五个部分:查询规划器(关键词 planner)、排序打分器(ranker)、日志中心(log center)、强化学习组件和在线 KV 系统(online KV system)。从图中可以看到,系统的工作过程由两个循环构成:其中一个循环代表用户和搜索引擎之间的交互过程(图中右下角的循环),也是搜索引擎执行排序动作的地方,我们称其为 online acting loop;另一个循代表学习算法的训练过程(图中靠左的大循环),我们称其为 learning loop。这两个循环通过日志中心和在线 KV 系统相连接。

在 online acting loop 中,每当有用户发出商品页面的请求时,查询规划器(关键词 planner)将抽取当前搜索会话的状态特征,从在线 KV 系统中获取当前的排序策略模型参数,从而计算出当前状态下搜索引擎的排序动作。在这之后,排序打分器(ranker)将接收这个排序动作,对商品进行打分,并将 Top K 商品展示到一个商品页面中。用户看到该商品页面之后,就能对页面上的商品进行相应的操作。与此同时,用户在商品页面上的各种行为将会以日志的形式记录到日志中心,作为训练学习算法的数据源。在日志中心,从不同搜索会话中产生的用户日志数据都会转化为形如 (s,a,r,s’)的训练样本。这些样本将以数据流的形式不断地输出给强化学习组件,用于策略模型参数的更新。每当策略模型有更新时,新的模型将被写入在线 KV 系统。这时,搜索引擎就可以采用更新后的排序策略来产生排序动作,对商品进行排序。需注意的是,整个系统的两个循环是并行的,但并非同步。这是因为,用户在搜索会话中产生的行为日志并不能立即被用来对算法进行训练。

我们仍然采用模拟实验中线性点乘模式对商品进行排序。搜索引擎的排序动作是 27 维的权重向量。在一个搜索会话中,环境的状态是一个 90 维的特征向量,包含了当前搜索会话中的用户特征、关键词特征和商品页面特征。与模拟实验不同,淘宝中的搜索排序服务面向所有类型的用户,且对输入关键词没有任何限制,所以我们也将用户和关键词的信息加入到状态中。我们仍然采用神经网络作为策略函数和值函数的模型,两个网络都包含两个全连接隐层。其中,第一个隐层包含 80 个单元,第二个隐层包含 60 个单元。由于淘宝搜索排序服务对实时性能和数据快速处理有很高的要求,所以实验中策略函数和值函数模型的网络规模要比模拟实验中采用的网络规模小很多。我们在基于数据流的强化学习商品排序系统中分别实现了 DDPG 和 DDPG-FBE 算法,并进行了为期一周的 A/B 测试。在每天的测试中,DDPG-FBE 算法引导的成交额都要比 DDPG 算法引导的成交额高 2.7%~4.3%。在 2016 年的双十一当天, 我们也将 DDPG-FBE 算法进行了线上投放。同基准的算法相比 (一个离线训练的 LTR 算 法),DDPG-FBE 算法带来了 30% 的成交额提升。

参考文献

[1] Masrour Zoghi, Tomas Tunys, Mohammad Ghavamzadeh, Branislav Kveton, Csaba Szepesvari, and Zheng Wen. 2017. Online Learning to Rank in Stochastic Click Models. Proceedings of the 34th International Conference on Machine Learning (ICML’17), 4199–4208.

[2] Branislav Kveton, Csaba Szepesvari, Zheng Wen, and Azin Ashkan. 2015. Cas- cading bandits: Learning to rank in the cascade model. In Proceedings of the 32nd International Conference on Machine Learning (ICML’15), 767–776.

[3] Filip Radlinski, Robert Kleinberg, and Thorsten Joachims. Learning di- verse rankings with multi-armed bandits. In Proceedings of the 25th international conference on Machine learning (ICML’08), 784–791.

[4] Sumeet Katariya, Branislav Kveton, Csaba Szepesvari, Claire Vernade, and Zheng Wen. 2017. Stochastic Rank-1 Bandits. In Artificial Intelligence and Sta- tistics. 392–401.

[5] Paul Lagree, Claire Vernade, and Olivier Cappe. 2016. Multiple-play bandits in the position-based model. In Advances in Neural Information Processing Systems (NIPS’16). 1597–1605.

[6] Ronald J Williams. 1992. Simple statistical gradient-following algorithms for connectionist reinforcement learning. Machine learning 8, 3-4 (1992), 229–256.

[7] Richard S Sutton, David A McAllester, Satinder P Singh, and Yishay Mansour. 2000. Policy gradient methods for reinforcement learning with function approxi- mation. In Advances in Neural Information Processing Systems (NIPS’00). 1057– 1063.

[8] DavidSilver,GuyLever,NicolasHeess,ThomasDegris,DaanWierstra,andMar- tin Riedmiller. 2014. Deterministic policy gradient algorithms. In Proceedings of the 31st International Conference on Machine Learning (ICML’14). 387–395.

[9] R.S. Sutton and A.G. Barto. 1998. Reinforcement Learning: An Introduction. MIT Press.

[10] Michael Kearns and Satinder Singh. 2002. Near-optimal reinforcement learning in polynomial time. Machine Learning 49, 2-3 (2002), 209–232.

[11] Ronen I. Brafman and Moshe Tennenholtz. 2002. R-MAX – A General Poly- nomial Time Algorithm for Near-Optimal Reinforcement Learning. Journal of Machine Learning Research 3 (2002), 213–231.

[12] VolodymyrMnih,KorayKavukcuoglu,DavidSilver,AndreiARusu,JoelVeness, Marc G Bellemare, Alex Graves, Martin Riedmiller, Andreas K Fidjeland, Georg Ostrovski, et al. 2015. Human-level control through deep reinforcement learning. Nature 518, 7540 (2015), 529–533.

[13] Timothy P Lillicrap, Jonathan J Hunt, Alexander Pritzel, Nicolas Heess, Tom Erez,

8月13日截止 红娘精准推荐+全库搜索+网站内服务满意度打分(半年8-8k起)VIP服务-咨询免费

亲们!北清缘网4月VIP服务升级后,报名了超多优质会员,大家对升级后的服务交口称赞,随后我们也陆续收到超多报喜消息。

是的,才不告诉你我们最快脱单的男生只用了40天时间,是的,只用了40天两人就却确定了恋爱关系,目前双方已经见了彼此家长,正在筹备十一的婚礼哦~

虽然我们在业内已经做得灰常不错了

但是我们依然没有停下快速前进的脚步!

资深顾问根据房车京户行业等各种条件精准为您搜索

帮您推荐最适合您的候选人

100%资料审核

同时我们承诺最低见面人数外

您还可以自己全库搜索优质会员

双管齐下,确保超高成功率!

首创网站内VIP为红娘打分制,让服务监管便捷高效!

提供景色优美环境舒适约会场地,全方位提高服务满意度!解除您的后顾之忧!

费用半年最低8.8k (价格属业内较低水平)

北清缘一惯秉承优质低价原则做好口碑

随着网站改版升级认证进一步完善近期会有一次涨价

现在报名性价比超高,春节回家再也不用担心七姑八姨!

咨询免费,速速来起~

1

红娘精准推荐,100%资料审核,保证见面率

如果您工作比较忙,没有时间参加活动或搜索异性会员;

如果您无恋爱经验或经验少,不善于向异性展示自己;

如果你圈子比较小,没有机会遇到更多的优质异性;

如果你短期内有结婚打算,想快速高效脱单;

如果你有明确的择偶目标,想进行有针对性的匹配;

如果您就是需要一站式服务,那么交给我们红娘吧~

您的终身大事将由我们整个北清缘红娘团队诚为您服务。

红娘直接给您推荐满足您要求的TA,直接安排见面,省时高效,保证见面率。

约会场地(马甸公园旁)温馨舒适,解除您的后顾之忧。

2

数据库优势

北清缘有属于自己的网站,大数据的优势,让红娘可以从库里为您搜索符合条件的优质会员,确保精准推荐,不依托于红娘手里的资源。

除了红娘的匹配推荐,高级VIP还可享自主搜索诚信认证会员库。多方面保驾护航,确保省时高效找到彼此满意的TA。

3

会员库资源强大

北清缘会员数量接近4万人,并且每天都在不断增长。其中98%以上均为国内211名校本科及以上学历,硕士博士占80%以上,北大清华校友占40%以上,更不乏哈佛、剑桥、斯坦福、MIT、耶鲁大学、香港大学、香港中文大学、香港科技大学等名校精英,同时也是清华北大校友占比最高的平台!

会员遍布各行各业,企业主、公司合伙人、高层、公务员、名院医生、名校教师、外企白领占90%以上。

我们致力于打造中国教育背景最好的名校名企海归单身交友平台

4

情感咨询,遇见最好的你

很多会员恋爱经验少或感情经历简单,不知道如何和异性相处。北清缘为大家提供免费的恋爱咨询,由专业咨询师告诉大家如何精准、快速、高效脱单!

5

化妆、着装咨询,摄影服务

化妆与着装是对别人的尊重,也是让自己心悦的一种方式。

我们提供的不仅仅是优质的单身资源,而是帮助您由内到外提升。

由专业的咨询师为大家进行化妆、着装的咨询指导,提升气质、提升自信、提升自我,让大家更好地向TA展示自己。

同时免费为大家提供化妆、拍照、修图于一体的全方位服务,让你展现出最美好的自我。

为何选择

北清缘?

精准

一对一推荐精准、高效,成功率超高,硬性条件,性格,眼缘都由红娘为您甄选把控~

高效

省时省力,不用奔波于各场活动,不用自己搜索,红娘在优质单身资源中为您选出最合适的人,你只需要准备好自己,完美遇见!

红娘

北i清缘郑重承诺我们所有的红娘都是经过专业培训且热心度极高的全职红娘顾问善于沟通监督督督踏实靠谱、以用户体验为重点,更有在北清缘从业时间超过3年,对北清缘会员非常了解的金牌红娘顾问。

阵容之强大,我们只有一个目的:让您更精准、更快监管

nagugn

真实

会员真实靠谱,为您推荐100%资质审核的靠谱会员。

超值

性价比超高,北清缘服务超值,价格却较其他同类机构便宜很多,我们承若让您享受最高性价比的服务。

服务

多方位服务帮助大家脱单。除了专业的基础服务,我们还提供全方位附加服务,为大家增添脱单筹码,提高脱单概率。

◇可以免费参加一定次数的线下活动(半年三次);

免费、不限次数参加线上活动(免费报名,免费获取异性联系方式)

摄影服务,签约之后,专门机构为您进行化妆、摄影、修图、冲洗服务。

◇由专业老师为您提供形象咨询、化妆咨询、服务咨询,帮助您更好的展示自己。

◇北清缘为大家提供免费的恋爱咨询,由专业咨询师告诉大家如何精准、快速、高效脱单!

报名方式:

2014年,获得北京市教委的奖励,获得了资金上的支持和免费的办公场地。

2017年5月,北清缘网与北大多学院联合举办联谊活动,被北京大学网站报道。

2017年5月,北清缘网在教育部主办的互联网加创新大赛中获奖。

马化腾给李彦宏投了一颗原子弹 搜索来了

今天微信成立搜索应用部的消息在朋友圈有不少转发,据网络消息,“搜索应用部”包括四个产品中心:

1.搜索产品中心,在充分运用微信数据能力的基础上,打造微信搜索服务及精准阅读推荐服务,由基础产品部下搜索产品中心整体平移而来。

2.广告用户技术中心,为微信广告业务建设完备的用户体验评价系统及对比试验系统,负责小程序及

搜索、搜索生态的建设工作,由基础产品部下广告用户技术中心整体平移而来。

3.模式识别中心,负责语音识别、图像处理、对话机器人及自然语言处理等方向的技术研究及落地等工作,由技术架构下模式识别中心整体平移而来。

4.数据中心,负责微信数据平台的建设,为各相关业务提供用户画像及数据分析、数据挖掘能力的支持,由技术架构部下数据中心整体平移而来。

有关微信做搜索的讨论由来已久,这里凑个热闹,聊聊微信做搜索的优势和劣势。

先说优势:

在微信内搜索,体验很一致

从通讯录搜索,到朋友圈内容搜索,公众号文章搜索,公众号账号搜索,小程序搜索,再到小说和音乐这两大垂类的搜索,再到前期的微信搜索指数,微信搜索可以说是一步一个脚印,步步为营。微信通过有步骤有策略地开放搜索能力,用户也慢慢地依赖上微信搜索。聊天的时候看到某个新鲜事,顺便在微信上的搜索框搜搜看;看朋友圈分享的音乐或者文章,顺便搜索下某个明星,看到前几天里先有了百科,哎呦不错哦,后来又有了知乎,哎呦也不错哦。用户的预期被慢慢提高,微信也顺势而为,慢慢增强搜索能力。

搜索的时候用户想要suggestion , 早期的时候微信没有放出来,吊足了胃口后,可能体验也慢慢做好了,功能出来了,用户的期待又一次被得到满足。目前微信搜索相信很多人都有痛点,搜索一个词,点击某一条回到了主页面,想要再次搜索刚才那个词,完蛋,微信不提供搜索历史功能,需要重新输入一遍,真不爽。未来某一天,微信加上搜索历史功能,你又要欢呼了,这他妈的正是我要的功能!不知道是微信搜索的研发进度缓慢,还是产品策略上故意吊人胃口。

朋友圈里几个朋友转微信做搜索的消息,很多朋友觉得是顺势而为,做成了可谓是水到渠成。为什么?我认识有两个方面的原因,1,百度搜索不够好。2,微信内搜索内容很方便,目前搜索结果又足够干净,假如提供一个纯净的全网搜索结果,可谓是民心所向,方便广大微信用户。

拥有订阅号的丰富资源

订阅号虽然不像整个互联网那般内容丰富,但是也绝不容小觑。这得从几个方面来看。

1,订阅号的内容质量较高。通过几次打击行动,作弊的内容基本被比较有效地抑制下去了。要知道,搜索的排序问题,很大程度上依赖于pagerank , 而转载数,阅读数,评论数,这些都是非常好的排序因子。百度使用爬虫抓取到的网页信息,很难获取到这些因子。

2,有很好的原创识别能力。也就是说每篇文章都有作者,或者公众号ID。网页搜索做原创识别很久了,但是困难重重。订阅号资源由于有投诉中心,再加上有广告而赞赏等利益,原创者本身就有很大的动力去做打击原创的事情。当然,平台本身也提供了原创标示的功能。发布文章的时候,如果平台本身已经有了近似的文章,自动禁止使用原创,甚至要求加上转载标识,这些都是互联网搜索引擎想要而得不到的。

3,依赖广大用户进行打假,解决互联网信息的可信问题。当然这个目前微信做得还不够好,但是至少比万维网世界有更大的解决可能,因为万维网依赖搜索引擎和浏览器(链接跳转)进行传播来得更可能些。搜索引擎和浏览器都和用户有一定的隔绝。目前市面上还没有哪一家搜索引擎社交做得好的,也没有哪个浏览器有大量的登陆用户,就是有登陆用户,对用户的建模也比社交网络来得弱。

4,订阅号拥有最佳的移动阅读体验。一般移动搜索引擎使用转码服务来解决PC网页在移动设备上的体验问题。但是这给搜索引擎带来了很多技术挑战。转码服务有几个问题,一个是转换质量不一定高,一个是转换服务干掉了内容提供方的利益,和内容方有了利益冲突,而这和搜索引擎的生态核心有冲突。订阅号写作目前只能使用较为有效的排版,生成的网页使用的只是整个HTML语言的子集,比如基本上干掉了超级链接,尤其是指向外网的超级链接。这使得搜索引擎比较容易抽取标题等关键信息,去除噪声信息也比正常网页搜索的html 解析也来得简单一些。(小程序也依然如此)

拥有数一数二的垂直内容

百度后来的几个大的方向就是,不断构建垂直搜索。包括百科,问答,贴吧,视频,新闻等。不仅构建垂直搜索,而且在首页也慢慢整合各种垂直资源,比如机票整合去哪儿,视频整合爱奇艺,美食整合糯米等。

相比百度,腾讯拥有哪些垂直品类呢?视频有腾讯视频,出行有滴滴和摩拜单车,美食有点评,外卖有美团,电商有京东,文学有阅文,问答有知乎,新闻有腾讯网(App则是腾讯新闻和天天快报),如此等等,不一而足,可谓张张都是好牌。

当然说到垂直内容,不得不提及小程序,不要忘了,小程序也是在微信生态内。

拥有潜力正不断释放的小程序

小程序目前来看,还构不成流量滔滔,但是也不容忽视。假如说封闭的小程序,是和整合开放的互联网对称的,那么开放的搜索可能会为封闭的小程序带来很大的想象空间。小程序解决垂直内容和服务,而平台提供广告和支付等基础支撑。假如平台流量足够大,生态足够健康,是有可能慢慢构建一个“干净版”的互联网世界的。

应用内搜索不好解决,没关系,那就不错应用内搜索了,做小程序搜索。小程序解决不了的东西,用户下载几个头部的超级App就差不多了。

假如说订阅号提供的是朋友圈信息流的源泉,那么小程序就有可能打造成服务的源泉。搜索对接到信息和服务,这样的搜索就是百度想要而没有做成的新形态。

有别于百度广告的新广告体验

广告对搜索而言,非常重要,其是营收的来源,没有广告,搜索构不成闭环和生态。网页搜索广告和门户网站的广告不同之处主要在于关键词广告,关键词广告依赖查询和广告的相关度,提高转化率。

对百度而言,可谓是成也广告,败也广告。百度的广告营收在中文互联网遥遥领先,但是近年其医疗广告也成为其多次PR事件的导火索。

相比百度的广告,微信的广告更多的是展示广告和品牌广告,这类广告的优点在于,体验良好,制作精良,广告预算高,可以说是广告中的头部广告商。这部分广告之前主要是电视媒体和视频媒体等吃下的蛋糕,目前看微信朋友圈广告在这方面收效甚好。

朋友圈广告,除了是品牌广告外,因为有人,口碑广告也成为了可能。而百度的竞价模式,则往往牺牲了用户体验,劣币容易驱逐良币。两种广告模式,带来的区别可能在于良性和恶性的生态。

微信的赞赏一定程度凸显了优质的内容,微信的社交点赞,则一定程度隔离了劣质广告和不相关广告。

从技术角度来说,微信的社交关系和海量用用户与广告的交互,为良好的广告体验生成了绝交的排序特征。

搜索与推荐的无间结合

跟进微信官方的描述,搜索产品中心将“在充分运用微信数据能力的基础上,打造微信搜索服务及精准阅读推荐服务”。这里搜索和推荐是两条腿走路,并且相辅相成的。

当然,百度最近也发力在首页做信息流了,这可以看成是搜索和推荐的结合。但是百度账号系统太弱,用户建模比微信天然不敌。就说信息流吧,百度主要也是受到了今日头条的倒逼。但是我们知道,目前腾讯才是拥有资讯阅读头牌的主角,其旗下的腾讯新闻和天天快报,体量超过今日头条。更不消说朋友圈的阅读量了。

假如未来在微信中搜索后阅读,和你在刷朋友圈阅读一样自然,体验一致的话,你说你还需要今日头条或者天天快报么?

搜索为用户建模提供数据,推荐为搜索提供个性化内容。搜索和推荐势必相互融合,你中有我,我中有你。当然,依赖于朋友圈,推荐有着互联网上最好的分发平台,只要是要的内容,一键分享到朋友圈,高质量的内容很容易被你的朋友们阅读到。而你的朋友阅读了、分享了、点赞了、赞赏了,这些都将成为重要的搜索和推荐的排序因子。

再说劣势:

搜索的强大可能弱化社交焦点

早前微信产品的定位一直是“微信是一款手机通信软件”,后来慢慢扩大到“微信,是一个生活方式”。然而不管微信是不是一种生活方式,微信专注移动通信,恐怕是大部分用户对它的第一印象。

而搜索的慢慢做大,外部互联网世界的慢慢打开和渗透,势必对社交工具的定位有一定的冲淡和冲突。如何妥善地解决这个问题,是对微信产品团队智慧的一个重要考验。

“微信网”与开放的万维网难以调和

正如上文所说,微信通过订阅号和小程序等,构建了一个平行于万维网的内容与服务世界。当然这个世界还包括腾讯自己的众多垂直内容,以及腾讯投资的众多很多伙伴。然而腾讯再大,大不过整个互联网。那么封闭与开放的问题就来了。

QQ时代,腾讯成为人人喊打的抄袭大王。开放时代的腾讯,腾起为中国的互联网一极。微信搜索如何平衡外部的世界和内部世界的利益,能不能提供一个比百度的广告模式更健康,更能刺激优势内容创造者的积极性的生态,大家拭目以待。

另外, 订阅号的和小程序,目前基本都不能指向外网的,缺少万维网的链接和Anchor信息。利用朋友圈的用户分享和评论,能不能构建出一个类似于“Link + Anchor”的 “People share link + comment anchor”, 也让人充满期待。搜索2.0时代的pagerank, 在社交网络时代,是否有一次别样的升华,谁也说不准。不过维基百科的成功,似乎一定程度证实了人的力量的强大。

和link + anchor相对应的搜索特征,我能想到的有:人的分享与分享评论,人的点赞和评论,人的赞赏,人的评论,订阅号内链。

AI技术与百度之间的差距有待缩小

百度近年对AI的投入巨大,在语音识别,图像处理,自然语言处理方面投入巨大,也将很多顶级人才收入麾下,最近更多All In 人工智能。

当然,腾讯也不遑多让,最近大方猎头也是为腾讯在招募各方人才。差距虽然有,也很大,不过腾讯能不能奋起直追,并更好地融合技术到搜索产品中,谁也不知道。

想说的是,搜索的战役远远还没有结束,可能真正的搜索之战,才刚刚开始。

当支付宝用户用户数好几亿的时候,恐怕很多人都以为银行都干不过支付宝,支付战争结束了;当百度的搜索流量超过80%的时候,并先后干翻了来自谷歌,360,搜狗,神马搜索等的挑战后,恐怕大部分人也以为,搜索之战已结束,大家洗洗睡吧。

不过微信搜索的即将到来,也许真正值得期待的搜索之战,才刚刚开始!

而微信带来的可能会是更好的广告模式,更健康的生态,更高效的分发,更有效的排序因子,推荐与搜索更自然无间的融合,如此等等,哪怕百度招架住了,我们也可以期待在未来的某一天,一个更好的中文搜索即将到来!不管这个更好的搜索产品是叫百度,还是微信搜索。

作者最近有了自己的公众号技艺丛谈,感兴趣的同学可以扫描下面的二维码。

未来搜索走向 把一切整合起来 超越万千应用

未来搜索的走向即把一切整合起来,超越万千应用。将应用推向搜索,这是让搜索“行动”的关键。

作者:斯特凡·韦茨,微软必应(Bing)的高级搜索总监。本文来自《搜索:开启智能时代的新引擎》。

正文:

l 从查找到行动

要在现实世界中完成某事,搜索需要“手和脚”。虽然我们在搜索系统理解世界这方面取得了长足的进步,但只有理解的能力而没有采取行动的能力限制了搜索真正的潜力。此时就是应用登场的时候了。

2014年年初,在我们设备的各种操作系统上有超过150万个应用——也许还有更多,但是各大发行商都对该数字保持缄默。这些应用能让我们做这些事情:

?消磨时间(《愤怒的小鸟》)

?记录一段对话供日后使用

?管理我们的旅程安排

?进行支付

?跟踪我们的财务状况

?打出租车

?订旅馆

?记录一个时刻

?控制家里的灯光和设备

简单来说,应用数量的爆炸让我们的智能设备增强了人类所拥有的自然能力。举一个简单的例子:我要买一根手机数据线并要求送货上门,但是我一整天都要开会。如果没有Postmates和TaskRabbit这样的跑腿服务,我能怎么办呢?我可以给一个朋友打电话(但是开会时不大容易做到这一点);幻想我有一位助理,我给她写一封邮件,而且她还得有车;给自己设置一个提醒,在回家的路上去取。在所有这些情形中,完成任务的效率实在低下:找人来帮助我,欠他一个人情,记得日后要还;不得不在回家的路上把车停好,只为了去拿手机要用的那根线。这么做不仅破坏了我的生产力,而且在我已经超负荷的脑子里又加上了一项认知方面的负载。

如今我能有什么其他选择呢?我可以随便打开若干应用中的一个,找到一个人(从生产角度来看,此人在那时未被充分利用)去我要他去的地方,买好线,然后放在我想要的地方。我告诉系统我愿意为此付钱,而要是有人觉得这个报酬值得他花时间,他就可以接受这个工作。此人要做的是去商店,找到我要的线,并买下来。一旦他将线放在了我指定的地方,我的应用会收到一个提示,包括我雇人办事和线花费的金额。我只要轻轻一点,就完成了支付。我甚至都不用开口说话就能完成这些事项。所有这些操作都可以在我开会时用手机完成,而此时其他人正讨论着季度计划。

l 超越应用末日

然而,应用以及它们代我执行的功能不过是达成让搜索为我做事这个目标的中间阶段。我的核心问题是:我为什么非要装个应用才能知道地铁什么时候抵达纽约第二大道站?或者知道仰望星空时所见的星座是什么?或者计算在餐厅里应付的小费是多少?很多这样的应用没做什么事,只是向1一2个根据用户体验包装好的结构化数据源发出一个查询,使得我们在设备上的操作变得简单而已。想象一下这样的场景:我想搭地铁去洛克菲勒中心,于是在21摄氏度的气温中我待在一个角落里,用我的小键盘和小屏幕在应用市场进行一次自从1994年以来就有的关键词搜索,希望找到一些通过拥堵的通信网络下载的代码,再装到我有限的本机存储上去——顺便提一句,这会消耗我的电池寿命,因为它自作主张地开启了我并不需要的推送提醒——我劳心劳力所做的这一切只是为了知道如果我要往北去应该搭F线还是D线。再没有比这更不优雅的事了。

更加明智的做法是将应用推向搜索。这是让搜索“行动”的关键。引擎不需要来自用户明确的需求指示(也就是说,因为我需要地铁的地图,所以我安装了一个应用),就能探测出隐秘的意图。如果我坐在曼哈顿下东区的汤普森酒店,查询洛克菲勒中心,那么从逻辑上说我想去洛克菲勒中心。这里的关键是将推断出来的意图映射到一种新型的轻量级应用上,但它比网络上公开的那些功能更多。简单地说,想象在云端有一系列应用,等着搜索引擎向它们索取信息或者咨询它们能够在现实世界中做些什么。在上例中,我的查询是“我在下东区,要去洛克菲勒中心怎么坐地铁”。它触发搜索引擎向云端最有名气的“地铁应用”咨询该信息,并显示该应用返回的信息,作为搜索的回应。

搜索应该了解应用能做什么,并利用其能力来响应一个查询。这个想法并不算新。简单回顾一下历史。UDDI(通用描述、发现和集成服务)本质上就是一个云端的大型目录,网络服务在其中注册,从而使应用知道它们(比如为了验证一张信用卡)应该选用哪个网络服务。UDDI已死,但是它的想法还是很了不起的。事实上,它在如今比2000年刚出现时更有意义。因为在今天,我们有将近150万个应用(而且很多是网络服务伪装的),所有的用户(除了那些最聪明的用户)越来越迷惑,甚至不知道怎样在网络上做事了。

那么我们需要什么呢?我们需要的是这样一些东西:

?注册应用功能的方法。我们需要一种能力,让应用能注册它们的接口和方法。如果你的技术背景不那么深厚,我们就需要应用以结构化的方式公开它们具有的信息类型、它们能做什么、应该如何向其发出查询以及它们如何对提问者做出回复。应用应该将这些发布到云端的目录上去。

?微支付。信息和服务不是免费的。我们也不该指望公司或者个人无偿搜集信息或提供服务。如今我为地铁地图的应用支付1.99美元,下一步则必须有一种方法向访问信息的引擎或用户收费。微支付将比独立的应用便宜很多,地铁路线这样的信息应该收费不到一美分。

?持续登录和账户。老是要登录而且还要选择和服关联的正确账户,这也是妨碍应用功能无缝桥接的因素之一。现如今我们没有办法轻松地为来自应用的信息进行微支付,它们并不是通过现有的广告模式得到资金。持续登录和单一身份标识将减少系统选择应用时的错误,因为它会更仔细地为每个用户微调意图模型。

?评级。为一个意图选择合适应用的过程中,有一部分工作是要知道哪个是最好的。系统可以利用评级作为显式学习的方式,并将传统但表现良好的机器学习加以改进,能帮助系统了解应该调用哪个应用——基于某个特定应用最终帮助用户完成一项任务的频率。

对可用的数百万个应用功能的理解如何与搜索关联呢?将我之前需要充电线的例子加以扩充如下。我意识到我把手机的充电线忘在家里了。我现在在办公室,下午马上要出差,已经没有时间回家或者去商店了。我能怎么办呢?如今,我在网络上查找或者咨询我认识的人并请教他们我该怎么做。这些资源可能告诉我有两个应用(TaskRabbit和Postmates)能提供送达服务。于是我打开手机安装这个应用,开始处理业务,其中包括注册该项服务,设置支付方式,学习如何使用该服务,最终还要在应用中来来回回地折腾。这么做效率不是很高。我真正要做的事情(也就是我的意图)是在我出差之前有人把充电线给我送来。

我要做的是,只需要告诉搜索:在我出发去机场前我要拿到我的手机充电线。而搜索应该完成下面的步骤:

?检查我发出该请求的手机模型(这是如今搜索每天都做的事情)。

?推断我的意图(我需要买一根充电线)。

?列出限制条件(我需要充电线的时间要早于我日历上的登机时间,还要减去系统预测我前往机场并办理登机手续的时间)。

?确定网络上哪个服务能完成我的要求。

?向某个应用发出请求,并附有一套定义好的信息:请求人,送货地址,请求人愿意支付的金额(根据我个人档案进行推断或者该服务提供者完成一项送达任务的平均价格),任务描述,截止时间。

要是你觉得这听起来像科幻小说,我可以给你看TaskRabbit提供的这些API(应用程序编程接口)的网络文档。这些API现在就能让我们构建一个如上所述的系统,完成这些基于动作的步骤。

当今的挑战——也是搜索公司努力攻克的挑战——是没有一种一致的方式让搜索引擎知道有什么应用、它们能做什么,以及怎样与它们交流。这就像是你在伊斯坦布尔的集市购物,而且你相信肯定会有一个地方让你买到藏红花。而要找到这个摊位,还只能和摊主用你的母语交流,就让所有的交易变得异常困难。你要么不知道自己有怎样的选择,要么没法和摊主沟通,以至无法了解到基于你的条件(你什么时候要,准备付多少钱等)能不能找到你想要的东西。这就是如今搜索和应用所处的状态。

l 把一切整合起来

至此我们已经看到,下一代搜索系统的很多部分还在开发过程中。有些部分正在有条不紊地建设中,而另外一些的目的都还没有确定。马克?戴维斯是人机交互的先锋,也是很多智能系统的开发者。他将搜索看作多个部件的指挥者,也是制造真正有预见性且有用的“铰链”的关键:

搜索领域的竞争将是谁能提供最值得信赖的平台环境和体验,让数字化的人在互联网中获得力量,而达到这个目标后,生活就变成一个查询的过程。

关键词搜索在特定时候仍然有用,但是你真正想要的是“生活即查询”的效果。我们有一些很不错的例子。有这么一个说法叫“就在手边”,你会想到那些确实合作得很好的人。比如你在手术室中,医生伸出手,手术刀就出现了,不需要他提出要求。这是因为在这个过程中,其伙伴对他如此知根知底,也清楚接下来要做什么,足以让他不必提出任何要求,而需要的东西就在那里了。

我认为在搜索中我们即将看到的是,随着技术越来越先进,在合理的隐私保护、权限控制和数据结构得到保证的前提下,信息和服务将主动出现并供人使用,而不必我们发起请求,因为此时过有效率的生活就是查询本身。我认为这个可能性的影响将非常深远。

于是,你的生活成为搜索的引擎。至于搜索,因为它太了解你,所以哪怕在你做事之前就可以预见到你的需求,当你需要时出现并给你正确的答案、合适的服务、恰当的帮助。通过了解你和这个现实世界,它能做到这一点。它理解你的模式,知道你周围的事物如何行动又如何互动,还能确定怎样是最好的行为,然后呈现给你,因为它总是在衡量所有可能的场景和结果,并放弃糟糕的结果,推荐优化的结果。

↓↓↓