2017年1季度三大外卖平台搜索数据对比

1.三大外卖平台的搜索指数趋势

上面是一季度三大外卖平台的搜索指数曲线。其中饿了么的搜索指数平均值最高,其次是美团外卖,百度外卖第三。饿了么和美团外卖的搜索指数值都在2月23日达到一季度的最大峰值。

2.三大外卖平台的粉丝属性分析

一季度三大外卖平台的粉丝人群年龄分布都比较接近。其中21-30岁年龄段占比最高,接近50%。

一季度三大外卖平台的男性粉丝人群占比都明显高于女性。其中饿了么的男性占比最高。

本科学历消费人群是三大外卖平台的核心主力。占比接近50%。

一季度对外卖平台关注度最高的是摩羯座的粉丝人群,白羊座的人群对外卖平台关注度最低。

——————

“网上餐饮怎么玩”专注分享餐饮线上运营推广工具、方法和案例,目前已入驻今日头条,UC订阅号,搜狐新闻,网易新闻,腾讯新闻,一点资讯。市场合作请加我们的个人微信号“onmyboat”。

深度好文 阿里巴巴年度技术总结 – 人工智能在搜索的应用和实践

转自:AI 科技评论

AI 科技评论按:本文作者为阿里巴巴搜索事业部总监欧文武,经阿里巴巴授权发布。

以深度学习为代表的人工智能在图像、语音和 NLP 领域带来了突破性的进展,在信息检索和个性化领域近几年也有不少公开文献,比如 wide & deep 实现了深度模型和浅层模型的结合,dssm 用于计算语义相关性,deepfm 增加了特征组合的能力,deep CF 用深度学习实现协同过滤,rnn recommender 采用行为序列预估实现个性化推荐等。

工业级的信息检索或个性化系统是一个复杂的系统工程,深度学习的工业级应用需要具备三个条件:强大的系统计算能力优秀的模型设计能力合适的应用场景,我们梳理了过去一年多搜索在深度学习方向上的探索,概要的介绍了我们在深度学习系统、深度学习算法和搜索应用落地的进展和思考,希望对大家有所启发。

深度学习在搜索的应用概括起来包括 4 个方面

首先是系统,强大的深度学习训练平台和在线预测系统是深度学习应用的必要条件,目前我们的离线深度学习框架、在线深度学习框架和在线预测框架统一到 tf,并实现了日志处理,特征抽取,模型训练和在线服务部署端到端的流程,极大提升了算法迭代效率。

其次是搜索应用,包括智能交互,语义搜索,智能匹配和智能决策四个技术方向,这四个方向的协同创新实现了搜索全链路的深度学习技术升级,并具备从传统的单场景单目标优化到多场景多目标联合优化的能力。

再次是在性能优化上做的工作,包括模型压缩、量化、低秩分解再到二值网络,大量的技术调研和论证,为未来提高深度模型预测性能和软硬件协同优化做了很好的技术铺垫。

最后是排序平台化,实现了 PC 商品搜索、无线商品搜索、店铺内搜索搜索和店铺搜索的搜索服务统一,通过特征和模型复用,实现了多条业务线技术的快速升级。下面我会简要的概括下在四个方向上取得的主要进展和背后的思考。

搜索系统和算法的简图

系统包括:

离线数据平台 ODPS,负责离线日志 join、特征抽取和离线模型预估产出排序特征,时效性不强的特征都是通过离线数据平台产出的,比如用户性别标签,商品关键字等。

离线机器学习平台 PAI,底层是主流的 parameter server 和 TF 深度学习框架,平台实现了大部分机器学习算法模型的并行训练和预测,在搜索应用中主要作用是离线模型训练产出离线排序特征模型。

流式计算和在线学习平台 Porsche,流式计算是基于 blink 负责实时日志解析和特征 join 生成实时排序特征,在线学习和离线学习底层框架可以相同,差别主要是依赖数据源和部分优化方法不同,由于用户行为和市场环境变化快,流式计算和在线学习在搜索应用非常广泛,并积累了不少在线学习和强化学习算法。

在线服务平台,包括引擎、排序服务和搜索平台组成,负责在线的服务分发、索引查询、排序服务和结果合并等功能,搜索的排序策略、相关性、个性化等模型主要通过在线预测服务生效。经过多年发展我们已经具备了非常完善的商品搜索排序算法体系,包括知识图谱、分词、tagging、类目预测、意图预测、拼写纠错、query 推荐、query 语义改写、相关性、商品标签、商品质量、店铺分层、用户 profile、用户偏好、用户感知、召回策略、个性化模型、多样性策略、异构服务混排策略、多目标联合优化策略、多场景联合排序策略等,并平台化的方式赋能相关业务团队。

系统进展包括机器学习平台和在线预测平台

机器学习平台。搜索训练样本主要来自用户行为,由于用户行为是流式数据,适合做在线深度学习,但当模型参数非常庞大需要海量的样本时在线学习需要很长的时间才能收敛,这时一般是先做离线预训练再结合增量或在线学习,另外有些模型离线预训练后在线只需要对接近输出层的网络做 fine-tuning

搜索在实际应用的有离线机器学习平台 PAI 和在线机器学习平台 Porsche,两个平台深度学习框架目前都统一到了 tf-pai,tf-pai 对原生 tf 做了一些优化,比如底层通讯,稀疏参数存储、优化方法、GPU 显存优化等,比原生 tf 训练深度有较大的提升,训练上千亿样本和上百亿参数的深度模型毫无压力。虽然 Porsche 和 PAI 都支持 GPU,但在搜索应用中 CPU 依然是主流,GPU 应用比较少,原因主要是个性化相对图像或语音简单,特征抽取网络比较浅,维度相对较低,GPU 的稠密矩阵计算能力得不到充分发挥,同时离在线混布后流量低谷期间腾出了大量的在线服务闲置 CPU,把临时闲置的 CPU 利用起来做深度学习训练是一个非常好的思路

在线预估 RTP,搜索排序算分服务。由于每次搜索请求有上千个商品需要计算排序分数,深度模型应用对 RTP 服务的压力是非常大的,RTP 通过采用异构计算,计算算子化和模型分片等方式解决了深度模型 inference 计算和存储问题,深度模型用 GPU,浅层模型用 CPU,今年双 11 期间搜索 RTP 服务用到了 550 张 GPU 卡。另外,RTP 还实现了离线/在线训练模型/数据和在线预测服务部署的无缝衔接,算法训练好的模型或数据可以很轻松的部署都在线服务,提升了算法迭代效率。

算法包括智能交互、语义搜索、智能匹配和搜索策略四个方向

智能交互

商品搜索就是带交互的商品推荐,用户通过关键字输入搜索意图,引擎返回和搜索意图匹配的个性化推荐结果,好的交互技术能够帮助到用户更好的使用搜索引擎目前搜索的交互主要是主动关键字输入和关键字推荐,比如搜索框中的默认查询词和搜索结果中的文字链等,推荐引擎根据用户搜索历史、上下文、行为和状态推荐关键字

和商品推荐的区别是,关键字推荐是搜索链路的中间环节,关键字推荐的收益除了关键字的点击行为外,还需要考虑对整个购物链路的影响,包括在推荐关键字的后续行为中是否有商品点击、加购和成交或跳转到另外一个关键字的后继行为,这是一个典型的强化学习问题,action 是推荐的关键字候选集合,状态是用户当前搜索关键词、上下文等,收益是搜索引导的成交。

除了被动的关键字推荐,我们也在思考搜索中更加主动的交互方式,能够做到像导购员一样的双向互动,主动询问用户需求,挑选个性化的商品和给出个性化的推荐理由,目前阿里搜索团队已经在做智能导购和智能内容方向的技术原型及论证,智能导购在技术上主要是借鉴对话系统,通过引导用户和引擎对话与关键字推荐方式互为补充,包括自然语言理解,对话策略,对话生成,知识推理、知识问答和商品搜索等模块,功能主要包括

a. 根据用户搜索上下文生成引导用户主动交互的文本,比如搜索「奶粉」时,会生成「您宝宝多大?0~6 个月,6 个月到 1 岁….」引导文案,提示用户细化搜索意图,如果用户输入「3 个月」后,会召回相应段位的奶粉,并在后续的搜索中会记住对话状态「3 个月」宝宝和提示用户「以下是适合 3 个月宝宝的奶粉」。

b. 知识导购,包含提高售前知识问答或知识提示,比如「3 个月宝宝吃什么奶粉」回答「1 段」。目前对话技术正在提高中,尤其是在多轮对话状态跟踪、知识问答和自动评价几个方面,但随着深度学习、强化学习和生成对抗学习等技术在 NLP、对话策略、阅读理解等领域的应用,越来越多的训练数据和应用场景,domain specific 的对话技术未来几年应该会突飞猛进。智能内容生成,包括生成或辅助人工生成商品和清单的「卖点」,短标题和文本摘要等,让淘宝商品表达更加个性化和多元化。

语义搜索

语义搜索主要是解决关键字和商品内容之间的语义鸿沟,比如搜索「2~3 周岁宝宝外套」,如果按照关键字匹配召回结果会远小于实际语义匹配的商品。

语义搜索的范围主要包括

a. query tagging 和改写,比如新品,年龄,尺码,店铺名,属性,类目等搜索意图识别和归一化,query tagging 模型是用的经典的序列标注模型 bi-lstm + CRF,而标签分类(归一化)作为模型另外一个任务,将序列标注和分类融合在一起学习。

b. query 改写,主要是计算 query 之间相似度,把一个 query 改写成多个语义相似的 query,通常做法是先用不同改写策略生成改写候选 query 集合,比如词替换、向量化后 top k、点击商品相似度等,然后在用 ltr 对后续集合排序找出合适的改写集合,模型设计和训练相对简单,比较难的是如何构建高质量的训练样本集合,线上我们用 bandit 的方法探测部分 query 改写结果的优劣,离线则用规则和生成对抗网络生成一批质量较高的样本。

c. 商品内容理解和语义标签,通过商品图片,详情页,评价和同义词,上下位词等给商品打标签或扩充商品索引内容,比如用 image tagging 技术生成图片的文本标签丰富商品内容,或者更进一步用直接用图片向量和文本向量融合,实现富媒体的检索和查询。

d. 语义匹配,经典的 DSSM 模型技术把 query 和商品变成向量,用向量内积表达语义相似度,在问答或阅读理解中大量用到多层 LSTM + attention 做语义匹配,同样高质量样本,特别是高质量负样本很大程度上决定了模型的质量,我们没有采样效率很低的随机负采样,而是基于电商知识图谱,通过生成字面相似但不相关的 query 及相关文档的方法生成负样本。

从上面可以看到 query tagging、query 相似度、语义匹配和语义相关性是多个目标不同但关联程度非常高的任务。下一步计划用统一的语义计算框架支持不同的语义计算任务,具体包括

a.开发基于商品内容的商品表征学习框架,为商品内容理解,内容生成,商品召回和相关性提供统一的商品表征学习框架,重点包括商品标题,属性,详情页和评价等文本信息抽取,图像特征抽取和多模信号融合。

b. query 表征学习框架,为 query 类目预测,query 改写,query 推荐等提供统一的表征学习框架,重点通过多个 query 相似任务训练统一的 query 表征学习模型。

c. 语义召回,语义相关性等业务应用模型框架。语义搜索除了增加搜索结果相关性,提升用户体验外,也可以一定程度上遏制淘宝商品标题堆砌热门关键词的问题。

智能匹配

这里主要是指个性化和排序。具体包括

a. ibrain (深度用户感知网络),搜索或推荐中个性化的重点是用户的理解与表达,基于淘宝的用户画像静态特征和用户行为动态特征,我们基于 multi-modals learning、multi-task representation learning 以及 LSTM 的相关技术,从海量用户行为日志中直接学习用户的通用表达,该学习方法善于「总结经验」、「触类旁通」,使得到的用户表达更基础且更全面,能够直接用于用户行为识别、偏好预估、个性化召回、个性化排序等任务,在搜索、推荐和广告等个性化业务中有广泛的应用场景,感知网络超过 10B 个参数,已经学习了几千亿次的用户行为,并且会保持不间断的增量学习越来越聪明。

b. 多模学习,淘宝商品有文本、图像、标签、id 、品牌、类目、店铺及统计特征,这些特征彼此有一定程度的冗余和互补,我们利用多模学习通过多模联合学习方法把多维度特征融合在一起形成统一的商品标准,并多模联合学习中引入 self-attention 实现特征维度在不同场景下的差异,比如女装下图片特征比较重要,3C 下文本比较重要等。

c. deepfm,相对 wide & deep 模型,deepfm 增加了特征组合能力,基于先验知识的组合特征能够应用到深度学习模型中,提升模型预测精度。

d. 在线深度排序模型,由于行为类型和商品重要性差异,每个样本学习权重不同,通过样本池对大权重样本重复 copy 分批学习,有效的提升了模型学习稳定性,同时通过融合用户状态深度 ltr 模型实现了千人千面的排序模型学习。

e. 全局排序,ltr 只对单个文档打分然后按照 ltr 分数和打散规则排序,容易导致搜索结果同质化,影响总页效率,全局排序通过已知排序结果做为上下文预测下一个位置的商品点击概率,有效提升了总页排序效率。

f. 另外工程还实现了基于用户和商品向量的向量召回引擎,相对倒排索引,向量化召回泛化能力更强,对语义搜索和提高个性化匹配深度是非常有价值的。以上实现了搜索从召回、排序特征、排序模型、个性化和重排的深度学习升级,在双 11 无线商品搜索中带来超过 10% (AB-Test) 的搜索指标提升。

多智能体协同学习实现智能决策

搜索中个性化产品都是成交最大化,导致的问题是搜索结果趋同,浪费曝光,今年做的一个重要工作是利用多智能体协同学习技术,实现了搜索多个异构场景间的环境感知、场景通信、单独决策和联合学习,实现联合收益最大化,而不是此消彼长,在今年双 11 中联合优化版本带来的店铺内和无线搜索综合指标提升 12% (AB-Test),比非联合优化版本高 3% (AB-Test)。

性能优化。在深度学习刚起步的时候,我们意识到深度模型 inference 性能会是一个瓶颈,所以在这方面做了大量的调研和实验,包括模型压缩 (剪枝),低秩分解,量化和二值网络。

通过以上技术,今年双 11 期间在手淘默认搜索、店铺内搜索、店铺搜索等均取得了 10% (AB-Test) 以上的搜索指标提升。

阿里巴巴人工智能搜索应用的未来计划

通用用户表征学习。前面介绍的 DUPN 是一个非常不错的用户表征学习模型,但基于 query 的 attention 只适合搜索,同时缺少基于日志来源的 attention,难以推广到其他业务,在思考做一个能够适合多个业务场景的用户表征模型,非搜索业务做些简单 fine tuning 就能取得比较好的效果;同时用户购物偏好受季节和周期等影响,时间跨度非常大,最近 K 个行为序列假设太简单,我们在思考能够做 life-long learning 的模型,能够学习用户过去几年的行为序列。

搜索链路联合优化。从用户进入搜索到离开搜索链路中的整体优化,比如 搜索前的 query 引导(底纹),搜索中的商品和内容排序,搜索后的 query 推荐(锦囊)等场景。

跨场景联合优化。今年搜索内部主搜索和店铺内搜索联合优化取得了很好的结果,未来希望能够拓展在更多大流量场景,提高手淘的整体购物体验。

多目标联合优化。搜索除了成交外,还需要承担卖家多样性,流量公平性,流量商业化等居多平台和卖家的诉求,搜索产品中除了商品搜索外还有「穹顶」,「主题搜索」,「锦囊」,「内容搜索」等非商品搜索内容,不同搜索目标和不同内容(物种)之间的联合优化未来很值得深挖。

智能交互。「搜索排序做的再好搜索也只是一个工具」,如何把搜索从工具做成私人导购助手,能够听懂你的语言,了解你的情绪,能够对话和多轮交互,解决售前售后困惑,推荐更加个性化的商品应该是搜索未来的另外一个主要发展方向。

以上转自:AI 科技评论

AI 科技评论按:本文作者为阿里巴巴搜索事业部总监欧文武,经阿里巴巴授权发布

关于人工智能

人工智能(Artificial Intelligence),英文缩写为AI。它是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。

1956年夏季,以麦卡赛、明斯基、罗切斯特和申农等为首的一批有远见卓识的年轻科学家在一起聚会,共同研究和探讨用机器模拟智能的一系列有关问题,并首次提出了“人工智能”这一术语,它标志着“人工智能”这门新兴学科的正式诞生。IBM公司“深蓝”电脑击败了人类的世界国际象棋冠军更是人工智能技术的一个完美表现。

从1956年正式提出人工智能学科算起,50多年来,取得长足的发展,成为一门广泛的交叉和前沿科学。总的说来,人工智能的目的就是让计算机这台机器能够像人一样思考。如果希望做出一台能够思考的机器,那就必须知道什么是思考,更进一步讲就是什么是智慧。什么样的机器才是智慧的呢?科学家已经作出了汽车,火车,飞机,收音机等等,它们模仿我们身体器官的功能,但是能不能模仿人类大脑的功能呢?到目前为止,我们也仅仅知道这个装在我们天灵盖里面的东西是由数十亿个神经细胞组成的器官,我们对这个东西知之甚少,模仿它或许是天下最困难的事情了。

人工智能是计算机科学的一个分支,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器,该领域的研究包括机器人、语言识别、图像识别、自然语言处理和专家系统等。人工智能从诞生以来,理论和技术日益成熟,应用领域也不断扩大,可以设想,未来人工智能带来的科技产品,将会是人类智慧的“容器”。人工智能可以对人的意识、思维的信息过程的模拟。人工智能不是人的智能,但能像人那样思考、也可能超过人的智能。

人工智能的定义可以分为两部分,即“人工”和“智能”。“人工”比较好理解,争议性也不大。有时我们会要考虑什么是人力所能及制造的,或者人自身的智能程度有没有高到可以创造人工智能的地步,等等。但总的来说,“人工系统”就是通常意义下的人工系统。

关于什么是“智能”,就问题多多了。这涉及到其它诸如意识(CONSCIOUSNESS)、自我(SELF)、思维(MIND)(包括无意识的思维(UNCONSCIOUS_MIND))等等问题。人唯一了解的智能是人本身的智能,这是普遍认同的观点。但是我们对我们自身智能的理解都非常有限,对构成人的智能的必要元素也了解有限,所以就很难定义什么是“人工”制造的“智能”了。因此人工智能的研究往往涉及对人的智能本身的研究。其它关于动物或其它人造系统的智能也普遍被认为是人工智能相关的研究课题。

人工智能在计算机领域内,得到了愈加广泛的重视。并在机器人,经济政治决策,控制系统,仿真系统中得到应用。

著名的美国斯坦福大学人工智能研究中心尼尔逊教授对人工智能下了这样一个定义:“人工智能是关于知识的学科――怎样表示知识以及怎样获得知识并使用知识的科学。”而另一个美国麻省理工学院的温斯顿教授认为:“人工智能就是研究如何使计算机去做过去只有人才能做的智能工作。”这些说法反映了人工智能学科的基本思想和基本内容。即人工智能是研究人类智能活动的规律,构造具有一定智能的人工系统,研究如何让计算机去完成以往需要人的智力才能胜任的工作,也就是研究如何应用计算机的软硬件来模拟人类某些智能行为的基本理论、方法和技术。

人工智能是计算机学科的一个分支,二十世纪七十年代以来被称为世界三大尖端技术之一(空间技术、能源技术、人工智能)。也被认为是二十一世纪三大尖端技术(基因工程、纳米科学、人工智能)之一。这是因为近三十年来它获得了迅速的发展,在很多学科领域都获得了广泛应用,并取得了丰硕的成果,人工智能已逐步成为一个独立的分支,无论在理论和实践上都已自成一个系统。

人工智能是研究使计算机来模拟人的某些思维过程和智能行为(如学习、推理、思考、规划等)的学科,主要包括计算机实现智能的原理、制造类似于人脑智能的计算机,使计算机能实现更高层次的应用。人工智能将涉及到计算机科学、心理学、哲学和语言学等学科。可以说几乎是自然科学和社会科学的所有学科,其范围已远远超出了计算机科学的范畴,人工智能与思维科学的关系是实践和理论的关系,人工智能是处于思维科学的技术应用层次,是它的一个应用分支。

从思维观点看,人工智能不仅限于逻辑思维,要考虑形象思维、灵感思维才能促进人工智能的突破性的发展,数学常被认为是多种学科的基础科学,数学也进入语言、思维领域,人工智能学科也必须借用数学工具,数学不仅在标准逻辑、模糊数学等范围发挥作用,数学进入人工智能学科,它们将互相促进而更快地发展。

人工智能是一门极富挑战性的科学,从事这项工作的人必须懂得计算机知识,心理学和哲学。人工智能是包括十分广泛的科学,它由不同的领域组成,如机器学习,计算机视觉等等,总的说来,人工智能研究的一个主要目标是使机器能够胜任一些通常需要人类智能才能完成的复杂工作。但不同的时代、不同的人对这种“复杂工作”的理解是不同的。2017年12月,人工智能入选“2017年度中国媒体十大流行语”。

一张图看懂“人工智能”

来源:网络、新华网等

解读百度AutoDL 打破SOTA纪录的神经架构搜索是如何炼成的

近日,百度大数据实验室在 arXiv 上发布了两篇论文,一篇给出了任何深度学习网络在小学习率情况下的收敛性证明,包括用 AutoDL 搜出来的网络,另一篇则提供了一个正则化的方法,让 AutoDL 搜索到的网络的训练结果超过了之前所有公开报道的结果。基于 PaddlePaddle 框架实现的代码已经开源,相应功能也可以通过百度 EasyDL 免费使用,这是继去年 11 月 AutoDL 2.0 于 2018 百度世界大会上正式发布以来,AutoDL 的又一次重要更新。

机器之心就 AutoDL 各方向的设计思路和论文内容采访了百度大数据实验室主任浣军教授,以下为采访实录。

机器之心:百度开发 AutoDL 的初衷是什么?想要实现什么目标?

AutoDL 的理念,用一句话来概括,就是「开放普惠 AI」,让广大中小企业、初创企业和个人能够更方便地应用大数据和深度学习。

现在,这些能力主要掌握在大公司研发中心或者高校中间,并未向中小企业和初创企业辐射,原因在于大数据分析和深度学习对硬件、软件以及工程技术人员的能力要求都比较高。

AutoDL 所做的事情,就是用深度学习来设计深度学习,从而实现让大家都能够快速用到这项能力。我们的愿景是把如今的「深度学习模型艺术品」变成「深度学习模型工业产品」,让深度学习的模型能够像工厂的产品一样被大规模地生产出来。

机器之心:这一目标具体由哪些需求组成?如何满足这些需求?

我们从三个维度思考这件事。硬件、应用场景和模态的多样化决让 AI 算法的维度空间极为庞大。想要尽可能探索这一空间,就必然要从手工设计模型,转向自动化生产模型,快速高效地产生能够适配不同硬件、支持不同场景、适应不同模态的深度学习模型。

为了实现这些需求,我们将 AutoDL 分成三个部分,分别是 AutoDL Design,AutoDL Transfer 和 AutoDL Edge。

AutoDL Design 根据用户提供的数据集从头设计全新深度学习模型。

AutoDL Transfer 支持小数据建模,利用百度拥有的大量数据预训练好的模型迁移到用户具体的应用场景上。

AutoDL Edge 将深度学习模型部署到拥有不同算力、内存资源的硬件上,满足不同的能源消耗、响应时间需求。是 AI 和 IoT 的结合,是深度学习和边缘计算的完美结合。

AutoDL Design:更大的模型结构搜索空间带来更佳的效果

机器之心:从用户给出标注数据集到拿到自动设计好的模型结构,是一个什么样的过程?

现在 AutoDL Design 有多条技术路线,但总的来说仍然是一个端到端的训练过程。百度在模型结构优化方面选择了两条主要技术路线。

第一条技术路线利用深度增强学习完成设计。系统由两部分组成,第一部分是网络结构的编码器,第二部分是网络结构的评测器。

编码器通常以 RNN 的方式把网络结构进行编码,然后评测器把编码的结果拿去进行训练和评测,拿到包括准确率、模型大小在内的一些指标,反馈给编码器,编码器进行修改,再次编码,如此迭代。经过若干次迭代以后,最终得到一个设计好的模型。

为了性能考虑,迭代中用到的训练数据通常是几万张规模的数据集(比如 CIFAR-10),模型设计结束后,会用大规模数据(比如 ImageNet)重新训练一次,进一步优化参数。

图:AutoDL 增强学习流程

第二条技术路线是将结构图构建为可微的结构。即,连接节点的边不再是非 0 即 1 的状态,而是变成一个可求微分的概率。

除此之外,我们还进行了超参数优化,正则化训练等其他一系列优化,最终,我们在 CIFAR-10 上取得了正确率 98% 以上,这个结果优于所有有公开报道的设计网络效果,包括人类专家设计的和机器自动设计的。

机器之心:能否更详细地解释基于深度增强学习的技术路径里编码器与评测器的工作?迭代过程中计算资源消耗情况?

编码器的可以从一个随机的模型开始,也可以从一种已知的模型出发。从性能角度考虑,通常我们会选择从一个较优的模型结构出发。

模型优化分为三个层级,分别是单元格优化,单元格连接方式优化以及超参数优化。单元格(cell)是模型的基本结构,每个单元格由几个到十几个节点(node)组成。每个节点都是一种常见的操作,例如一次卷积运算就是一个节点,常见的节点中的操作有十个左右。

图:AutoDL Design 设计的单元格,左边为普通单元格(Normal Cell),右边为缩减单元格(Reduction Cell)

奖励函数是一个正确率的函数。这里的正确率并不是说每进行一次迭代就要在全部训练数据上训练到完全收敛。而是采用了「提前终止」(early stopping)的方法,用训练到一定程度的结果来预测最终结果。

在 CIFAR-10 级别的数据集上(数万张图片),每次迭代平均需要不到 1 GPU hour,从开始搜索到找到理想的模型结构,平均需要进行 50~200 次迭代。

机器之心:AutoDL Design 设计出的模型结构与人工设计的模型结构有什么区别?

如果把图像识别的常见模型用有向无环图表示出来,我们会发现:VGG 模型的结构是线性的;ResNet 在线性结构的基础上添加了「跳层连接」;Inception 模型的结构更偏向树状。而 AutoDL Design 的不受任何现成网络结构的约束,能够在所有可能的有向无环图空间内进行探索。

图:AutoDL Design 设计的模型结构

另外,AutoDL Design 的一个特点是可以实现多目标优化:如果目标除了效果好之外,还对模型大小、运行时间有要求,系统也可以根据要求完成设计。

AutoDL Transfer:「小数据」也可以建「大模型」

机器之心:能否介绍一下 AutoDL Transfer 的优化方式?

AutoDL Transfer 是在 ResNet、DenseNet、VGG、Inception 等经典网络的基础上,进行了一些基于人工经验的组件改良,以及采用了超参优化技术进行搜索。例如,我们增加了双线性(bilinear)组件,把经过层层卷积的向量再进行两两组合,让特征更为丰富。

AutoDL Transfer 现在提供两种服务,分别是静态模型(Static Model)和动态模型(Dynamic Model)。

静态模型是在大量已有数据集上进行测试后,选出能够在大部分数据集上取得优异性能的模型结构,然后利用用户数据精调模型参数。

动态模型则会根据用户数据在不同组件以及超参的组合中重新进行一次搜索。和静态模型相比,动态模型能够针对用户数据进行更加精细的优化,但也需要用户提供更多数据。

图:AutoDL Transfer 示意图

机器之心:什么样的用户场景适合选择 AutoDL Transfer?AutoDL Transfer 对用户数据规模有什么要求?

首先,数据量比较小的情景下,很难从头训练大模型,此时 AutoDL Transfer 仍然能保证一个很好的模型效果。

同时,即使用户数据量比较大,迁移学习仍然能把初始阶段从大规模数据集中习得的物体特征的知识以参数的形式带入到接下来有针对性的优化过程中,效果往往比从头训练要好。

AutoDL Transfer 还使用了一些百度自己研发的技术,包括自动数据增强、迁移过程中正则化项的优化等。这些技术都有助于在小数据条件下提升模型泛化能力,因此 AutoDL Transfer 对用户数据规模几乎没有限制,分类任务中,每个类别的数据可以只有 100 张甚至几十张。用户可以在上传数据后几分钟就拿到训练好的模型结果。关于 AutoDL Transfer 的最新进展,可以见我们在 ICLR 2019 上发表的文章。

图:AutoDL Transfer 静态模型与动态模型在不同任务中的效果示意图

AutoDL Edge:事半功倍的终端计算

机器之心:AutoDL Edge 采用了哪些优化方法?

AutoDL Edge 主要旨在对模型进行压缩,使得同等边缘算力支持更多 AI 能力,从而拓宽应用场景。

因为市面上有非常多不同的硬件配置,因此我们的团队先研究了一些设备无关的通用的模型压缩算法,这类算法能够同时减小网络规模、提升推理速度且不改变模型的性能。

滤波器剪枝(Filter Pruning)就是其中一种典型的技术。我们会估算每一个卷积核的重要程度,在每一个卷积层中,去掉那些不那么重要的卷积核。此外,我们也会对计算资源消耗最大的全连接层做矩阵低秩分解,加速矩阵乘法。

图:滤波器剪枝示意图

观察到深度卷积网络的参数主要集中在卷积核上,我们最新采用的模型压缩算法通过参数共享来压缩卷积核的参数空间。我们提出了一种新的卷积核的表示方式,使得卷积核可以在训练过程中自动进行参数共享。我们提出的参数共享模型可以从头开始训练,而不是需要先训练出一个大模型然后使用参数共享或者其他的压缩方法。配合参数量化(quantization)方法,我们的方法在 CIFAR-10 上在准确率仅降低 0.27% 的条件下将 ResNet-18 压缩了 50 多倍。在目标检测任务上,我们的方法将 Single Shot MultiBox Detector(SSD)网络进行了有效压缩,在参数数量(0.45M)明显小于 Tiny SSD(1.13M)下,在 VOC 2007 的测试集上的平均准确率(mAP)反而有大幅提升。

此外,还有一些针对性特定芯片的优化,设备提出了算力、能耗、响应时间等约束。而算法设法在这些约束之下降低运算量,压缩模型大小。一旦将模型压缩到缓存可以容纳的大小,就可以极大加速 I/O。

值得一提的是,模型压缩的过程也是自动化的。

同时,我们也在探索用 AutoDL Design 的思路,不需要针对一个大模型进行压缩,而是从头寻找一个小模型。

机器之心:关于此次公开的两篇新论文,神经网络的收敛性证明有什么意义?

深度神经网络广泛使用随机梯度下降,其优化的特性,例如是否会离开局部最优,收敛到全局最优一直是大家关心的问题,最近这方面也有一些有意思的进展。我们的探索主要集中在构造一族损失函数。通过这样的构造,我们可以在即使学习率非常低的情况下,对于每一个局部最优,证明 SGD 都一定的概率逃逸出局部最优。逃逸概率不但与极值点的值有关而且我们也证明了与极值点附近的几何性质有关。如果我们跑 SGD 足够长时间,SGD 会以马氏链的方式遍历局部最优,可以大概率收敛到全局最优。基于这几点,我们期望未来对极值点附近的几何性质的研究会对深度学习有强有力的促进作用。

机器之心:第二篇论文提出,利用局部拉德马赫复杂度做正则化,从而提高网络泛化特性,能否详细介绍一下其做法?

深度学习的核心问题之一在于如何保证在有限样本上学到的分类器或者预测函数能在将来未观察到的数据,例如测试数据上,仍然有预测错误率的保证。因为在数据点上的 0-1 的离散错误很难精确优化,在通常的实践中,预测函数都是通过在训练数据上最小化一个损失函数得到,这个经验函数一般是预测错误率的一个上界。在统计中分类器在训练集和测试集之间的差,可以用预测函数族的一个被称之拉德马赫复杂度的标准来衡量。预测函数族越小,拉氏复杂度也越小,经验损失和泛化损失的差距也越小。拉氏复杂度在经典支持向量机有这广泛的应用。

目前深度神经网络成为广泛应用的预测函数。因为神经网络的多层结构,其所属的函数族可以逼近任意的连续函数,这使得许多经典的用函数族的拉德马赫复杂度作为正则化项的统计学习方法无法进行。但统计学习领域中的局部拉德马赫复杂度,即只考虑全函数族的一个子族上的拉德马赫复杂度,却可以避开全局拉德马赫复杂度的问题。

我们提出的局部拉德马赫复杂度方法借鉴了已有的局部拉德马赫复杂度方法,仅考虑在经验损失函数的极小值点附近的一个球内的拉德马赫复杂度。采用最近的拉德马赫复杂度的估计方法,我们对折页损失函数 (Hinge Loss) 和交叉熵(cross entropy)推得了这个固定值的表达式,并且将其称之为局部拉德马赫正则化项,并加在经验损失函数上。我们对提出的局部拉德马赫正则化方法在标准的网络结构(即 ResNet-18)和 CIFAR-10 上进行了实验,发现其可以有效降低损失函数在测试数据上的值并且提高预测准确率,体现了增强的泛化性能。我们进一步将该方法应用到被搜索出来的网络结构上,发现局部拉德马赫正则化方法和其他的提高泛化性能的方法,包括混合(mix-up)和模型集成(model ensemble),可以兼容。将我们的正则化方法作用在混合和模型集成之后,我们得到了 CIFAR-10 上目前最好的准确率。在我们的文章中也提供了基于PaddlePaddle框架实现的开源代码。

进化中的 AutoDL:剑指「一步到位」的深度学习模型

机器之心:从 AutoDL 1.0 到 AutoDL 2.0,系统发生了哪些变化?

主要有三方面变化。

第一,在自动设计效果上,现在的 AutoDL 设计出的神经网络已经全面超过人类专家设计的网络效果。图像识别公开数据集 CIFAR-10 上,达到了超过 98% 的正确率。这个效果优于所有有公开报道的人类专家设计的网络的效果。

第二,在模态方面,除了视觉之外,我们也增加了对语音任务的支持,包括语音模型压缩、语音模型自动建模等。

第三,在模型适配上,我们增加了一些具体的应用案例,包括对一些可以用于新零售的视觉硬件的支持。

机器之心:AutoDL 团队现在在进行哪些新方向的探索?

我们特别关心 AutoDL 三个方向的结合,换言之,能不能同时完成模型的设计、迁移和适配。

这也是我们在强化学习技术路径之外,也同时关注可微分结构路径的原因:可微分结构既可以用于自动模型搜索,也可以用于迁移学习。模型的安全性也是我们重点关注的方向。我们希望设计的网络能够抗攻击并且具有一定的可解释性。

招聘与配置|搜索简历技巧—关键词

什么是关键词?招聘人员在搜索简历之前,得先要在搜索框输入一个或多个词语,才可以进行简历搜索。这一个或多个词语就是我们所说的关键词。

关键词能够最大程度概括所要查找的简历信息的字或词语,从而匹配出所招聘岗位的合适简历,关键词往往描述了简历的主要特征或核心内容,很多时候需要多个关键词才能准确完整地描述一个对象。

1、如何设定

关键词搜索是通过字符的匹配原则来对简历进行筛选,只要简历中任何一部分文字描述包含了所搜索的关键字或关键词组,简历便会被搜索引擎检索出来,最终就会显示在搜索结果页面上。

例如:公司招聘财务人员,可以输入关键字“财务”或“会计”等相关词汇,只要简历中任意模块内容包含“财务”或“会计”词汇都可以被搜索出来。

A、从公司产品中提炼

搜索引擎是严格按照你提交的关键词去搜索,关键词表述准确是获得良好搜索结果的必要前提,因此,建议可以用公司的产品或者细分产品设置关键词去搜,或者一些行业通用的专业名词去搜,这样就更有针对性。

B、从主营业务中提炼

主营业务是企业的重要业务,是企业收入的主要来源。因此,在提交搜索请求时,你最好把客户的经营业务范围,提炼成专业的、简单的,而且与希望找到的信息内容主题关联的词汇进行搜索。

C、从岗位名称中提炼

通过企业给予的职位名称,直接搜索。

D、从任职要求中提炼

例如在某些岗位的任职要求中提到候选人必须会应用某种技能或者软件,这个也可以作为关键词。

F、从目标公司中提炼

对于行业内目标公司的收集整理能帮我们准确地找到人选。刚开始我们可以找几家行业内知名度较高的公司进行搜索。

通过不断地搜索和候选人沟通,发现新的公司,能让我们快速的对整个行业有个比较清楚的认识,能够清晰的定位出比较完整、匹配的目标企业。

将以上词汇提取出来放在一起,就形成了该职位的简历关键词,招聘人员就可以据此通过各类人才网站或人才库搜索潜在的求职者的简历。

2、多角度多方位设置

求职者对其能力、经验的描述具有多样性。仅用一两个关键字就想把所有或大部分想要的简历搜索出来几乎不可能。因此,我们要多尝试不同的关键字来搜索简历。

例如:当搜索一个“销售总监”的职位时,用“销售总监”这一个关键字搜索到的简历已经很多,但还有很多符合要求的简历写的不是“销售总监”而是“市场总监”、“营销总监”、“区域总监”“运营总监”等其他关键字。

因为企业的不同会存在不同的职位名称,但工作内容却是相似的情况,如果我们仅用“销售总监”搜索,就有可能错过很多这样的简历,所以我们要多尝试更换不同的关键字来搜索。

3、请教专业人士

遇到专业性很强的职位,先大致了解候选人必要要求的技能,通过简单的搜索先和专业的候选人聊天,通过请教专业的人来获取信息,然后慢慢改变方向进行下一步更加准确的搜索。

备注:另简历搜索更侧重于持续化的人才储备,在搜简历时有一点是需要注意的,就是你看到一份质量好的简历,即使现在暂时不需要也要及时保存下来,因为过一段时间有可能在网上就搜不到了。

看一个负责招聘HR的专业度,看他是否能高效精准的找到合适人选,其根本就是设置有效的关键字,再通过关键字找到合适简历寻找到合适人才。学会设置有效关键字,也是从事招聘岗位的HR必备技能。

理念延伸:

职位排名靠前的关键字由职位关键字和地区关键字组成,它们与搜索关键字之间需同时满足以下三个条件才能实现精确地搜索匹配:

1、求职者使用的职位搜索关键字与您设置的职位推广关键字完全一致。

2、求职者设置的地区关键字对应的区域范围与您设置的地区关键字对应的区域范围有交集。

3、满足求职者搜索条件的职位数量大于零。

示例:您设置的职位关键字为“Java工程师”,地区关键字为“广州”。

推广信息有机会展示:

①求职者使用的职位关键字为“Java工程师”,地区关键字为“广州”,职位关键字一致,地区关键字一致,双方匹配度高,推广信息有机会展示。

②求职者使用的职位关键字为“Java工程师”,地区关键字为“广州天河”,职位关键字一致,地区关键字有交集,双方匹配度高,推广信息有机会展示。

③求职者使用的职位关键字为“Java工程师”,地区关键字为“广东”,职位关键字一致,地区关键字有交集,双方匹配,推广信息有机会展示。

④求职者使用的职位关键字为“Java工程师”,地区关键字“不限”(未设定),职位关键字一致,地区关键字有交集,双方匹配,推广信息有机会展示。

推广信息不展示:

①求职者使用的职位关键字为“Java工程师”,地区关键字为“上海”,职位关键字一致,地区关键字无交集,双方不匹配,推广信息不展示。

②求职者使用的职位关键字为“Java”,地区关键字为“广州”,职位关键字不完全一致,双方不匹配,推广信息不展示。

③求职者使用的职位关键字为“Java软件工程师”,地区关键字为“广州”,职位关键字不完全一致,双方不匹配,推广信息不展示。

示例:您设置的职位关键字为“LCD车载资深工程师”,地区关键字为“深圳”。

求职者使用的职位关键字为“LCD车载资深工程师”,地区关键字为“深圳”,搜索关键字与推广关键字完全匹配,地区关键字一致,双方匹配度高。

但因为“LCD车载资深工程师”这个关键字太长,在所有的职位信息当中都没有包含与该关键字完全一致的词语,所以职位搜索结果为零,推广信息无法展示。

结论:从以上示例的搜索匹配关系可以看出,您在设置推广关键字的时候除了要确保关键字能让求职者把职位搜索出来外,还要选择符合求职者搜索习惯的关键字,而这个选择就基于您对目标求职者搜索相应职位时可能使用的搜索关键字的全面预估。

– END –

图片来源网络,版权归原作者所有

◎如有侵权,请联系 人资充电站(RZCDZ0757) 删除

公众号后台悄悄上线 微信搜索 剑指何方

近日,公众号后台左侧菜单栏里悄悄多了一个“微信搜索”的功能,不少运营者疑惑,这是新功能吗?

其实不然,微信官方有说明,

微信搜索是由小程序搜索平台更名而来,支持功能不变。目前面向符合条件的B端商户开放。

简单来说,就是把之前微信已经开放的品牌搜索、服务直达、购物单等功能整合在一起,但真的就只是整合功能而已吗?

“麻雀虽小,五脏俱全”的微信搜索

目前,个人订阅号后台是没有“微信搜索”版块的。就像上文提到的,“微信搜索”版块包含品牌搜索、服务搜索、功能组件三个部分。

品牌搜索

早在今年7月6日,微信官方宣布开放品牌搜索,当时其入口在公众号后台的“搜索开放平台”插件中,获得商标保护以及非金融、医疗行业的公众号才可以开通。

可以看到,品牌搜索包含“品牌官方区”“官方主页”“数据概况”三个部分,当你在后台设置好了,那么用户在微信搜索公众号或品牌名字时,就可以看到你专属的品牌官方区和微主页(也就是现在的官方主页)。

其中,品牌官方区包含了商品、服务、小程序、公众号,微主页除了品牌介绍,系统还会自动抓取公众号群发文章列表、门店地址和客服电话等。

服务搜索

服务搜索包括了“服务”和“商品”两个部分,分别对标此前开放的“功能直达”和“购物单”功能。

功能直达,是指用户搜索某一个服务,直达提供这项服务的小程序的行为,前提是你的小程序接入了“功能直达”。比如说微信搜索快递、名片等关键词,搜索页面就会出现许多服务入口。

“购物单”是针对电商小程序的管理工具,小程序接入购物单后,购物车和订单商品将同步至购物单的“想买清单”和“已购订单”,同时也可以被微信用户搜索到。

此外,微信搜索还提供了两个功能组件——“搜索Widget”、“精品店”,这里就不一一解释了,对于有能力的开发者来说,这无疑是一个利好功能。

微信搜索背后是一盘大棋?

对于微信上的从业者来说,微信的搜索框是一个巨大的流量入口,这么多年来,微信也在一步步构造着微信搜索生态,用户的搜索习惯算得上已经成熟。

这次面向B端用户开放的微信搜索入口,意味着微信上的商业闭环慢慢形成。

1、品牌搜索—树立品牌形象

试想一下,当用户搜索你的公众号名字时,搜索框下面不再是单一的公众号名片,而是你自己的品牌官方区,一次性把你的商品、服务、小程序和公众号都展示出来,点击还能查看微主页,还有品牌介绍和群发文章列表等,这相当于是微信提供的一个免费广告位了。

如果要和微信公众平台的slogan——“再小的个体,也有自己的品牌”联想起来,这应该算是一次树立品牌形象的绝好机会。

2、购物单商品—打通小程序电商的微信搜索入口

除了品牌官方区可以显示商品外,电商小程序接入了购物单功能,除了可以同步“想买清单”和“已购订单”外,还可以直接被用户搜索到,类似这样的:

同一个商品下面会来自不同的电商小程序,这和此前微信开放的商品搜索功能相似,不过在购物单中的商品有一个好处:基于熟人社交的商品推荐。

如图,用户在【我的购物单】中有个“值得买”的选项,里面是微信好友推荐的一些商品,他们可以对商品进行评价,让你判断是否值得购买,就像其他电商平台上的的好评和差评。一定程度上,这个功能可以提高商品的复购率。

3、数据化运营,了解用户对品牌或服务的搜索情况

在微信搜索版块,品牌搜索和功能直达都提供了数据概况,甚至和微信指数进行了打通。管理者可通过这里查看品牌微信指数、官方主页点击量、服务点击量、官方小程序点击量、官方公众号点击量,甚至“用户画像”。

对于品牌来说,哪些人搜索了自己的品牌、哪些部分是用户比较关注的都将显得更直接明了,还可以看到关注品牌的都是什么人,这对于精细化运营提供了重要的决策依据。

毫无疑问,不管是品牌还是公众号,将来都朝着数据化、精细化去运营了。

什么是广度优先搜索算法 有哪些实际应用场景

广度优先搜索算法(英语:Breadth-First-Search,缩写为BFS),又译作宽度优先搜索,或横向优先搜索,是一种图形搜索算法。简单的说,BFS是从根节点开始,沿着树的宽度遍历树的节点。如果所有节点均被访问,则算法中止。广度优先搜索的实现一般采用open-closed表。

广度优先搜索算法主要有四个特性:

空间复杂度:由于对空间的大量需求,因此BFS并不适合解非常大的问题,对于类似的问题,应用IDDFS已达节省空间的效果。

时间复杂度:最差情形下,BFS必须查找所有到可能节点的所有路径。

完全性:广度优先搜索算法具有完全性。这意指无论图形的种类如何,只要目标存在,则BFS一定会找到。然而,若目标不存在,且图为无限大,则BFS将不收敛(不会结束)。

最佳解:若所有边的长度相等,广度优先搜索算法是最佳解——亦即它找到的第一个解,距离根节点的边数目一定最少;但对一般的图来说,BFS并不一定回传最佳解。这是因为当图形为加权图(亦即各边长度不同)时,BFS仍然回传从根节点开始,经过边数目最少的解;而这个解距离根节点的距离不一定最短。这个问题可以使用考虑各边权值,BFS的改良算法成本一致搜索法来解决。然而,若非加权图形,则所有边的长度相等,BFS就能找到最近的最佳解。

最后,广度优先搜索是可以于计算机游戏中平面网络的。

BFS可用来解决计算机游戏(例如即时策略游戏)中找寻路径的问题。在这个应用中,使用平面网格来代替图形,而一个格子即是图中的一个节点。所有节点都与它的邻居(上、下、左、右、左上、右上、左下、右下)相接。

值得一提的是,当这样使用BFS算法时,首先要先检验上、下、左、右的邻居节点,再检验左上、右上、左下、右下的邻居节点。这是因为BFS趋向于先查找斜向邻居节点,而不是四方的邻居节点,因此找到的路径将不正确。BFS应该先查找四方邻居节点,接着才查找斜向邻居节点1。

———-

欢迎加入小红圈,分享更多有价值的内容。

小红圈是一款专注于知识内容产出、沉淀的社群管理工具,为用户提供便捷的社群运营管理功能和内容变现渠道,基于微信公众号、小程序、App客户端三种使用场景,可帮助内容创作者们一分钟快速搭建专属的付费社群。

2016年度沸点国人搜索榜单大数据

一边说着蓝瘦香菇,一边围观王宝强离婚;刚关注完里约奥运会,转身猛追大洋彼岸的美国大选,还为2016年高考心力交瘁;因为神舟十一号发射倍感自豪,也因为拳王阿里去世被击中泪点……

12月2日,百度发布2016年度沸点国人搜索榜单,通过包括“年度热搜榜”、“年度文娱榜”和“年度现象榜”三大母榜单,“十大国际事件”、“十大关键词”、“十大流行语”、“十大焦点人物”、“十大群众围观”、“十大社会表情”等26个子榜单,从时政、社会、体育、娱乐、文化等多个领域,为国人全景展示了一幅“2016生活图”,也就此拉开了2016年年底回顾、盘点的大幕。

关注网(微信公众号:shuju_net)了解更多精彩资讯

据了解,今年的百度沸点榜单整合了16亿人(全球范围)在今年1月至11月,使用百度风云榜、百度资讯流、百度百科、百度知道、百度音乐、百度手机助手、百度手机输入法等多个产品的数据,基本能够呈现出在过去一年来网民、乃至绝大多数国人在2016年的喜怒哀乐。

年度热搜榜:国人最关注南海仲裁、VR、里约奥运、蓝瘦香菇、宋仲基

榜单显示,十大国际事件和十大国内事件中,南海仲裁案、美国大选、2016全国高考、武汉特大洪水引发全国网友关注,搜索量居高不下。十大科技事件中,虚拟现实(VR)战胜人类首次探测到引力波事件,高居榜首。

人在奥运年,里约奥运会也吸引了全国网友的眼球,稳居十大关键词榜首,房价飙涨、车牌摇号、营改增、疫苗安全、全面放开落户限制、人工智能、互联网金融、反腐、全面二孩,基本囊括了2016年中国社会、经济、科技发展的方方面面。

令人意外的是,蓝瘦香菇力压洪荒之力成为十大年度流行语之首。宋仲基、王宝强、papi酱、张继科、特朗普等则领跑十大焦点人物。

(国人最关注南海仲裁、VR和里约奥运会)

年度文娱榜:美人鱼领跑电影榜,黄子韬、赵丽颖为男女艺人中搜索榜最高

在年度文娱榜单中,国产电影受热捧,《美人鱼》《盗墓笔记》超过《疯狂动物城》,成为十大热搜电影TOP2。电视剧方面,《太阳的后裔》从年头火到年尾,搜索量超过《诛仙青云志》《老九门》《欢乐颂》等人气剧集,勇夺十大热搜电视剧榜“冠军”。

奥运过后,体育明星的影响力不断扩散,张继科、宁泽涛、林丹、科比、福原爱、孙杨、傅园慧、詹姆斯、C罗、梅西齐聚十大热搜体坛人物。

国民喜欢的明星排行也发生了些微改变。2016年小鲜肉当道,黄子韬、霍建华、马天宇、鹿晗等流量小生成为十大热搜男艺人榜单TOP4;女艺人方面,刚刚获得金鹰女神的赵丽颖勇夺冠军,超过Angelababy、郑爽、杨幂等话题女王,稳居第一。

年度现象榜:神州十一发射引国人自豪,王宝强离婚引国人强势围观

自豪与悲伤在今年同时发生。在十大国民骄傲榜单里,神州十一发射成功、中国女排逆转夺金、G20杭州成功举办等大事引发国人自豪情绪;在十大泪点榜单里,拳王阿里、乔任梁、杨绛三位名人离世,触动国人的泪点,令人神伤。

十大年度CP榜单中则亮点频现,除了林心如霍建华这样的明星CP外,滴滴收购优步中国、郭德纲曹云金师徒反目等科技、娱乐热点事件,也因为“相爱相杀”的过去,勇登年度十大CP榜。

今年,00后全面杀入了互联网,并展示出了与80后、90后截然不同的特征。榜单显示,00后最关注哔哩哔哩和淘宝;90后们更关注爱奇艺和淘宝;80后则相对热衷社交,最关注微信网页版。

近年来,中国人已经习惯有事问“度娘”,作为中国最大的搜索引擎公司,百度每年年底都会根据网友在网络上的“生活路径”,整理发布年度沸点榜单。因此,这份年度沸点榜单也基本上被认作国民一年生活的“喜忧录”。

北京师范大学新闻传播学院执行院长喻国明表示:2016年百度沸点全面展示了过去一年里从社会主体,到社会热点的变迁。00后的视角开始登上舞台,用户关注内容从国家大事到国际热点,从体育盛事到娱乐八卦。涉猎领域越来越广,参与程度越来越深。作为一种现象级的回顾与复盘,百度沸点既记录了我国社会发展的趋势和节奏,也折射出一定的商业价值。从而成为中国2016年发展的缩影和风向标。

360搜索成为国人最常访问的第三名网站 第一是

近期,包括艾瑞和CNNIC等多家机构公布了互联网相关数据统计报告。从常用网站覆盖数据,以及搜索市场覆盖数据来看,360搜索的覆盖用户在持续提升,不断缩短与市场第一的差距。

2016年11月,互联网研究第三方机构艾瑞咨询公布PC指数,在PC端网站排行榜中,百度、腾讯和360搜索分列日均覆盖人数前三名,其中,360搜索以6689万的日均覆盖人数超越阿里系淘宝稳居前三。

360搜索成为国人最常访问的前三名网站之一。

日前,中国互联网络信息中心(CNNIC)在京发布第38次《中国互联网络发展状况统计报告》,报告显示,2016年1月至6月,360搜索以3.1亿的总覆盖人数,成为国内排名第二的搜索引擎

并且,值得注意的是,2015下半年,360搜索的总覆盖人数才仅有5786万,排名第十,而经过半年时间,360搜索就增加了2.5亿的人数。这说明360搜索正处于高速发展阶段,并通过续创新和自我变革,不断缩小着与市场第一百度的差距。

虽然,网民在使用搜索引擎方面,依然以百度为首,其次才是360搜索、搜狗等,但是报告显示,百度搜索在6个月内,总覆盖人数3.9亿位居市场第一,然而相比2015年12月,用户却减少3600多万。

国内多家数据机构相继表明360搜索目前已稳居行业前三的位置,这与其坚持改进用户体验,保障用户网络安全,努力构建良性网络生态,不断完善改进一切能够解决用户刚需的功能的理念及一系列动作有很大关系。

在安全保护方面,360搜索提供骚扰电话标识、恶意网站拦截等功能,平均每天能为用户拦截1亿多次欺诈、钓鱼等恶意网站。

此外,为保障用户利益,360搜索先后推出“360网购先赔计划”和“欺诈推广全赔计划”,成为全球范围内,第一家愿意为自己的推广链接承担全额赔付责任的公司。并且,于今年5月3日宣布彻底放弃医疗推广,成为国内首家也是唯一一家没有任何医疗行业推广的搜索引擎

2016年底,360搜索还上线了“悟空算法”和“后羿算法”, 号召百万站长联合起来,抗击黑客攻击,并抑制采集站保护网络原创。

360搜索自2012年8月上线以来,凭借安全、可信赖等优势,仅用了4年的时间,就使得PC市场渗透率超过60%,并保持了稳步上升的趋势,并逐渐拉近和市场份额第一的距离。

360搜索每日搜索请求超过7亿次,活跃用户超过3.8亿,是国内增长最快的搜索引擎之一。在搜索用户体验方面,360搜索在智能摘要、炫酷onebox、知识图谱等方面的创新,持续引领了行业。如今360搜索发展势头迅猛一路突破巨头围堵,不断搜索与行业龙头的差距,其后续表现必将更为值得期待

用以下标准判定你的搜索竞价推广账户是否合格

搜索推广营销目前仍然是主要的网站推广手段之一,但是,同样的搜索平台,不同广告主或的是不同的效益反馈。不可否认,无论是谷歌,百度,还是搜狗,360,搜索平台不可或缺的都有较好的效益,问题是你怎么去使用他而已!

老阳在百度体系邮有着超过十年与广告主进行深度沟通、运营实施的经验,接下来我以个人经验给予大家一个有关“标准判定你的搜索竞价推广账户是否合格”的标准。

首先:一个竞价推广账户是否合格,最直接的判断标准是转化,如果你的竞价账户带来的客户有效咨询转化成本低于您单笔贸易的平均毛利的2%-3%,那么这个账户就完全是可以带来盈利的,可以算是合格。

但是,这个标准在不同的行业及利润的情况下是无法使用的。而且我们也很难去计算这个数据,很多企业也没有能力去测量或计算ROI,因此,我们简单按照账户内数据来制定标准。

我们简单按照5个标准来验证:

解释如下:

1、覆盖广度:

指账户关键词的覆盖,当前的搜索引擎环境,有实力的大客户广告主可以通过大额投入获得通用词的优质流量,而绝大多数中小企业只能通过长尾词获得精准流量,无论大客户还是中小企业,都可以全面覆盖有效用户。根据产品分类,合格的账户应该满足3000词/单产品的合理布局。

事实上,国内的搜索引擎,主要就医疗、金融、教育、游戏四大行业应用及其精通,而这些行业的成熟账户,都没有低于1万词的。

2、成本控制:

企业主经常反馈的是 我一天花多少钱,这个实际上并不是竞价推广的成本,竞价广告的成本是什么? ACP(单次点击价格)才是真实的流量成本。

土豪客户经常要求排名必须第一,事实上这个是非常浪费钱的一种方式,客户都是货比三家,又不只是点开你们一家的广告,你为何要排名靠前多花钱?因此没必要多花钱装个逼的,而且,现在的广告公信力非常低,不一定因为你排名靠前就买你家的产品!

因此,在流量有效的情况下,无限压缩平均点击价格是SEM操作的王道!当然,每个行业的ACP都有差异,你只要低于同行就合格了。

3、损耗控制:

搜索引擎都是支持模糊检索,因此大量的无效检索带来了资金损耗,理论上,损耗应该控制在3%-5%以内!

具体详情,请至检索词报告查阅。控制方式可以在下发留言讨论。

4、创意展现:

搜索营销广告创意也可以打败排名!看看网页游戏的广告搜索结果?对比您的账户广告展现结果?一目了然!

5、行动优化:

这个是一项综合评估,您的网站URL定位、网站制作行动力都对此产生影响,具体到不同的情况差异较大,对此,欢迎留言交流~

搜索营销还有什么您认为的标准?

聚合搜索利器

[Win/macOS/Android]

WhereDat是一款 Windows、macOS、Android 平台的整合了多方服务的聚合搜索软件,包括 Gmail、Outlook、Dropbox、Github、Trello、Slack 等等第三方服务。@Appinn

这个软件本身不具备任何搜索功能,但是只要添加了第三方服务,也就是登陆第三方的账号之后,这个软件就能实现在多种服务中的搜索。

支持的服务还是比较多的,但大多数都是外国产品。包括Gmail,Google Drive,Outlook,Dropbox,GitHub,Onenote,Trello,Slack等等,如果长期使用这些服务应该会比较方便。

另外就是这个软件只能搜索你自己账户里的内容,并不能搜索第三方服务的公开内容。例如别人从 Google Drive 分享出来的东西,除非这个人分享给你。

如果长期使用这些服务,又有搜索需求,这个软件确实可以提高一下效率。10美元一个月,还是有点小贵,大家自行斟酌。