观点 搜索的未来是什么

搜狗CEO王小川:搜索的未来是什么?不是语音搜索,也不是图像识别

10月29日,在搜狗2016合作伙伴大会上,搜狗CEO王小川认为,搜索的未来是“问答”,是给问题一条精确的答案。

年初,“阿尔法狗”打败人类冠军棋手李世石,让我们看到了人工智能时代的到来,人工智能也由此开始真正走向实用。

而对于人工智能未来的走向,王小川认为会是虚拟世界和机器智能两个不同的体系。人工智能的意义,在于让机器参与到人的决策中。

人工智能建立在大数据、云计算和机器学习的基础智商,而搜索引擎是三个领域里面最核心的技术载体。王小川断言,“搜索的未来是人类智能时代的明珠”。

而搜索的未来是什么?王小川认为,语音搜索、图像识别都不是搜索的未来,搜索的未来是“问答”。“现在搜索关键词,可能机器会给你十条答案,但未来的趋势会是给问题一条更精确的答案。”

王小川以苹果、谷歌(微博)在人工智能领域的布局举例,他称乔布斯临终前以早产的方式把Siri推向市场,占得语音助手的先机,但谷歌最终会后来居上,因为这和谷歌所擅长的搜索引擎是一脉相承的。

而对于输入法,王小川称这是大数据、云计算和人工智能结合的产物,搜索的公司去做输入法,很容易把一些领先技术放进去。

王小川透露,搜狗输入法一天能处理的数据量达到1.9亿次,比所有中国其他做语音识别的公司总量还大。

王小川称,输入法的未来不只是在表达里面作为一个工具,而是会跟用户“合体”,知道用户想说什么、在回答什么,未来会由机器代替用户回复。

以下为王小川演讲实录:

在今天的分享当中,我可以不用去讲一些搜狗的现有业务,而是跟大家来谈,往下几个新的理念,因此我会讲得更远一些,谈谈搜狗的人工智能之路,大家在这里面可以感受到一些我们的战略。

在阿尔法狗打败李世石的第三场后第一个工作日,当天搜狗放假,庆祝这样一个胜利,把它叫做“狗胜节”,阿尔法狗的胜利。在这里,我们看到了一个新时代的到来,就是人工智能。

所以我本人在大学的时候,从大一开始就在学习人工智能,那么为什么到了2016年还有这样一个变化呢?其实不只是技术本身的一个突破,而是在市场上、在媒体上有了一个巨大的变化。

因此我们可以看到,人工智能在今年之前有两波热潮。但是我们看到,在以前,做人工智能只存在于高校,现在参与人工智能的企业是以前的数倍,今年开始人工智能开始真正走向了实用。

在我的预测里面,人工智能往下走主要是两个体系,一个是虚拟世界,另一个是机器智能。

前者怎么理解呢?不是讲的简单的头盔显示,我想讲的是搜狗并不擅长的一个领域,像游戏、小说、音乐、视频,这些领域的技术发展,把我们带向了虚拟世界,那是文化创意产业。这是满足人类社会更大的需求,一是让人类找到自己的存在感,二是降低人的判断,把决策交给机器。因此我们知道,人工智能的意义,不仅是在识别、生成,而核心是在机器参与到人的决策之中。

搜索的未来是什么?

今年年初的时候有些媒体朋友问我,搜狗是要转型做人工智能了吗?用的是转型这个词。我说不对,你对人工智能不了解,因为人工智能是建立在大数据、云计算和机器学习的基础之上。搜索引擎天生就是在这三个领域里面最核心的技术载体。从我们的技术从我们的业务向人工智能迈进,所以我说搜索的未来是人类智能时代的明珠。这是我对未来的预言。大家就会问未来是什么?搜索狗的未来是什么?人工智能的未来是什么?为什么是明珠呢?

我们人在理解智能的时候,从科幻的角度或者从科学家角度来讲是什么是什么?60年代,图灵研发的人工智能,就是一台能对话的机器。以至于你不知道对面是人还是机器。

大量的文学作品或者科幻电影里也提到了一台能够对话的机器,能回答问题,像大白或者星级穿越里的机器人。阿西莫夫写的《最后的问题》这本小说里,构建了一台终极机器。他说人类控制地球,甚至任何很多银河系里的全部资源,来打造一台能回答问题的机器。

这本小说很短,故事里面这台机器几乎能回答人类所有问题,只有一个问题不能回答,宇宙是怎么诞生的?。这部小说最后,这个机器想明白了,叫做“要有光”,于是这个机器重新创建了宇宙。这是一个科幻片。所以我们终极对人工智能的理解力,大多人会认为这是一台能够去思考、能够去对话的机器。

这里是对人工智能未来终极的理解。

搜索未来会怎么样?

未来是语音搜索吗?以后大家说“王小川”去搜索,不要这样,应该用语音去讲。其实我觉得语音搜索能够带来的附加增值并不大,也许从口音里能听出来我说话的声音是有四川口音话,是不是给我点四川的内容?,这个意义很小的。

,是图像吗?这两年图像发展也非常快,或者是个性化,或者是推荐系统。其实在我心中这些地方都不是搜索终极要解决的问题。

那会是什么?我的回答是“问答”。

我们可以理解今天的搜索引擎是我们输入一个关键词,然后给你十条答案或者十个结果,让用户自己在里面做选择。但是这是我想的最终效果吗?用关键词去获得答案。并不是。我们对答案是不满意的,我们需要的是一个精确的答案。即便通过个性化,我们并不可能就知道这个答案是否怎样对你更好。

比如洪涛(搜狗CMO)和我已经一起工作了十多年。我跟他说两个字“搜狗”,洪涛一定不知道我要什么。我即便说“搜狗收入”,也不知道我在说什么。所以个性化附加的价值是并不大的。我们能够解决问题的唯一方法是用自然语言去提问。

比如说我问洪涛,我们三季度的收入会怎样?这个时候他就能给我一个我想要的答案。因为一个关键词里面并不包含有完整的信息。事实上在我们的这样一个搜索引擎里,今天的关键词输入占97%。

我从99年开始接触搜索引擎,那时候人更习惯于整句子搜索,我漂亮吗?这是搜索的第一个请求,机器回答不了这个问题。事实上当今天用了提问的方法,为什么大家不这么用了?是机器不够智能,解决不了这么多的问题,所以变成了一个关键词给你十条答案。未来的趋势真的会变成给问题一条答案。

苹果抢占先机,但谷歌将赢得未来

Google也是这么做的。在未来的搜索70%的用户请求是应该给答案的,这跟我们去理解用户的需求是高度一致的。人工智能时代的到来会使得搜索引擎有能力从关键词提问变成十条结果,改变成一个问题,给你一个精准的官方答案。这样让人的表达变得更加自然,也给更精确的意义。

乔布斯最大的贡献是我们知道怎么样让人用最自然的方法交流。,以前用键盘、后来用鼠标,后来发明了智能手机,我们知道五个手指去进行交互,触屏颠覆了手机行业。

在搜索领域或者人机交互领域更多不是讲语音识别,而是语言理解带来了问答。在国外的各个企业也在做这个事情,苹果、Facebook脸谱、谷歌、亚马逊都在做,但是第一家推出问答系统的是苹果。为什么不是谷歌?

。苹果的效果并不是很好,用过苹果手机的都应该有体验答案。并不是苹果技术不够,我更原因相信的是乔布斯在他临终前,以早产的方式能够把这样一个系统推向市场,Ssiri系统是iPhone 4s里发布的,乔布斯在病床上看着这场发布会后,第二天他就去世了。这个技术发布的

我相信在这个战场上谷歌会后来居上,不仅是技术积累谷歌更多,同时谷歌面临的这个问题和搜索是一脉相承的。

搜狗往下一个很大目标把搜索引擎从今天的关键词系统变成问答系统。我们系统已经逐步上线这样的能力,大概有5%-、10%的问题可以直接给答案,未来会有这样一个变化。

我们一开始给搜狗的一个使命是让表达和获取信息更简单。获取信息就是能够给答案,表达也变得更简单,用语音的方式或者文字的方式驱动一个问句,这是表达。

除了搜索以外,搜狗还有一个核心武器是输入法。

搜索引擎公司为什么要做输入法?

输入法的表达里是最重要的一个工具,它又有什么样的进化?输入法究竟是不是一个高技术?从做搜索的公司去做输入法,很容易把一些领先技术放进去。

搜狗输入法诞生第一天就是一个大数据的产物,那是2006年。为什么搜狗输入法在当年变得这么智能?。我们当时还没有大数据这个词,我们会说我们把整个互联网网页通过搜索引擎抓下来然后放成输入法的词库,计算每个词的词频、计算语法规则。用今天的表达就是大数据。

输入法也是云计算的产物,如果用搜狗输入法会发现输入的时候会在键盘上有一朵小云飘起来,这时候结果非常准,原因是我们识别到本地的计算最终结果可能不够好,就会把这样的输入提交给服务器,云端提供更强大的计算和存储力来计算得到更高的品质。

输入法同时也是人工智能的产物,今年最火的输入法功能介绍里,语音变成很重要的一部分,随着人工智能深入学习的突破这个技术变得实用可以使用。还有一个功能,图片识别功能,在图片上扫描出文字进行输入。

输入法的未来是什么?

这些都是最终极吗?我们从语音说起,今天搜狗输入,一天能处理的数据量到1.9亿次,比全中国其他家所有做语音识别的公司,在线做的语音识别的量加起来更大的值。

我们一天的识别会产生数十万小时的语音数据,这个数据超越了今天中国主流公司进行语音识别所用的语料的规模,是在搜狗这样的用户上再加上数据积累上,我们有这样的技术,把语音输入做到更极致状态,语音的合成、声纹波识别、打断处理等等。我们可能宣传工作做的还不够,但是输入法里面已经为用户提供了很多方便的服务。我心中这不是输入法的未来,只是现在。

未来是什么?我播放一段视大家看一看。这是概念性的视频,和今年下半年要推出的功能有相近之处。为了保密的原因,这里展示的不是我们最终的功能,最终的功能要比这个更惊艳!

这个视频给大家一个基础概念,我们不是在强调语音还是图像,而是让机器开始理解你想表达什么,而转换成更丰富的表达方法,可能是一个餐饮信息、可能是一个地图、可能是一个百科,可能是一首歌也可能是其他,今年下半年我们会推出的其他内容。除了分享外,还有智能回复的功能。

通过这两段视频,我想表达的含义——,我记得几年前我们作了一个讨论,技术的进步是让人变得更加强大了?还是更加弱小了?我的回答很简单,如果把自己和技术放在一块儿,我们变得更加强大。

今天的90后很厉害,他们才20多岁的经历,就可以自己定机票到岛上旅游,因为有了互联网给他们提供了技术能力。但离开了这些技术工具我们比古人弱很多。我内心当中我相信通过技术来改造人类,把我们也许变得更加傻,但是和技术在一块儿的时候我们变得更加强大。

输入法的未来不只是在表达里面作为一个工具,而是跟你合体,它知道你想说什么,它知道你在回答什么。也许未来人们给你提问的时候,不用你动脑,而是机器代替你做这样一个回复。这是输入法未来需要解决的一个问题,通过智能处理跟人有新的合体。

对于输入法的理解,在谈人工智能、谈对话系统的时候,输入法是通向通用对话系统最佳的路径。很多公司在研究对话系统,但是到今天没有一个成熟的使用场景。搜狗不仅有这样的技术积累,更重要的是我们有这么大的一个用户场景帮助我们收集数据、帮助我们在改进中间做迭代,这是在做人工智能终极里面占据的一个制高点。

让表达和获取信息变得更简单,我们需要做到两件事情。一件是自然交互,不仅是语音而是语义,是自然的沟通。另一件事情是知识计算,只有当机器更加智能、更加懂语言的时候,我们的搜索、我们的输入、我们的人工智能才能通向终极的高度。这是今天和大家作的分享,谢谢!

李彦宏很投入 但百度可能正在错过人工智能

百度是国内对人工智能投入力度最大的公司,但其不碰硬件的战略很可能导致它最终错过人工智能里对它最关键的部分。

什么是下代搜索

到现在为止,搜索一共发生了两次更迭:

第一次更迭是从Infoseek等到Google,这次更迭主要是算法升级,Google的PageRank让搜索结果的精度大幅提升,并一举奠定搜索霸主的地位,影响此后近20年的科技势力版图。虽然在PC互联网时代也有QQ,MSN这样的大客户端,但其核心形态是浏览器+搜索引擎+Web site。也就意味着PC时代,搜索的地位要高于电商,甚至IM/SNS。搜索引擎是PC互联网当之无愧的代表。

第二次更迭则是从PC互联网到移动互联网。这次更迭变化的并非是搜索技术,而是使用场景。这时搜索的发生地从浏览器里大幅转移出来,相当于每个头部产品的App(携程等)都把搜索从百度的手里拿回到自己的手里。这时候本来被断头的百度应该活的很难过,但很幸运的是移动互联网的网民数大幅增长,这一定程度上弥补了被拿走的那部分流量所带来的损失。也就是说在移动互联网时代搜索的量在增长,但搜索引擎的重要性被降低了。

现在关键的问题是第三代搜索是什么?负面新闻等并不会逼死百度,但一旦其错失下代搜索,它却很可能活不过18个月。Sun的2000亿美元市值没逃过这规律,想必百度也不会。

下代搜索的趋势非常清晰,声智科技CEO陈孝良对此有非常精准的一个总结:语音交互即搜索。眼下代表作品正是Siri,Cortana等,虽然这些产品眼下还没成为主流,但其巨大的潜力已经到了大公司根本没法忽视的地步。很多人可能并没注意到国外五大科技公司同时使劲打造的产品其实非常少,而非常显然的一个就是语音助手:Google的Google Now,苹果的Siri,微软的Cortana和小冰,Facebook的M,Amazon的Alexa。在第三代搜索的时候,不只量会增加,搜索引擎也会重新变的重要,甚至比PC互联网时还重要。

百度对此是有极为清晰的认识的,下图是Andrew Ng公开过的百度对未来搜索的预判:

也就是说百度认为到2020年,语音搜索要占所有搜索份额的一半以上。这很可能不只是单纯的战略预判,而是内部已经与KPI相结合。百度推出度秘,移动版APP升级等显然都体现出向语音搜索靠拢的痕迹。

百度真有问题的点不在于对这基本趋势的判断,而在于对未来生态系统的推演不够,缺乏一种多维的认识。这很可能导致巨大投入最终是为它人做嫁衣裳。

下代搜索发生在硬件里

过去几十年IT产品的发展证明了一件事情:新交互方式通常伴随着新硬件产品的流行而流行,改造已经确立的交互方式是极为困难的。现成的例子是鼠标和键盘仍然是笔记本的主流交互方式,为笔记本装上触屏很容易,但让大家使用它则很难。

我们有理由相信这在新交互方式上一样成立:语音交互会从新的硬件产品上开始,而不会从手机开始。也正因此吸引眼球的是Amazon Echo,而不再是Siri。这里面核心原因是依靠便利性作为驱动的新人机交互方式影响范围很大,但在单个产品上的推动力并没大到让人放弃习惯的地步。

总结起来,我们可以把上面说的提炼成两个核心假设:

1.大量新硬件产品会出现,比如Echo,汽车,眼镜,机器人。

2.语音交互会从新硬件开始。

我们再假设陈孝良说的:语音交互即搜索是正确的。那我们很容易得出的结论是百度事实上会失去下代搜索,因为下代搜索发生在硬件里,而这些硬件其实和百度没什么关系。

那为什么百度没可能把自己的人工智能和搜索,比如度秘装到这些硬件里?

这要回到另一个很少人提及的行业规律:虽然利润会被软件企业拿走,但通常新世界是由硬件企业创造的。

回看历史我们可以发现,是苹果、IBM公司拉开了IT、PC互联网高速增长的大幕,虽然PC时代最赚钱的是微软和Google。移动时代,同样是硬件厂商领先开辟了智能手机这个新品类。硬件开辟新世界的故事当下仍然在重演,微软做的是Hololens,而不是Hololens的操作系统,Oculus做的HMD而不是VR的操作系统或应用商店。唯一不同的是新一代硬件厂商变聪明了,它们不再会像IBM那样自己坚守硬件,而把操作系统开放给微软,他们会尝试延续自己在整个生态里的控制权,赚软件的钱。Echo如果成功了,那Amazon绝不会把后端开放给Google,而是会尝试把Echo的Alexa装入不同的新硬件,蚕食Google的搜索份额。同理如果京东、阿里、腾讯等任何一家自己做出了成功的硬件,它也绝不会把后端开放给百度。而假设你是第三方,你是会用一个没有成功硬件证明的百度方案,还是会用一个有成功硬件证明的其它方案?所以不做硬件的百度在下一代搜索的争夺里已经注定落后和被蚕食。

在这种挑战里,百度唯一的护城河在于国内别的厂商并不能很好的应对巨大的长尾搜索,所以可能体验不好,但很可惜的是对于新硬件人们有个逐步接受的过程,这也就意味着最开始音乐笑话百科等少量内容就够了,而后可以逐渐补足长尾,长尾的优势不能成为百度的护城河。

如果上面说的成立,也就意味着百度虽然使劲做人工智能,但却正在错失人工智能所引发的搜索换代机遇。

百度把小米收了吧

如果必须开个脑洞,那我想说的是:百度,考虑下把小米收了吧!在国内,硬件公司很难做好软件,而软件公司似乎也很难做好硬件,唯一打破这魔咒的是小米。但小米正面临硬件企业的典型困境:货品化后的硬件赚不到钱。

小米可以讲无数故事,但只要它还在低边际利润的品类上打转,那就摆脱不了赚钱困难的境地。而要想硬件赚钱事实上只有那么几个方法:一个是苹果的方法,全封闭,谋求高品牌溢价,但显然没有任何一个公司有模仿苹果的能力;一个是三星的方法,强化终端硬件差异化,比如曲面屏(必须承认爆炸也是一种差异化…),比如联想Moto Z的模块化。这也可以获取利润,但显然需要非常多的积累,更适合传统的硬件公司,也需要较大的投入,小米应该不具备这种实力。

如果把“百度做不好硬件,又必须做新硬件”,“小米在低边际利润的品类里怎么都赚不到钱,”两者结合起来,那最具话题性的并购就出现了:百度应该把小米收了,让它主打新硬件。新硬件正好契合小米的社会化营销基因,可以重新提高人们对小米的关注度,而百度则可以在争夺下代搜索的战争中先人一步,至少看起来其实还是比不错的生意。从八卦的角度看,如果这事能成,我们还可以看到雷军向李彦宏报告的场面。

小结

虽然上面说了很多,但其实逻辑链条并不复杂,只要依次回答下面的问题,那就必然会得到和上面类似的结论:

1、会不会有不同种类的大量级的新硬件产品出现?

2、语音交互会不会是新硬件产品里的主流交互方式?

3、下代搜索会不会主要发生在硬件里?

4、控制成功硬件新产品的公司会不会把后端交给百度?

5、百度会不会失去下代搜索?

一路回答下来大多人都会回到我们的题目:虽然很投入但李彦宏可能正在错过人工智能。

IBM CEO:沃森AI智能系统将在五年内普及

据国外媒体computerworld报道,IBM首席执行官Ginni Rometty周三在IBM的World of Watson会议上演讲时宣称,IBM的人工智能系统沃森AI(Watson A.I.)将在未来五年内普及。

Ginni Rometty在会上发表主题演讲时表示,在未来五年内,沃森AI将成为人们的助手,届时无论是企业还是个人,他们的每一个重要的决定都将在沃森AI的帮助下完成。

沃森AI正在卫生保健、金融、娱乐和零售等领域里辅助许多人工作,它使商务人员更容易与客户建立联系,帮助分析人士挖掘大数据的意义,帮助医生找到癌症患者的治疗方法。

沃森AI旨在改变企业的运作方式和人们生活方式。“我们的目标是增强人们的智力。”Ginni Rometty说。“它是人和机器的结合,它的作用在于扩充人们的专业知识。它是一个老师、一个医生、一个律师。不管你做什么工作,我们会扩展你的知识。”

IBM称,本周的会议吸引了17,000名与会者,会议探讨的主题是企业、零售商、教育工作者、人力资源部门和金融机构等用户如何使用沃森AI。

“IBM现在面临的挑战是定义市场。“参加会议的独立行业分析师Jeff Kagan说,“十年后,IBM会成为领导者吗?Watson今天是领导者,但是……,如果他们想成为领导者,他们需要创造市场。”

AI是一个新的市场,沃森目前是领导者,其用户包括通用汽车、葛兰素史克、史泰博、美国癌症协会和克利夫兰诊所等。

Ginni Rometty表示,沃森AI的用户将在今年年底达到数亿人。在许多情况下,沃森AI的用户可能并不知道AI系统在帮助他工作。

史泰博的新款智能设备Easy Button,礼品电商1-800-Flowers.com的聊天机器人,通用汽车公司的车载服务平台OnStar Go,未来都可能采用沃森AI。

通用公司董事长兼首席执行官玛丽·巴拉(Mary Barra)周三与Ginni Rometty讨论了两家公司的合作关系。玛丽·巴拉表示,沃森AI将为OnStar Go平台带来了新的认知元素。

通用OnStar Go已经存在了大约20年,为汽车司机提供车载通信、安全、导航、远程诊断和免提通话等服务。

玛丽·巴拉宣称,基于沃森AI的OnStar Go将于2017年初开始在汽车上推广,到2017年年底,“数百万辆汽车”将拥有该系统。

Ginni Rometty还表示,医疗保健是沃森AI的一个重点领域。Ginni Rometty请来了东京大学医学科学研究所人类基因组中心的教授Satoru Miyano参加会议。

Satoru Miyano表示,研究人员和医生需要处理太多的数据。他说,去年有超过20万篇关于癌症的论文,同时还有400万个癌症病例。

“没有人能读到这一切,”Satoru Miyano说,“我们觉得我们是井底之蛙,理解癌症超越了人类的能力,但沃森可以阅读、理解和学习,为什么不使用它?

研究人员正在使用Watson来筛选所有的数据,帮助临床医生找到患者基因组中的特定突变,并提供治疗指导。

Satoru Miyano举了一个66岁的白血病女性的例子。这名女患者接受了标准的治疗,但病情仍然越来越糟。医生不明白她的病情为什么会变得越来越严重。

研究人员使用了沃森AI来帮助他们,沃森AI在10分钟内分析了他们拥有的关于这么女患者的所有数据。

“研究人员考查了沃森AI的分析结果,寻找特定的基因。”Satoru Miyano说。“研究人员发现,她有另一种类型的白血病(需要不同的治疗)。最后,她得到了所需的治疗,并完全康复。

Ginni Rometty表示,她期望沃森AI在不久的未来“改变卫生保健行业的面貌”。

声明:文章版权归原作者所有。如涉及作品内容、版权和其它问题,请跟我们联系处理!来源腾讯科技 文/李智勇

国家权威搜索 中国搜索 11·24登陆惠州

当然,这里没有巴黎时装周的潮流与时尚,不像刚刚举办的《时尚芭莎》慈善晚宴,众星争艳夺丽。也不是《我们来了》在长城,携手中国柔道队女子运动员的特色走秀,糅合民族特色和时尚于一体。而是完全以中小企业的主打产品为主的扶持发布会。

2017年11月24日,中国搜索将于惠州富力万丽酒店举办中国搜索大型企业资源对接扶持发布会,届时将有不低于200家企业参会。本次参会企业家,全部经过专门的审核,资质、信誉等良好。

继百度、搜狗、360等搜索引擎呈现互联网三足鼎立之势后,近年来中国唯一官方搜索引擎中国搜索异军突起,以强大的优势飞速发展,改变了当前国内互联网的格局。

记者获悉,中国搜索是由互联网中国搜索信息科技股份有限公司创办运营,该公司由人民日报社、新华通讯社、中央电视台、光明日报社、经济日报社、中国日报社、中国新闻社等中国七大新闻机构联合创立。中国搜索于2013年10月开始筹建,2014年3月正式上线,推出了新闻、报刊、网页、图片、视频、地图、网址导航等七大类综合搜索服务,以及国情、社科、理论、法规、时政、地方、国际、军事、体育、财经、房产、汽车、家居、购物、食品、智慧城市等16个垂直频道和“中国新闻”等移动客户端产品和服务,极大程度的满足了消费者及企业用户的需求。

百度搜索热度如何查询 网络优化入门教程 小小课堂

百度关键词热度应该如何查询呢?SEO优化人员首先会想到百度指数,除此之外,还有什么别的办法吗?

今天,小小课堂网为大家带来的是关键词热度的相关知识。希望对大家有所帮助。

一、百度指数

我们先来认识百度官方工具——“百度指数”查看关键词在百度的搜索情况。

基础版的四个板块:趋势研究、需求图谱、资讯关注和人群画像。

1、趋势研究

这里直接搜索关键词,也可以地域进行搜索,来查看关键词的“搜索指数概况”和“搜索指数趋势”。

2、需求图谱

可以看到与所搜词语“seo”相关性很强的词语的出现。相关词分类,可以看到来源关键词和去向相关词。以及最近的搜索指数情况。

3、资讯关注

这里主要是资讯网站和媒体网站对关键词的报道,很多时候,一些高价值的关键词,如“石家庄SEO培训”很多资讯文章都是企业付费发表的。

4、人群画像

地域分布:该数据为您显示,关注该关键词的用户来自哪些地域。

人群属性:该数据为您显示,关注该关键词的用户的性别、年龄分布。

二、爱站网关键词挖掘

这个关键词挖掘平台,小小课堂网认为是非常非常有用滴。建议大家经常使用哦。

关键词的长尾词数量越多,收录数越大,证明难度越大,在一定程度上也代表了关键词热度。

三、百度热搜榜

能上百度热搜的关键词,关键词热度就可想而知了。哪怕是和关键词相关性比较强,也是非常不错滴。

百度热搜榜在搜索引擎的结果的右侧。

这里多说一句,各大平台都有热搜榜,如百度贴吧的“贴吧热议榜”。

再如微博的“热门话题”。

四、站长之家的关键词全网指数

关键词全网指数,不仅包括百度指数,还包括了360指数、搜狗指数、微信指数,以及他们的总指数。这不仅仅可进行百度关键词热度查询,还能全网关键词热度查询。

以上就是小小课堂网为大家带来的是关键词热度的教程。感谢您的观看。

喜欢记得,点赞,打赏哦。小小课堂网,每天一个IT原创视频和图文教程,别忘了关注哦。

文章来源:https://www.xxkt.org/3445

小程序搜索要做竞价排名 一张图告诉你真相

6月16日下午有运营者爆料,在小程序历史列表搜索关键字在顶部出现商家广告(例如搜索“水果”):

随后猿飞在小程序搜索栏中继续搜索“机票”“酒店”等关键词,同样会看到广告字样。

根据实验,猿飞搜索关键字的结果,都是一批行业优势品牌,例如同程-门票;艺龙-酒店、机票;拼多多-水果、女装、口红等,也欢迎小伙伴们在留言区分享补充一些猿飞没有搜到的品牌。

此次搜索排名出现广告,根据微信官方回复,这是小程序关键词推广功能正在试点,目前处于灰度测试阶段,并邀请了一些品牌参与测试,具体开放时间并不确定。

也就是说,被“灰度”到的用户在搜索到相关试点小程序开发配置的品牌词或者服务词时,便可以找到与之相关的小程序以及相应服务。

例如上面说到的搜索:“水果”,就会出现拼多多小程序。

那么真正的推广方式又是如何呢?猿飞猜测有可能是用竞价的方式进行,类似公众号广告。

另一方面,联想到在前日微信公开课说小程序暂时不能分享到朋友圈,我们不妨大胆推测日后小程序开放到朋友圈的形式会不会像现在的广告形式?

只做轻量推送,根据不同的用户显示不同的小程序广告,这样既没有打扰到用户的同时又能提供用户很可能需要的服务,还能扩大流量入口,相信这会是所有运营者们都求之不得的吧。

至此附上微信小程序的所有流量入口:

疯狂更新模式,接下来的“惊喜”会是什么?想想都让人激动。

最后,为自己打个广告吧~如果想更全面的了解小程序,可以点击晓程序猿出品的【一个程序手册】,手把书教你,如何抓住小程序的红利!

一 END 一

点击图片查看往期热文

不关注晓程序猿,你好意思说你帅?

超参数搜索不够高效 这几大策略了解一下

选自 floydhub

作者:Alessio Gozzoli

参与:朱乾树、张倩

整天 babysitting 深度学习模型是不是很心累?这篇文章或许能帮到你。本文讨论了高效搜索深度学习模型最佳超参数集的动机和策略。作者在 FloydHub 上演示了如何完成这项工作以及研究的导向。读完这篇文章后,你的数据科学工具库将添加一些强大的新工具,帮助你为自己的深度学习模型自动找到最佳配置。

与机器学习模型不同,深度学习模型实际上充满了超参数。

当然,并非所有变量对模型的学习过程都一样重要,但是,鉴于这种额外的复杂性,在这样一个高维空间中找到这些变量的最佳配置显然是一个不小的挑战。

幸运的是,我们有不同的策略和工具来解决搜索问题。开始深入!

我们的目的

怎么做?

我们希望找到最佳的超参数配置,帮助我们在验证/测试集的关键度量上得到最佳分数。

为何?

在计算力、金钱和时间资源有限的情况下,每个科学家和研究员都希望获得最佳模型。但是我们缺少有效的超参数搜索来实现这一目标。

何时?

  • 研究员和深度学习爱好者在最后的开发阶段尝试其中一种搜索策略很常见。这有助于从经过几个小时的训练获得的最佳模型中获得可能的提升。
  • 超参数搜索作为半/全自动深度学习网络中的阶段或组件也很常见。显然,这在公司的数据科学团队中更为常见。

等等,究竟何谓超参数?

我们从最简单的定义开始,

超参数是你在构建机器/深度学习模型时可以调整的「旋钮」。

将超参数比作「旋钮」或「拨号盘」

或者:

超参数是在开始训练之前手动设置的具有预定值的训练变量。

我们可能会同意学习率和 Dropout 率是超参数,但模型设计变量呢?模型设计变量包括嵌入,层数,激活函数等。我们应该将这些变量视为超参数吗?

模型设计变量+超参数→模型参数

简单起见,我们也可以将模型设计组件视为超参数集的一部分。

最后,从训练过程中获得的参数(即从数据中学习的变量)算超参数吗?这些权重称为模型参数。我们不将它们算作超参数。

好的,让我们看一个真实的例子。请看下面的图片,仅以此图说明深度学习模型中变量的不同分类。

变量类别示例图

下一个问题:搜索代价高昂

我们已经知道,我们的目标是搜索超参数的最佳配置,但超参数搜索本质上是一个受计算能力、金钱和时间约束的迭代过程。

超参数搜索周期

一切都以猜测一个不错的配置开始(步骤 1),然后我们需要等到训练完毕(步骤 2)以获得对相关度量标准的实际评估(步骤 3)。我们将跟踪搜索过程的进度(步骤 4),然后根据我们的搜索策略选择一个新的猜测参数(步骤 1)。

我们一直这样做,直到达到终止条件(例如用完时间或金钱)。

我们有四种主要的策略可用于搜索最佳配置。

  • 照看(babysitting,又叫试错)
  • 网格搜索
  • 随机搜索
  • 贝叶斯优化

照看

照看法被称为试错法或在学术领域称为研究生下降法。这种方法 100% 手动,是研究员、学生和业余爱好者最广泛采用的方法。

该端到端的工作流程非常简单:学生设计一个新实验,遵循学习过程的所有步骤(从数据收集到特征图可视化),然后她按顺序迭代超参数,直到她耗尽时间(通常是到截止日期)或动机。

照看(babysitting)

如果你已经注册了 deeplearning.ai 课程,那么你一定熟悉这种方法 – 这是由 Andrew Ng 教授提出的熊猫工作流程。

这种方法非常有教育意义,但它不能在时间宝贵的数据科学家的团队或公司内部施展。

因此,我们遇到这个问题:

有更好的方式来增值我的时间吗?

肯定有!我们可以定义一个自动化的超参数搜索程序来节约你的时间。

网格搜索

取自命令式指令「Just try everything!」的网格搜索——一种简单尝试每种可能配置的朴素方法。

工作流如下:

  • 定义一个 n 维的网格,其中每格都有一个超参数映射。例如 n = (learning_rate, dropout_rate, batch_size)
  • 对于每个维度,定义可能的取值范围:例如 batch_size = [4,8,16,32,64,128,256 ]
  • 搜索所有可能的配置并等待结果去建立最佳配置:例如 C1 = (0.1, 0.3, 4) -> acc = 92%, C2 = (0.1, 0.35, 4) -> acc = 92.3% 等…

下图展示了包含 Dropout 和学习率的二维简单网格搜索。

两变量并发执行的网格搜索

这种平行策略令人尴尬,因为它忽略了计算历史(我们很快就会对此进行扩展)。但它的本意是,你拥有的计算资源越多,你可以同时尝试的猜测就越多!

这种方法的真正痛点称为 curse of dimensionality(维数灾难)。这意味着我们添加的维数越多,搜索在时间复杂度上会增加得越多(通常是指数级增长),最终使这个策略变得不可行!

当超参数维度小于或等于 4 时,通常使用这种方法。但实际上,即使它保证在最后找到最佳配置,它仍然不是首选方案。相反,最好使用随机搜索——我们将在下面讨论。

现在试试网格搜索!

单击以下链接可在 FloydHub 上打开 Workspace:2019/20190426A/F0120388 Scikit-learn 和 Keras 进行网格搜索)。

# Load the dataset

x, y = load_dataset()

# Create model forKerasClassifier

def create_model(hparams1=dvalue,

hparams2=dvalue,

hparamsn=dvalue):

# Model definition

model = KerasClassifier(build_fn=create_model)

# Define the range

hparams1 = [ 2, 4, …]

hparams2 = [ ‘elu’, ‘relu’, …]

hparamsn = [ 1, 2, 3, 4, …]

# Prepare the Grid

param_grid = dict(hparams1=hparams1,

hparams2=hparams2,

hparamsn=hparamsn)

# GridSearch inaction

grid = GridSearchCV(estimator=model,

param_grid=param_grid,

n_jobs=,

cv=,

verbose=)

grid_result = grid.fit(x, y)

# Show the results

print( “Best: %f using %s”% (grid_result.best_score_, grid_result.best_params_))

means = grid_result.cv_results_[ ‘mean_test_score’]

stds = grid_result.cv_results_[ ‘std_test_score’]

params = grid_result.cv_results_[ ‘params’]

formean, stdev, param inzip(means, stds, params):

print( “%f (%f) with: %r”% (mean, stdev, param))

随机搜索

几年前,Bergstra 和 Bengio 发表了一篇惊人的论文 (http://www.jmlr.org/papers/volume13/bergstra12a/bergstra12a.pdf),证明了网格搜索的低效率。

网格搜索和随机搜索之间唯一真正的区别在于策略周期的第 1 步 – 随机搜索从配置空间中随机选取点。

让我们使用下面的图片(论文中提供)来展示研究员的证明。

网格搜索 vs 随机搜索

图像通过在两个超参数空间上搜索最佳配置来比较两种方法。它还假设一个参数比另一个参数更重要。这是一个安全的假设,因为开头提到的深度学习模型确实充满了超参数,并且研究员/科学家/学生一般都知道哪些超参数对训练影响最大。

在网格搜索中,很容易注意到,即使我们已经训练了 9 个模型,但我们每个变量只使用了 3 个值!然而,使用随机布局,我们不太可能多次选择相同的变量。结果是,通过第二种方法,我们将为每个变量使用 9 个不同的值训练 9 个模型。

从每个图像布局顶部的曲线图可以看出,我们使用随机搜索可以更广泛地探索超参数空间(特别是对于更重要的变量)。这将有助于我们在更少的迭代中找到最佳配置。

总结:如果搜索空间包含 3 到 4 个以上的维度,请不要使用网格搜索。相反,使用随机搜索,它为每个搜索任务提供了非常好的基准。

网格搜索和随机搜索的优缺点

现在试试随机搜索!

单击以下链接可在 FloydHub 上打开 Workspace:2019/20190426A/F0120388 Scikit-learn 和 Keras 进行随机搜索)。

# Load the dataset

X, Y = load_dataset()

# Create model forKerasClassifier

def create_model(hparams1=dvalue,

hparams2=dvalue,

hparamsn=dvalue):

# Model definition

model = KerasClassifier(build_fn=create_model)

# Specify parameters and distributions to sample from

hparams1 = randint( 1, 100)

hparams2 = [ ‘elu’, ‘relu’, …]

hparamsn = uniform( 0, 1)

# Prepare the Dict forthe Search

param_dist = dict(hparams1=hparams1,

hparams2=hparams2,

hparamsn=hparamsn)

# Search inaction!

n_iter_search = 16# Numberofparameter settings that are sampled.

random_search = RandomizedSearchCV(estimator=model,

param_distributions=param_dist,

n_iter=n_iter_search,

n_jobs=,

cv=,

verbose=)

random_search.fit(X, Y)

# Show the results

print( “Best: %f using %s”% (random_search.best_score_, random_search.best_params_))

means = random_search.cv_results_[ ‘mean_test_score’]

stds = random_search.cv_results_[ ‘std_test_score’]

params = random_search.cv_results_[ ‘params’]

formean, stdev, param inzip(means, stds, params):

print( “%f (%f) with: %r”% (mean, stdev, param))

后退一步,前进两步

另外,当你需要为每个维度设置空间时,每个变量使用正确的比例非常重要。

常用的批大小和学习率的比例空间

例如,通常使用 2 的幂作为批大小的值,并在对数尺度上对学习率进行采样。

放大!

从上面的布局之一开始进行一定数量的迭代也很常见,然后通过在每个变量范围内更密集地采样并放大到有希望的子空间,然后甚至用相同或不同的搜索策略开始新的搜索。

还有一个问题:独立猜测!

不幸的是,网格和随机搜索都有共同的缺点:

每一次新猜测都独立于之前的训练!

这听起来可能有些奇怪、令人意外,尽管需要大量时间,但令照看法起效的是科学家有效推动搜索和实验的能力,他们通过使用过去的实验结果作为资源来改进下一次训练。

等一下,这些好像在哪儿听过…… 尝试将超参数搜索问题建模为机器学习任务会怎么样?!

请允许我介绍下贝叶斯优化。

贝叶斯优化

此搜索策略构建一个代理模型,该模型试图从超参数配置中预测我们关注的指标。

在每次新的迭代中,代理人将越来越自信哪些新的猜测可以带来改进。就像其他搜索策略一样,它也有相同的终止条件。

贝叶斯优化工作流

如果听起来有点困惑,请不要担心——是时候参考另一个图例了。

高斯过程在起作用

我们可以将高斯过程定义为代理,它将学习从超参数配置到相关度量的映射。它不仅会将预测转化为一个值,还会为我们提供不确定性的范围(均值和方差)。

我们来深入研究这个伟大教程 (https://www.iro.umontreal.ca/~bengioy/cifar/NCAP2014-summerschool/slides/Ryan_adams_140814_bayesopt_ncap.pdf) 提供的示例。

有 2 个点的高斯过程的优化过程

在上图中,我们遵循单变量(在水平轴上)的高斯过程优化的第一步。在我们想象的例子中,这可以代表学习率或 dropout 率。

在垂直轴上,我们绘制了相关度量作为单个超参数的函数。因为我们正在寻找尽可能低的值,所以可以将其视为损失函数。

黑点代表训练到当前阶段的模型。红线是 ground truth,换句话说,就是我们正在努力学习的函数。黑线表示我们对 ground truth 函数的实际假设的平均值,灰色区域表示空间中的相关不确定性或方差。

我们可以注意到,点周围的不确定性有所减少,因为我们对这些点的结果非常有信心(因为我们已经在这里训练了模型)。同时,在我们拥有较少信息的领域,不确定性会增加。

现在我们已经定义了起点,准备好选择下一个有希望的变量来训练一个模型。为此,我们需要定义一个采集函数,它将告诉我们在哪里采样下一个参数。

在此示例中,我们使用了 Expected Improvement:这个函数旨在在我们使用不确定性区域中的建议配置时找到尽可能低的值。上面的 Expected Improvement 图表中的蓝点即为下一次训练选择的点。

3 点高斯过程

我们训练的模型越多,代理人对下一个有希望采样的点就越有信心。以下是模型经过 8 次训练后的图表:

8 点高斯过程

高斯过程属于基于序列模型的优化(SMBO)类别的算法。正如我们刚看到的,这些算法为开始搜索最佳超参数配置提供了非常好的基准。但是,跟所有工具一样,它们也有缺点:

  • 根据定义,该过程是有顺序的
  • 它只能处理数值参数
  • 即使训练表现不佳,它也不提供任何停止训练的机制

请注意,我们只是简单地谈到了这个话题,如果你对细节部分以及如何扩展 SMBO 感兴趣,那么请看一下这篇论文 (https://www.cs.ubc.ca/~hutter/papers/10-TR-SMAC.pdf)。

现在试试贝叶斯优化!

单击以下链接可在 FloydHub 上打开 Workspace:2019/20190426A/F0120388 Hyperas 进行贝叶斯优化(SMBO-TPE))。

def data():

“””

Data providing function:

This function is separated from model() so that hyperopt

won’t reload data for each evaluation run.

“””

# Load / Cleaning / Preprocessing

return x_train, y_train, x_test, y_test

def model(x_train, y_train, x_test, y_test):

“””

Model providing function:

Create Keras model with double curly brackets dropped-in as needed.

Return value has to be a valid python dictionary with two customary keys:

– loss: Specify a numeric evaluation metric to be minimized

– status: Just use STATUS_OK and see hyperopt documentation if not feasible

The last one is optional, though recommended, namely:

– model: specify the model just created so that we can later use it again.

“””

# Model definition / hyperparameters space definition / fit / eval

return{ ‘loss’: <metrics_to_minimize>, ‘status’: STATUS_OK, ‘model’: model}

# SMBO – TPE in action

best_run, best_model = optim.minimize(model=model,

data=data,

algo=tpe.suggest,

max_evals=,

trials=Trials())

# Show the results

x_train, y_train, x_test, y_test = data()

print(“Evalutation of best performing model:”)

print(best_model.evaluate(x_test, y_test))

print(“Best performing model chosen hyper-parameters:”)

print(best_run)

搜索策略对比

现在让我们来总结一下到目前为止所涵盖的策略,以了解每个策略的优缺点。

总结

如果你或你的团队有足够的资源,贝叶斯 SMBO 可能是首选,但是你也应该考虑建立一个随机搜索的基准。

另一方面,如果你还在训练或处于设计阶段,即使在空间探索方面不切实际,照看法也是可以一试的。

正如我在上一节中提到的,如果一个训练表现不佳,我们必须等到计算结束,因为这些策略都不能提供节省资源的机制。

因此,我们得出了最后一个问题:

我们能优化训练时间吗?

我们来试试看。

提前终止的力量

提前终止不仅是一项著名的正则化技术,而且在训练错误时,它还是一种能够防止资源浪费的机制。

下面是最常用的终止训练标准的图表:

终止标准

前三个标准显而易见,所以我们把注意力集中在最后一个标准上。

通常情况下,研究人员会根据实验类别来限定训练时间。这样可以优化团队内部的资源。通过这种方式,我们能够将更多资源分配给最有希望的实验。

floyd-cli(我们的用户用来与 FloydHub 通信的软件,已经在 Github 上开源)为此提供了一个标准:我们的高级用户正在大规模使用它来调节他们的实验。

这些标准可以在照看学习过程时手动应用,或者你可以通过常见框架中提供的钩子/回调在实验中集成这些规则来做得更好:

  • Keras 提供了一个很好的提前终止功能,甚至还有一套回调组件。由于 Keras 最近已经整合到 Tensorflow 中,你也可以使用 Tensorflow 代码中的回调组件。
  • Tensorflow 提供了训练钩子,这些钩子可能不像 Keras 回调那样直观,但是它们能让你对执行状态有更多的控制。
  • Pytorch 还没有提供钩子或回调组件,但是你可以在论坛上查看 TorchSample 仓库。我不太清楚 Pytorch 1.0 的功能列表(该团队可能会在 PyTorch 开发者大会上发布一些内容),这个功能可能会随新版本一起发布。
  • Fast.ai 库也提供回调组件,即使它目前没有提供任何形式的文档(WIP),你也可以去找一个不错的教程。幸运的是,他们有一个很棒的社区。
  • Ignite(Pytorch 的高级库)提供类似于 Keras 的回调,虽然还在开发阶段,但它看起来确实是一个不错的选择。

名单就这么多了,我的讨论只涉及最常用/最流行的框架。-(我希望不会损害其他框架作者的玻璃心。如果是这样,你可以将你的意见转发给我,我会很乐意更新列表!)

还没有结束。

机器学习有一个子领域叫做「AutoML」(Automatic Machine Learning,自动机器学习),目的是实现模型选择、特征提取和/或超参数优化的自动化。

这就引出了最后一个问题(我保证是最后一个!):

我们能了解整个过程吗?

你可以认为,AutoML 是一个解决了另一个机器学习任务的机器学习任务,类似于我们利用贝叶斯优化完成的任务,本质上是元机器学习。

研究:AutoML 和 PBT

你很可能听说过谷歌的 AutoML,这是他们对神经架构搜索的品牌重塑。请记住,在本文开头,我们决定将模型设计组件合并到超参数变量中。那么,神经架构搜索是 AutoML 的子领域,旨在为给定任务找到最佳模型。关于这个主题的全面讨论需要一系列文章。幸运的是,来自 fast.ai 的 Rachel Thomas 博士做了一项了不起的工作,我们很乐意提供链接:http://www.fast.ai/2018/07/12/auto-ml-1/。

我想和大家分享另一个来自 DeepMind 的有趣的研究成果,他们使用进化策略算法的一种变体来执行超参数搜索,称为基于群体的训练(Population Based Training,PBT)。PBT 也是 DeepMind 的另一项研究(《Capture the Flag: the emergence of complex cooperative agents》)的基础,新闻报道并不完全,我强烈建议你去看看。引自 DeepMind:

就像随机搜索一样,PBT 首先需要以随机挑选超参数的方式训练许多并行的神经网络。但是这些网络并不是独立训练的,而是使用其它网络的训练信息来修正这些超参数,并将计算资源分配到那些有希望的模型上。这种方法的灵感来自于遗传算法:其中一个群体中的每个个体(被称为 worker)可以利用除自身外其余个体的信息。例如,一个个体可能会从表现较好的个体那里复制模型参数,它还能通过随机改变当前的值来探索新的超参数集。

当然,这一领域可能还有许多其他有趣的研究。在这里,我只是和大家分享了最近得到媒体关注的一些研究。

在 FloydHub 上管理你的实验

FloydHub 最大的特点之一是能够在训练时比较使用不同的超参数集的不同模型。

下图展示了 FloydHub 项目中的作业列表。你可以看到此用户正在使用作业的消息字段(例如,floyd run –message “SGD, lr=1e-3, l1_drop=0.3” …)以突出显示在每个作业上使用的超参数。

此外,你还可以查看每项作业的训练指标。这些提供了快速浏览,帮助你了解哪些作业表现最佳,以及使用的机器类型和总训练时间。

项目主页

FloydHub 仪表板为你提供了一种简单的方法来比较你在超参数搜索中做的所有训练——并且实时更新。

我们建议你为每个必须解决的任务/问题创建一个不同的 FloydHub 项目。通过这种方式,你可以更轻松地组织工作并与团队协作。

训练指标

如上所述,你可以轻松地在 FloydHub 上为你的作业发布训练指标。当你在 FloydHub 仪表板上查看作业时,你将找到你定义的每个指标的实时图表。

此功能无意替代 Tensorboard(我们也提供此功能),而是旨在突出显示你已选择的超参数配置的训练走势。

例如,如果你正在监督训练过程,那么训练指标肯定会帮助你确定和应用停止标准。

训练指标

原文链接:https://blog.floydhub.com/guide-to-hyperparameters-search-for-deep-learning-models/

本文为机器之心编译,转载请联系本公众号获得授权。

iPhone如何关闭搜索功能显示的应用和游戏?

经常点击某应用或游戏后,在Siri建议处就会显示这些应用或游戏。如果你不需要这个功能,也可以手动设置关闭。设置方法如下:

①在【设置】应用中,找到【通用】一栏,点击打开

②在通用页面,找到【Spotlight搜索】选项,点击进入

③进入页面后,关闭【Siri建议】选项也可以关闭常用显示

④或者,找到不想显示的应用或游戏,将其关闭也是可以的

独立站推广实践 | SEO关键词研究 如何找到潜在用户的搜索词

最近,小编发现 shopify 流量榜单有几个独立站排名迅速上升,他们的一个共同点就是有机搜索的比重都很高,特别是 20 名上下的站点,而前三名的站点往往直接搜索比重更高。

例如一家名为 misthub 的电子烟独立站,有机搜索达到 79.67%,而第一名的美妆站点 colourpop 的直接搜索占了 55.40%。由此可见,在建站初期,有机搜索是引流的第一步,因此做好 SEO 也是建站成功的第一步。

图片来源:Similarweb

根据潜在客户在网上实际搜索的内容挖掘产生流量的机会,设置搜索关键词是整个 SEO 流程的基础。如果你可以依据用户高频搜索词来优化网页和创建内容,可以大大提高有机搜索引流效果。关键词研究不是猜测客户正在搜索的关键字,而是根据关键字的竞争力或每月估计的搜索量等因素,对目标关键词做出判断的过程。

在讨论如何找到有价值的关键词之前,让我们先定义“关键词”的含义。关键词是输入到搜索引擎中的任何单词或短语。例如,一个单词“蛋糕”或者一个更长的短语“如何制作蛋糕”。首先,要根据消费者意图来区分三种不同类型的关键字。

1、导航类:导航关键字是某人用来导航某个地方的关键字。例如,如果在谷歌中键入单词 New York Times,则可能正在尝试导航到 New York Times 网站。

2、事务类:当某人试图完成一个操作时,使用事务性关键字。例如,有人在网上搜索关键词“买跑鞋”,那就是想要买一双跑鞋。

3、信息类:信息性关键字意味着用户正在研究一个主题或问题,或收集上下文,不一定是为了购买。例如“最流行的跑鞋款式是什么?”

大多数企业要优先考虑事务类和信息类关键词。虽然并不是每个目标关键词都是为了购买,但是了解搜索查询背后的隐含意图,对于弄清楚你的页面应该包含什么内容是至关重要的。给大家介绍三个设置搜索关键词的策略和特殊工具。

第一步:列出与你的业务相关的话题

首先考虑你的行业和你销售的产品。思考潜在客户可能会有什么样的问题、可能会对什么样的内容感兴趣。例如可以从以下几个问题进行头脑风暴:当有人搜索这个关键字时,他们希望找到什么?关键字与你销售的产品相关吗?你想怎样被发现?你的客户如何评价你的产品?

对于一些复杂品类,客户的叫法是什么?当人们想要购买你的产品时,他们可能会用不同的方式来搜索你的产品。尽管在意义上是相似的,但在意图、使用频率和其他方面仍然是不同的。例如上文提到的电子烟独立站 misthub,他设置的关键词为:vape、misthub、vape mods、vape shop、voopoo drag。

图片来源:Similarweb

电子烟消费者绝大多数属于 vape 文化圈层,因此这家店非常聪明的将第一关键词锁定在目标消费者的文化圈层上,甚至连没有购买电子烟意图的消费者,在搜索信息类关键词时,都会成为潜在客户。Vape mods 是对电子烟进行改造的一种潮流,voopoo drag 是 voopoo 公司推出的一款产品。这两个扩展短语可以在 vape 文化圈细分人群里寻找潜在客户。

由此可见,除了事务类关键词之外,还可以考虑使用信息关键词来推动你的内容营销。例如通过写博客文章或在你的商店中建立一个针对特定问题或主题的页面,可以增加你通过信息关键字被找到的机会,影响读者心智并引导购买。

第二步:找到“相关搜索”并写下来

当开始创建关键词列表时,你要清楚长尾关键词,通常是三到四个或更长单词的关键词竞争较少,但搜索量也较低,因此只有当它们具有较高的针对性时,它们才会带来特别有价值的流量。因此确定有效的长尾关键词的一个方法是:在搜索引擎输入一个单词或短语,然后向下滚动到页面底部的“搜索相关”部分。将这里的相关关键词添加到上一个步骤的列表中。

第三步:使用免费的关键词研究工具

首先是基于谷歌数据的三款工具:

Everywhere Keywords,它是 Chrome 和 Firefox 的免费扩展。它将显示每个月在谷歌上搜索给定关键字的估计次数,来辅助你对关键词列表进行优先级排序,并且还会推荐其他关键字供你考虑;

Google Search Console,他可以帮你从谷歌数据了解目标用户的搜索模式,还可以查找网站上的错误,并选择排除您不希望在搜索结果中显示的页面;

Google Keyword Planner,他可以分析某个特定词的用户搜索频率、搜索内容在不同时期的变化等。然而,你需要一个谷歌广告帐户来使用它,必须开始运行广告才能看到所有的数据;

Answer the Public,它能根据谷歌的数据,从焦点关键词提供一个可视化的映射出长尾关键字。它根据问题 (谁、什么、何时、何地、为什么)、比较(与之相比,以及,或)来提供关键词创意。同时也是提供了人们对某个话题的看法,以及他们在做出购买决定时可能面临的具体障碍或选择的好方法,适合用于内容营销

其次是基于反向链接的三款工具:

MozBar,它可以帮助你根据页面权限、域权限和指向页面的反向链接的数量来衡量一个位置在搜索引擎结果中的竞争力,另外还可以方便地分析页面上的 SEO,并评估某个页面的反向链接可能有多大用处;

Backlink Tool,了解链接到你或你的竞品的站点的类型,以便创建博客或作家的扩展列表;

SEO Review Tools,他提供反向链接检查器,但唯一的限制是,只能得到每个域的最佳反向链接,并且每天只能运行 18 次。不过这个工具可以告诉你链接站点的域权限、它们链接到你的次数、它们是 follow 还是 no follow 链接,以及它们在单个视图中使用的锚文本。

最后是基于多个搜索引擎数据的工具:

Soovle,他可以从、雅虎(Yahoo)、、、Answers.com 等多网关键字,帮你全维度触达客户的站的浏览数据给你关键词的建议,并且是激发竞争不太激烈的长尾信息查询。(来源:白鲸出海)

以上内容属作者个人观点,不代表雨果网立场!如有侵权,请联系我们。

风雨同舟引热议 田朴珺 360搜索指数竟超王石

360百科:田朴珺出生于上海,制片人、专栏作家、演员,北京当代艺术基金独立理事,万科董事长王石女友。

近日,万科控制权之争成为舆论焦点,深处夺权漩涡之中的王石遭遇重大危机,6月27日,王石女友田朴珺取消既定行程,并发博称:“风雨同舟”,这位宣扬“独立主义”的女人再成焦点,田朴珺究竟是“女王”,还是“王的女人”?360搜索人物大数据带您解读。

成功不靠男人 田朴珺或将超越王石

6月21日-28日期间,田朴珺搜索指数一路飙升,搜索指数同比环比均上升超过1000%,6月26日万科宝能夺权事件进入白热化,田朴珺的360搜索指数(index.so.com)从1,961飙升到25,227,同比飙升超过10倍,力压男友王石的17,845,宣布田朴珺的媒体关注度仅为224,不到王石2,449的 1/10。媒体聚焦“王石本人”,网民更关注“王的女人”。

受“驴友”王石影响 户外人群关注田朴珺

基于PC端5.13亿、移动端8亿用户的360搜索(www.so.com)大数据分析显示,在关键词“田朴珺”所有相关搜索中,男女用户比例达61:39,以20-29岁用户居多,达到33%,30-39岁区间用户次之。此部分用户关注社会热点、对明星影视、金融财经保持敏感,关键词“王石”与“田朴珺”搜索用户成分构成相似,特点重合度达95%以上,除了“影视Fans”、“财经高手”、“购物狂”对“田朴珺”保持关注之外,“驴友人群”的意外上榜,也与王石爱好爬山关系密切。

婆家更关注准儿媳 娘家关注度仅第7

万科控制权之争使田朴珺搜索指数飙升,全网用户搜索统计地域方面,“万科主场”广东省对田朴珺的关注遥遥领先于全国其它省份,搜索指数超过第二名北京、第三名江苏的总和;而上海却仅排名第7,作为田朴珺的“主场”,似乎娘家人并不那么关注她。

田朴珺相关热词盘点:

“风雨同舟”:房地产大亨王石陷入“倒王”风波当中,“宝能系”要罢免王石董事职务的消息落地为实。2016年6月27日,王石女友田朴珺在微博发文“风雨同舟”,疑似力挺王石。

“独立主义”:“独立女性”的标签也使田朴珺格外受到关注,并曾经获得某媒体“独立女性奖”提名,她曾表示:成功不靠男人,我一定会比王石强,正是因为独立,我才能和他(王石)走到现在。

“习惯就好”:2014年,田朴珺发布新书《习惯就好》,田朴珺说取这个名字是因为觉得人只要来到这个世界上就要经历一个“从不习惯到习惯”周而复始的过程,可能这就是人生轨迹,总是在迎接、告别、适应。

“红烧肉”:2012年1月29日田朴珺曾晒出一盆红烧肉,并宣布“终于吃到笨笨的红烧肉了”,网友笑侃笨笨牌红烧肉诚意可赞,但卖相实在不敢恭维。

“敦亲王福晋”:2010年,热剧《甄嬛传》开播,在剧中饰演敦亲王福晋一角,使田朴珺近两年来搜索热度稳步上升,2012年,田朴珺与王石恋情被媒体曝光。

“强吻巴乔”:2007年8月,前世界足球先生、意大利著名球星罗伯特-巴乔来北京时,当时26岁的田朴珺曾在机场强吻巴乔。

“魔鬼天使”:每个女性都有“最想删的照片”,田朴珺也不例外,《魔鬼天使》的被强暴戏码一直以来,被网友津津乐道,成为“王的女人”后,田朴珺搜索关联词中,魔鬼天使分量不低。

《甄嬛传》、《饺子》、《魔鬼天使》、《韩城攻略》、《京城四美》、《东京攻略》,作为不求男人的独立女星,田朴珺与王石、与万科之间的纠葛产生出无限话题。新闻热点事件,数字深层揭密,上360搜索搜一下。