现在很多人为了能够更好地做好网站优化工作,专门进行百度竞价来促进网站发展,下面我们就来分析百度竞价广告关键词应怎样选取。
一、根据营销目的来选取关键词
一个站长做竞价的时候首先要明白自己的营销目的,是要推广一个品牌,还是促销商品,像新浪微博这样的重要的是品牌的推广,而像减肥药排行榜这种词做的就是产品促销。其次,很需要关注的一点是受众目标,是男性还是女性,是学生还是白领,这个同样很关键词,像早期校内网的受众就主要针对学生,而开心网针对的就是白领用户。
二、根据自己公司的需求来选择关键词
你的企业是做服务或者是卖产品的,那么转化率就是一个很重要的问题,这样我们可以选择类似长尾的关键词,就是含有描述产品或服务的关键词。而如果你的公司是做网站的需要大量的用户,那么我们可以选择比较通用的关键词,比如巧克力、手机这样流量高又有转化率的词语。当然这种词由于流量大所以你如果没有大的预算最好不要选择此类关键词。
三、根据地域性来选择关键词
这个很重要,我们可以先分析我们网站的流量主要是来自哪些地区,然后据此来制定关键词策略,采用地域+关键词的方法这种选择方法已经被多次证明是卓有成效的,比如你是装修公司地址是在深圳,那么做装修这个词的成本远远要比深圳装修的成本要来得高,而且转化率来得低,所以深圳装修公司就是我们的首选词。
关于百度竞价广告关键词的选取也是需要有一定方法的,我们需要遵循一定的方法技巧来选取好关键词,这样才能让我们更好地做好关键词优化工作。
- Jan 29 Tue 2013 22:45
百度竞价关键词广告的选择方法
- Jan 29 Tue 2013 18:54
Seth's Blog : The Icarus Session in your town, plus live with me in New York
The Icarus Session in your town, plus live with me in New York
I'm trying something new and I hope you'll check it out.
At 7 pm (local time, wherever you are) on January 2nd, I'm inviting you and your peers, colleagues and friends to organize and attend an Icarus Session. You can find out the details at this link: Icarus Sessions. Read all the details to find the big picture and the link to sign up. Every city needs a volunteer organizer as well, and you can take the lead on the meetup site when you get there.
The short version: people volunteer to give a 140 second talk about what they're working on, creating or building, to do it with vulnerability, passion and generosity. And then to sit down and cheer on the next person.
Hundreds of cities, thousands of people, all connecting at the same time, around the world.
These are free, self-organized exchanges of bravery. A chance to find fellow travelers, artists and those making a ruckus and hear what they're passionate about. No pitching, no selling, but a 140-second confession of passion, fear and connection.
To kick it off, I'm hosting a live lecture, reading and session the afternoon of January 2nd in New York City. Details are right here.
I'll be hosting future events in Boston, London and one or two other cities over the coming months. I'll announce some soon.
I can promise it'll be interesting, and it might just change your work.
http://sethgodin.typepad.com/seths_blog/2012/12/the-icarus-session-in-your-town-plus-live-in-new-york.html?utm_source=feedburner&utm_medium=feed&utm_campaign=Feed%3A+typepad%2Fsethsmainblog+%28Seth%27s+Blog%29
- Jan 29 Tue 2013 00:26
《孔子》剧组便宜李贞贤,成为只出现三集的“女主角
《孔子》剧组便宜李贞贤,成出现三集的“女主角“!
今日(8月13日)看到韩国媒体报道的韩国女星李贞贤出演中国电视剧《孔子〉的新闻,不由发出感慨。多少韩国艺人在中国有点动静都要拿到韩国媒体宣传一番,与其说“宣传”,不如说“忽悠“。韩国新闻中报道李贞贤将加盟中国电视剧《孔子〉剧组,在剧中演女主角---皇后---南子一角。事实上,《孔子〉剧组一直希望有一位一线韩国女演员扮演此角色,剧组曾经列出候选名单:宋惠乔、金喜善、张瑞姬、金素妍、朴时妍等等。该角色只在三十多集的电视剧中出现三集,属于“客串“性质的角色,一共预计五日内拍摄完毕;戏分少之又少。且剧组要在8月14、15日左右在广东佛山进行记者发布会,对女演员的要求是必须来参加记者发布会的亮相才可以拍摄。剧组接触过金喜善方面,而金没有答应出演,朴时妍也因为在日程上无法参加记者发布会而无缘该角色。最终剧组找到了在韩国比较“闲”的李贞贤,出演该角色。放弃了“一线”女演员这一条件,而选择其“有空能来参加发布会”的条件,进行合作。
原本此合作无可厚非,但韩国媒体却将其小题大做,称李贞贤要演女主角,请问韩国媒体:在三十多集电视剧中只出现三集的人物也敢称之为“主演"么?我想对韩国媒体说:在中国,这样的角色换以“客串出演“的描述相对来说更加恰当、“体面“些。
由此警戒韩国媒体,不要把什么新闻都当作“大事件“,大惊小怪。缺乏事实根据,只根据艺人经纪公司的介绍就进行新闻报道实在欠妥。
- Jan 29 Tue 2013 00:22
Do not be evil-不作恶的谷歌
大多数人想了解一样事物,会通过搜索引擎搜索相关信息,因此,搜索代表着一种求知意愿。想你所想,并呈现出你想要的搜索结果,便是搜索引擎的追求。
谷歌作为目前最主流的搜索引擎,一直宣扬着他们公正、自由的信仰,其中有一句话比较经典——“Do not be evil 不作恶”。
不作恶,代表着一种正义的态度,顿时让这个以算法、逻辑而出名的高科技企业获得大众的好感,谷歌也不断履行着这一理念,维护着良好的企业形象。但是,这个“恶”是由谁定义的呢?美国的“恶”与中国的“恶”是一样的吗?这条道德底线到底划在哪里呢?
在美国允许公民持枪,在中国这是犯法的行为。因此,如果在美国搜索枪支弹药,应该是合法的行为,但是在中国进行搜索的话,或许就会成为警察破案的线索。此类的例子相信有很多,因此,可以说,“Do not be evil”在中国,并非谷歌自己所认同的,“道不同,不相为谋”,这或许是谷歌退出中国的主要原因,而并非大家所谈的政治因素。
谷歌,还会回来吗?
《庄子·秋水》中的一种叫鹓的鸟。此鸟飞行时,不是高贵的梧桐树不栖息,不是修竹的果实不吃,不是甘甜的清泉不喝……高贵,纯洁。或许,等到哪一天,中国的市场符合了谷歌的要求,或者谷歌认同了中国市场的“不做恶”的理解,这只网络神兽古鸽才会从香港迁徙回来。
- Jan 29 Tue 2013 00:22
浅谈我对robots.txt文件的初步了解
近日,有关360搜索违反robots协议的事件引起了广大站长的不满,有关robots.txt文件,做seo的人都知道,他是告诉蜘蛛哪些页面可以爬取,哪些页面不可以爬取。但有关robots.txt的语法及了解,我一直是一知半解的,经过上周的培训及自己看了一些资料,对此也有一定的了解,下面就简单整理一下:
第一:robots.txt的定义:它是一个纯文本文件,通过这个文件,让蜘蛛知道更明确的知道该如何爬取,这样就可以让搜索引擎只爬取指定的内容,从而利于指定页面的收录;除此之外,robots.txt必须放置于一个站点的根目录下,而且文件名必须全部小写。而相应的robots.txt则为:
http://xxx/
http://xxx/robots.txt;
第二:robots.txt的语法:robots.txt文件中,通常以一行或多行User-agent(应用以下规则的蜘蛛)开始,后面加上若干Disallow(要拦截的网址),除此之外,我们知道,robots.txt文件中都是独立的各个部分,具体为:
User-agent:*
Disallow:/folder1/
User-Agent: Googlebot
Disallow: /folder2/
Sitemap: http://xxx/sitemap.html
以上案例中,只有于/folder2/匹配的网址才不会被蜘蛛抓取;而且,一般我们在robots.txt文件中会建议加入sitemap,优势即可以引导蜘蛛区爬取网站的地图页面,同时robots.txt文件中的sitemap指令是支持多个的!我们常见的:
第三:User-agent和Disallow名词解释:
User-agent:用于描述搜索引擎robot的名字,在“robots.txt”中,如果存在多个User-agent,则表示多个robot会受到限制,如果设为*,则表示该协议对任何机器均有效;但规定,“robots.txt”文件中,User-agent:*这样的记录只能有一条。
Disallow:任何以Disallow开头的URL均是不希望被robot访问到,Disallow可以是一条完整的URL,也可以是部分;简单的表示手法为:要拦截某一目录以及其中的所有内容,请在目录名后添加正斜线,为:“ Disallow: /无用目录/”;要拦截某个网页,请列出该网页,为:“Disallow: /私人文件.html”。如果Disallow记录为空,则说明该网站均可以被访问。我们常见的写法包括:
Disallow: /admin/ 这里表示禁止爬寻admin目录下面的目录;
Disallow: /ABC/ 这里定义是禁止爬寻ABC目录下面的目录
Disallow: /cgi-bin/*.htm 禁止访问/cgi-bin/目录下的所有以”.htm”为后缀的URL(包含子目录)。
Disallow: /*?* 这里表示禁止访问网站中所有的动态页面
Disallow: /jpg$ 这里表示禁止抓取网页所有的.jpg格式的图片
Disallow:/ab/adc.html 这里表示禁止爬去ab文件夹下面的adc.html文件。
当然,有关“robots.txt”文件,这里只是介绍了一些皮毛,如何恰到好处的使用才是其真谛,有关这方面的知识笔者也需要进一步的学习和了解!