樂思蜀認為,目前是SEO初學者最困難的階段。可能老SEOer不以為然,覺得早些時候自己學習SEO時,邊啃English邊尋找新大陸般的找資料更難。我們不妨來分析一下現狀:

SEO資料的時效性

胡寶介女士的經典作品《搜索引擎優化(SEO)知識完全手冊》,曾經作為SEO教材般傳播,都隨著時間流失,搜索引擎技術、算法的變動,部分內容已經不適用或不那么有效了。

這是一個不可避免事情,搜索引擎技術不可能原地踏步,而是不斷完善、更新中。以搜索引擎為基礎的SEO技術資料也需要隨著搜索引擎的變化,增加、變動、完善相應內容。而目前國內的現狀是,大量轉載、復制、抄襲舊的SEO資料,不見新的技術文章。

也許正是因為SEO資料具有時效性的特點,老的SEOer們有意回避,不愿意去耗費大量時間、精力編寫一本資料,卻在一年、半年、甚至三兩個月后, 失去了價值;也正是因為大量的抄襲現象,老的SEOer們不愿意看到自己辛辛苦苦創造出來的成果,沒有署名、甚至被署上別人的名四處傳播。

更為嚴重的是,這種回避延伸到了文章的撰寫,初學者可能都會發現,現在很多SEO高手的博客中,已經很難找到真正具有指導意義的技術資料,大家寧愿談搜索引擎的變化,寧愿講未來搜索引擎趨勢或新奇發現吸引一下眼球。

如此循環至今,想進入SEO圈的初學者,找資料就是一件難事。

SEO資料的正確性

目前國內SEO領域,高手何其多,專家滿天飛。

很多真正的高手隱匿了,不寫資料了,甚至不在網絡或線下露面;露面的高手中,如上一點所說,又不太寫技術資料了。

這時,很多自稱“高手”的SEO,動輒“我認為…”、“我發現…”、“應該…”,讓SEO初學者一部分埋頭實踐一番,不得不折回來,而一部分步入了黑帽圈子。

名號意味著責任,有多大的名,就得承擔多大的責。但國內SEO圈子中卻并不都是這樣,太多無須負責的“專家”,甚至打著專家的幌子,拿別人的文章,署上自己的大名,招搖過市。

SEO初學者迷惑了,都是高手、都號稱“專家”,理論卻大相徑庭,該相信哪位高手或“專家”?

SEO資料的實用性

很多初學者在與我交流中,偏激的提到,SEO圈中誰和誰不過如此,只會紙上談兵沒有真本事。

其實他們所說是誰和誰,是真正的SEO高手,但我無法向他們解釋。

認真思考了這個問題,出現這種情況的根本原因是導向性文章的缺乏。

在SEO初學者心里,大多抱著希望,找一個SEO高手,教他們三五招,用上就見效;從高手那里找到捷徑,短時間內也成為高手。

而真正的SEO不是建立在理論上的,也不是幾招幾式的局限性技術,SEO是一個工具,或一個系統的工程。運用這個工具,從實踐中捕捉一切信息,并靈活應對;再將這樣一個過程系統化,部署、實施到整個目標網站。

SEO資料只不過是傳授SEO理論知識和實施方法,并不具體的、也不能具體的教導什么時候該如何做,只需要按部就班就見效。

這是SEO知識普及者與接受者之間的障礙,需要更多的、理性化的、淺顯易懂的導向文章。

作為初學者應該明白,學習SEO不是武俠小說里的“學武功”,也沒有什么“絕招”。

傳授者應該授人以“漁”,而不是授人以“魚”。

EMBA的小眼睛 發表在 痞客邦 留言(0) 人氣()

Tomorrow is the biggest day of the year for charitable giving in the US.

The reason is clear: if you make a donation Tuesday, you have to wait a whole year to get a deduction. Make it today and you get it right now.

Of course, charitable giving shouldn't be driven by the search for a tax deduction, but the knowledge that now is your last chance short-circuits the sooner or later decision.

So, today, before it's too late, why not help build a platform for those that need it, a platform that generates a hundred or a thousand times more pareto-optimal joy. Not because there's a heart-tugging pitch or an external urgency, but because sooner is better than later.

Room to Read, The Acumen Fund, Juvenile Diabetes, DoSomething, Afaya

Sooner rather than later. We'll get there if we all head there.

EMBA的小眼睛 發表在 痞客邦 留言(0) 人氣()


大家都知道在相关百度的产品里面进行推广的效果是最好的,因为百度总是对自己旗下的产品优先收录的,正是很多人想利用这一点来推广,所以百度现在对这方面的管理是非常的严格,如果你在百度知道里面搞一个带连接的帖子的话,很不幸等不到12个小时你的帖子就被删除了,甚至有的还直接把你的帐号给封掉,那么有没有什么好的方法突破百度的封锁呢?请看下面的百度知道推广技巧最新大全!
  一:首先,针对行业去各大问答平台搜集各户问题。推荐几个:百度知道,新浪爱问,天涯问答,搜搜问问,奇虎问答网等等尤其是百度知道,更是我们推广的重点区域!。
  二:如果你在发帖子自问自答的时候一定要更换IP,要不然你会死的很惨!
  三:百度知道收录的标准往往是出现第一个回答的时候就会收录,而不是要等到出现最佳答案的时候,所以当我们在网络上回答问题的时候要尽可能的抢占一楼,如果能够成为最佳答案那就更好了,在回答问题的时候要尽可能的使用高级的帐号去回答,回答的时候也要注意资料和答案的相吻合性,可以考虑在资料里面自然而然的加入你要推广的网址  四:在百度知道推广时,一定要控制好量,不一定铺天盖地的推广,要多做精华版,同时自问自答时一定要勤换IP!
  五:要注重用户体验,别再回答问题的时候牛头不对马嘴,这样别人在看答案的时候会感到非常的郁闷,你这是在浪费别人的时间,这样百度也会对你的帐号进行限制的!
  六:有的人在提问时想不到要带上网址,其实这是定向思维在作怪,如果在提问的时候带上网址也有不错的效果,不过此时要选择级别比较高的帐号来做!
  七:要多培养几个高级帐号,这样你的回答和提问虽然带了链接也很容易通过,甚至还不用被审核,就算是审核时考虑到你的级别百度也会轻松的让你过关的!而且级别越高被采纳为最佳答案的几率也相对大些呢!
  八:最好能够建立一个QQ群,然后和别人轮流提问回答,比如你在百度里面提出一个问题,然后事先将准备好的答案和需要插入网址发给别人,让别人给你回答,这样审核通过的可能性就会提高很多!
  九:要学会整理被搜索频率高的问题,然后对这些问题按照用户的搜索习惯再重新组合,并且对答案也进行重新组合,在适当的地方加入你要推广的网站或者产品,当然在问题发出之后要以最快的速度来回答,要不然让同行占据了第一楼,那么你的网址被收录的可能性就小了!

EMBA的小眼睛 發表在 痞客邦 留言(0) 人氣()

SEO不是數學,大部分地方沒什么精確性。SEO更靠近是門藝術,很多時候是靠著說不清道不明的直覺和經驗,同時邏輯及細節也很重要。

舉兩個最近幫人看的網站診斷案例。一個朋友的網站,莫名其妙的在搜索引擎中消失了。以前收錄正常,不知從什么時候開始,網頁越來越少直到完全消失。

我看了一下網站,就是一個簡單的個人網站。邏輯告訴我,商業性網站作弊被K的可能性往往不小,個人網站作弊可能性微乎其微,沒有利益驅動,根本不值得這么做。網站不被收錄,除了被K,要么就是robots.txt文件禁止抓取,或伺服器設置禁止蜘蛛抓取。

從現象來看,我的直覺是robots文件有問題。可是打開robots文件看了看,實在看不出什么問題,是很簡單的答應所有搜索引擎抓取。Robots文件里多一個斜杠少一個斜杠,天差地別,所以我瞪大了眼睛仔細看,確實看不出什么問題。

這時細節要發揮作用了。我用線上robots文件驗證工具查了一下,三個工具有兩個工具顯示文件最前面多出一個莫名其妙的問號,就像英文電腦沒裝中 文字體打開中文網站時看到的那種問號。直接在瀏覽器打開robots文件,或者對方把文件傳給我,用編輯軟件打開,都看不到這個問號。

經過簡單對話,發現這位朋友使用的是Windows Vista操作系統。以前就聽說過Windows Vista系統有時候在處理文字時編碼會有問題。不知道什么原因。不過結果是robots文件編碼可能出現問題,搜索引擎抓取后產生錯誤理解,結果不抓取網頁。

我在我的電腦里把文件重新存一遍,傳給對方。對方不打開不編輯,直接上傳網頁空間,幾天后,抓取開始正常。

另一個出現問題的是英文網站。在google.com搜要害詞,排名三天兩頭在第一頁到四五頁之間跳來跳去。但是在google.cn排名穩定。因為是英文站,所以在google.cn的排名毫無意義。

邏輯告訴我,這和網站語言或伺服器位置有關。看了看網站,是純英文,沒有中文字,伺服器在美國。檢查了一下網站的反向鏈接,有大量的中文網站鏈接。 所以初步判定,這些鏈接被判定為有垃圾嫌疑。但是有很多英文網站其實都有大量垃圾中文鏈接,就算排名很差,但并不會出現這種現象。

我的直覺告訴我,雖然和大量中文網站為伍,但不至于被懲罰,而且懲罰也很少見到這種現象。

看網站頁面看不出什么。忽然發現一個細節。在google.com,這個網頁的排名旁邊寫著”Translate this page” (翻譯此頁),這是個很希奇的現象。我的電腦是英文系統,用的是google.com,英文網站的英文要害詞排名,不應該出現翻譯此頁這個鏈接。這說明 Google是把這個網頁當成中文網頁了,所以在google.cn中排名穩定,但是在google.com中跳來跳去。

再仔細看網站,確實沒有中文。打開CSS文件發現,定義的字體中有中文字體。建議對方把中文字體刪掉。過一段時間后,問題解決,google.com中排名穩定在第一頁,當然google.cn的排名跑后面去了。

這兩個案例都是網上的朋友在問了很多專家高手都找不出原因后,通過MSN問我。 我估計專家高手們可能想得太復雜,往作弊啦,懲罰啦等方向分析去了,卻忽略了簡單的邏輯和直覺。

EMBA的小眼睛 發表在 痞客邦 留言(0) 人氣()

對于搜索引擎來說,重復的網頁內容是非常有害的。重復網頁的存在意味著這些網頁就要被搜索引擎多處理一次。更有害的是搜索引擎的索引設計中可能會在索引庫里索引兩份相同的網頁。當有人查詢時,在搜索結果中就會出現重復的網頁鏈接。所以無論是從搜索體驗還是系統效率檢索質量來說這些重負網頁都是有害處的。

網頁查重技術起源于復制檢測技術,即判斷一個文件內容是否存在抄襲、復制另外一個或多個文件的技術。

1993年Arizona大學的Manber(Google現副總裁、工程師)推出了一個sif工具,尋找相似文件。1995年Stanford大學的Brin(Sergey Brin,Google創始人之一)和Garcia-Molina等人在“數字圖書觀”工程中首次提出文本復制檢測機制COPS(Copy Protection System)系統與相應算法[Sergey Brin et al 1995]。之后這種檢測重復技術被應用到搜索引擎中,基本的核心技術既比較相似。

網頁和簡單的文檔不同,網頁的特殊屬性具有內容和格式等標記,因此在內容和格式上的相同相似構成了4種網頁相似的類型。
1、兩個頁面內容格式完全相同。
2、兩個頁面內容相同,但格式不同。
3、兩個頁面部分內容相同并且格式相同。
4、兩個頁面部分重要相同但格式不同。

實現方法:

網頁查重,首先將網頁整理成為一個具有標題和正文的文檔,來方便查重。所以網頁查重又叫“文檔查重”。“文檔查重”一般被分為三個步驟,一、特征抽取。二、相似度計算和評價。三、消重。

1.特征抽取
我們在判斷相似物的時候,一般是才能用不變的特征進行對比,文件查重第一步也是進行特征抽取。也就是將文檔內容分解,由若干組成文檔的特征集合表示,這一步是為了方面后面的特征比較計算相似度。
特征抽取有很多方法,我們這里主要說兩種比較經典的算法,“I-Match算法”、“Shingle算法”。
“I-Match算法”是不依賴于完全的信息分析,而是使用數據集合的統計特征來抽取文檔的主要特征,將非主要特征拋棄。
“Shingle算法”通過抽取多個特征詞匯,比較兩個特征集合的相似程度實現文檔查重。

2.相似度計算和評價
特征抽取完畢后,就需要進行特征對比,因網頁查重第二步就是相似度計算和評價。
I-Match算法的特征只有一個,當輸入一篇文檔,根據詞匯的IDF值(逆文本頻率指數,Inverse document frequency縮寫為IDF)過濾出一些關鍵特征,即一篇文章中特別高和特別低頻的詞匯往往不能反應這篇文章的本質。因此通過文檔中去掉高頻和低頻詞匯,并且計算出這篇文檔的唯一的Hash值(Hash簡單的說就是把數據值映射為地址。把數據值作為輸入,經計算后即可得到地址值。),那些Hash值相同的文檔就是重復的。

Shingle算法是抽取多個特征進行比較,所以處理起來比較復雜一些,比較的方法是完全一致的Shingle個數。然后除以兩個文檔的Shingle總數減去一致的Shingle個數,這種方法計算出的數值為“Jaccard 系數”,它可以判斷集合的相似度。Jaccard 系數的計算方法集合的交集除以集合的并集。

3.消重
對于刪除重復內容,搜索引擎考慮到眾多收錄因素,所以使用了最簡單的最實用的方法。先被爬蟲抓取的頁面同時很大程度也保證了優先保留原創網頁。

網頁查重工作是系統中不可缺少的,刪除了重復的頁面,所以搜索引擎的其他環節也會減少很多不必要的麻煩,節省了索引存儲空間、減少了查詢成本、提高了PageRank計算效率。方便了搜索引擎用戶。

本文首發 齊寧網絡營銷策劃 www.qi-ning.com 轉載請注明作者信息。謝謝!
齊寧 MSN: i@qining.org

EMBA的小眼睛 發表在 痞客邦 留言(0) 人氣()