Blogroll

Tìm hiểu và giải mã các thuật toán Google 


Google là một công ty Internet có trụ sở tại mỹ, hoạt động từ năm 1998 tới nay. Google nổi tiếng với bộ máy tìm kiếm thông tin đỉnh cao – được người dùng đánh giá là công cụ tìm kiếm hữu ích và mạnh mẽ nhất hiện nay.

Trải qua gần 20 năm hoạt động,với biết bao nhiêu lần update để cải thiện bộ máy tìm kiếm được tốt hơn. Hôm nay tôi sẽ thống kê lại các lần thay đổi thuật toán chính của Google.

Cập nhật năm 2000
Lần đầu tiên vào năm 1997, thuật toán Google Florida ra đời. Đánh dấu một bước tiến mạnh mẽ trong SERPs nhằm thanh lọc việc nhồi nhét từ khóa

Cập nhật năm 2000
1. Google Toolbar – Tháng 12 năm 2000
Như nhìn trước được tương lai SEO sẽ phát triển trong nhiều năm tới. Google cho ra mắt thanh công cụ Google Toolbar và cùng với nó thanh công cụ Google Pagerank được cập nhật.

Cập nhật năm 2003
2. Thuật toán Boston – Tháng 2 năm 2003
Được công bố tại SES Boston. Ban đầu Google dự định sẽ tung bản cập nhập hàng tháng cho các bộ phận chính tuy nhiên ý tưởng này nhanh chóng bị lãng quên . Boston là bản cập nhật kết hợp giữa kỵ thuật và sự đổi mới về chỉ số chính (lúc bấy giờ các chỉ số này có tên gọi là Google dance)

3. Thuật toán Cassandra – Tháng 4 năm 2003
Google đã phát hiện ra một vài vấn đề liên quan đến chất lượng liên kết, chẳng hạn như liên kết từ những website sở hữu bởi cùng một người. Cassandra sẽ phạt nặng các trang sử dụng text ẩn hay link ẩn.

4. Thuật toán Dominic – Tháng 5 năm 2003
Vào tháng 5 thuật toán Dominic rất khó quan sát khi Google công bố họ cải thiện quá trình của các Googlebot và độ sâu khi tìm kiếm những thông tin. Cũng ở thuật toán Dominic này, cách thức tính Backlink dường như cũng thay đổi đáng kể.

5. Thuật toán Esmerelda – Tháng 6 năm 2003
Tháng 6 là tháng chuẩn bị lần cuối cùng Google ra bản cập nhật hàng tháng. Sau đó các lần cập nhật ra thường xuyên hơn, “Google dance ” được thay thế bằng “Everflux”. Thuật toán này cũng báo trước sự thay đổi cơ sở hạ tầng lớn tại Google

6. Thuật toán Fritz – Tháng 7 năm 2003
Đây là tháng cuối cùng Google ra bản cập thật hàng tháng với tên gọi Fritz. Thay vì chỉnh sửa và thay đổi các chỉ số hàng tháng. Google chuyển qua cách tiếp cận mới với chiều hướng tăng cao. Chỉ số thay đổi theo ngày.

7. Tăng hiệu suất Index – Tháng Chín năm 2003
Google cải thiện khả năng thu thập thông tin và khả năng index website trong thời gian ngắn hơn nhưng hiệu suất không đổi.

8. Thuật toán Florida – Tháng 11 năm 2003
Thuật toán này đặt nền móng cho SEO, khi thuật toán này cật nhập rất nhiều website đã bị mất thứ hạng. Florida là hồi chuông báo tử cuối những năm 90 khi các chiến thuật SEO chỉ chăm chăm nhồi nhét từ khóa.

Cập nhật năm 2004
9. Thuật toán Austin – Tháng 1 năm 2004
Austin là update của Florida khi Google đẩy mạnh việc ngăn chặn các vấn đề nhồi nhét từ khóa.

10. Thuật toán Brandy – Tháng 2 năm 2004
Google tung ra một loạt các thay đổi lớn như tăng mức độ index, tăng tầm quan trọng của anchor text, và liên kết từ các website cùng ngành nghề

Cập nhật năm 2005
11. Nofollow – Tháng 1 năm 2005
Nofllow là yếu tố kiểm soát chất lượng liên kết. Nofollow ngăn chặn chất lượng link tới các trang có chất lượng không tốt. Thuật toán này không như thuật toán xếp hạng thông thường.

12. Thuật toán Allegra – Tháng 2 năm 2005
Các SEOer bắt đầu thấy sự thay đổi thứ hạng của các website. Chi tiết của bản cập nhật không được công bố cụ thể nhưng cộng đồng SEOer tin rằng đó là ảnh hưởng bởi Google Sandbox, ngoài ra cũng có một vài ý kiến cho rằng Google đã bắt đầu phạt các website spam link.

13. Thuật toán Bourbon – Tháng 5 năm 2005
Matt Cutts tuyên bố rằng Google ra phiên bản công cụ tìm kiếm 3.5 thay đổi về chất lượng tìm kiếm và khắc phục các lỗi trùng lặp nội dung và đưa ra giải pháp www và non-www

14. XML-Sitemap – Tháng 6 năm 2005
Google cho phép các Webmasters có thể submit sitemap xml trong Google Webmasters Tools. Sitemap HTML không ảnh hưởng trực tiếp tới Spider nhưng cũng là 1 yếu tố trong SEO.

15. Cá nhân hóa tìm kiếm – Tháng 6 năm 2005
Không như những cố gắng trước đó về tùy chỉnh hồ sơ cá nhân, Google điều chỉnh thứ hạng website thông qua lịch sử truy cập website. Sau này Google sử dụng lịch sử từ khóa tìm kiếm cho nhiều ứng dụng.

16. Thuật toán Gilligan – Tháng 9 năm 2005
Các webmaster nhìn thấy sự thay đổi liên tục trên bảng xếp hạng, nhưng Google khẳng định rằng không có thuật toán lớn nào đang được triển khai. Matt Cutts đã đăng 1 bài viết trên blog của ông để giải thích rằng Google cập nhập dữ liệu hằng ngày, nhưng trên thanh Google toolbar, chỉ số Pagerank update 3 tháng một lần.

17. Google tung Google Local / Maps – Tháng 10 năm 2005
Sau khi ra mắt Local Business Center vào tháng 3 năm 2005, Google khuyến khích các doanh nghiệp cập nhập dữ liệu vào đây. Đây là một động thái để Google hướng đến SEO Local

18. Thuật toán Jagger – Tháng 10 năm 2005
Google phát hành một loạt các bản cập nhập, chủ yếu là loại bỏ các liên kết chất lượng thấp, bao gồm reciprocal links, link farms và mua bán liên kết. Jagger tung ra trong ít nhất 3 giai đoạn, từ khoảng tháng Chín đến Tháng Mười Một năm 2005, với ảnh hưởng lớn nhất xảy ra vào tháng Mười.

19. Big Daddy – Tháng 12 năm 2005
Về mặt kỹ thuật, Big Daddy là một bản cập nhật cơ sở hạ tầng (gần như “Google Caffeine”), và triển khai trong một vài tháng, kết thúc tháng ba năm 2006. Big Daddy thay đổi cách Google xử lý canonicalization URL, chuyển hướng (301/302) và các vấn đề kỹ thuật khác.


Cập nhập năm 2006
20. Cập nhập bổ sung – Tháng 11 năm 2006
Google thay đổi cách index các dữ liệu và bổ sung các bộ lọc khác nhau. Google tuyên bố bộ lọc không phải các hình phạt mà chỉ là cách để tăng chất lượng hiển thị tìm kiếm.

21.Báo động sai – Tháng 12 năm 2006
tháng 12 năm 2006 rung động về một bản cập nhật trong tháng mười hai, cùng với một số báo cáo xếp hạng các thay đổi lớn trong tháng mười một, nhưng Google đã báo cáo không có thay đổi lớn.

Cập nhập năm 2007
22.Tính năng Universal Search – Tháng 5 năm 2007
Đây không phải là lần thay đổi thuật toán mà lần này là tích hợp thêm các tính năng tìm kiếm như : News, Video, Images, Local và 1 vài tìm kiếm khác . Và trong lần này, SERPs chính thức có 10 kết quả chính.

23. Thuật toán Buffy – Tháng 6 năm 2007
Không có ai hoàn toàn chắc chắn những gì đã xảy ra, và Matt Cutts cho rằng Buffy chỉ là một sự tích lũy các thay đổi nhỏ hơn.

Cập nhập năm 2008
24. Thuật toán Dewey – Tháng 4 năm 2008
Sự ngẫu nhiên quy mô lớn dường như xảy ra vào cuối tháng Ba và vào đầu tháng tư, nhưng các chi tiết cụ thể không rõ ràng. Cũng trong tháng này, Google đã công bố tính năng tìm kiếm sách trên Google.

Cập nhập năm 2011
Google mới tung ra Google Panda để thay thế cho Google Cafein. Với tầm nhìn rõ ràng của Google Panda là loại bỏ những nội dung rác, nội dung copy, loại bỏ những website có thương hiệu kém… Google Panda là bộ lọc quan trọng để cải tiến các kết quả tìm kiếm mới của Google .
Kể từ khi Internet bùng nổ và đặc biệt là sự phát triển nhanh đến không ngờ của các hệ thống mã nguồn mở (Open Source) như Joomla, wordpress…thì bạn không cần phải biết code mới có thể tạo ra được website. Giờ đây bạn có thể copy tin từ các nguồn khác nhau paste về website của bạn. Điều này dẫn đến sự bùng nổ của các website, với nhiều mục đích khác nhau như tạo website để bán quảng cáo, tạo website câu traffic, tạo website vệ tinh…Mọi người ít quan tâm tới người dùng sẽ cảm thấy như thế nào khi truy cập trên website của họ. Mọi người quan tâm nhiều hơn đến vấn đề làm thế nào để website có thứ hạng cao hơn trên Google.
Cùng với sự phát triển tự động hóa, những công việc copy paste như trước đây thay bằng các tool tự động : tự động post bài, tự tìm bài liên quan, chèn link tự động…điều này đã làm xao nhãng thông tin, tạo ra vô số các website rác, có mật độ từ khóa không phù hợp, không liên quan. Nhưng tại sao trước thời điểm Google Panda ra đời, các website rác này vẫn có thứ hạng cao hơn những trang có nội dung gốc.
Tại vì hệ thống xếp hạng của Google trước đây xếp hạng dựa trên số lượng bài viết, dựa trên mật độ từ khóa, dựa trên số lượng liên kết…Những website rác lấn lướt trên bảng xếp hạng của Google khiến người dùng cảm thấy thông tin bị nhiễu khi tìm thấy quá nhiều trang không hữu ích và thoát ra ngay sau đó.
Google nhận ra đã đến lúc họ phải thay đổi, Google thay đổi các tiêu chí đánh giá chất lượng của một website, tăng cường bộ lọc, chuyển các tiêu chí đánh giá : chuyển từ số lượng sang chất lượng.
Google Panda thay đổi là để phục vụ người dùng hiệu quả hơn, cung cấp những website có nội dung chất lượng hơn. Và có 4 tiêu chí chính trong thuật toán Google Panda mà chúng ta cần lưu ý:
#1. Google Panda xét tới : thời gian khách truy cập trên website
Nếu người dùng tìm thấy những nội dung hữu ích và đáp ứng đúng nhu cầu của họ, khả năng họ ở lại trên website để tìm những thông tin liên quan là rất cao. Do đó các trang web mà người dùng giành nhiều thời gian để đọc và tìm những bài viết trên website sẽ được Google đánh giá cao.
#2. Google Panda xét tới: Tỷ lệ Bounce Rate
Thuật toán Google đưa ra là khi một website người dùng thường xuyên truy cập sẽ là website có giá trị và không rơi vào bộ lọc của Google Panda
#3. Google Panda xét tới : Tỷ lệ khách hàng quay trở lại
Một cách tuyệt vời để biết được trang web đang có thứ hạng cao trên bảng tìm kiếm của Google có hữu ích hay không chính là tỷ lệ khách hàng quay trở lại website. Google tin rằng chỉ có chất lượng website mới khiến người dùng quay trở lại website thường xuyên hơn.
#4. Google Panda xét tới : Mạng xã hội
Mục đích của Google Panda là để giúp chọn lọc ra các website hoạt động thực sự bởi con người chứ không phải máy móc (Auto post). Do đó những mạng xã hội là tiêu chí đánh giá khá quan trọng khi tại đây những yếu tố tương tác rất mạnh chỉ có con người mới có thể làm được như trên Facbook, Youtube, Twister…

Cập nhập năm 2012
Thuật toán Google penguin
Google Penguin “Chim cánh cụt” là thuật toán mới mà Google đưa ra năm 2012 để chống lại các trang web SEO quá đà. Thuật toán mới sẽ định hướng người dùng hơn.
Một thời gian sau khi Google Penguin ra đời, Google có vẻ hài lòng vì thuật toán chống spam mới này đang hoàn thiện như dự định. Nhưng có một vài điều tổn hại do thuật toán này gây ra còn đang được cân nhắc cách khắc phục và vẫn còn những mối bận tâm về Negative SEO như một mối đe doạ.
Theo google thì Google Penguin đánh mạnh vào các thủ thuật sau :
Keyword stuffing: Là thủ thuật nhồi nhét quá nhiều từ khóa trong trang web của các SEOer.
Hidden text: Thủ thuật nhằm che giấu văn bản trên website nhằm tạo số lượng từ khóa và nội dung trên trang web khiến cho công cụ tìm kiếm bị đánh lạc hướng, những người truy cập sẽ không thấy được những text ẩn ở trên trang web.
Cloaking: Trong kỹ thuật SEO thì cloaking ám chỉ hành động của webmaster che dấu bot của search engine như Google crawl các nội dung mà người dùng nhìn thấy, đồng thời đề xuất cho các cậu Bot nhìn thấy các nội dung được Onpage optimize tốt nhằm mục đích đạt được các vị trí cao trên SERP.
Article spinning: kỹ thuật tạo ra các bài viết mới dựa trên một bài viết cũ hoặc một phần bài viết cũ.
Buying links: là những thủ thuật nhằm “đánh lừa” các công cụ tìm kiếm mà cụ thể là đánh lừa các thuật toán và là nguyên nhân khiến một website biến mất trong danh sách xếp hạng tìm kiếm.
Sau khi thuật toán mới được áp dụng trong vòng 15 ngày thì rất nhiều các website vị tụt hạng, giảm index trầm trọng. Nếu Site của các bạn đang sử những vấn đề trên thì các bạn biết phải làm gì rồi đó.



Cập nhật 2016:



Sau một quãng thời gian dài âm thầm cập nhật và cải thiện chất lượng tìm kiếm, cuối cùng Google cũng đã đưa ra một cảnh báo đầu tiên trong năm nay về tình trạng spam còn đang hiện diện trên hệ thống website.


Widget Link Schemes – Sắp đặt liên kết trong Widget là chủ đề chính được nói đến trong chủ đề lần này. Trước tình trạng số lượng các liên kết ẩn, liên kết kém chất lượng, liên kết nhồi nhét từ khóa tồn tại khắp các website khác nhau.

Widget của bạn có thể đang chứa các liên kết spam, vi phạm chính sách Google
Sau khi thu thập dữ liệu của hàng tỷ các trang có trên mạng world wide web (www) và đánh giá chúng, Google nhận thấy tình trạng spam link có chứa trên các widget diễn ra rất phổ biến trên tất cả các trang web này. Chính vì vậy, Google đã đăng cảnh cáo này để các chủ quản lý website có thể tự mình chỉnh sửa hết những liên kết vi phạm.

Theo Google, widget có thể giúp gia tăng trải nghiệm của người dùng trên trang và giúp người dùng gắn kết hơn với trang web. Tuy nhiên, những nếu widget có chứa những nội dung không liên quan đến site, kèm theo những anchor text link đến những trang khác một cách bất thường, chúng sẽ bị Google coi là vi phạm nguyên tắc của Google.

Những thuật toán của Google

Tìm hiểu và giải mã các thuật toán Google 


Google là một công ty Internet có trụ sở tại mỹ, hoạt động từ năm 1998 tới nay. Google nổi tiếng với bộ máy tìm kiếm thông tin đỉnh cao – được người dùng đánh giá là công cụ tìm kiếm hữu ích và mạnh mẽ nhất hiện nay.

Trải qua gần 20 năm hoạt động,với biết bao nhiêu lần update để cải thiện bộ máy tìm kiếm được tốt hơn. Hôm nay tôi sẽ thống kê lại các lần thay đổi thuật toán chính của Google.

Cập nhật năm 2000
Lần đầu tiên vào năm 1997, thuật toán Google Florida ra đời. Đánh dấu một bước tiến mạnh mẽ trong SERPs nhằm thanh lọc việc nhồi nhét từ khóa

Cập nhật năm 2000
1. Google Toolbar – Tháng 12 năm 2000
Như nhìn trước được tương lai SEO sẽ phát triển trong nhiều năm tới. Google cho ra mắt thanh công cụ Google Toolbar và cùng với nó thanh công cụ Google Pagerank được cập nhật.

Cập nhật năm 2003
2. Thuật toán Boston – Tháng 2 năm 2003
Được công bố tại SES Boston. Ban đầu Google dự định sẽ tung bản cập nhập hàng tháng cho các bộ phận chính tuy nhiên ý tưởng này nhanh chóng bị lãng quên . Boston là bản cập nhật kết hợp giữa kỵ thuật và sự đổi mới về chỉ số chính (lúc bấy giờ các chỉ số này có tên gọi là Google dance)

3. Thuật toán Cassandra – Tháng 4 năm 2003
Google đã phát hiện ra một vài vấn đề liên quan đến chất lượng liên kết, chẳng hạn như liên kết từ những website sở hữu bởi cùng một người. Cassandra sẽ phạt nặng các trang sử dụng text ẩn hay link ẩn.

4. Thuật toán Dominic – Tháng 5 năm 2003
Vào tháng 5 thuật toán Dominic rất khó quan sát khi Google công bố họ cải thiện quá trình của các Googlebot và độ sâu khi tìm kiếm những thông tin. Cũng ở thuật toán Dominic này, cách thức tính Backlink dường như cũng thay đổi đáng kể.

5. Thuật toán Esmerelda – Tháng 6 năm 2003
Tháng 6 là tháng chuẩn bị lần cuối cùng Google ra bản cập nhật hàng tháng. Sau đó các lần cập nhật ra thường xuyên hơn, “Google dance ” được thay thế bằng “Everflux”. Thuật toán này cũng báo trước sự thay đổi cơ sở hạ tầng lớn tại Google

6. Thuật toán Fritz – Tháng 7 năm 2003
Đây là tháng cuối cùng Google ra bản cập thật hàng tháng với tên gọi Fritz. Thay vì chỉnh sửa và thay đổi các chỉ số hàng tháng. Google chuyển qua cách tiếp cận mới với chiều hướng tăng cao. Chỉ số thay đổi theo ngày.

7. Tăng hiệu suất Index – Tháng Chín năm 2003
Google cải thiện khả năng thu thập thông tin và khả năng index website trong thời gian ngắn hơn nhưng hiệu suất không đổi.

8. Thuật toán Florida – Tháng 11 năm 2003
Thuật toán này đặt nền móng cho SEO, khi thuật toán này cật nhập rất nhiều website đã bị mất thứ hạng. Florida là hồi chuông báo tử cuối những năm 90 khi các chiến thuật SEO chỉ chăm chăm nhồi nhét từ khóa.

Cập nhật năm 2004
9. Thuật toán Austin – Tháng 1 năm 2004
Austin là update của Florida khi Google đẩy mạnh việc ngăn chặn các vấn đề nhồi nhét từ khóa.

10. Thuật toán Brandy – Tháng 2 năm 2004
Google tung ra một loạt các thay đổi lớn như tăng mức độ index, tăng tầm quan trọng của anchor text, và liên kết từ các website cùng ngành nghề

Cập nhật năm 2005
11. Nofollow – Tháng 1 năm 2005
Nofllow là yếu tố kiểm soát chất lượng liên kết. Nofollow ngăn chặn chất lượng link tới các trang có chất lượng không tốt. Thuật toán này không như thuật toán xếp hạng thông thường.

12. Thuật toán Allegra – Tháng 2 năm 2005
Các SEOer bắt đầu thấy sự thay đổi thứ hạng của các website. Chi tiết của bản cập nhật không được công bố cụ thể nhưng cộng đồng SEOer tin rằng đó là ảnh hưởng bởi Google Sandbox, ngoài ra cũng có một vài ý kiến cho rằng Google đã bắt đầu phạt các website spam link.

13. Thuật toán Bourbon – Tháng 5 năm 2005
Matt Cutts tuyên bố rằng Google ra phiên bản công cụ tìm kiếm 3.5 thay đổi về chất lượng tìm kiếm và khắc phục các lỗi trùng lặp nội dung và đưa ra giải pháp www và non-www

14. XML-Sitemap – Tháng 6 năm 2005
Google cho phép các Webmasters có thể submit sitemap xml trong Google Webmasters Tools. Sitemap HTML không ảnh hưởng trực tiếp tới Spider nhưng cũng là 1 yếu tố trong SEO.

15. Cá nhân hóa tìm kiếm – Tháng 6 năm 2005
Không như những cố gắng trước đó về tùy chỉnh hồ sơ cá nhân, Google điều chỉnh thứ hạng website thông qua lịch sử truy cập website. Sau này Google sử dụng lịch sử từ khóa tìm kiếm cho nhiều ứng dụng.

16. Thuật toán Gilligan – Tháng 9 năm 2005
Các webmaster nhìn thấy sự thay đổi liên tục trên bảng xếp hạng, nhưng Google khẳng định rằng không có thuật toán lớn nào đang được triển khai. Matt Cutts đã đăng 1 bài viết trên blog của ông để giải thích rằng Google cập nhập dữ liệu hằng ngày, nhưng trên thanh Google toolbar, chỉ số Pagerank update 3 tháng một lần.

17. Google tung Google Local / Maps – Tháng 10 năm 2005
Sau khi ra mắt Local Business Center vào tháng 3 năm 2005, Google khuyến khích các doanh nghiệp cập nhập dữ liệu vào đây. Đây là một động thái để Google hướng đến SEO Local

18. Thuật toán Jagger – Tháng 10 năm 2005
Google phát hành một loạt các bản cập nhập, chủ yếu là loại bỏ các liên kết chất lượng thấp, bao gồm reciprocal links, link farms và mua bán liên kết. Jagger tung ra trong ít nhất 3 giai đoạn, từ khoảng tháng Chín đến Tháng Mười Một năm 2005, với ảnh hưởng lớn nhất xảy ra vào tháng Mười.

19. Big Daddy – Tháng 12 năm 2005
Về mặt kỹ thuật, Big Daddy là một bản cập nhật cơ sở hạ tầng (gần như “Google Caffeine”), và triển khai trong một vài tháng, kết thúc tháng ba năm 2006. Big Daddy thay đổi cách Google xử lý canonicalization URL, chuyển hướng (301/302) và các vấn đề kỹ thuật khác.


Cập nhập năm 2006
20. Cập nhập bổ sung – Tháng 11 năm 2006
Google thay đổi cách index các dữ liệu và bổ sung các bộ lọc khác nhau. Google tuyên bố bộ lọc không phải các hình phạt mà chỉ là cách để tăng chất lượng hiển thị tìm kiếm.

21.Báo động sai – Tháng 12 năm 2006
tháng 12 năm 2006 rung động về một bản cập nhật trong tháng mười hai, cùng với một số báo cáo xếp hạng các thay đổi lớn trong tháng mười một, nhưng Google đã báo cáo không có thay đổi lớn.

Cập nhập năm 2007
22.Tính năng Universal Search – Tháng 5 năm 2007
Đây không phải là lần thay đổi thuật toán mà lần này là tích hợp thêm các tính năng tìm kiếm như : News, Video, Images, Local và 1 vài tìm kiếm khác . Và trong lần này, SERPs chính thức có 10 kết quả chính.

23. Thuật toán Buffy – Tháng 6 năm 2007
Không có ai hoàn toàn chắc chắn những gì đã xảy ra, và Matt Cutts cho rằng Buffy chỉ là một sự tích lũy các thay đổi nhỏ hơn.

Cập nhập năm 2008
24. Thuật toán Dewey – Tháng 4 năm 2008
Sự ngẫu nhiên quy mô lớn dường như xảy ra vào cuối tháng Ba và vào đầu tháng tư, nhưng các chi tiết cụ thể không rõ ràng. Cũng trong tháng này, Google đã công bố tính năng tìm kiếm sách trên Google.

Cập nhập năm 2011
Google mới tung ra Google Panda để thay thế cho Google Cafein. Với tầm nhìn rõ ràng của Google Panda là loại bỏ những nội dung rác, nội dung copy, loại bỏ những website có thương hiệu kém… Google Panda là bộ lọc quan trọng để cải tiến các kết quả tìm kiếm mới của Google .
Kể từ khi Internet bùng nổ và đặc biệt là sự phát triển nhanh đến không ngờ của các hệ thống mã nguồn mở (Open Source) như Joomla, wordpress…thì bạn không cần phải biết code mới có thể tạo ra được website. Giờ đây bạn có thể copy tin từ các nguồn khác nhau paste về website của bạn. Điều này dẫn đến sự bùng nổ của các website, với nhiều mục đích khác nhau như tạo website để bán quảng cáo, tạo website câu traffic, tạo website vệ tinh…Mọi người ít quan tâm tới người dùng sẽ cảm thấy như thế nào khi truy cập trên website của họ. Mọi người quan tâm nhiều hơn đến vấn đề làm thế nào để website có thứ hạng cao hơn trên Google.
Cùng với sự phát triển tự động hóa, những công việc copy paste như trước đây thay bằng các tool tự động : tự động post bài, tự tìm bài liên quan, chèn link tự động…điều này đã làm xao nhãng thông tin, tạo ra vô số các website rác, có mật độ từ khóa không phù hợp, không liên quan. Nhưng tại sao trước thời điểm Google Panda ra đời, các website rác này vẫn có thứ hạng cao hơn những trang có nội dung gốc.
Tại vì hệ thống xếp hạng của Google trước đây xếp hạng dựa trên số lượng bài viết, dựa trên mật độ từ khóa, dựa trên số lượng liên kết…Những website rác lấn lướt trên bảng xếp hạng của Google khiến người dùng cảm thấy thông tin bị nhiễu khi tìm thấy quá nhiều trang không hữu ích và thoát ra ngay sau đó.
Google nhận ra đã đến lúc họ phải thay đổi, Google thay đổi các tiêu chí đánh giá chất lượng của một website, tăng cường bộ lọc, chuyển các tiêu chí đánh giá : chuyển từ số lượng sang chất lượng.
Google Panda thay đổi là để phục vụ người dùng hiệu quả hơn, cung cấp những website có nội dung chất lượng hơn. Và có 4 tiêu chí chính trong thuật toán Google Panda mà chúng ta cần lưu ý:
#1. Google Panda xét tới : thời gian khách truy cập trên website
Nếu người dùng tìm thấy những nội dung hữu ích và đáp ứng đúng nhu cầu của họ, khả năng họ ở lại trên website để tìm những thông tin liên quan là rất cao. Do đó các trang web mà người dùng giành nhiều thời gian để đọc và tìm những bài viết trên website sẽ được Google đánh giá cao.
#2. Google Panda xét tới: Tỷ lệ Bounce Rate
Thuật toán Google đưa ra là khi một website người dùng thường xuyên truy cập sẽ là website có giá trị và không rơi vào bộ lọc của Google Panda
#3. Google Panda xét tới : Tỷ lệ khách hàng quay trở lại
Một cách tuyệt vời để biết được trang web đang có thứ hạng cao trên bảng tìm kiếm của Google có hữu ích hay không chính là tỷ lệ khách hàng quay trở lại website. Google tin rằng chỉ có chất lượng website mới khiến người dùng quay trở lại website thường xuyên hơn.
#4. Google Panda xét tới : Mạng xã hội
Mục đích của Google Panda là để giúp chọn lọc ra các website hoạt động thực sự bởi con người chứ không phải máy móc (Auto post). Do đó những mạng xã hội là tiêu chí đánh giá khá quan trọng khi tại đây những yếu tố tương tác rất mạnh chỉ có con người mới có thể làm được như trên Facbook, Youtube, Twister…

Cập nhập năm 2012
Thuật toán Google penguin
Google Penguin “Chim cánh cụt” là thuật toán mới mà Google đưa ra năm 2012 để chống lại các trang web SEO quá đà. Thuật toán mới sẽ định hướng người dùng hơn.
Một thời gian sau khi Google Penguin ra đời, Google có vẻ hài lòng vì thuật toán chống spam mới này đang hoàn thiện như dự định. Nhưng có một vài điều tổn hại do thuật toán này gây ra còn đang được cân nhắc cách khắc phục và vẫn còn những mối bận tâm về Negative SEO như một mối đe doạ.
Theo google thì Google Penguin đánh mạnh vào các thủ thuật sau :
Keyword stuffing: Là thủ thuật nhồi nhét quá nhiều từ khóa trong trang web của các SEOer.
Hidden text: Thủ thuật nhằm che giấu văn bản trên website nhằm tạo số lượng từ khóa và nội dung trên trang web khiến cho công cụ tìm kiếm bị đánh lạc hướng, những người truy cập sẽ không thấy được những text ẩn ở trên trang web.
Cloaking: Trong kỹ thuật SEO thì cloaking ám chỉ hành động của webmaster che dấu bot của search engine như Google crawl các nội dung mà người dùng nhìn thấy, đồng thời đề xuất cho các cậu Bot nhìn thấy các nội dung được Onpage optimize tốt nhằm mục đích đạt được các vị trí cao trên SERP.
Article spinning: kỹ thuật tạo ra các bài viết mới dựa trên một bài viết cũ hoặc một phần bài viết cũ.
Buying links: là những thủ thuật nhằm “đánh lừa” các công cụ tìm kiếm mà cụ thể là đánh lừa các thuật toán và là nguyên nhân khiến một website biến mất trong danh sách xếp hạng tìm kiếm.
Sau khi thuật toán mới được áp dụng trong vòng 15 ngày thì rất nhiều các website vị tụt hạng, giảm index trầm trọng. Nếu Site của các bạn đang sử những vấn đề trên thì các bạn biết phải làm gì rồi đó.



Cập nhật 2016:



Sau một quãng thời gian dài âm thầm cập nhật và cải thiện chất lượng tìm kiếm, cuối cùng Google cũng đã đưa ra một cảnh báo đầu tiên trong năm nay về tình trạng spam còn đang hiện diện trên hệ thống website.


Widget Link Schemes – Sắp đặt liên kết trong Widget là chủ đề chính được nói đến trong chủ đề lần này. Trước tình trạng số lượng các liên kết ẩn, liên kết kém chất lượng, liên kết nhồi nhét từ khóa tồn tại khắp các website khác nhau.

Widget của bạn có thể đang chứa các liên kết spam, vi phạm chính sách Google
Sau khi thu thập dữ liệu của hàng tỷ các trang có trên mạng world wide web (www) và đánh giá chúng, Google nhận thấy tình trạng spam link có chứa trên các widget diễn ra rất phổ biến trên tất cả các trang web này. Chính vì vậy, Google đã đăng cảnh cáo này để các chủ quản lý website có thể tự mình chỉnh sửa hết những liên kết vi phạm.

Theo Google, widget có thể giúp gia tăng trải nghiệm của người dùng trên trang và giúp người dùng gắn kết hơn với trang web. Tuy nhiên, những nếu widget có chứa những nội dung không liên quan đến site, kèm theo những anchor text link đến những trang khác một cách bất thường, chúng sẽ bị Google coi là vi phạm nguyên tắc của Google.