trường hợp công cụ chọn kiếm không thể thu thập dữ liệu website của bạn hoặc lập chỉ mục các trang của bạn thì phần nội dung sẽ ko sở hữu chuyển biến nào cả. Thậm chí bạn sở hữu thể tạo ra số lượng lớn backlink nhưng vẫn bị mắc kẹt trong đám bùn lầy.
1 số website hơi thuận lợi trong việc thu thập dữ liệu. Ý của tôi là, nếu website của bạn là website tĩnh, và được xây dựng bằng cách thức đơn giản (WordPress cùng có 1 vài plugin?), bạn sẽ không gặp vấn đề gì. Tuy nhiên, trong phổ biến nếu đặc trưng, website cũng gặp cạnh tranh trong việc lập chỉ mục tuyệt vời.
Nghiên cứu tình huống
gần đây, doanh nghiệp của tôi sở hữu 1 khách hàng mới, người làm cho các phân tích ban đầu của chúng tôi đều bị ảnh hưởng bởi sự trở lại của Google Panda vào tháng 2/2011. Dấu hiệu của việc này hơi rõ ràng:

đa dạng năm qua, người dùng của tôi xác định sẽ đi theo "kinh doanh thông thường", chẳng hề là SEO sở hữu quá phổ biến suy nghĩ và cân nhắc. Họ vẫn tạo ra tiền bạc thông qua việc marketing chính họ qua PPC, email và những phương tiện truyền thống khác.
Họ xác định rằng ấy là thời gian để bắt kịp có những người khác và hiến dâng thời gian, tiền bạc và sự kiên nhẫn cho giai đoạn khôi phục sự hiện diện của tậu kiếm trùng hợp.
những website đặc thù như website thương mại điện tử, trong đó xảy ra việc đa số người bán lại những sản phẩm; sự mô tả về sản phẩm được chia sẻ giữa các người bán lại các sản phẩm giống nhau này. "Quá dễ dàng rồi", chúng tôi nghĩ vậy… chúng tôi sẽ viết lại 1 loạt những mô tả sản phẩm và lớn mạnh việc tuyệt vời hóa kết quả.
không quá nhanh
khi tôi chắc chắn về các điều bạn bắt buộc làm cho, chúng tôi đã mang "kiểm nghiệm". Chúng tôi muốn tạo dựng quan điểm tổng thể, nhằm bảo đảm có một phương pháp chiến lược để thực hiện. đó cũng là lúc chúng tôi phát hiện ra danh sách dài lê thê của những trục trặc công nghệ, các lỗi, sự chuyển hướng, và điều ấy hướng chúng tôi đến việc buộc phải nên sắm hiểu sâu sắc hơn nữa trong thu thập thông tin và lập chỉ mục.
"Hãy đặt các điều đầu tiên ở vị trí đầu tiên", họ nhắc vậy.
tiêu dùng công cụ Wayback Machine, chúng ta mang thể xem xét lại website, từ tháng 12/2010 đến 02/2011 (phân tích mọi dữ liệu đã bị mất vào khoảng thời gian trên; tạo điều kiện cho các nhà phát triển web sở hữu thêm tài liệu để nghiên cứu). Đây là bước đầu cho giai đoạn mua hiểu của về các gì chúng ta đã từng lãng quên. một số "thiên tài" quyết định rằng họ sẽ viết lại tất cả URL của họ (chèn thư mục, ko sở hữu lý do rõ ràng), ngừng tiêu dùng công cụ chọn kiếm cấu trúc URL thân thiện (ví dụ: company.com/category/product/product-name) và lúc đấy 302 chuyển hướng đa số thiết bị đến các URL mới này. Điều ấy thật tồi tệ. Sẽ xuất hiện một loạt những phản ứng lại, dẫn đến các thiệt hại và những hoạt động không thấp cho SEO.
Chúng tôi sẽ nhanh chóng viết lại bản sao như đã hứa và bỏ qua "kế hoạch game"- chỉ khiến tụt dốc và làm vấy bẩn những kĩ thuật SEO.
trước tiên chúng ta bắt buộc xem xem các những robot thu thập thông tin ưa thích sở hữu website hay không.
– Google Webmaster Tool (công cụ quản trị website): trong lúc Google Webmaster Tool đã với một vị trí ưng ý, thì sơ đồ của 1 website (sitemap) lại trở nên lỗi thời. Thay vì tiêu dùng lại một sitemap cũ, chúng tôi sẽ tạo ra 1 sitemap mới, phân hạng thành các phần của website mà chúng ta muốn phân tích (phần chính, blog, sản phẩm XYZ, sản phẩm ABC,…). Đây sẽ là điều rẻ nhất chúng ta đã từng khiến. Nó sẽ giúp chúng ta cô lập những khu vực của website, phần mà không được lập chỉ mục đầy đủ.
– Phân tích Long File: chúng tôi nghi ngờ rằng các người chuyên đi sao chép nội dung đang nhắm đến website của các bạn của chúng tôi. Việc phân tích 1 log-file đã xác nhận điều này. Chúng tôi với khả năng để cô lập 1 số IP và phong tỏa việc thu thập thông tin website của chúng. Chúng tôi cũng mong muốn tìm ra tín hiệu mà làm robot gặp khó khăn trong việc thu thập dữ liệu website.
– Phân tích nội dung: bởi vì chúng tôi tin rằng Panda vẫn sẽ hiện hữu và chúng tôi với khả năng xác nhận được những website sở hữu nội dung sao chép (bị đánh cắp), chúng tôi vẫn buộc phải quan tâm đến các trường hợp cá biệt – đấy là việc chúng tôi có thể tạo ra một bản sao trong chính website của mình. Trong lúc chẳng dễ dàng gì xác định được những công cụ/thu thập dữ liệu bằng việc xem xét phiên bản bộ nhớ đệm của trang – chúng tôi khẳng định là khó giải quyết, chúng tôi vẫn sở hữu khả năng nhận biết các bạn mang nội dung "pop up"đã được lập chỉ mục. Nội dung pop-up này siêu quan trọng đối với người dùng (họ có thể biết được sản phẩm đã hết hàng…) nhưng nội dung này cũng tồn tại trên mỗi trang sản phẩm mà không phải lưu ý tới việc sản phẩm đã hết hàng hay chưa… Nó đã ở trong bộ nhớ đệm của Google. Tương đương có 1%, nội dung phế liệu này chiếm số lượng lớn. Dĩ nhiên 1 nừa của nội dung văn bản của chúng trên trang web đều liên quan đến nội dung đã hết hàng, hoặc đề cập những khác "không còn ưng ý nữa". Bạn mang nghĩ các công cụ sắm kiếm thích điều này không? Bạn sở hữu nghĩ họ muốn lập chỉ mục những trang này không? Chúng ta nghĩ gì? "Cớ lẽ là không".
– Vấn đề DNS: khi chúng tôi đào bới sâu hơn vào các vấn đề khoa học với thể xảy ra, chúng tôi muốn mua xem liệu mang vấn đề DNS nào đối sở hữu tên miền ko. Chúng tôi muốn bảo đảm rằng sẽ ko với bất kì vấn đề nào với việc thiết lập tên miền cũng như rào cản sẽ xuất hiện khi site được "gọi tên" và máy chủ cần bắt đầu giao tiếp. Chúng tôi đã mua ra vấn đề nhỏ tại cấp độ DNSSEC nơi mà phần thiếu thông tin giao tiếp không được chấp nhận. Đây là sự sửa chữa đúng đắn.
An ninh cho lỗ hổng XSS: lúc thực hiện các truy vấn site trong công cụ tậu kiếm, chúng tôi click vào website của người dùng và nhận được một tin nhắn rằng website "cannot be trusted" ("không đáng tin"). Chúng tôi quyết định phải cần kiểm tra website dù cho với bất kì phần mềm độc hại nào. Chúng tôi sử dụng công cụ Zed Attack Proxy. khi nó bắt đầu, website của quý khách thực tế trở về kết quả "positive" (mà nghĩa thực sự của nó là "negative") trong thử nghiệm của chúng tôi. khi nó hiện ra, nó không phải là XSS nhưng đúng hơn là kết quả "false/positive" lại tùy thuộc phương pháp mà phần mềm của họ thực hiện các nhiệm vụ khác nhau trong chương trình phụ trợ. Hãy cứ suy nghĩ đi… liệu rằng một công cụ mang thể chỉ ra được vấn đề ko, tại sao công cụ chọn kiếm lại không cho rằng có vấn đề?
Mobile: Vẫn chưa với sự đồng bộ ở đây khi người dùng đang tiêu dùng ứng dụng mobile và chưa chưa chạy website hồi đáp. Điều này sẽ nhanh chóng diễn ra thôi nhưng chúng ta vẫn đang thực hiện cùng với ứng dụng mobile của họ cho đến lúc ai ấy tiếp cận với bản đồ có đa số các trang (hiện nay, mọi những trang mobile sẽ hướng bạn đến trang chủ khi họ với ứng dụng "phù thủy" để đẩy bạn đi qua tiến trinh bán hàng).
Javasript/CSS: người dùng đang bị phong tỏa JS và CSS do những robot. Năm ngoái, Google tuyên bố điều này và đây quả là tin xấu.
URL Structure (cấu trúc URL): người dùng này đang dùng một cách thông thường đối sở hữu những URL, mẫu đã từng tiêu dùng qua phổ biến thời gian và được đánh giá là tốt (có thể nhắc như vậy). đấy là, đặt tất cả các trang sản phẩm trực tiếp ra khỏi gốc của tên miền (companyname.com/product-name). Tôi luôn luôn tin tưởng vào điều này nhưng trong thực tế thì lại ko cần như vậy. Công cụ chọn kiếm phải linh hoạt hơn cái này. cùng sở hữu sự thay đổi trong thuật toán mobile, tôi ủng hộ mạnh mẽ cấu trúc URL theo sau cấu trúc của website (và breadcrumb theo sau dòng này). Chúng tôi sẽ viết lại mọi những URL có định dạng yêu thích và thêm vào các trang danh mục, vốn chưa với gì trước đó.
Chúng tôi đã tạo ra số đông thay đổi (nhưng rộng rãi đồ vật vẫn chưa ở đúng vị trí mà chúng buộc phải buộc phải ở). Chúng tôi ko thể lùi lại và bắt đầu xem xét về bí quyết tiếp cận chiến lược, loại đã được lập kế hoạch bí quyết đây khá lâu. Chúng tôi chú ý tới những thứ giống như phân tích thiếu sót về nội dung, đẩy mạnh kiến trúc thông tin, bề ngoài lại website, chiến lược truyền thông xã hội, quảng bá và thông minh hóa tính chuyển đổi/tính khả dụng. đa số những điều này đều quan trọng và nó đều được bắt đầu từ việc thu thập dữ liệu.

0 nhận xét:
Đăng nhận xét