Marketing

Chúng tôi đã thu thập dữ liệu web trong 32 năm: Điều gì đã thay đổi?

Đó là 20 năm trước, năm nay tôi là tác giả của một cuốn sách có tên “Tiếp thị qua công cụ tìm kiếm: Hướng dẫn thực hành tốt nhất cần thiết”. Nó thường được coi là hướng dẫn toàn diện đầu tiên về SEO và khoa học cơ bản về truy xuất thông tin (IR).

Tôi nghĩ sẽ hữu ích khi xem lại những gì tôi đã viết trong đó 2002 để xem nó xếp chồng lên như thế nào ngày hôm nay. Chúng ta sẽ bắt đầu với các khía cạnh cơ bản của những gì liên quan đến việc thu thập thông tin trên web.

Điều quan trọng là phải hiểu lịch sử và nền tảng của Internet và tìm kiếm để hiểu chúng ta đang ở đâu ngày hôm nay và những gì tiếp theo. Và để tôi nói cho bạn biết, có rất nhiều cơ sở để trang trải.

Ngành công nghiệp của chúng tôi hiện đang chuyển sang một phiên bản mới khác của Internet. Chúng tôi sẽ bắt đầu bằng cách xem xét các kiến ​​thức cơ bản mà tôi đã đề cập 2002. Sau đó, chúng ta sẽ khám phá hiện tại, hướng tới tương lai của SEO, xem xét một vài ví dụ quan trọng (ví dụ: dữ liệu có cấu trúc, điện toán đám mây, IoT, điện toán biên, 5G),

Tất cả những điều này là một bước nhảy vọt lớn so với nơi bắt đầu có internet.

Hãy tham gia cùng tôi, phải không bạn, khi chúng ta đi xuống làn đường bộ nhớ tối ưu hóa công cụ tìm kiếm.

Một bài học lịch sử quan trọng

Chúng tôi sử dụng các thuật ngữ world wide web và internet thay thế cho nhau. Tuy nhiên, chúng không giống nhau.

Bạn sẽ ngạc nhiên khi có nhiều người không hiểu sự khác biệt.

Lần lặp lại đầu tiên của Internet được phát minh vào 1966. Một lần lặp lại nữa đưa nó gần hơn với những gì chúng ta biết bây giờ đã được phát minh trong 1973 của nhà khoa học Vint Cerf (hiện là trưởng nhóm truyền bá internet cho Google).

World wide web được phát minh bởi nhà khoa học người Anh Tim Berners-Lee (nay là Ngài) vào cuối năm 1980S.

Điều thú vị là hầu hết mọi người đều có quan niệm rằng ông đã dành một khoảng thời gian tương đương với cả cuộc đời nghiên cứu và thử nghiệm khoa học trước khi phát minh của ông được đưa ra. Nhưng hoàn toàn không phải vậy. Berners-Lee đã phát minh ra world wide web trong giờ ăn trưa của mình một ngày ở 1989 trong khi thưởng thức bánh sandwich giăm bông trong quán cà phê dành cho nhân viên tại Phòng thí nghiệm CERN ở Thụy Sĩ.

Và để thêm một chút rõ ràng cho tiêu đề của bài báo này, từ năm sau (1990) web đã được thu thập thông tin theo cách này hay cách khác bởi bot này hay bot khác cho đến ngày nay (do đó 32 nhiều năm mò mẫm trên web).

Tại sao bạn cần biết tất cả những điều này

Web không bao giờ có nghĩa là để làm những gì chúng ta mong đợi từ nó (và những kỳ vọng đó không ngừng trở nên lớn hơn).

Berners-Lee ban đầu hình thành và phát triển web để đáp ứng nhu cầu chia sẻ thông tin tự động giữa các nhà khoa học ở các trường đại học và học viện trên khắp thế giới.

Vì vậy, rất nhiều thứ mà chúng tôi đang cố gắng làm cho web trở nên xa lạ với nhà phát minh và trình duyệt (mà Berners-Lee cũng đã phát minh ra).

Và điều này rất phù hợp với những thách thức lớn của công cụ tìm kiếm khả năng mở rộng trong việc cố gắng thu thập nội dung để lập chỉ mục và giữ cho nội dung mới, đồng thời với việc cố gắng khám phá và lập chỉ mục nội dung mới.

Công cụ tìm kiếm không thể truy cập toàn bộ web

Rõ ràng, world wide web đi kèm với những thách thức cố hữu. Và điều đó đưa tôi đến một thực tế cực kỳ quan trọng khác cần làm nổi bật.

Đó là “huyền thoại phổ biến” bắt đầu khi Google ra mắt lần đầu tiên và dường như bây giờ cũng phổ biến như hồi đó. Và đó là niềm tin của mọi người rằng Google có quyền truy cập vào toàn bộ web.

Không. Không đúng. Trong thực tế, không nơi nào gần nó.

Khi Google lần đầu tiên bắt đầu thu thập dữ liệu web trong 1998, chỉ mục của nó là 25 hàng triệu URL duy nhất. Mười năm sau, trong 2008, họ thông báo rằng họ đã đạt được cột mốc quan trọng là có có khoảng 1 nghìn tỷ URL duy nhất trên web.

Gần đây hơn, tôi đã thấy những con số cho thấy Google đã biết về một số 50 nghìn tỷ URL. Nhưng đây là sự khác biệt lớn mà tất cả những người làm SEO chúng ta cần biết:

  • Nhận thức được một số 50 nghìn tỷ URL không không có nghĩa là tất cả chúng đều được thu thập thông tin và được lập chỉ mục.

Và 50 nghìn tỷ là rất nhiều URL. Nhưng đây chỉ là một phần nhỏ của toàn bộ trang web.

Google (hoặc bất kỳ công cụ tìm kiếm nào khác) có thể thu thập thông tin một lượng lớn nội dung trên bề mặt web. Nhưng cũng có một lượng lớn nội dung trên “web sâu” mà các trình thu thập thông tin đơn giản là không thể truy cập vào. Nó bị khóa phía sau các giao diện dẫn đến lượng nội dung cơ sở dữ liệu khổng lồ. Như tôi đã đánh dấu trong 2002, trình thu thập thông tin không được trang bị màn hình và bàn phím!

Ngoài ra, 50 Con số hàng nghìn tỷ URL duy nhất là tùy ý. Tôi không biết con số thực sự của Google hiện tại là gì (và họ cũng không biết có bao nhiêu trang thực sự có trên world wide web).

Tất cả các URL này cũng không dẫn đến nội dung duy nhất. Trang web chứa đầy spam, nội dung trùng lặp, liên kết lặp đi lặp lại đến hư không và tất cả các loại rác web khác.

  • Tất cả có nghĩa là: Của sự tùy tiện 50 con số nghìn tỷ URL mà tôi đang sử dụng, bản thân nó là một phần của trang web, chỉ một phần trong số đó cuối cùng được đưa vào chỉ mục của Google (và các công cụ tìm kiếm khác) để truy xuất.

Hiểu kiến ​​trúc công cụ tìm kiếm

Trong 2002, tôi đã tạo một bản diễn giải trực quan về “giải phẫu chung của một công cụ tìm kiếm dựa trên trình thu thập thông tin ”:

Rõ ràng, hình ảnh này không mang lại cho tôi bất kỳ giải thưởng thiết kế đồ họa nào. Nhưng đó là một dấu hiệu chính xác về cách các thành phần khác nhau của công cụ tìm kiếm web kết hợp với nhau 2002. Nó chắc chắn đã giúp ngành công nghiệp SEO mới nổi có cái nhìn sâu sắc hơn về lý do tại sao ngành và các hoạt động của nó, lại cần thiết như vậy.

Mặc dù các công nghệ mà công cụ tìm kiếm sử dụng đã tiến bộ rất nhiều (hãy nghĩ: trí tuệ nhân tạo / học máy), các trình điều khiển chính, quy trình và khoa học cơ bản vẫn như cũ.

Mặc dù các thuật ngữ “máy học” và “trí tuệ nhân tạo” đã được tìm thấy thường xuyên hơn trong từ điển của ngành trong những năm gần đây, tôi đã viết điều này trong phần về giải phẫu của một công cụ tìm kiếm 20 năm trước:

“Trong phần kết luận của phần này, tôi sẽ đề cập đến 'máy học' (máy hỗ trợ vectơ) và trí tuệ nhân tạo (AI), nơi mà lĩnh vực tìm kiếm và truy xuất web chắc chắn phải đi tiếp theo.”

Trình thu thập công cụ tìm kiếm 'thế hệ mới'

Thật khó tin rằng chỉ có một số ít công cụ tìm kiếm có mục đích chung trên khắp hành tinh đang thu thập dữ liệu web, trong đó Google (được cho là) ​​là công cụ lớn nhất. Tôi nói điều đó bởi vì hồi trước 2002, có hàng chục công cụ tìm kiếm, với các công ty khởi nghiệp mới hầu như hàng tuần.

Khi tôi thường xuyên kết hợp với các học viên trẻ hơn nhiều trong ngành, tôi vẫn thấy thật thú vị khi nhiều người thậm chí không nhận ra rằng SEO đã tồn tại trước khi có Google.

Mặc dù Google nhận được rất nhiều tín nhiệm cho cách thức sáng tạo tiếp cận tìm kiếm trên web, nhưng nó đã học được rất nhiều điều từ một người tên Brian Pinkerton. Tôi đã may mắn được phỏng vấn Pinkerton (trong nhiều dịp).

Anh ấy là người phát minh ra công cụ tìm kiếm truy xuất toàn văn đầu tiên trên thế giới có tên là WebCrawler. Và mặc dù anh ấy đã đi trước thời đại khi bắt đầu phát triển ngành công nghiệp tìm kiếm, anh ấy đã rất vui vẻ với tôi khi giải thích về thiết lập đầu tiên của anh ấy cho một công cụ tìm kiếm web. Nó chạy trên một đĩa đơn 486 máy có 800 MB đĩa và 128 Bộ nhớ MB và một trình thu thập thông tin duy nhất tải xuống và lưu trữ các trang từ 6 trang, 000 các trang web!

Hơi khác so với những gì tôi đã viết về Google trong 2002 như một “thế hệ mới ”Công cụ tìm kiếm đang thu thập thông tin trên web.

“Từ 'trình thu thập thông tin' hầu như luôn được sử dụng ở số ít; tuy nhiên, hầu hết các công cụ tìm kiếm thực sự có một số trình thu thập thông tin với 'đội' đặc vụ thực hiện công việc trên quy mô lớn. Ví dụ: Google, với tư cách là một công cụ tìm kiếm thế hệ mới, bắt đầu với bốn trình thu thập thông tin, mỗi trình thu thập thông tin luôn mở khoảng ba trăm kết nối. Ở tốc độ cao nhất, họ tải xuống thông tin từ hơn một trăm trang mỗi giây. Google (tại thời điểm viết bài) hiện dựa vào 3, 000 PC chạy Linux, với hơn 90 terabyte dung lượng lưu trữ trên đĩa. Họ thêm ba mươi máy mới mỗi ngày vào trang trại máy chủ của mình chỉ để theo kịp tốc độ phát triển. ”

Và mô hình tăng trưởng và mở rộng quy mô đó tại Google đã tiếp tục diễn ra với tốc độ kể từ khi tôi viết bài đó. Đã lâu rồi tôi mới thấy một con số chính xác, nhưng có thể một vài năm trở lại đây, tôi đã thấy ước tính rằng Google đang thu thập thông tin 20 hàng tỷ trang mỗi ngày. Bây giờ có thể còn hơn thế nữa.

Phân tích siêu liên kết và câu hỏi hóc búa về thu thập thông tin / lập chỉ mục / toàn bộ web

Có thể xếp trong top đầu không 10 tại Google nếu trang của bạn chưa bao giờ được thu thập thông tin?

Câu trả lời là “có”. Và một lần nữa, đó là điều tôi đã chạm vào 2002 trong cuốn sách:

Đôi khi, Google sẽ trả về một danh sách hoặc thậm chí một liên kết đến tài liệu chưa được thu thập thông tin nhưng kèm theo thông báo rằng tài liệu chỉ xuất hiện vì các từ khóa xuất hiện trong các tài liệu khác có liên kết trỏ đến tài liệu đó.

Đó là tất cả về cái gì? Sao có thể như thế được?

Phân tích siêu kết nối. Đúng, đó là liên kết ngược!

Có sự khác biệt giữa thu thập thông tin, lập chỉ mục và chỉ đơn giản là nhận thức được các URL duy nhất. Đây là lời giải thích thêm mà tôi đã đưa ra:

“Nếu bạn quay trở lại những thách thức to lớn được nêu trong phần thu thập thông tin trên web, rõ ràng là bạn không bao giờ nên cho rằng, sau một lần truy cập từ một trình thu thập thông tin công cụ tìm kiếm, rằng TẤT CẢ các trang trong trang web của bạn đã được lập chỉ mục. Tôi có khách hàng với các trang web ở các mức độ khác nhau về số lượng trang. Khoảng năm mươi, khoảng 5, 000 và thành thật mà nói, tôi có thể nói rằng không ai trong số họ có mọi trang duy nhất được lập chỉ mục bởi mọi công cụ tìm kiếm lớn. Tất cả các công cụ tìm kiếm chính đều có URL ở “biên giới” của việc thu thập thông tin như nó đã biết, tức là, kiểm soát trình thu thập thông tin sẽ thường xuyên có hàng triệu URL trong cơ sở dữ liệu mà nó biết là tồn tại nhưng chưa được thu thập thông tin và tải xuống. ”

Đã có nhiều lần tôi thấy những ví dụ về điều này. Đỉnh 10 kết quả theo sau một truy vấn đôi khi sẽ có một URL cơ bản được hiển thị mà không có tiêu đề hoặc đoạn mã (hoặc siêu dữ liệu).

Đây là một ví dụ tôi đã sử dụng trong bản trình bày từ 2004. Nhìn vào kết quả dưới cùng, và bạn sẽ hiểu ý tôi.

Google nhận thức được tầm quan trọng của trang đó vì dữ liệu liên kết xung quanh nó. Nhưng không có thông tin hỗ trợ đã được lấy ra khỏi trang, thậm chí không phải thẻ tiêu đề, vì trang rõ ràng là chưa được thu thập thông tin. (Tất nhiên, điều này cũng có thể xảy ra với lỗi nhỏ vẫn thường xanh xảy ra mọi lúc, mọi nơi khi ai đó rời khỏi tệp robots.txt ngăn chặn si te khỏi bị thu thập thông tin.)

Tôi đã tô đậm câu đó ở trên vì hai lý do quan trọng:

  • Phân tích siêu liên kết có thể biểu thị “tầm quan trọng ”Của một trang trước khi nó được thu thập thông tin và lập chỉ mục. Cùng với băng thông và tính lịch sự, tầm quan trọng của trang là một trong ba yếu tố cân nhắc chính khi lập kế hoạch thu thập thông tin. (Chúng tôi sẽ đi sâu hơn vào các siêu liên kết và các thuật toán xếp hạng dựa trên siêu liên kết trong các phần sau.)
  • và một lần nữa, cuộc tranh luận “các liên kết vẫn quan trọng” bùng lên (và sau đó nguội dần). Hãy tin tôi. Câu trả lời là có, các liên kết vẫn quan trọng.

Tôi sẽ chỉ tô điểm thêm một chút về “sự lịch sự” vì nó được kết nối trực tiếp với tệp / giao thức robots.txt. Tất cả những thách thức để thu thập dữ liệu web mà tôi đã giải thích 20 năm trước vẫn tồn tại cho đến ngày nay (ở quy mô lớn hơn).

Bởi vì trình thu thập dữ liệu truy xuất dữ liệu ở tốc độ và độ sâu lớn hơn nhiều so với con người, chúng có thể (và đôi khi có) tác động nghiêm trọng đến hiệu suất của trang web. Máy chủ có thể gặp sự cố chỉ cần cố gắng theo kịp số lượng yêu cầu tốc độ nhanh.

Đó là lý do tại sao chính sách lịch sự được điều chỉnh một mặt bởi lập trình của trình thu thập thông tin và âm mưu thu thập thông tin, mặt khác là bởi tệp robots.txt.

Công cụ tìm kiếm có thể thu thập thông tin nội dung mới được lập chỉ mục và thu thập lại thông tin các trang hiện có trong chỉ mục càng nhanh thì nội dung sẽ càng mới.

Lấy số dư đúng không? Đó là phần khó.

Giả sử, hoàn toàn là giả thuyết, rằng Google muốn đưa tin đầy đủ về tin tức và các vấn đề thời sự và quyết định thử thu thập dữ liệu toàn bộ trang web của New York Times mỗi ngày (thậm chí hàng tuần) mà không có bất kỳ yếu tố lịch sự nào. Rất có thể trình thu thập thông tin sẽ sử dụng hết băng thông của chúng. Và điều đó có nghĩa là không ai có thể đọc bài báo trực tuyến vì băng thông bị hạn chế.

Rất may, giờ đây, ngoài yếu tố lịch sự, chúng tôi có Google Search Console, nơi có thể điều khiển tốc độ và tần suất thu thập thông tin của các trang web.

Điều gì đã thay đổi trong 32 nhiều năm thu thập thông tin trên web?

OK, chúng tôi đã bao phủ rất nhiều cơ sở như tôi biết là chúng tôi sẽ làm.

Chắc chắn đã có nhiều thay đổi đối với cả internet và world wide web – nhưng phần thu thập thông tin dường như vẫn bị cản trở bởi các vấn đề cũ.

Điều đó nói rằng, một thời gian trước, tôi đã xem một bài thuyết trình của Andrey Kolobov, một nhà nghiên cứu trong lĩnh vực máy học tại Bing. Anh ấy đã tạo ra một thuật toán để thực hiện hành động cân bằng với vấn đề băng thông, lịch sự và tầm quan trọng khi lập kế hoạch thu thập thông tin.

Tôi thấy nó có nhiều thông tin, dễ hiểu một cách đáng ngạc nhiên và khá dễ giải thích. Ngay cả khi bạn không hiểu toán học, đừng lo lắng, bạn vẫn sẽ nhận được dấu hiệu về cách anh ta giải quyết vấn đề. Và bạn cũng sẽ nghe thấy từ “quan trọng” trong danh sách kết hợp một lần nữa.

Về cơ bản, như tôi đã giải thích trước đó về các URL trên biên giới của việc thu thập thông tin, phân tích siêu liên kết là quan trọng trước khi bạn được thu thập thông tin, thực sự có thể là lý do đằng sau việc bạn được thu thập thông tin nhanh như thế nào. Bạn có thể xem đoạn video ngắn về bài thuyết trình của anh ấy tại đây .

Bây giờ, hãy cùng tìm hiểu những gì đang xảy ra với internet ngay bây giờ và cách thức các định dạng web, internet, 5G và nội dung nâng cao đang phát triển.

Dữ liệu có cấu trúc

Web là một biển dữ liệu phi cấu trúc từ lúc bắt đầu. Đó là cách nó được phát minh. Và khi nó vẫn phát triển theo cấp số nhân mỗi ngày, thách thức mà các công cụ tìm kiếm gặp phải là phải thu thập dữ liệu và thu thập lại thông tin các tài liệu hiện có trong chỉ mục để phân tích và cập nhật nếu có bất kỳ thay đổi nào được thực hiện để giữ cho chỉ mục luôn mới.

Đó là một nhiệm vụ khổng lồ.

Sẽ dễ dàng hơn rất nhiều nếu dữ liệu được cấu trúc. Và thực tế là rất nhiều, vì cơ sở dữ liệu có cấu trúc thúc đẩy rất nhiều trang web. Nhưng nội dung và bản trình bày được tách biệt, tất nhiên, vì nội dung phải được xuất bản hoàn toàn bằng HTML.

Đã có nhiều nỗ lực mà tôi đã biết trong nhiều năm qua, nơi các trình trích xuất tùy chỉnh đã được xây dựng để cố gắng chuyển đổi HTML thành dữ liệu có cấu trúc. Nhưng hầu hết, những nỗ lực này là các hoạt động rất mong manh, khá tốn công sức và hoàn toàn dễ xảy ra lỗi.

Một điều khác đã thay đổi hoàn toàn trò chơi là các trang web trong những ngày đầu được viết mã và thiết kế thủ công cho những chiếc máy để bàn cũ kỹ. Nhưng hiện nay, số lượng các hệ số dạng khác nhau được sử dụng để truy xuất các trang web đã làm thay đổi đáng kể các định dạng trình bày mà các trang web phải nhắm mục tiêu.

Như tôi đã nói, vì những thách thức cố hữu với web, các công cụ tìm kiếm như Google không bao giờ có thể thu thập dữ liệu và lập chỉ mục toàn bộ web trên toàn thế giới.

Vì vậy, đâu sẽ là một cách thay thế để cải thiện đáng kể quy trình? Điều gì sẽ xảy ra nếu chúng tôi để trình thu thập thông tin tiếp tục thực hiện công việc bình thường của nó và cung cấp đồng thời nguồn cấp dữ liệu có cấu trúc?

Trong thập kỷ qua, tầm quan trọng và tính hữu dụng của ý tưởng này ngày càng lớn mạnh. Đối với nhiều người, nó vẫn còn là một ý tưởng mới. Nhưng, một lần nữa, Pinkerton, nhà phát minh WebCrawler, đã đi trước về chủ đề này 20 cách đây nhiều năm.

Anh ấy và tôi đã thảo luận về ý tưởng về các nguồn cấp dữ liệu XML dành riêng cho miền để chuẩn hóa cú pháp. Vào thời điểm đó, XML là mới và được coi là tương lai của HTML dựa trên trình duyệt.

Nó được gọi là có thể mở rộng vì nó không phải là một định dạng cố định như HTML. XML là một “ngôn ngữ kim loại” (một ngôn ngữ để mô tả các ngôn ngữ khác cho phép bạn thiết kế các ngôn ngữ đánh dấu tùy chỉnh của riêng mình cho các loại tài liệu đa dạng vô hạn). Nhiều cách tiếp cận khác đã được ca ngợi là tương lai của HTML nhưng không thể đáp ứng khả năng tương tác cần thiết.

Tuy nhiên, một cách tiếp cận đã nhận được rất nhiều sự chú ý được gọi là MCF (Meta Content Framework), giới thiệu các ý tưởng từ lĩnh vực biểu diễn tri thức (khung và lưới ngữ nghĩa). Ý tưởng là tạo ra một mô hình dữ liệu chung dưới dạng một biểu đồ có nhãn có hướng.

Vâng, ý tưởng được biết đến nhiều hơn với tên gọi web ngữ nghĩa. Và những gì tôi vừa mô tả là tầm nhìn ban đầu của biểu đồ tri thức. Nhân tiện, ý tưởng đó có từ 1997.

Tất cả những gì đã nói, đó là 2011 khi mọi thứ bắt đầu kết hợp với nhau, với schema.org được thành lập bởi Bing, Google, Yahoo và Yandex. Ý tưởng là giới thiệu cho các quản trị viên web một từ vựng duy nhất. Các công cụ tìm kiếm khác nhau có thể sử dụng đánh dấu theo cách khác nhau, nhưng quản trị viên web chỉ phải thực hiện công việc này một lần và sẽ thu được lợi ích từ nhiều người tiêu dùng đánh dấu.

OK – Tôi không muốn đi quá xa vào tầm quan trọng to lớn của dữ liệu có cấu trúc đối với tương lai của SEO. Đó phải là một bài báo của riêng mình. Vì vậy, tôi sẽ quay lại với nó vào lúc khác một cách chi tiết.

Nhưng bạn có thể thấy rằng nếu Google và các công cụ tìm kiếm khác không thể thu thập dữ liệu toàn bộ trang web, thì tầm quan trọng của việc cung cấp dữ liệu có cấu trúc để giúp chúng cập nhật trang nhanh chóng mà không cần phải thu thập lại thông tin liên tục tạo ra sự khác biệt rất lớn.

Phải nói rằng, và điều này đặc biệt quan trọng, bạn vẫn cần phải làm cho dữ liệu phi cấu trúc của mình được công nhận về các yếu tố EAT (chuyên môn, thẩm quyền, đáng tin cậy) trước khi dữ liệu có cấu trúc thực sự hoạt động.

Điện toán đám mây

Như tôi đã đề cập, trong bốn thập kỷ qua, internet đã phát triển từ mạng ngang hàng để phủ khắp thế giới web đến cuộc cách mạng internet di động, Điện toán đám mây, Internet of Things, Edge Computing, và 5G.

Sự chuyển hướng sang Điện toán đám mây đã mang lại cho chúng tôi cụm từ trong ngành là “Đám mây hóa của internet”.

Các trung tâm dữ liệu có quy mô nhà kho khổng lồ cung cấp các dịch vụ quản lý tính toán, lưu trữ, mạng, quản lý và kiểm soát dữ liệu. Điều đó thường có nghĩa là các trung tâm dữ liệu Đám mây được đặt gần các nhà máy thủy điện, chẳng hạn, để cung cấp lượng điện năng khổng lồ mà chúng cần.

Điện toán biên

Giờ đây, “Edgeifacation of the internet” biến tất cả trở lại từ việc ở xa nguồn người dùng trở thành ngay bên cạnh nó.

Điện toán biên là về các thiết bị phần cứng vật lý được đặt ở các vị trí từ xa ở rìa mạng có đủ bộ nhớ, khả năng xử lý và tài nguyên máy tính để thu thập dữ liệu, xử lý dữ liệu đó và thực thi nó trong thời gian gần như thực với sự trợ giúp hạn chế từ các bộ phận khác của mạng lưới.

Bằng cách đặt các dịch vụ máy tính gần các địa điểm này hơn, người dùng được hưởng lợi từ các dịch vụ nhanh hơn, đáng tin cậy hơn với trải nghiệm người dùng tốt hơn và các công ty được hưởng lợi nhờ khả năng hỗ trợ tốt hơn các ứng dụng nhạy cảm với độ trễ, xác định xu hướng và cung cấp các sản phẩm và dịch vụ vượt trội hơn rất nhiều. Các thiết bị IoT và thiết bị Edge thường được sử dụng thay thế cho nhau.

5G

Với 5G và sức mạnh của IoT và điện toán Edge, cách nội dung được tạo và phân phối cũng sẽ thay đổi đáng kể.

Chúng ta đã thấy các yếu tố của thực tế ảo (VR) và thực tế tăng cường (AR) trong tất cả các loại ứng dụng khác nhau. Và trong tìm kiếm, nó sẽ không khác.

Hình ảnh AR là một sáng kiến ​​tự nhiên của Google và họ đã làm lung tung với hình ảnh 3D trong một vài năm, giờ chỉ là thử nghiệm, kiểm tra, thử nghiệm như họ vẫn làm. Nhưng hiện tại, họ đang kết hợp quyền truy cập có độ trễ thấp này vào biểu đồ tri thức và đưa nội dung vào theo những cách trực quan hấp dẫn hơn.

Trong thời kỳ cao trào của đại dịch, người dùng cuối “được tăng tốc kỹ thuật số” giờ đã quen với việc tương tác với các hình ảnh 3D mà Google đưa vào kết quả hỗn hợp. Lúc đầu là động vật (chó, gấu, cá mập) và sau đó là ô tô.

Năm ngoái, Google đã thông báo rằng trong khoảng thời gian đó, các kết quả nổi bật 3D đã tương tác với nhiều hơn 200 triệu lần. Điều đó có nghĩa là thanh đã được thiết lập và tất cả chúng ta cần bắt đầu suy nghĩ về việc tạo ra những trải nghiệm nội dung phong phú hơn này vì người dùng cuối (có thể là khách hàng tiếp theo của bạn) đã mong đợi loại nội dung nâng cao này.

Nếu bạn chưa tự mình trải nghiệm điều đó (và không phải tất cả mọi người trong ngành của chúng tôi đều có), đây là một điều trị rất hay. Trong video này từ năm ngoái , Google giới thiệu các vận động viên nổi tiếng vào hỗn hợp AR. Và vận động viên siêu sao Simone Biles có thể tương tác với AR của cô ấy trong kết quả tìm kiếm.

IoT

Sau khi thiết lập các giai đoạn / sự phát triển khác nhau của internet, không khó để nói rằng mọi thứ được kết nối theo cách này hay cách khác sẽ là động lực của tương lai.

Do sự cường điệu tiên tiến mà nhiều công nghệ nhận được, thật dễ dàng loại bỏ nó với những suy nghĩ như IoT chỉ là về bóng đèn thông minh và thiết bị đeo được chỉ là về thiết bị theo dõi và đồng hồ thể dục. Nhưng thế giới xung quanh bạn đang từng bước được định hình lại theo những cách mà bạn khó có thể tưởng tượng được. Nó không phải là khoa học viễn tưởng.

IoT và thiết bị đeo được là hai trong số những công nghệ phát triển nhanh nhất và các chủ đề nghiên cứu nóng nhất sẽ mở rộng đáng kể các ứng dụng điện tử tiêu dùng (đặc biệt là truyền thông).

Tương lai không phải là muộn khi đến vào thời điểm này. Nó đã ở đây.

Chúng ta đang sống trong một thế giới kết nối nơi hàng tỷ máy tính, máy tính bảng, điện thoại thông minh, thiết bị đeo được, máy chơi game và thậm chí cả thiết bị y tế, thực sự là toàn bộ các tòa nhà đang xử lý kỹ thuật số và cung cấp thông tin.

Đây là một thực tế nhỏ thú vị dành cho bạn: ước tính rằng số lượng thiết bị và vật phẩm được kết nối với IoT đã làm lu mờ số lượng người trên trái đất.

Quay lại SEO Tương lai

Chúng ta sẽ dừng lại ở đây. Nhưng nhiều hơn nữa sẽ đến.

Tôi dự định chia nhỏ những gì chúng ta hiện gọi là tối ưu hóa công cụ tìm kiếm trong một loạt các bài báo hàng tháng về các khía cạnh cơ bản. Mặc dù, thuật ngữ “SEO” sẽ không đi vào từ điển trong một thời gian vì ngành tiểu thủ công nghiệp “làm những thứ để được tìm thấy trên các cổng công cụ tìm kiếm” bắt đầu xuất hiện từ giữa đến cuối 1990S.

Cho đến lúc đó – hãy khỏe, làm việc hiệu quả và tiếp thu mọi thứ xung quanh bạn trong thời buổi công nghệ thú vị này. Tôi sẽ quay lại với nhiều hơn nữa sau vài tuần.

Related Articles

Back to top button