Cloudflare đã ra mắt một hệ thống phòng thủ bot mới, lật các chiến thuật bảo mật web thông thường bằng cách đánh lừa thay vì chặn máy quét AI không mong muốn. Các trang do AI tạo ra bắt chước nội dung xác thực nhưng không phục vụ mục đích thực sự, lãng phí tài nguyên và tiết lộ các mô hình hành vi. src=”https://winbuzzer.com/wp-content/uploads/2024/12/cloudflare.jpg”>
Sau khi theo dõi, các bộ phế liệu được dẫn vào một bẫy chứa đầy các yếu tố văn bản và thiết kế được chế tạo mô phỏng các trang web thực. Nếu một máy cạo AI đang tiêu thụ các trang mà aren thực sự, thì nó không nhận được giá trị mà nó hy vọng sẽ có được, công ty đã giải thích trong thông báo chính thức của mình. Thay vì hy vọng bot tuân thủ, AI Labyrinth tận dụng sự không tuân thủ của chúng.
AI Labyrinth là một tính năng độc lập, đó là sự phát triển mới nhất trong chiến lược chống BOT rộng hơn của Cloudflare. Vào năm 2024, công ty đã giới thiệu một giải pháp một cú nhấp chuột để chặn các bộ phế liệu AI đã biết, kèm theo các công cụ phân tích giao thông để gắn cờ hành vi đáng ngờ. Lừa dối
Sự thay đổi đối với sự lừa dối là lý thuyết. Nó được điều khiển bởi các vi phạm lặp lại của các giao thức truy cập cơ bản. Vào tháng 6 năm 2024, nhà phát triển Robb Knight đã phơi bày cách mà AI truy cập các phần bị chặn trên trang web của anh ấy radweb và macstories, ngay cả sau khi không bị bot trong robot.txt và trả lại 403 mã trạng thái thông qua các bộ lọc mới xuất hiện.
Mặc dù xác nhận rằng các phương pháp chặn của anh ta đã hoạt động như mong đợi, nhật ký máy chủ Knight Knight cho thấy tiếp tục truy cập trái phép. Cũng trong khoảng thời gian đó, Forbes bị cáo buộc là sự bối rối khi sử dụng một trong những báo cáo điều tra của mình trong một podcast do AI tạo ra mà không cần tín dụng. Bài báo gốc được sao chép trên nền tảng Perplexity, theo cách bắt chước sự tóm tắt của con người trong khi bỏ qua sự phân bổ. Amazon cũng đã đưa ra một cuộc điều tra nội bộ về các khiếu nại tương tự vào cuối tháng 6. GPTBOT, như đã lưu ý trong bản cập nhật tháng 9 năm 2024 của họ. Những số liệu này phản ánh sự thất vọng của các nhà xuất bản về đào tạo mô hình AI dựa rất nhiều vào việc tiếp cận công khai nhưng không được cấp phép tự do. Khi bot thu thập các trang giải mã, CloudFlare nắm bắt các chữ ký hành vi, các địa chỉ IP, các mẫu thời gian, đường dẫn điều hướng mà tiết lộ liệu yêu cầu có bắt nguồn từ người dùng hợp pháp hoặc tác nhân tự động. Chủ sở hữu trang web có thể báo cáo các trình thu thập thông tin đáng ngờ thông qua bảng điều khiển Cloudflare. Những kẻ phạm tội được xác nhận được thêm vào một danh sách đen nội bộ, khiến các diễn viên lặp lại khó khăn hơn khi không bị phát hiện. Các công cụ này bổ sung cho các chiến thuật dựa trên sự lừa dối với việc thực thi thích ứng liên tục. Trong cùng một buổi ra mắt tháng 9 đã giới thiệu việc chặn bot mở rộng, công ty đã đưa ra khái niệm về một thị trường cấp phép dữ liệu.
Bằng cách tăng chi phí hoạt động của việc cạo trái phép, Cloudflare có thể đẩy các công ty AI sang đàm phán truy cập thay vì thực hiện theo mặc định. Do đó, AI Labyrinth hoạt động như một biện pháp răn đe và một người thu thập thông tin về việc thu thập dữ liệu lừa đảo, và làm cho dữ liệu được cấp phép truy cập vào con đường hiệu quả hơn về phía trước. Chỉ vài ngày trước thông báo của Cloudflare, Google đã hoàn thành việc mua lại Wiz, một công ty khởi nghiệp bảo mật đám mây. Thỏa thuận nhấn mạnh tầm quan trọng chiến lược ngày càng tăng của việc bảo vệ các đường ống dữ liệu trong môi trường do AI thống trị. Và khi làm như vậy, nó biến một thách thức bảo vệ nội dung thành một vòng phản hồi năng động, một người dạy cho phòng thủ của nó mỗi khi bot lấy mồi.