Google Hunter Bug Hunter do AI, Big Sleep, đã xác định thành công và báo cáo 20 lỗ hổng bảo mật mới trong phần mềm nguồn mở phổ biến. Thành tích là
Bản thân sự hợp tác này là đáng chú ý. Project Zero là nhóm các nhà nghiên cứu bảo mật của Google, được biết đến với việc tìm kiếm các lỗ hổng có tác động cao, trong khi DeepMind là bộ phận nghiên cứu AI hàng đầu của nó. Kết hợp tư duy bảo mật tấn công của Project Zero với DeepMind từ AI năng lực mang lại cho giấc ngủ lớn lợi thế độc đáo của nó. Mặc dù Google đã xác nhận một chuyên gia của con người đánh giá từng báo cáo để đảm bảo chất lượng, nhưng việc phát hiện ban đầu và tái tạo các lỗi đã được xử lý hoàn toàn bởi AI mà không cần sự can thiệp của con người. Hành trình của dự án bắt đầu với một bằng chứng đáng chú ý vào tháng 11 năm 2024, khi giấc ngủ lớn phát hiện ra lỗ hổng đầu tiên của nó: một bộ đệm ngăn xếp trong cơ sở dữ liệu SQLite phổ biến. Các cổ phần đã được nâng lên đáng kể vào tháng 7 năm 2025, khi Google tiết lộ giấc ngủ lớn đã chủ động vô hiệu hóa một mối đe dọa sắp xảy ra. Động thái này báo hiệu một sự thay đổi quan trọng từ khám phá lỗi đơn giản sang phòng chống đe dọa hoạt động, do trí thông minh dẫn đầu. Đó là một cuộc đua chống lại những kẻ tấn công và AI đã thắng. Tracker
href=”https://twitter.com/royalhansen/status/1952424018663162235?ref_src=twsrc%5etfw”Target=”_ Blank”> An ninh mạng
Những thành tựu của giấc ngủ lớn mở ra trong bối cảnh của một cuộc chạy đua vũ khí AI rộng lớn hơn trong an ninh mạng. Nó không phải là thợ săn bọ tự động duy nhất trong lĩnh vực này; Các công cụ như Runsybil và Xbow cũng đang tạo ra các tiêu đề, với xbow gần đây Topping một bảng xếp hạng hackerone . Các gã khổng lồ công nghệ khác đang xây dựng các hệ thống bổ sung. Chẳng hạn, Meta gần đây đã công bố AutopatchBench để đánh giá mức độ AI có thể tự động sửa lỗi như thế nào, cùng với Llamafirewall, một công cụ được thiết kế để ngăn các mô hình AI tạo ra mã không an toàn ngay từ đầu. Các mô hình AI tương tự được sử dụng để phòng thủ cũng có thể duy trì các hoạt động mã hóa không an toàn. Nghiên cứu học thuật gần đây đã tiết lộ rằng nhiều LLM, được đào tạo về mã công cộng từ GitHub, đã học cách tái tạo các lỗi cũ, một hiện tượng được đặt tên là vấn đề Poisoned LLM”Bản chất sử dụng kép của AI đang buộc một sự tiến hóa nhanh chóng trong các chiến lược phòng thủ, khi các cuộc tấn công điều khiển AI trở nên tinh vi và các biện pháp an ninh truyền thống hơn chứng minh không đủ. Như Tờ Mehta của dữ liệu NTT được ghi nhận trong một bối cảnh liên quan, các công cụ bảo mật phân mảnh không thể theo kịp các cuộc tấn công tự động ngày hôm nay.”Thách thức đối với các công ty như Google là tiếp tục thúc đẩy sức mạnh phòng thủ của AI, trong khi xây dựng các bảo vệ để giảm thiểu những rủi ro mới mà nó tạo ra.