Mark Russinovich, Giám đốc Công nghệ của Microsoft Azure, đã nhấn mạnh mối lo ngại về bảo mật ngày càng tăng liên quan đến AI tổng hợp. Phát biểu tại hội nghị Microsoft Build  2024 ở Seattle, Russinovich đã nhấn mạnh sự đa dạng một loạt các mối đe dọa mà Giám đốc An ninh Thông tin (CISO) và nhà phát triển phải xử lý khi họ tích hợp các công nghệ AI tổng hợp. Ông nhấn mạnh sự cần thiết của một cách tiếp cận đa ngành đối với bảo mật AI, bao gồm xem xét kỹ lưỡng các mối đe dọa từ nhiều góc độ khác nhau như ứng dụng AI, mã mô hình cơ bản, yêu cầu API, dữ liệu đào tạo và các cửa hậu tiềm ẩn.

Ngộ độc dữ liệu và Phân loại sai mô hình

Một trong những mối quan tâm chính mà Russinovich giải quyết là đầu độc dữ liệu. Trong các cuộc tấn công này, kẻ thù thao túng các bộ dữ liệu được sử dụng để huấn luyện các mô hình AI hoặc máy học, dẫn đến kết quả đầu ra bị hỏng. Ông minh họa điều này bằng một ví dụ trong đó nhiễu kỹ thuật số được thêm vào hình ảnh khiến AI phân loại sai gấu trúc thành khỉ. Kiểu tấn công này có thể đặc biệt nguy hiểm vì ngay cả một thay đổi nhỏ, chẳng hạn như chèn cửa sau, cũng có thể ảnh hưởng đáng kể đến hiệu suất của mô hình.

Russinovich cũng thảo luận về vấn đề các cửa hậu trong mô hình AI. Mặc dù thường được coi là một lỗ hổng, nhưng các cửa hậu cũng có thể dùng để xác minh tính xác thực và tính toàn vẹn của mô hình. Ông giải thích rằng cửa sau có thể được sử dụng để lấy dấu vân tay của một mô hình, cho phép phần mềm kiểm tra tính xác thực của nó. Điều này liên quan đến việc thêm các câu hỏi duy nhất vào mã mà người dùng thực khó có thể hỏi, từ đó đảm bảo tính toàn vẹn của mô hình.

Kỹ thuật chèn nhanh

Một mối đe dọa đáng kể khác mà Russinovich nhấn mạnh là kỹ thuật chèn nhanh. Những điều này liên quan đến việc chèn văn bản ẩn vào các cuộc hội thoại, điều này có thể dẫn đến rò rỉ dữ liệu hoặc ảnh hưởng đến hành vi của AI ngoài các hoạt động dự định của nó. Chúng tôi đã thấy GPT-4 V của OpenAI dễ bị tấn công kiểu này như thế nào.  Anh ấy đã chứng minh làm thế nào một đoạn văn bản ẩn được đưa vào một cuộc đối thoại có thể dẫn đến rò rỉ dữ liệu riêng tư, tương tự như việc khai thác tập lệnh chéo trang trong bảo mật web. Điều này đòi hỏi phải cách ly người dùng, phiên và nội dung với nhau để ngăn chặn các cuộc tấn công như vậy.

Mối lo ngại hàng đầu của Microsoft là các vấn đề liên quan đến việc tiết lộ dữ liệu nhạy cảm, kỹ thuật bẻ khóa để vượt qua các mô hình AI và buộc bên thứ ba-các ứng dụng của bên và plugin mô hình để vượt qua các bộ lọc an toàn hoặc tạo ra nội dung bị hạn chế. Russinovich đã đề cập đến một phương pháp tấn công cụ thể, Crescendo, có thể vượt qua các biện pháp an toàn nội dung để khiến một mô hình tạo ra nội dung có hại.

Phương pháp tiếp cận toàn diện đối với bảo mật AI

Russinovich ví các mô hình AI như “những nhân viên thực sự thông minh nhưng cấp dưới hoặc ngây thơ”, những người dù thông minh nhưng lại dễ bị thao túng và có thể hành động chống lại chính sách của tổ chức mà không có sự giám sát chặt chẽ. Ông nhấn mạnh những rủi ro bảo mật cố hữu trong các mô hình ngôn ngữ lớn (LLM) và cần có các biện pháp bảo vệ nghiêm ngặt để giảm thiểu những lỗ hổng này.

Russinovich đã phát triển một bản đồ mối đe dọa AI tổng quát nhằm phác thảo mối quan hệ giữa các yếu tố khác nhau này. Bản đồ này đóng vai trò là một công cụ quan trọng để hiểu và giải quyết bản chất nhiều mặt của bảo mật AI. Ông đã đưa ra một ví dụ về việc đưa dữ liệu bị nhiễm độc vào một trang Wikipedia, được biết đến là nguồn dữ liệu, có thể dẫn đến các vấn đề lâu dài ngay cả khi dữ liệu sau đó được sửa chữa. Điều này khiến việc truy tìm dữ liệu bị nhiễm độc trở nên khó khăn vì nó không còn nữa. tồn tại trong nguồn gốc.

Categories: IT Info