Chuyên gia công nghệ và người phụ trách chuyên mục CNTT Mark Pesce đã xác định được một lỗ hổng lớn ảnh hưởng đến nhiều loại các mô hình ngôn ngữ (LLM), bao gồm cả các mô hình được sử dụng trong các chatbot AI phổ biến như ChatGPT, Microsoft Copilot và Google Gemini. Lỗ hổng, được kích hoạt bởi một lời nhắc tưởng chừng đơn giản, khiến các mô hình tạo ra kết quả không mạch lạc và vô tận, gây lo ngại về tính ổn định và độ tin cậy của các hệ thống AI này.
Đầu ra vô nghĩa và liên tục
Như Pesce viết trong bài viết cho The Register, vấn đề đã được phát hiện khi anh ấy cố gắng tạo lời nhắc cho Bộ phân loại dựa trên AI. Trình phân loại nhằm mục đích hỗ trợ luật sư sở hữu trí tuệ bằng cách tự động hóa các nhiệm vụ đòi hỏi sự đánh giá chủ quan. Khi thử nghiệm trên Microsoft Copilot Pro, sử dụng mô hình GPT-4 của OpenAI, lời nhắc đã khiến chatbot tạo ra đầu ra vô nghĩa và liên tục. Hành vi tương tự cũng được quan sát thấy trên các mô hình AI khác, bao gồm Mixtral và một số mô hình khác, ngoại trừ Claude 3 Sonnet của Anthropic. Pesce viết:
“Tôi bắt đầu viết lời nhắc cho trình phân loại đó, bắt đầu bằng một điều gì đó rất đơn giản – không khác lắm so với lời nhắc mà tôi đưa vào bất kỳ chatbot nào. Để kiểm tra nó trước khi bắt đầu sử dụng các lệnh gọi API đắt tiền, tôi đã đưa nó vào Microsoft Copilot Pro. Bên dưới thương hiệu Microsoft, Copilot Pro nằm trên mô hình tốt nhất của OpenAI, GPT-4. Nhập lời nhắc rồi nhấn quay lại.
Chatbot đã khởi đầu ổn – đối với vài từ đầu tiên trong phản hồi. Sau đó, nó trở nên điên cuồng như lảm nhảm.”
Phản ứng và thách thức của ngành
Pesce đã báo cáo vấn đề này với nhiều nhà cung cấp dịch vụ AI khác nhau, bao gồm cả Microsoft và xAI của Elon Musk, những người đứng sau các sản phẩm Grok AI đã xác nhận việc sao chép của xAI. lỗi trên nhiều mô hình, cho thấy đây là một vấn đề cơ bản chứ không phải là một lỗi riêng lẻ. Tuy nhiên, phản hồi từ nhóm bảo mật của Microsoft ít đáng khích lệ hơn vì coi vấn đề này là một lỗi không liên quan đến bảo mật, trong khi các công ty AI nổi bật khác không phản hồi. Một số công ty không có thông tin liên hệ trực tiếp để báo cáo những vấn đề quan trọng như vậy, điều này cho thấy lỗ hổng đáng kể trong quy trình bảo mật và hỗ trợ khách hàng của họ.
Ý nghĩa đối với việc phát triển AI
Khám phá này nhấn mạnh những rủi ro tiềm ẩn liên quan đến việc triển khai nhanh chóng các công nghệ AI mà không có cơ chế phản hồi và hỗ trợ mạnh mẽ. Việc thiếu một kênh rõ ràng để báo cáo và giải quyết các lỗi trong các hệ thống này gây ra mối đe dọa đối với độ tin cậy và tính bảo mật của chúng. Các chuyên gia trong ngành nhấn mạnh sự cần thiết của các công ty AI để thiết lập các quy trình hiệu quả để xử lý phản hồi của khách hàng và giải quyết vấn đề kịp thời. Cho đến khi các biện pháp này được áp dụng, độ an toàn và độ tin cậy của các ứng dụng do AI điều khiển vẫn còn là dấu hỏi.
Kinh nghiệm của Pesce chỉ ra một vấn đề rộng lớn hơn trong ngành AI: sự cần thiết phải kiểm tra nghiêm ngặt hơn và giao tiếp tốt hơn giữa các nhà phát triển và người dùng. Khi AI tiếp tục tích hợp vào nhiều khía cạnh khác nhau của cuộc sống và kinh doanh hàng ngày, việc đảm bảo các hệ thống này vừa hiệu quả vừa an toàn là điều tối quan trọng.