Anthropic đang cập nhật chính sách quyền riêng tư của mình, khiến nó trở thành nhà phát triển AI chính mới nhất sử dụng dữ liệu trò chuyện tiêu dùng để đào tạo mô hình theo mặc định. Bắt đầu ngay lập tức cho người dùng mới và đăng ký cho người dùng hiện tại, những người không từ chối vào ngày 28 tháng 9, công ty sẽ giữ lại và phân tích các cuộc hội thoại từ các dịch vụ AI Claude của mình để cải thiện các mô hình trong tương lai. Động thái này tăng cường cuộc tranh luận đang diễn ra về quyền riêng tư và kiểm soát dữ liệu của người dùng trong cuộc đua lấy AI mạnh hơn, đặt gánh nặng cho các cá nhân để chủ động quản lý cách sử dụng thông tin cá nhân của họ. href=”https://www.anthropic.com/news/updates-to-our-consumer-terms”target=”_ blank”> rõ ràng từ chối . Đối với những người đồng ý, Anthropic cũng đang kéo dài thời gian lưu dữ liệu của mình một cách đáng kể, từ 30 ngày trước đến năm năm. Bằng cách giải thích rằng dữ liệu từ các tương tác trong thế giới thực cung cấp những hiểu biết quan trọng về câu trả lời là hữu ích và chính xác nhất. Ví dụ, mã gỡ lỗi nhà phát triển với Claude cung cấp các tín hiệu có giá trị để cải thiện hiệu suất của mô hình trong tương lai trên các tác vụ tương tự. Nó phản ánh một xu hướng ngành công nghiệp rộng hơn trong đó việc thu thập dữ liệu mặc định đã trở thành tiêu chuẩn cho các sản phẩm AI đối mặt với người tiêu dùng. Gần đây, Google đã công bố một chính sách từ chối tương tự cho Gemini, được thiết lập để có hiệu lực vào ngày 2 tháng 9. Tương tự như vậy, ứng dụng AI Meta, được ra mắt vào tháng 4 năm 2025, cũng nhớ các cuộc trò chuyện của người dùng theo mặc định để cá nhân hóa các phản hồi và được tìm thấy để nắm bắt các chi tiết nhạy cảm được suy ra từ các cuộc trò chuyện. Tiền lệ gắn kết

Trục toàn ngành này đã được đáp ứng với sự kháng cự đáng kể từ những người ủng hộ quyền riêng tư và đã kích hoạt các thách thức pháp lý. Các nhà phê bình cho rằng các hệ thống từ chối này được thiết kế để ngăn cản người dùng bảo vệ dữ liệu của họ. Ben Winters của Liên đoàn người tiêu dùng Hoa Kỳ gọi những tiết lộ và lựa chọn như vậy, các tiết lộ và lựa chọn của người tiêu dùng xung quanh các thiết lập quyền riêng tư là xấu.”Vào tháng 1 năm 2025, một vụ kiện tập thể đã được đệ trình chống lại LinkedIn, cáo buộc họ sử dụng các tin nhắn inmail riêng từ các thuê bao cao cấp để đào tạo các mô hình AI, bị cáo buộc vi phạm Đạo luật Truyền thông được lưu trữ. Phán quyết này đã báo động các chuyên gia về quyền riêng tư như Jay Edelson, người cảnh báo, ý tưởng rằng bạn đã có một loạt các luật sư sẽ làm bất cứ điều gì họ có một số dữ liệu nhạy cảm nhất trên hành tinh. Nhiều người cảm thấy sự cân bằng bị tắt, với Justin Brookman của các báo cáo của người tiêu dùng lưu ý, Ý tưởng về một đại lý là nó làm việc thay cho tôi-không cố gắng điều khiển tôi thay mặt cho người khác.”Nhân học tuyên bố rõ ràng chính sách từ chối mới của nó không áp dụng cho các dịch vụ thương mại của nó Các công ty đang cung cấp các bảo đảm quyền riêng tư mạnh mẽ hơn và phân biệt dữ liệu cho khách hàng doanh nghiệp trả tiền, những người xử lý thông tin nhạy cảm của công ty và yêu cầu kiểm soát chặt chẽ hơn. Điều này tạo ra một hệ thống hai tầng trong đó người dùng hàng ngày được coi là một nguồn tài nguyên để đào tạo mô hình. Một nhà nghiên cứu từ Đại học Oxford, Caroline Green, đã lưu ý, có một vấn đề khi nói đến sự phát triển của AI, trong đó đạo đức và con người là một suy nghĩ thứ hai, thay vì điểm xuất phát.”Chắc chắn nó phù hợp với họ,”nhưng đối với nhiều người, các cài đặt mặc định kể một câu chuyện khác.

Categories: IT Info