OpenAI đã phát hành “Bản thiết kế an toàn cho thanh thiếu niên” vào thứ Năm, một khuôn khổ mới được thiết kế để bảo vệ người dùng AI trẻ tuổi.
Động thái này là phản ứng trực tiếp trước áp lực pháp lý và chính phủ mạnh mẽ mà công ty San Francisco phải đối mặt. OpenAI đang tiến hành cuộc điều tra của Ủy ban Thương mại Liên bang, luật chatbot mới của California và các vụ kiện liên quan đến công cụ ChatGPT của họ với hành vi tự làm hại bản thân của thanh thiếu niên.
Để vượt qua cuộc khủng hoảng, công ty đang đề xuất năm nguyên tắc an toàn cốt lõi. Chúng bao gồm khả năng phát hiện độ tuổi tốt hơn và các biện pháp bảo vệ mặc định dành cho trẻ vị thành niên. OpenAI hy vọng kế hoạch chủ động này sẽ định hình các quy tắc của ngành trong tương lai và giải quyết các mối lo ngại ngày càng tăng về an toàn.
Kế hoạch 5 điểm nhằm định hình các tiêu chuẩn an toàn AI
Trọng tâm của bản thiết kế là năm nguyên tắc cốt lõi mà OpenAI lập luận rằng tất cả các công ty AI nên áp dụng.
Công ty đang định vị tài liệu này không chỉ là chính sách nội bộ mà còn là điểm khởi đầu để các nhà lập pháp xây dựng các quy định mới. Đầu tiên, nó kêu gọi xác định thanh thiếu niên trên các nền tảng bằng cách sử dụng “các công cụ ước tính độ tuổi dựa trên rủi ro, bảo vệ quyền riêng tư”để mang lại trải nghiệm khác biệt, phù hợp với lứa tuổi.
Như công ty tuyên bố, “Chúng tôi tin rằng ChatGPT sẽ đáp ứng nhu cầu của họ ở nơi họ đang ở: cách ChatGPT phản hồi với một đứa trẻ 15 tuổi phải khác với cách nó phản hồi với người lớn.”
Thứ hai, khuôn khổ này yêu cầu các chính sách cụ thể, nghiêm ngặt để giảm thiểu rủi ro cho người dùng theo 18. Theo kế hoạch chi tiết, các hệ thống AI phải được thiết kế để không mô tả hành vi tự tử hoặc tự làm hại bản thân và phải “cấm nội dung thân mật và bạo lực bằng hình ảnh hoặc nhập vai (tức là nhập vai).
Các chính sách cũng nhằm mục đích ngăn chặn AI củng cố “các hành vi và lý tưởng có hại cho cơ thể thông qua xếp hạng ngoại hình, so sánh cơ thể hoặc huấn luyện về chế độ ăn kiêng hạn chế”.
Thứ ba, OpenAI ủng hộ việc đặt mặc định là trải nghiệm U18 an toàn bất cứ khi nào có cơ hội độ tuổi của người dùng bị nghi ngờ, đặc biệt đối với người dùng không được xác thực. Điều này ưu tiên sự an toàn ngay cả khi nó cản trở việc người lớn sử dụng sản phẩm miễn phí.
Thứ tư, kế hoạch chi tiết nhấn mạnh việc trao quyền cho các gia đình quyền kiểm soát của phụ huynh có thể truy cập được, dựa trên các tính năng mà công ty mới ra mắt gần đây. Các biện pháp kiểm soát này cho phép người giám hộ liên kết các tài khoản, đặt “giờ cấm”, quản lý cài đặt quyền riêng tư dữ liệu và nhận thông báo nếu hoạt động của thanh thiếu niên cho thấy ý định tự làm hại bản thân.
Cuối cùng, yêu cầu thiết kế để mang lại sức khỏe tốt bằng cách tích hợp các tính năng được nghiên cứu về sức khỏe tâm thần cung cấp. Tài liệu của OpenAI coi đây là một sự thay đổi cơ bản về mức độ ưu tiên.”Đối với thanh thiếu niên, chúng tôi ưu tiên sự an toàn trước quyền riêng tư và tự do. Đây là một công nghệ mới và mạnh mẽ, đồng thời chúng tôi tin rằng trẻ vị thành niên cần được bảo vệ đáng kể.”
Một động thái chủ động trong bối cảnh bị bao vây về mặt pháp lý và quy định
Đối mặt với làn sóng giám sát pháp lý và quy định như thủy triều, kế hoạch chi tiết của OpenAI là một nỗ lực rõ ràng nhằm kiểm soát câu chuyện. Công ty hiện đang tự bảo vệ mình trước một vụ kiện cấp cao về cái chết bất đáng từ cha mẹ của một thiếu niên chết vì tự tử.
Cha của thiếu niên, Matthew Raine, đã đưa ra lời khiển trách mạnh mẽ, nói rằng: “Là cha mẹ, bạn không thể tưởng tượng được việc đọc một cuộc trò chuyện với một chatbot đã chuẩn bị cho con bạn tự kết liễu đời mình sẽ như thế nào”.
Trường hợp đó khiến công chúng lo ngại và đặt các biện pháp đảm bảo an toàn của công ty dưới kính hiển vi.
Áp lực của chính phủ là leo thang từ nhiều hướng. Vào tháng 9, Ủy ban Thương mại Liên bang Hoa Kỳ đã tiến hành một cuộc điều tra lớn về tác động của các chatbot đồng hành với AI đối với thanh thiếu niên, nhắm vào OpenAI và sáu gã khổng lồ công nghệ khác.
Chủ tịch FTC Andrew N. Ferguson mô tả cuộc điều tra là một hành động cân bằng: “bảo vệ trẻ em trực tuyến là ưu tiên hàng đầu của Trump-Vance FTC, đồng thời thúc đẩy sự đổi mới trong các lĩnh vực quan trọng của nền kinh tế của chúng ta”.
Các nhà lập pháp tiểu bang và liên bang cũng đang tích cực hành động. Tại California, Thống đốc Gavin Newsom đã ký SB 243 thành luật vào ngày 13 tháng 10, tạo ra các quy tắc hàng đầu cho AI chatbot.
Luật yêu cầu các nhà điều hành đưa ra các cảnh báo định kỳ nhắc nhở trẻ vị thành niên rằng họ đang nói chuyện với AI, chặn nội dung nguy hiểm và cung cấp quyền hành động riêng tư cho các gia đình để kiện các nhà phát triển không tuân thủ.
Tác giả của dự luật, Thượng nghị sĩ Steve Padilla, trước đây đã lập luận rằng “Big Tech đã nhiều lần chứng minh rằng họ không thể được tin cậy để giao cho chính cảnh sát”. Ở cấp liên bang, một nhóm lưỡng đảng gồm các thượng nghị sĩ Hoa Kỳ đã giới thiệu Đạo luật GUARD vào cuối tháng 10.
Dự luật đó thậm chí còn đi xa hơn, đề xuất lệnh cấm hoàn toàn đối với những người bạn đồng hành AI đối với trẻ vị thành niên và tạo ra các trách nhiệm hình sự mới cho các công ty có AI sản xuất nội dung bất hợp pháp cho người dùng chưa đủ tuổi vị thành niên.
Trong kế hoạch chi tiết của mình, OpenAI phản đối quan điểm không hành động, nêu bật các biện pháp an toàn hiện có. Công ty lưu ý rằng chỉ trong nửa đầu năm 2025, họ đã báo cáo hơn 75.000 mẹo trên mạng về tài liệu lạm dụng tình dục trẻ em do AI tạo ra cho chính quyền.
Cân bằng giữa an toàn với quan điểm’Cảnh sát đạo đức’gây tranh cãi
Tuy nhiên, khi OpenAI tự khẳng định mình là công ty dẫn đầu về an toàn cho thanh thiếu niên, nó cũng phải đối mặt với những chính sách và tuyên bố công khai trái ngược nhau của chính mình. Thông điệp đề cao sự an toàn này hoàn toàn trái ngược với những thay đổi chính sách gần đây của công ty.
Mới tháng trước, Giám đốc điều hành Sam Altman đã bảo vệ quyết định gây tranh cãi về việc cho phép nội dung khiêu dâm giới hạn độ tuổi trên ChatGPT. Anh ấy đã đẩy lùi những lời chỉ trích bằng cách tuyên bố, “chúng tôi không phải là cảnh sát đạo đức được bầu chọn của thế giới.” Động thái này, khiến những nhân vật như Mark Cuban lo ngại, đã tạo ra nhận thức về các ưu tiên xung đột trong công ty.
Kế hoạch chi tiết về an toàn cho thanh thiếu niên có thể được coi là sáng kiến mới nhất trong một loạt các sáng kiến nhanh chóng được thiết kế để thể hiện cam kết về an toàn. Vào cuối tháng 9, công ty đã triển khai bộ kiểm soát dành cho phụ huynh.
Chỉ hai tuần sau, công ty tuyên bố thành lập một hội đồng chuyên gia gồm tám thành viên để tư vấn về sức khỏe thể chất và tinh thần.
Những thách thức này không chỉ riêng với OpenAI, phản ánh cách tính toán rộng hơn trên toàn ngành. Các đối thủ cạnh tranh như Meta đang phải đối mặt với cuộc khủng hoảng pháp lý của chính họ về sự an toàn của thanh thiếu niên. Gần đây, một tòa án ở D.C. đã viện dẫn ngoại lệ hiếm gặp về tội gian lận để ra phán quyết rằng Meta không thể che giấu nghiên cứu nội bộ về tổn hại thanh thiếu niên đằng sau đặc quyền của luật sư-khách hàng.
Tòa án đã tìm thấy bằng chứng cho thấy các luật sư đã khuyên các nhà nghiên cứu thay đổi phát hiện để hạn chế trách nhiệm pháp lý, xác thực các tuyên bố của người tố giác về chiến lược”phủ nhận hợp lý”. Bằng cách công bố kế hoạch chi tiết, OpenAI đang thực hiện một bước đi chiến lược nhằm xác định các điều khoản về an toàn AI, với hy vọng định hình các quy tắc trước khi cơ quan quản lý và tòa án áp đặt các quy tắc chặt chẽ hơn.