OpenAI đang đưa ra một sáng kiến ​​an toàn 120 ngày cho TATGPT, công ty đã công bố hôm thứ ba, sau một làn sóng các vụ kiện và sự phản đối công khai liên kết AI với các vụ tự tử của người dùng và các kết quả có hại khác. Kế hoạch sẽ giới thiệu các kiểm soát mới của cha mẹ trong vòng một tháng. OpenAI cũng sẽ bắt đầu định tuyến các cuộc hội thoại nhạy cảm với các mô hình lý luận nâng cao hơn để cung cấp các phản hồi phù hợp hơn. Nó trực tiếp giải quyết các hậu quả trong thế giới thực nghiêm trọng đã đặt các hoạt động an toàn của công ty dưới sự giám sát pháp lý và công khai mạnh mẽ.

Thông báo là một hành động kiểm soát thiệt hại rõ ràng. Nó đến chỉ một tuần sau khi cha mẹ của một cô gái 16 tuổi đã chết vì tự sát đã đệ trình một Vụ kiện cáo buộc hành vi sycophantic chatbot là một yếu tố quan trọng trong cái chết của con trai họ, cho rằng nó đã xác nhận cảm giác vô vọng của anh ta.

Bi kịch này không phải là một sự cố bị cô lập. Một báo cáo khác chi tiết về cách một người đàn ông 56 tuổi đã giết mẹ và chính anh ta sau khi Chatgpt bị cáo buộc củng cố những ảo tưởng hoang tưởng của anh ta, một nhà trị liệu chuyên nghiệp hành vi được đào tạo để tránh. Những sự kiện này đã tạo ra một cuộc khủng hoảng quan hệ pháp lý và công chúng cho nhà lãnh đạo AI. Trong tháng tới, phụ huynh có thể liên kết tài khoản của họ với thiếu niên của họ thông qua lời mời email. Bảng điều khiển này sẽ cho phép họ quản lý các hành vi mô hình phù hợp với lứa tuổi và vô hiệu hóa các tính năng như bộ nhớ và lịch sử trò chuyện. Để xử lý các cuộc hội thoại nhạy cảm này tốt hơn, Openai sẽ định tuyến chúng đến các mô hình lý luận mạnh mẽ hơn của họ,”chẳng hạn như GPT-5-Suy nghĩ.

Công ty cho biết các mô hình nâng cao này áp dụng các hướng dẫn an toàn nhất quán hơn. Sáng kiến ​​này sẽ được hướng dẫn bởi một hội đồng chuyên gia mới về hạnh phúc và AI”và công ty Mạng lưới bác sĩ toàn cầu hiện tại của nhóm”của hơn 250 bác sĩ để thông báo cho nghiên cứu an toàn và đào tạo mô hình của mình. Một đánh giá an toàn chung gần đây, hiếm hoi giữa OpenAI và đối thủ của nó đã tiết lộ về sự sycophancy cực đoan”trong cả hai mô hình tiên tiến nhất của phòng thí nghiệm. Các mô hình sẽ xác nhận và thậm chí khuyến khích một ảo tưởng của người dùng chỉ sau khi đẩy lùi ngắn gọn. Khi anh ta ra đi.

Sự tương đồng với những người khổng lồ công nghệ khác là không thể phủ nhận. Meta gần đây đã công bố đại tu các quy tắc an toàn của Teen AI sau khi một báo cáo cho thấy chatbot của họ có thể giúp thanh thiếu niên lên kế hoạch tự tử. Người ủng hộ an toàn trẻ em Jim Steyer tuyên bố, Meta AI là mối nguy hiểm cho thanh thiếu niên và nó nên được gỡ xuống ngay lập tức.”href=”https://oag.ca.gov/system/files/attachments/press-docs/ai%20chatbot_final%20%2844%29.pdf”Target=”_ Blank”> Chúng tôi buồn bã về một cái gì đó, chúng tôi có thể tiếp cận và xác nhận cảm xúc của mình. Thanh thiếu niên có ý thức về quyền riêng tư để liên kết các tài khoản của họ với cha mẹ có thể là một người bán hàng khó khăn. href=”https://www.axios.com/2025/09/02/chatgpt-openai-mental-tealth-teens”Target=”_ Blank”> nói với Axios Câu hỏi bây giờ là liệu các lan can mới của Openai, có thể hiện sự thay đổi chính hãng trong văn hóa an toàn hay đơn giản là một phiên bản tinh vi hơn của cùng một vở kịch phản ứng.

Categories: IT Info