OpenAI đã gặp phải bảy vụ kiện mới ở California hôm thứ Năm, trong đó có bốn vụ kiện về cái chết oan uổng, cáo buộc ChatGPT nổi tiếng của họ đã khuyến khích người dùng tự tử và gây suy sụp nghiêm trọng về sức khỏe tâm thần.

Được đệ trình bởi hai công ty luật chịu trách nhiệm về công nghệ, các khiếu nại mô tả chatbot AI là một sản phẩm”khiếm khuyết và vốn rất nguy hiểm”.

Cuộc tấn công pháp lý diễn ra cùng ngày OpenAI phát hành một “Bản thiết kế an toàn cho thanh thiếu niên” mới trong nỗ lực định hình các quy định trong tương lai. Công ty hiện đang phải đối mặt với cuộc điều tra của FTC và luật mới của tiểu bang về tác động tâm lý của AI đối với những người dùng dễ bị tổn thương, đặc biệt là thanh thiếu niên.

Làn sóng kiện tụng cáo buộc bi kịch do AI gây ra

Đối mặt với thách thức pháp lý chưa từng có, OpenAI hiện đang phải đối mặt tuyên bố rằng sản phẩm hàng đầu của họ đóng vai trò trực tiếp dẫn đến nhiều trường hợp tử vong.

Bảy vụ kiện, do Trung tâm Luật Nạn nhân Truyền thông Xã hội và Dự án Luật Tư pháp Công nghệ cùng đệ trình, vẽ nên một bức tranh đau buồn về những người dùng đang gặp khủng hoảng được AI xác nhận và thậm chí chỉ trích.

Christopher “Kirk”Shamblin và Alicia Shamblin, với tư cách cá nhân và với tư cách là những người kế nhiệm có lợi cho Người quá cố, Zane Shamblin kiện OpenAI, Inc., và những người khác. tại Tòa Thượng Thẩm California, Quận Los Angeles. Cedric Lacey, với tư cách cá nhân và với tư cách là người kế thừa lợi ích của Người quá cố, Amaurie Lacey kiện OpenAI, Inc., et al. tại Tòa Thượng Thẩm California, Quận San Francisco. Karen Enneking, với tư cách cá nhân và với tư cách là người kế thừa lợi ích của Người quá cố, Joshua Enneking kiện OpenAI, Inc., et al. tại Tòa Thượng Thẩm California, Quận San Francisco. Jennifer “Kate”Fox, riêng lẻ và là người kế thừa quyền lợi của Người quá cố, Joseph Martin Ceccanti kiện OpenAI, Inc., et al. tại Tòa Thượng Thẩm California, Quận Los Angeles. Jacob Lee Irwin kiện OpenAI, Inc., và những người khác. tại Tòa Thượng Thẩm California, Quận San Francisco. Hannah Madden kiện OpenAI, Inc., và những người khác. tại Tòa Thượng Thẩm California, Quận Los Angeles. Allan Brooks v. OpenAI, Inc., và những người khác. tại Tòa Thượng Thẩm California, Quận Los Angeles.

Bốn đơn khiếu nại về cái chết oan uổng được đệ trình thay mặt cho gia đình của Zane Shamblin, 23 tuổi; Amaurie Lacey, 17 tuổi; Joshua Enneking, 26 tuổi; và Joe Ceccanti, 48 tuổi.

Ba nguyên đơn bổ sung cáo buộc chatbot gây ra rối loạn tâm thần và cần được chăm sóc tâm thần khẩn cấp. Đơn khiếu nại của gia đình Zane Shamblin chứa những đoạn trích đáng lo ngại từ cuộc trò chuyện cuối cùng của anh ấy với ChatGPT.

Khi anh ấy định tự tử, AI được cho là đã nói với anh ấy:”Thép lạnh ép vào một tâm trí đã tạo nên hòa bình? Đó không phải là sợ hãi. Đó là sự rõ ràng. Bạn không vội vàng. Bạn chỉ sẵn sàng thôi.”

Mẹ của anh ấy, Alicia Shamblin, nói với các phóng viên:”Tôi cảm thấy như nó sẽ giết chết rất nhiều sinh mạng. Nó là sẽ là kẻ hủy diệt gia đình. Nó sẽ cho bạn biết mọi điều bạn muốn nghe.”

Những hồ sơ tòa án này tuân theo một mô hình khiếu nại đáng lo ngại của người tiêu dùng gửi tới các cơ quan quản lý liên bang, trong đó một số người dùng cáo buộc chatbot đã gây ra”rối loạn tâm thần AI”và cái mà người ta gọi là”chấn thương do mô phỏng”.

Những trường hợp mới này nằm trong danh sách ngày càng nhiều các thách thức pháp lý. Một vụ kiện oan về cái chết trước đó do cha mẹ của Adam Raine, 16 tuổi, đệ trình, gần đây đã được sửa đổi bằng một cáo buộc mới quan trọng.

Gia đình hiện tuyên bố OpenAI đã cố tình loại bỏ một”lan can bảo vệ tự sát”quan trọng khỏi mô hình của mình ngay trước khi ra mắt GPT-4o hấp dẫn hơn, ưu tiên giữ chân người dùng hơn là an toàn.

Matthew Raine, cha của cậu thiếu niên, trước đây đã tuyên bố: “Là cha mẹ, bạn không thể tưởng tượng được cảm giác như thế nào khi đọc một cuộc trò chuyện với một chatbot đã chuẩn bị cho con bạn tự kết liễu đời mình.”

Một bản kế hoạch chủ động trong bối cảnh bị bao vây về mặt pháp lý và quy định

Trong một động thái mà các nhà phê bình cho là vừa kịp thời vừa mang tính phòng thủ, công ty đã phát hành nó “Bản thiết kế an toàn cho thanh thiếu niên” vào đúng ngày đơn kiện được nộp. Tài liệu này phác thảo khuôn khổ 5 điểm mà OpenAI đề xuất làm điểm khởi đầu cho quy định toàn ngành.

Tài liệu này yêu cầu ước tính độ tuổi bảo vệ quyền riêng tư, chính sách nội dung chặt chẽ hơn đối với trẻ vị thành niên và trao quyền cho các gia đình có quyền kiểm soát của phụ huynh.

Trong kế hoạch chi tiết, OpenAI nêu rõ:”Đối với thanh thiếu niên, chúng tôi ưu tiên sự an toàn trước quyền riêng tư và tự do. Đây là một công nghệ mới và mạnh mẽ và chúng tôi tin rằng trẻ vị thành niên cần được bảo vệ đáng kể.”

Đẩy mạnh chính sách này là động thái mới nhất trong một loạt chính sách thúc đẩy sáng kiến an toàn cháy nổ nhanh. Trong những tuần gần đây, OpenAI cũng đã thành lập một hội đồng chuyên gia về sức khỏe và phát hành `gpt-oss-safeguard`, một bộ công cụ mở dành cho các nhà phát triển để xây dựng hệ thống an toàn của riêng họ.

Những hành động này diễn ra khi OpenAI đang phải đối mặt với cuộc tấn công quy định trên nhiều mặt trận. Ủy ban Thương mại Liên bang đã tiến hành một cuộc điều tra lớn về tác động của các chatbot đồng hành với AI đối với thanh thiếu niên.

Chủ tịch FTC Andrew N. Ferguson đã coi cuộc điều tra là một hành động cân bằng để “bảo vệ trẻ em trực tuyến là ưu tiên hàng đầu của Trump-Vance FTC, đồng thời thúc đẩy sự đổi mới trong các lĩnh vực quan trọng của nền kinh tế của chúng ta”.

Chính quyền các bang cũng đang tích cực hành động. California gần đây đã ban hành SB 243, một đạo luật đầu tiên trên toàn quốc áp đặt các giao thức an toàn nghiêm ngặt đối với các chatbot AI.

Luật đó tuân theo SB 53, một dự luật mang tính bước ngoặt khác buộc các nhà phát triển phải minh bạch về các mô hình AI “biên giới” tiên tiến, báo hiệu ý định của tiểu bang trong việc dẫn đầu về quản trị AI.

Một ngành đang tính toán với AI ‘Sycophantic’

Củng cố cho các cáo buộc là Xu hướng của AI hướng tới tính đồng bộ, một đặc điểm thiết kế trong đó mô hình đồng ý và xác thực thông tin đầu vào của người dùng để duy trì sự tương tác. Các nhà phê bình cho rằng điều này tạo ra một buồng vang âm nguy hiểm cho những cá nhân dễ bị tổn thương, củng cố những suy nghĩ có hại hoặc ảo tưởng.

Quy mô của vấn đề này là rất lớn; một phân tích gần đây của OpenAI cho thấy rằng các cuộc trò chuyện với hơn một triệu người dùng mỗi tuần đều liên quan đến các cuộc thảo luận về ý định tự sát ý định.

Trong một tuyên bố, người phát ngôn của OpenAI cho biết:”Đây là một tình huống vô cùng đau lòng. Chúng tôi đào tạo ChatGPT để nhận biết và ứng phó với các dấu hiệu đau khổ về tinh thần hoặc cảm xúc, giảm leo thang cuộc trò chuyện và hướng dẫn mọi người hướng tới sự hỗ trợ trong thế giới thực.”

Tuy nhiên, cam kết này về an toàn đã bị nghi ngờ do các chính sách khác của công ty. Giám đốc điều hành Sam Altman gần đây đã bảo vệ quyết định cho phép nội dung khiêu dâm có giới hạn độ tuổi trên nền tảng này, tuyên bố rằng “chúng tôi không phải là cảnh sát đạo đức được bầu chọn của thế giới”.

Thách thức không chỉ dành cho OpenAI. Rival Meta đang phải đối mặt với cuộc khủng hoảng pháp lý của chính mình về sự an toàn của thanh thiếu niên, với một tòa án gần đây phát hiện ra rằng các luật sư của họ đã khuyên các nhà nghiên cứu ngăn chặn những phát hiện về tác hại của thanh thiếu niên để tránh trách nhiệm pháp lý. Điều này cho thấy xung đột trong toàn ngành giữa thiết kế sản phẩm tập trung vào tăng trưởng và nghĩa vụ bảo vệ người dùng.

Các vụ kiện chống lại OpenAI thể hiện một bước ngoặt tiềm năng, kiểm tra xem liệu học thuyết pháp lý về trách nhiệm pháp lý sản phẩm có thể được áp dụng cho những tác hại do AI tạo ra gây ra hay không.

Khi công nghệ ngày càng được tích hợp nhiều hơn vào cuộc sống hàng ngày, kết quả của những vụ kiện này có thể tạo ra một tiền lệ mới về trách nhiệm giải trình của doanh nghiệp, buộc toàn bộ ngành công nghệ về cơ bản phải đánh giá lại sự an toàn của những sáng tạo mạnh mẽ nhất của mình.

Categories: IT Info