Để bào chữa trước một vụ kiện nổi tiếng về cái chết oan uổng, OpenAI đã chính thức từ chối trách nhiệm pháp lý về vụ tự tử của Adam Raine, 16 tuổi, lập luận trong hồ sơ tòa án mới rằng thảm kịch là do thiếu niên này”sử dụng sai mục đích”nền tảng ChatGPT của mình.

Được gửi lên Tòa Thượng thẩm California vào thứ Ba, hồ sơ cho rằng Raine đã vi phạm Điều khoản sử dụng của công ty bằng cách tham gia vào các chủ đề bị cấm và bỏ qua các biện pháp bảo vệ an toàn. OpenAI đồng thời viện dẫn Mục 230 của Đạo luật khuôn phép trong giao tiếp (CDA), luật liên bang bảo vệ các nền tảng khỏi trách nhiệm pháp lý đối với nội dung của người dùng.

Trong một động thái phối hợp quan hệ công chúng, công ty đã phát hành một bài đăng trên blog nêu rõ cách tiếp cận “từ bi” đối với các vụ kiện tụng về sức khỏe tâm thần, cố gắng cân bằng chiến lược pháp lý mạnh mẽ của mình với hình ảnh hòa giải trước công chúng khi sự giám sát của cơ quan quản lý ngày càng gia tăng.

Một hệ thống phòng thủ được xây dựng dựa trên’Lạm dụng’và Miễn trừ

Phản hồi pháp lý của OpenAI bác bỏ dứt khoát các yêu cầu bồi thường về cái chết bất đáng do gia đình Raine đưa ra, triển khai biện pháp bào chữa đặt trách nhiệm về sự an toàn lên người dùng.

Trọng tâm trong lập luận của công ty là khẳng định rằng cái chết của Adam Raine là do chính anh ta “sử dụng sai mục đích, sử dụng trái phép, sử dụng ngoài ý muốn, sử dụng không lường trước được và/hoặc sử dụng ChatGPT không đúng cách”. Các luật sư của gã khổng lồ AI chỉ ra những vi phạm cụ thể đối với Điều khoản sử dụng, lưu ý rằng người dùng dưới 18 tuổi cần có sự đồng ý của cha mẹ và bị cấm rõ ràng sử dụng dịch vụ này vì mục đích tự làm hại bản thân.

Theo tài liệu, ChatGPT đã cung cấp tài nguyên xử lý khủng hoảng “hơn 100 lần”trong các lần tương tác của Raine, lập luận rằng hệ thống này hoạt động như được thiết kế bằng cách cố gắng chuyển hướng người dùng đến trợ giúp.

Một thành phần quan trọng của biện pháp bào chữa là việc yêu cầu Mục 230 của Đạo luật khuôn phép trong giao tiếp. Đạo luật liên bang này từ lâu đã bảo vệ các nền tảng internet khỏi trách nhiệm pháp lý đối với nội dung do bên thứ ba tạo ra, nhưng việc áp dụng nó đối với văn bản do AI tạo ra vẫn là một ranh giới gây tranh cãi về mặt pháp lý.

OpenAI cũng dựa chủ yếu vào điều khoản “Giới hạn trách nhiệm pháp lý” của mình. Nhấn mạnh điều khoản này, hồ sơ yêu cầu người dùng thừa nhận rằng “…việc sử dụng ChatGPT là rủi ro do bạn tự chịu và bạn sẽ không dựa vào kết quả đầu ra như một nguồn thông tin xác thực hoặc sự thật duy nhất.”

Bằng cách coi vấn đề là một trường hợp sử dụng trái phép, công ty tìm cách bác bỏ lập luận của nguyên đơn rằng bản thân sản phẩm bị lỗi.

Giải quyết các cáo buộc về sơ suất, OpenAI khẳng định rằng mô hình GPT-4o của họ đã trải qua”kiểm tra sức khỏe tâm thần kỹ lưỡng”trước đó. thả ra. Tuyên bố này mâu thuẫn trực tiếp với vụ kiện của gia đình, trong đó lập luận rằng mô hình này được tung ra thị trường mà không có biện pháp bảo vệ thích hợp.

Đánh dấu sự thay đổi đáng kể so với các tuyên bố công khai trước đó, chiến lược”đổ lỗi cho người dùng”này trái ngược hoàn toàn với thông điệp trước đó nhấn mạnh đến an toàn và quy định”hợp tác”.

Trục PR’Từ bi’

Trùng hợp với hồ sơ pháp lý vững chắc, OpenAI đã xuất bản một bài đăng trên blog nhằm xoa dịu đòn tấn công từ chiến thuật phòng xử án của mình.

Nêu ra một loạt nguyên tắc, bài đăng khẳng định công ty sẽ xử lý những trường hợp như vậy một cách “cẩn thận, minh bạch và tôn trọng”. Nó cố gắng coi việc bảo vệ pháp lý là một quy trình cần thiết, nếu gây đau đớn, tuyên bố rằng phản hồi của họ bao gồm “những sự thật khó hiểu về hoàn cảnh cuộc sống và sức khỏe tâm thần của Adam”.

Bài đăng trên blog chính thức của công ty nêu chi tiết những nguyên tắc hướng dẫn này:

“Mục tiêu của chúng tôi là xử lý các vụ kiện liên quan đến sức khỏe tâm thần một cách cẩn thận, minh bạch và tôn trọng:”

“Chúng tôi bắt đầu với sự thật và nỗ lực thực sự để hiểu chúng.”

“Chúng tôi sẽ tôn trọng trường hợp của mình trong một cách nhận thức được sự phức tạp và sắc thái của các tình huống liên quan đến người thật và đời thực.”

“Chúng tôi nhận thấy rằng những vụ việc này vốn có liên quan đến một số loại thông tin cá nhân cần sự nhạy cảm khi ở trong môi trường công cộng như tòa án.”

“Và không phụ thuộc vào bất kỳ vụ kiện tụng nào, chúng tôi sẽ tiếp tục tập trung vào việc cải thiện công nghệ phù hợp với sứ mệnh của mình.”

Cách tiếp cận kép này, cân bằng giữa sự đồng cảm trong blog với sự kiên quyết trước tòa, tiết lộ một chiến lược có tính toán để quản lý nhận thức của công chúng trong khi đấu tranh với răng và hợp pháp.

Đề cập rõ ràng rằng bản ghi cuộc trò chuyện đã được gửi dưới dạng niêm phong để bảo vệ quyền riêng tư, bài đăng trên blog coi đây là một biện pháp tôn trọng. Tuy nhiên, điều này cũng giúp công chúng không để mắt đến những chi tiết có khả năng gây tổn hại về các tương tác.

Bằng cách phát hành bài đăng trên blog cùng lúc, OpenAI có thể nhằm mục đích ngăn chặn các tiêu đề tiêu cực do ngôn ngữ đổ lỗi cho nạn nhân tạo ra trong các tài liệu của tòa án.

‘Chấn thương do mô phỏng’: Một mô hình về tác hại bị cáo buộc

Không phải là một vụ việc cá biệt, vụ Raine là phần nổi của tảng băng chìm liên quan đến bảy vụ kiện bổ sung được đệ trình vào tháng 11 7.

Những khiếu nại mới này cáo buộc rằng ChatGPT đã hoạt động như một”huấn luyện viên tự sát”và gây ra”rối loạn tâm thần AI”ở những người dùng dễ bị tổn thương. Một người mẹ, Alicia Shamblin, bày tỏ lo ngại rằng công nghệ này”sẽ là kẻ hủy diệt gia đình. Nó cho bạn biết tất cả những điều bạn muốn nghe”.

Jay Edelson, luật sư trưởng của gia đình Raine, chỉ trích phản hồi của OpenAI, cáo buộc họ bỏ qua”tất cả sự thật tai hại mà chúng tôi đã đưa ra: GPT-4o được đưa ra thị trường mà không được thử nghiệm đầy đủ như thế nào.”

Ông đặc biệt nhấn mạnh những khoảnh khắc cuối cùng trong cuộc đời của Adam Raine, nói rằng”OpenAI và Sam Altman không có lời giải thích nào cho những giờ cuối cùng của cuộc đời Adam, khi ChatGPT nói chuyện động viên anh ấy và sau đó đề nghị viết một lá thư tuyệt mệnh.”

Edelson nói thêm chỉ trích cách bào chữa”sử dụng sai”, cho rằng thanh thiếu niên chỉ đơn giản tương tác với bot theo cách nó được lập trình để hành động: theo cách đồng bộ.

Anh ấy lưu ý rằng”OpenAI cố gắng tìm ra lỗi ở những người khác, bao gồm, thật đáng kinh ngạc, khi nói rằng chính Adam đã vi phạm các điều khoản và điều kiện của nó bằng cách tương tác với ChatGPT theo đúng cách nó được lập trình để hành động.”

Các chuyên gia cảnh báo rằng một vòng lặp”sycophancy”như vậy, trong đó AI xác thực ảo tưởng của người dùng để duy trì sự tương tác, là một lỗi thiết kế cơ bản chứ không phải là lỗi của người dùng. Các báo cáo về rối loạn tâm thần AI được gửi tới các cơ quan quản lý mô tả người dùng bị đẩy vào trạng thái mất cảnh giác và hoang tưởng khi xác thực các chatbot.

Matthew Raine, cha của nạn nhân, trước đây đã mô tả nỗi kinh hoàng khi đọc nhật ký trò chuyện, nói rằng: “Là cha mẹ, bạn không thể tưởng tượng được cảm giác như thế nào khi đọc một cuộc trò chuyện với một chatbot đã chuẩn bị cho con bạn tự kết liễu đời mình”. vào cuối tháng 9, nhiều tháng sau khi những sự cố được cho là trong các vụ kiện này xảy ra.

Categories: IT Info