OpenAI đã thành lập một nhóm chuyên gia mới để tư vấn về an toàn AI. Công ty đã công bố “Hội đồng chuyên gia về sức khỏe và AI” gồm 8 người vào thứ Ba. Nhóm sẽ giúp hướng dẫn các khía cạnh sức khỏe và thể chất của các công cụ như ChatGPT và Sora. Động thái này là phản ứng rõ ràng trước áp lực ngày càng tăng của công chúng và chính phủ.
Vào tháng 9, Ủy ban Thương mại Liên bang Hoa Kỳ đã bắt đầu một cuộc điều tra lớn về tác động của AI đối với thanh thiếu niên. Công ty cũng phải đối mặt với một vụ kiện liên quan đến vụ tự tử của một thiếu niên. Hội đồng mới là bước đi mới nhất của OpenAI cho thấy họ coi trọng những lo ngại về an toàn này.
Phản ứng trực tiếp trước áp lực pháp lý và quy định
Thời điểm đưa ra thông báo này không phải là ngẫu nhiên. Nó diễn ra sau nhiều tháng xem xét kỹ lưỡng. Cuộc điều tra sâu rộng của FTC về bảy gã khổng lồ công nghệ, bao gồm cả OpenAI, báo hiệu một kỷ nguyên mới về giám sát quy định đối với thị trường đồng hành AI đang phát triển nhanh chóng.
Chủ tịch FTC Andrew N. Ferguson coi cuộc điều tra là một hành động cân bằng, nêu rõ: “bảo vệ trẻ em trực tuyến là ưu tiên hàng đầu của Trump-Vance FTC và việc thúc đẩy đổi mới trong các lĩnh vực quan trọng của nền kinh tế của chúng ta cũng vậy.”Hành động liên bang này khiến toàn bộ ngành nhận ra rằng thời kỳ hoạt động với ít lan can đã kết thúc.
Áp lực pháp lý cũng căng thẳng không kém. Vào tháng 8, OpenAI đã phải hứng chịu một vụ kiện oan uổng từ cha mẹ của một thiếu niên chết vì tự tử. Cha của anh, Matthew Raine, đã đưa ra lời khiển trách mạnh mẽ rằng: “Là cha mẹ, bạn không thể tưởng tượng được cảm giác như thế nào khi đọc một cuộc trò chuyện với một chatbot đã chuẩn bị cho con bạn tự kết liễu đời mình”. Vụ việc này đã khơi dậy sự quan tâm của công chúng và tăng cường kêu gọi hành động.
Những sự kiện này là một phần của mô hình sai sót về an toàn đã gây khó khăn cho ngành. Meta phải đối mặt với một cuộc khủng hoảng tương tự sau khi có báo cáo rằng AI của nó có thể giúp thanh thiếu niên lên kế hoạch tự làm hại bản thân. Vụ việc đã khiến Jim Steyer, Giám đốc điều hành của Common Sense Media, phải tuyên bố: “Meta AI là mối nguy hiểm đối với thanh thiếu niên và nó cần bị gỡ bỏ ngay lập tức”.
Liên minh gồm 44 tổng chưởng lý bang đã lặp lại sự phẫn nộ này trong một thư gay gắt, viết, “chúng tôi đồng loạt phản đối sự coi thường rõ ràng này đối với sức khỏe tinh thần của trẻ em…” Sự lên án rộng rãi từ cấp tiểu bang và liên bang đã buộc các công ty công nghệ phải phản ứng.
Gặp Hội đồng chuyên gia về sức khỏe và AI
Hội đồng mới của OpenAI là câu trả lời trực tiếp cho những thách thức này. Công ty đã công bố “Hội đồng chuyên gia về sức khỏe và AI” gồm 8 thành viên” để hướng dẫn hoạt động của mình trên các sản phẩm như ChatGPT và Sora. Nhiệm vụ chính thức của nhóm là tư vấn, đặt các câu hỏi quan trọng và giúp thiết lập những tương tác lành mạnh với AI cho người dùng ở mọi lứa tuổi.
Nhóm này bao gồm các nhân vật hàng đầu trong lĩnh vực tâm lý học, tâm thần học và tương tác giữa con người với máy tính. Các thành viên bao gồm các chuyên gia như Tiến sĩ David Bickham của Bệnh viện Nhi Boston, Giáo sư Andrew Przybylski từ Đại học Oxford và Tiến sĩ Sara Johansen, người sáng lập Phòng khám Sức khỏe Tâm thần Kỹ thuật số của Stanford.
Theo OpenAI, hội đồng đã chính thức bắt đầu công việc của mình bằng một phiên họp trực tiếp và sẽ tham gia vào các cuộc họp và kiểm tra thường xuyên. Các phiên này sẽ khám phá các chủ đề phức tạp, chẳng hạn như cách AI nên ứng xử trong các tình huống nhạy cảm và những biện pháp bảo vệ nào có thể hỗ trợ người dùng tốt nhất. Nhóm cũng sẽ khám phá cách AI có thể đóng góp tích cực cho hạnh phúc.
Điều này chính thức hóa mối quan hệ đã bắt đầu vào đầu năm nay. OpenAI xác nhận họ đã tham khảo ý kiến không chính thức của nhiều chuyên gia này trong khi phát triển các biện pháp kiểm soát dành cho phụ huynh mới ra mắt gần đây. Phản hồi của họ đặc biệt giúp định hình giọng điệu của các thông báo đau buồn để “quan tâm và tôn trọng cả thanh thiếu niên và các thành viên trong gia đình”.
Những biện pháp kiểm soát đó, được triển khai vào cuối tháng 9, là bước đi quan trọng đầu tiên. Hệ thống sử dụng mô hình chọn tham gia chung và cung cấp cho người giám hộ một bảng điều khiển để đặt “giờ yên tĩnh”, tắt chế độ giọng nói và tắt các tính năng bộ nhớ. Một tính năng chính là hệ thống cảnh báo sẽ thông báo cho phụ huynh nếu một cuộc trò chuyện bị gắn cờ vì nội dung tự làm hại bản thân cấp tính sau khi được người đánh giá đánh giá.
Trưởng bộ phận Phúc lợi Thanh thiếu niên của OpenAI, Lauren Haber Jonas, giải thích mục tiêu là đạt được sự cân bằng tinh tế. Cô lưu ý: “Chúng tôi muốn cung cấp cho các bậc cha mẹ đủ thông tin để hành động và trò chuyện với thanh thiếu niên của họ trong khi vẫn duy trì một số quyền riêng tư của thanh thiếu niên”. Hội đồng hiện sẽ chính thức hóa vai trò cố vấn này, giúp định hình các tính năng an toàn và chính sách sản phẩm trong tương lai.
Đánh giá toàn ngành về an toàn AI
Những thách thức mà OpenAI phải đối mặt không phải là duy nhất. Chúng phản ánh cách tính toán rộng hơn, toàn ngành về tác động tâm lý của AI. Các chuyên gia từ lâu đã cảnh báo về sự nguy hiểm của việc phụ thuộc cảm xúc vào các chatbot được thiết kế để bắt chước kết nối giữa con người với nhau.
Trong khi hội đồng mới của OpenAI và sự kiểm soát của phụ huynh là những bước tiến quan trọng, một số nhà phê bình cho rằng chúng chưa đi đủ xa. Bản chất chọn tham gia của các biện pháp kiểm soát của phụ huynh đặt gánh nặng lên người giám hộ trong việc kích hoạt chúng.
OpenAI thừa nhận đây chỉ là những bước đi đầu tiên. Công ty cũng đang phát triển một hệ thống dự đoán độ tuổi dài hạn để tự động áp dụng các cài đặt phù hợp với thanh thiếu niên theo mặc định. Hiện tại, việc thành lập hội đồng chuyên gia báo hiệu một cam kết rõ ràng trong việc giải quyết vấn đề an toàn.