Văn phòng giám khảo y tế San Francisco đã phán quyết rằng suchir Balaji, một cựu nhà nghiên cứu Openai, người đã trở thành một nhà phê bình thanh nhạc của công ty, đã chết vì tự tử.
Timnit gebru , một cựu nhà nghiên cứu của Google, đã bị buộc rời khỏi công ty sau khi đưa ra những lo ngại về các thành kiến trong các mô hình AI. Những lời chỉ trích của Balaji về Openai đã theo một quỹ đạo tương tự, những lo ngại của anh ta đã bị công ty bác bỏ ngay cả khi sự giám sát bên ngoài của các hoạt động đào tạo AI tăng lên. Đối với những người nêu lên mối quan tâm đạo đức. Khi các mô hình AI trở nên được nhúng nhiều hơn trong cơ sở hạ tầng quan trọng, có thể cần phải có sự bảo vệ của người thổi còi để đảm bảo tính minh bạch trong phát triển AI. > Chính phủ hiện đang thực hiện các bước để áp đặt giám sát lớn hơn đối với các công ty AI. Liên minh châu Âu đã dẫn đầu với Đạo luật AI của mình, trong đó đưa ra các yêu cầu minh bạch và các quy định chặt chẽ hơn trên dữ liệu đào tạo AI. Tại Hoa Kỳ, các nhà lập pháp cũng đang xem xét các chính sách mới liên quan đến AI, bao gồm khả năng yêu cầu các công ty AI tiết lộ nguồn dữ liệu của họ. Các công ty không thể hoạt động mà không có trách nhiệm. Cuộc tranh luận về quy định của AI có khả năng tăng cường như các vụ kiện, mối quan tâm về đạo đức và các cuộc đấu tranh quyền lực của công ty tiếp tục định hình ngành công nghiệp. Mối quan tâm của ông về thực tiễn dữ liệu đào tạo Openai, vẫn có liên quan, khi các công ty tiếp tục phải đối mặt với các vụ kiện về việc sử dụng các tài liệu có bản quyền. Những thách thức pháp lý đối với Openai, bao gồm vụ kiện New York Times, có thể định hình lại cách các công ty AI xử lý việc thu thập nội dung. Các giao dịch cấp phép của nó là một động thái chiến lược để giải quyết các mối quan tâm pháp lý, nhưng các tranh chấp bản quyền đang diễn ra cho thấy các công ty AI có thể cần nhiều thỏa thuận có cấu trúc hơn với các nhà cung cấp nội dung trong tương lai.