Anthropic đã xuất bản một khuôn khổ mới để tạo ra các đại lý AI an toàn và đáng tin cậy. Hướng dẫn, được phát hành vào ngày 4 tháng 8, nhằm mục đích giải quyết một cuộc khủng hoảng an toàn ngày càng tăng trong ngành công nghệ. Động thái này theo một làn sóng thất bại đáng báo động, bao gồm các tác nhân AI đã xóa dữ liệu người dùng, ảo giác các nghiên cứu giả và bị các tin tặc bị lừa. Kiểm soát và minh bạch . Nó cung cấp một con đường để tự điều chỉnh khi các công ty như Openai và Google đua để xây dựng AI mạnh mẽ và tự trị hơn bao giờ hết. Điều này làm cho sự tin tưởng của công chúng trở thành một chiến trường quan trọng trong cuộc thi leo thang cho sự thống trị của thị trường. Điều này cho thấy nhân học đang thúc đẩy các khả năng song song với các sáng kiến an toàn của nó, cố gắng chứng minh rằng tiến trình và trách nhiệm có thể cùng tồn tại. Khủng hoảng
Anthropic, thúc đẩy cho một tiêu chuẩn an toàn không xảy ra trong chân không. Đó là một phản ứng trực tiếp cho một năm thảm khốc đối với các đại lý AI, được đánh dấu bằng những thất bại cao cấp đã làm xói mòn niềm tin của nhà phát triển và công chúng. Các sự cố cho thấy một mô hình của hành vi không thể đoán trước và thường phá hủy.
Vào cuối tháng 7, một người quản lý sản phẩm đã xem là