Google DeepMind đã cập nhật các quy tắc an toàn AI chính của mình để giải quyết các rủi ro mới và nghiêm trọng. Vào thứ Hai, công ty đã phát hành phiên bản 3.0 của khung an toàn Frontier của mình. Điều này bao gồm cơ hội trong tương lai mà AI có thể cưỡng lại việc bị đóng cửa bởi các nhà khai thác của con người. Bản cập nhật là một phần của nỗ lực ngành công nghiệp rộng lớn hơn để quản lý sự nguy hiểm của các hệ thống AI mạnh mẽ hơn bao giờ hết và xây dựng niềm tin công cộng. Nó thể hiện nỗ lực toàn diện nhất của Google để xác định và giảm thiểu rủi ro nghiêm trọng từ các mô hình AI tiên tiến nhất của nó khi chúng tiến lên trí tuệ chung nhân tạo (AGI). href=”https://storage.googleapis.com/deepmind-media/deepmind.com/blog/strongsening-our-frontier-safe-framework/frontier-safe-framework_3.pdf Danh mục mới này giải quyết các mô hình với khả năng thuyết phục mạnh mẽ có thể bị sử dụng sai để thay đổi một cách có hệ thống niềm tin và hành vi trong các tình huống cổ phần cao, có khả năng gây ra tác hại nghiêm trọng, quy mô lớn. Để xác định và đánh giá các cơ chế điều khiển thao tác trong AI. Bộ đánh giá bao gồm các nghiên cứu người tham gia của con người để đo lường và kiểm tra các khả năng [liên quan].”miền của khoa học viễn tưởng, hiện là một phần chính thức trong kế hoạch an toàn của Google, vượt ra ngoài những gì trước đây là một cách tiếp cận khám phá. Như một giảm thiểu tiềm năng, Google đề xuất một hệ thống giám sát tự động để phát hiện lý do bất hợp pháp trong một mô hình suy nghĩ của mô hình. Thông báo không tồn tại trong chân không. Đó là một phản ứng trực tiếp đối với một năm thảm khốc đối với các đại lý AI, được đánh dấu bằng những thất bại cao cấp đã làm xói mòn niềm tin công cộng và nhà phát triển.

Người dùng, Anuraag Gupta, đã mô tả sự kiện này, nói rằng, những gì bắt đầu như một thử nghiệm quản lý tệp đơn giản đã biến thành một trong những thất bại AI đáng lo ngại và hấp dẫn nhất mà tôi từng chứng kiến.”Đây không phải là một sự cố bị cô lập. Đối với AGI

Việc thúc đẩy tính minh bạch giờ đã trở thành một điệp khúc toàn ngành. Các đối thủ chính như Openai và Anthropic gần đây cũng đã công khai các khung an toàn rộng lớn của riêng họ.

Công ty lập luận rằng một tiêu chuẩn linh hoạt, do ngành lãnh đạo là một con đường hiệu quả hơn so với các quy tắc của chính phủ cứng nhắc. Sự phát triển của chính công nghệ. Các khung này nhằm mục đích mã hóa những gì đã có, cho đến nay, phần lớn các cam kết tự nguyện. href=”https://deepmind.google/discover/blog/strmenting-our-frontier-safety-framework/”Target=”_ Blank”> đã viết trong bài đăng thông báo của họ Nỗ lực tập thể này hiện được coi là cần thiết cho tương lai của AI.

Categories: IT Info