AI Safety Leader Anthropic ist Proposin Ein neues politisches Rahmen , der darauf abzielt, die Transparenz in der Entwicklung der mächtigen”Frontier”-Ai-Modelle zu verbessern. Der Vorschlag sieht vor, dass große KI-Unternehmen ihre Sicherheitsprotokolle öffentlich durch einen „sicheren Entwicklungsrahmen“ und detaillierte „Systemkarten“ offenlegen. Der Ansatz von Anthropic”Light-Touch”versucht, das öffentliche Vertrauen und die Rechenschaftspflicht durch die Standardisierung der Sicherheitsberichterstattung aufzubauen. Es bietet eine flexible Alternative zur starre Regulierung der Regierung, während es sich mit dem dringenden Bedarf an Überwachung befasst. href=”https://www-cdn.anthropic.com/19cc4bf9eb6a94f9762ac67368f3322cf82b09fe.pdf”target=”_ leer”> Secure Development Framework (SDF) . In diesem Dokument wird beschrieben, wie ein Unternehmen vor dem Einsatz eines neuen Modells unangemessene katastrophale Risiken bewertet und mindert. Spezifität. Es richtet sich an Bedrohungen durch die Entwicklung einer chemischen, biologischen, radiologischen und nuklearen (CBRN). Es befasst sich auch mit potenziellen Schäden aus Modellen, die in Bezug auf die Absicht ihrer Entwickler autonom handeln. Neben dem SDF veröffentlichen Unternehmen”Systemkarten”oder ähnliche Dokumente. Diese würden Modelltestverfahren, Bewertungsergebnisse und alle erforderlichen Minderungen zusammenfassen. Dies schafft eine öffentliche Aufzeichnung der Fähigkeiten und Einschränkungen eines Modells zum Zeitpunkt seiner Veröffentlichung. Das Unternehmen argumentiert, dass „strenge staatlich auferlegte Standards insbesondere kontraproduktiv wären, da die Bewertungsmethoden aufgrund des technologischen Wandels innerhalb von Monaten veraltet sind“, eine Anspielung auf das schnelle Innovations-Tempo, das die spezifischen technischen Regeln fast sofort überflüssig machen kann. Anthropic schlägt Schwellenwerte mit einem Jahresumsatz von 100 Millionen US-Dollar oder 1 Milliarde US-Dollar an F & E-Ausgaben vor, um die Belastung von Startups zu vermeiden. Es enthält auch Bestimmungen für den Schutz von Whistleblower, wodurch ein Labor illegal ist, über seine Einhaltung zu lügen. Unternehmen wie Google DeepMind, openai und
Categories: IT Info