Anthrope ha presentado un conjunto detallado de recomendaciones de políticas de IA a la Oficina de Política de Ciencia y Tecnología de la Casa Blanca (OSTP), pidiendo una mejor supervisión del gobierno en el desarrollo de inteligencia artificial.
la compañía advierte que avanzó los sistemas AI que podría superar los expertos humanos en los fields clave como 2026, y argumenta que lo intervino de inmediato, y que lo avanzó. Estados Unidos puede no estar preparado para los desafíos económicos y de seguridad que trae tal tecnología.
Sin embargo, ya que insta a los reguladores federales a asumir un papel más activo en la gobernanza de la IA, Anthrope ha eliminado silenciosamente múltiples compromisos de política de IA que hizo bajo la administración Biden, planteando preguntas sobre su posición evolutiva sobre la autorregulación.
<-img. src="https://winbuzzer.com/wp-content/uploads/2024/12/anthropy-ai-safety.jpg">
La regulación de la regulación de la AI de Anthrope y el enfoque de seguridad nacional
las nuevas recomendaciones de políticas presentadas a ostp enfoque en seis áreas clave, incluidas las áreas clave de la seguridad nacional
Restricciones de exportación de semiconductores, y garantizar que los laboratorios de investigación de IA tengan canales de comunicación seguros con agencias de inteligencia.
antrópico también propone una expansión a gran escala de la red eléctrica de los EE. UU., Estimando que los sistemas de IA requerirán una accesorios adicionales de los 50 gigawatts de la agencia federal en el futuro cercano. Modernizar métodos de recopilación de datos económicos para medir mejor las interrupciones impulsadas por la IA en el mercado laboral.
antrópico ha enmarcado su propuesta como respuesta a los rápidos avances en las capacidades de IA. La compañía advierte que los sistemas de inteligencia artificial están progresando a un ritmo sin precedentes, con modelos capaces de superar a expertos humanos en áreas como el desarrollo de software, la toma de decisiones e investigación.
Este argumento está reforzado por los puntos de referencia recientes de AI, que muestran que el modelo Claude de Anthrope mejoró su tasa de éxito de ingeniería de software de 1.96% a 49% en solo un año. Amenazas de ciberseguridad planteadas por el mal uso de la IA. Un reciente informe de Microsoft encontró que los ataques cibernéticos impulsados por la IA han aumentado a más de 600 millones de incidentes por día, con grupos de piratería respaldados por el estado de Rusia, China e Irán aprovechando la IA para los ataques cada vez más sofisticados. Elimina los compromisos de AI de la era de Biden
Mientras aboga por regulaciones más estrictas, Anthrope ha borrado simultáneamente varios compromisos de política de IA que realizó anteriormente bajo la administración Biden.
Estos compromisos fueron parte de un marco de seguridad voluntario acordado por la empresa de AI mayor, incluida la firma y Google APREPAI, como parte de una brote de una amplia casa. Los compromisos, que se centraron en la escala de IA responsable y la mitigación de riesgos, fueron eliminados en silencio del sitio web de Anthrope sin una explicación pública.
El momento de esta reversión de la política es notable, ya que se produce justo cuando la compañía presiona una intervención gubernamental más fuerte en la gobernanza de AI. Este movimiento ha provocado especulaciones sobre si Anthrope se está reposicionando estratégicamente en respuesta a los cambios regulatorios o al cambio de la dinámica de la industria.
Si bien la compañía no ha comentado públicamente sobre las eliminaciones, el cambio plantea preocupaciones sobre el nivel de la transparencia que las firmas de IA mantienen mientras abogan por la regulación externa. Acción
El último impulso de políticas de Anthrope sigue su advertencia en noviembre de 2024, cuando instó a los reguladores globales a actuar dentro de los 18 meses o arriesgarse a perder el control sobre el desarrollo de la IA.
En ese momento, la compañía destacó varios riesgos emergentes, incluida la capacidad de AI para realizar autónomos. Supervisión.
La urgencia de este llamado a la acción se amplificó por las preocupaciones sobre las amenazas cibernéticas habilitadas para AI, que se han intensificado en paralelo con los avances en el rendimiento de la IA.
Los investigadores de seguridad han advertido que los ataques de phishing impulsados por la IA y la creación automatizada de malware están haciendo que los sistemas de seguridad tradicionales estén cada vez más vulnerables. A medida que los modelos de IA se vuelven más avanzados, su capacidad para generar profundos profundos realistas y manipular el contenido digital plantea riesgos adicionales para la integridad de la información.
La influencia corporativa y el papel de la gran tecnología en la regulación de IA
La postura de la política de evolución de Anthrope llega en un momento en que la influencia corporada sobre la regulación de IA está bajo un aumento en el aumento de la scrutinio. La Autoridad de Competencia y Mercados del Reino Unido ha iniciado una investigación sobre la inversión de $ 2 mil millones de Google en antrópico, evaluando si la asociación podría reducir la competencia en el sector de IA.
A medida que la Casa Blanca revisa las recomendaciones de Anthrope, la conversación más amplia sobre la regulación de la IA continúa evolucionando. Empresas como Anthrope, OpenAI y Google están dando forma activamente a la narrativa, pero la intervención gubernamental determinará si los compromisos voluntarios siguen siendo una estrategia regulatoria viable o si se aplicarán reglas más estrictas.
dada la creciente influencia de estos gigantes tecnológicos, el resultado afectará significativamente cómo la industria de AI se gobierna y se gobierna la seguridad nacional y las preocupaciones éticas a los que se abordan los preocupaciones éticas.
.
.