Anthropic a soumis un ensemble détaillé de recommandations politiques de l’IA au Bureau de la politique scientifique et technologique de la Maison Blanche (OSTP), appelant à une surveillance accrue du gouvernement dans le développement de l’intelligence artificielle.

La société avertit Intervention, les États-Unis peuvent ne pas être préparés aux défis économiques et de sécurité que cette technologie apporte.

Cependant, car il exhorte les régulateurs fédéraux à jouer un rôle plus actif dans la gouvernance de l’IA, Anthropic a discrètement supprimé les engagements politiques de l’IA. src=”https://winbuzzer.com/wp-content/uploads/2024/12/anthropic-ai-safety.jpg”>

Proposition de réglementation AI d’Anthrope et Focus de sécurité nationale Restrictions d’exportation des semi-conducteurs et s’assurer que les laboratoires de recherche sur l’IA ont des canaux de communication sécurisés avec les agences de renseignement.

Anthropic propose également une expansion à grande échelle de l’infrastructure énergétique des États Les agences visant à moderniser les méthodes de collecte de données économiques pour mieux mesurer les perturbations axées sur l’IA sur le marché du travail.

Anthropic a élaboré sa proposition en réponse aux progrès rapides des capacités d’IA. La société avertit que les systèmes d’IA progressent à un rythme sans précédent, avec des modèles capables de surpasser les experts humains dans des domaines tels que le développement de logiciels, la prise de décision et la recherche.

Cet argument est renforcé par les récentes bancs de performances de l’IA, qui montrent que le modèle de claude d’Anthropic a amélioré son taux d’ingénierie logicielle de 1,96% à 49% dans une année. Des menaces plus larges de cybersécurité posées par une mauvaise utilisation de l’IA. Un récent rapport de Microsoft a révélé que les cyberattaques dirigés sur l’IA avaient atteint plus de 600 millions d’incidents par jour, avec des groupes de piratage à dos de l’État de Russie, de Chine et de l’Iran en tirant une œuvre d’IA pour des attaques de plus en plus sophistiquées. Supprime les engagements de l’IA de l’ère Biden

Tout en plaidant pour des réglementations plus strictes, Anthropic a simultanément effacé plusieurs engagements politiques de l’IA qu’il a précédemment pris en vertu de l’administration Biden.

Les engagements, qui se sont concentrés sur la mise à l’échelle et l’atténuation des risques responsables, ont été discrètement supprimés du site Web d’Anthropic sans explication publique.

Le moment de ce renversement de la politique est notable, car il s’agit tout comme la société fait pression pour une intervention gouvernementale plus forte dans la gouvernance de l’IA. Cette décision a suscité des spéculations pour savoir si l’anthropique se repositionne stratégiquement en réponse aux changements réglementaires ou à la dynamique de l’industrie. Action

La dernière poussée de politique d’Anthropic suit son avertissement frappant en novembre 2024, lorsqu’il a exhorté les régulateurs mondiaux à agir dans les 18 mois ou risque de perdre le contrôle du développement de l’IA.

À l’époque, la société a mis en évidence plusieurs risques émergents, y compris la capacité de l’IA et à conduir des victimes de cyberséructoires minimiques, à faciliter la recherche biologique, et à réaliser des complexes de cyberséructoires minimiques, à faciliter la recherche biologique, et à réaliser des complexes autonomes des victimes de cyberséruct La surveillance.

L’urgence de cet appel à l’action a été amplifiée par des préoccupations concernant les cyber-menaces compatibles AI, qui ont augmenté en parallèle avec les progrès des performances de l’IA.

Les chercheurs de sécurité ont averti que les attaques de phishing axées sur l’AI et la création de logiciels malinales automatisées rendent les systèmes de sécurité traditionnels de manière devenue vulnerable. Au fur et à mesure que les modèles d’IA deviennent plus avancés, leur capacité à générer des foldages profonds réalistes et à manipuler le contenu numérique présente des risques supplémentaires à l’intégrité de l’information.

L’influence de l’entreprise et le rôle des grandes technologies dans la réglementation de l’IA

La position évolutive de l’évolution d’Anthropic se produit à un moment où l’influence de l’entreprise sur la régulation de l’AI est sous le scrutin accru. La concurrence et les marchés du Royaume-Uni ont lancé une enquête sur l’investissement de 2 milliards de dollars de Google dans Anthropic, évaluant si le partenariat pourrait réduire la concurrence dans le secteur de l’IA.

Alors que la Maison Blanche examine les recommandations d’Anthropic, la conversation plus large autour de la réglementation de l’IA continue d’évoluer. Des entreprises comme Anthropic, OpenAI et Google façonnent activement le récit, mais l’intervention gouvernementale déterminera si les engagements volontaires restent une stratégie réglementaire viable ou si des règles plus strictes seront appliquées.

Compte tenu de l’influence croissante de ces géants technologiques, le résultat aura un impact significatif sur la façon dont l’industrie de l’IA est régie et si la sécurité nationale et les préoccupations éthiques sont adressées de manière adressée.

Categories: IT Info