Meta wird grundsätzlich seinen Ansatz zur Produktsicherheit und-Privatsphäre umverformt, das ein künstliches Intelligenzsystem beabsichtigt, bis zu 90% der Risikobewertungen für Aktualisierungen in seinen weit verbreiteten Anwendungen zu verwalten, einschließlich Instagram und WhatsApp. href=”https://www.npr.org/2025/05/31/nx-s1-5407870/meta-ai-facebook-instagram-riss”target=”_ Blank”> Eine NPR-Untersuchung Ziel, die Produktentwicklung zu beschleunigen. Während die Benutzer möglicherweise schneller sehen, dass neue Funktionen schneller ausgerichtet sind, hat der Schritt Bedenken hinsichtlich der Sicherheit und des Schutzes der Privatsphäre in die Lage versetzt. Diese Verschiebung erfolgt unter dem Schatten von

Metas neuester vierteljährlicher Integritätsbericht, zitiert von NPR, behauptet, dass Großsprachenmodelle (LLMs) „über die der menschlichen Leistung für ausgewählte Richtlinien hinaus operieren. KI-Sicherheit, Jugendrisiko und „Integrität“-was gewalttätige Inhalte und Fehlinformationen umfasst-, trotz öffentlicher Aussagen, die sich auf die Automatisierung mit geringem Risiko konzentrieren. Die Leistung von konkurrierenden KI-Modellen wie Deepseeks R1 hat Berichten zufolge ein Gefühl der Dringlichkeit innerhalb von Meta geschaffen. Dieses wettbewerbsfähige Umfeld ist ein wesentlicher Faktor für die strategischen Entscheidungen von Meta, einschließlich Führungswechsel wie Loredana Crisan, ehemals Leiter Messenger, der jetzt den Generativ-KI-Abteilung des Unternehmens überwacht. Im Februar führte das Unternehmen sein Frontier-AI-Framework ein, ein System, das die KI in”Hochrisiko-“und”kritische Risiko”-Gruppen einbezieht. Vorfälle wie den Missbrauch seiner Lama-Modelle und den zunehmenden Druck aus den Vorschriften wie dem Digital Services Act der Europäischen Union (DSA). href=”https://www.newsbytesapp.com/news/science/meta-plans-to-replace-humans-with-ai-for-privacy-bewertungen/story”target Interessanterweise ergab eine interne Meta-Ankündigung, dass die Entscheidungsfindung und die Überwachung von Produkten und Benutzerdaten in der EU im europäischen META-Hauptquartier in Irland bleiben werden, was nach dem NPR-Bericht von NPR die EU-Benutzer von einigen dieser Veränderungen isoliert wird. Das Unternehmen hat im November 2024 seine Richtlinien „Akzeptable Nutzung“ aktualisiert und es den US-Militärunternehmen ermöglicht, seine großsprachigen KI-Modelle zu nutzen. Unternehmen wie Lockheed Martin, Booz Allen Hamilton, Palantir Technologies und Anduril Industries.

Dies beinhaltet eine Partnerschaft mit Anduril Industries zur Entwicklung fortschrittlicher militärischer Ausrüstung wie KI-angetriebenen Helmen mit VR-und AR-Funktionen. In der Zwischenzeit Metas Q1 2025 Community Standards Standards Durchsetzungsbericht. System Audits.