Die eigenständige AI-Anwendung von

Meta hat einen Feuersturm der Kritik entzündet und schafft, was viele als Datenschutzkatastrophen bezeichnen, indem sie die angeblich privaten und oft zutiefst persönlichen Gespräche von Benutzern öffentlich ausstrahlt. Der”Discover”-Feed der App, der als soziales Feature gedacht ist, enthüllt stattdessen einen kontinuierlichen Strom sensibler Benutzeranfragen zu allem, von rechtlichen Schwierigkeiten bis hin zu medizinischen Beschwerden, in einem Fiasko, das ein Schriftsteller für TechCrunch als „Beginn eines Horrorfilms aus dem 21. Jahrhundert) bezeichnete: Ihre Browser-Geschichte war öffentlich, und Sie haben keine April-April aufgeteilt. Interaktionen. Der Strom öffentlich sichtbarer Beiträge deutet jedoch darauf hin, dass viele nicht wissen, dass sie ihre privaten Gedanken veröffentlichen. Wie von Wired berichtet, umfassen diese gemeinsamen Chats einen 66-jährigen Mann, in dem er die Counties befragt hat. Behauptungen, dass Chats standardmäßig privat sind und erst nach dem Abschluss eines mehrstufigen Freigabesverfahrens öffentlich werden. Das öffentliche Feed ist voller Hinweise auf Benutzerverwirrung. Datenschutzexperten haben die Situation als „unglaublich besorgniserregend“ festgestellt und erklärt, dass sie ein grundlegendes öffentliches Missverständnis darüber zeigt, wie moderne KI-Systeme und Datenschutzarbeiten funktionieren. Diese Designauswahl hat einen Privatsphäre-Albtraum erstellt, bei dem die Namen und Profilfotos der Benutzer an ihre sensibelsten Anfragen angehängt sind.

Der Kern des Problems liegt in der Social-by-Design”Discover”-Feed der App. Als die App auf den Markt startete, sagte Connor Hayes, der Feed, AI, durch die Zeige, was es tun könnte, sagte, der Feed sei „entmystifizieren“. In der Praxis ist es zu einem öffentlichen Hauptbuch von privaten Momenten geworden, in dem Vergleiche mit dem berüchtigten AOL-Daten von 2006 gezogen werden, das von gefundene Instanzen gefunden. Die Erwartungen darüber, wie ein Tool funktioniert, entspricht nicht der Realität. Sie haben ein großes Benutzererlebnis und Sicherheitsproblem.
Menschen haben ein Schema um AI-Chat-Bots gebaut und erwarten nicht, dass ihre KI-Chat-Bot-Aufforderungen in einem Social-Media-Stil entdecken-…
https:/t.co/cj41thux (@ 12. Juni, 2025

entscheidend. Pop-ups, wenn Sie zuerst die App verwenden und Benutzer direkt in die Schnittstelle platzieren, ohne zu warnen, dass ihre Chats öffentlich werden könnten. Die Mozilla Foundation hat formell , dass Meta, die sich mit dem richtigen Voraus umgesetzt haben, um die richtige Probe zu bezeichnen. Das Problem ist so deutlich geworden, dass einige Benutzer begonnen haben, die Plattform zu trollen und zu fragen, wie sie Wasserflaschenbongs herstellen oder ihre Lebensläufe teilen können, um nach Cybersicherheitsjobs zu fragen. Anliegen. Die”Speicher”-Funktion der App ist standardmäßig aktiviert, wodurch Fakten automatisch von Benutzergesprächen analysiert und gespeichert werden, um zukünftige Antworten zu personalisieren. METAs eigene Nutzungsbedingungen warnen die Benutzer unverblümt:”Teilen Sie keine Informationen, die Sie nicht verwenden möchten, dass die AIs verwenden und behalten.”Seien Sie verwendet, um seine KI-Modelle zu verbessern, und im Gegensatz zu einigen Konkurrenten bietet Meta den Benutzern keine direkte Möglichkeit, diese Datenernutzung für das Training abzuwenden. Der Setup führte einen Experten der Consumer Federation of America an, um Die Washington Post zu erzählen. Europa. Max Schrems, Vorsitzender von NoyB, hob den rechtlichen Präzedenzfall hervor und stellte fest, dass das Justizgericht der Europäischen Justiz bereits die Ansprüche auf den „legitimen Interesse“ von Meta abgelehnt hat. Anschließend stellte er die kritische Frage: „Wie sollte es ein„ legitimes Interesse “haben, alle Daten für das KI-Training aufzusaugen?”

Metas aggressiver Druck auf die KI-Produkte trotz ihrer offensichtlichen Mängel findet vor dem Hintergrund immensen interner Druck und strategischer Dringlichkeit statt. Das Unternehmen tätigt kolossale Investitionen, um im KI-Wettrüsten aufzuholen, was durch einen kürzlich von 14 Milliarden US-Dollar für eine Anteil an der Datenmarkierungsunternehmen AI beteiligen Anteil von 49% hervorgehoben wird. Der Deal installiert den Gründer von Scale Ai, Alexandr Wang, an der Spitze eines neuen”Superintelligence”-Labors innerhalb von Meta. „Acqui-Hire“ , um die Engpässe für die interne Entwicklung zu umgehen, nachdem ein schwerer Talent-Abfluss die meisten ursprünglichen Lama-Forschungsteams für Wettbewerber abfielen. Die Investition folgt erhebliche Verzögerungen bei der Entwicklung des „Behemoth“-KI-Modells der nächsten Generation von Meta. Die Struktur des Deals, ein Anteil von 49% und nicht eine vollständige Akquisition, wird auch von einigen als strategisches Manöver angesehen, um eine weitere Kartellrechte durch die Aufsichtsbehörden zu vermeiden. Der Gründer von Scale Ai war ein Gesangsvertreter dieser Arbeit und argumentierte kürzlich, dass es „keinen Raum für die Neutralität im globalen Technologie-Rennen“ gibt. Bücher. In seinem Rennen mit hohem Einsatz zum Aufbau eines dominanten, umfassenden AI-Ökosystems bewegt sich Meta in einem spannenden Tempo, das von massiven Investitionen und einem unersättlichen Appetit auf Benutzerdaten angetrieben wird. Der fehlerhafte”Discover”-Feed zeigt, dass in diesem Sprint für die Vorherrschaft der AI die Privatsphäre der Benutzer zu einem akzeptablen Opfer geworden ist, was einen schwierigen Kompromiss für Verbraucher erzwingt und unvermeidliche Zusammenstöße mit den Aufsichtsbehörden weltweit einlädt.

Categories: IT Info