Inmitten wachsender Kontroversen darüber, wie Tech-Giganten Benutzerdaten für AI ernten, hat das Allen Institute for AI (AI2) eine potenzielle Lösung eingeführt. Ihre neue Modellarchitektur Flexolmo, ermöglicht es Organisationen, AI gemeinsam zu trainieren, ohne sensible Rohdaten zu teilen . Der Ansatz zielt darauf ab, sichere Datenzusammenarbeit in Bereichen wie Gesundheitswesen und Finanzen zu fördern, in denen die Privatsphäre von größter Bedeutung ist. Das Modell code und bloße. Architektur für kollaborative KI ohne Kompromiss

Die Kerninnovation hinter Flexolmo ist die Verwendung einer Mischung aus Experten (MEE). Dieser Rahmen behandelt die KI nicht als einzelne monolithische Einheit, sondern als Team von Spezialisten. Es ermöglicht einen neuartigen, verteilten Ansatz für das Modelltraining, der die Notwendigkeit eines zentralen Datenrepositorys erfordert. Dieses gefrorene öffentliche Modell bietet eine stabile Grundlage, eine gemeinsame Sprache, mit der alle unterschiedlichen Expertenmodule geschult sind, um sie auszurichten. Diese Koordination ist der Schlüssel, um sie ohne kostspieliges gemeinsames Training erfolgreich zu verschmelzen. Datenbesitzer können kleinere, spezialisierte „Experten“-Module in ihren eigenen privaten Datensätzen lokal trainieren, wenn sie zu ihnen passt. Dieses modulare Design bietet einen beispiellosen Flexibilitätsniveau für Mitwirkende. Dies gibt ihnen eine feinkörnige Kontrolle darüber, wie ihre Daten verwendet werden, eine Funktion, die in traditionellen Modellen fehlt. Steuerung des Datenzugriffs während der Inferenz.”Diese Fähigkeit steht in direktem Kontrast zur dauerhaften Natur des Standard-AI-Trainings. AI2 befasste sich proaktiv, indem Datenextraktionsangriffssimulationen auf einem geschulten Flexolmo-Expertenmodul durchgeführt wurden.

Die Ergebnisse waren vielversprechend. Die Forscher fanden eine geringe Extraktionsrate von nur 0,7%, was darauf hindeutet, dass die Wiederherstellung einer aussagekräftigen Menge an privaten Informationen aus einem zustimmenden Expertenmodul schwierig ist. Diese niedrige Rate legt jedoch nahe, dass eine wörtliche Auswendigart signifikant gemindert ist. Für Organisationen mit den höchsten Sicherheitsanforderungen ist AI2-Anmerkungen, dass das Framework mit Differential Privacy (DP) kompatibel ist, eine Technik, die mathematische „Lärm“ hinzufügt, um die Daten nicht an eine Person zurückzuverfolgen. Dies bietet ein Spektrum von Sicherheitsoptionen, abhängig von der Empfindlichkeit der Daten. Es bietet eine Möglichkeit für wertvolle, verleumte Datensätze, um das breitere AI-Ökosystem zu bereichern, ohne die Datenbesitzer dazu zu zwingen, die Kontrolle aufzugeben und möglicherweise eine neue Ära der sicheren und transparenten Zusammenarbeit von AI zu erschließen. eine Vertrauenskrise über seine Datenpraktiken. Die neue Architektur scheint eine direkte Reaktion auf die rechtlichen und ethischen Herausforderungen zu sein, die große Technologieunternehmen verpflichten. Erst letzte Woche hat ein Gericht OpenAI angewiesen, Milliarden von Chatgpt-Gesprächen, einschließlich dieser Benutzer, für die Urheberrechtsklage der New York Times zu erhalten. Der Schritt löste Empörung von Datenschutzvertretern aus.

Google war ebenfalls auf dem heißen Sitz. Das Unternehmen hat kürzlich ein Android-Update vorangetrieben, mit dem seine Gemini-KI standardmäßig auf Apps von Drittanbietern zugreifen kann, um die vorherigen Datenschutzeinstellungen einiger Benutzer zu überschreiben. Es folgte Behauptungen, dass Gemini ohne Zustimmung auf private Google-Dokumente zugegriffen habe. Es war gezwungen, das KI-Training für EU-Benutzerdaten im Jahr 2024 nach dem Druck des irischen DPC vorübergehend einzustellen. Die Gründerin der Datenschutzgruppe Noyb, Max Schrems, sagte über die Situation: „Die Pressemitteilung von Meta lautet ein bisschen wie„ kollektive Bestrafung “. Wenn ein Europäer auf seinen Rechten besteht, wird der gesamte Kontinent unsere glänzende neue Produkte nicht erhalten. Dort bestätigte Metas Leiter der globalen Privatsphäre, Melinda Claybaugh, dass für australische Benutzer „öffentliche Beiträge in der Tat gesammelt wurden, sofern ihnen nicht ausdrücklich privat gekennzeichnet ist“, da ihnen kein Opt-out-Mechanismus wie ihre EU-und US-Kollegen angeboten wurde. Im Mai 2025 wurde bekannt gegeben, dass eine KI auf 57 Millionen NHS-Patientenakten geschult wurde, was die Befürchtungen über die Neuidentifikation hervorrief. Wie ein Oxford-Forscher bemerkte: „Die Menschen möchten normalerweise die Kontrolle über ihre Daten behalten und sie möchten wissen, wohin es geht.“ Untersuchungen zeigten, dass es eine aufstrebende”Whistleblowing”-Capabilität entwickeln könnte und Benutzer autonom meldet