Salesforces Slack wurde wegen seiner Datenschutzrichtlinien kritisiert, die es ermöglichten Plattform zur Analyse von Benutzerdaten für KI-Schulungen, es sei denn, Benutzer haben sich dagegen entschieden. Das Unternehmen stellte klar, dass diese Daten innerhalb der Plattform verbleiben und nicht zum Trainieren von Modellen Dritter verwendet werden.

Slack erklärte, dass seine Modelle für maschinelles Lernen auf Plattformebene funktionieren, um Funktionen wie Kanal-und Emoji-Empfehlungen und Suche zu verbessern Ergebnisse. Diese Modelle greifen nicht auf den ursprünglichen Nachrichteninhalt von Direktnachrichten, privaten Kanälen oder öffentlichen Kanälen zu, um Vorschläge zu generieren. Das Unternehmen betonte, dass seine Modelle nicht darauf ausgelegt sind, Kundendaten zu speichern oder zu reproduzieren.

Generative KI und Kundendaten

Slack nutzt generative KI in seiner Slack-KI Produkt unter Verwendung großer Sprachmodelle (LLMs) von Drittanbietern. Nach Angaben des Unternehmens werden keine Kundendaten verwendet, um diese LLMs von Drittanbietern zu trainieren. Stattdessen verwendet Slack handelsübliche LLMs, die keine Kundendaten speichern. Diese Modelle werden auf der AWS-Infrastruktur von Slack gehostet, um sicherzustellen, dass Kundendaten die Vertrauensgrenze von Slack nicht verlassen und die LLM-Anbieter keinen Zugriff auf diese Daten haben.

Die im Jahr 2023 aktualisierten Datenschutzgrundsätze enthielten zunächst eine Formulierung, die besagte, dass die Systeme von Slack Kundendaten wie Nachrichten, Inhalte und Dateien analysieren KI/ML-Modelle entwickeln. Diese umfassende Datennutzung führte zu erheblichen Gegenreaktionen der Benutzer, wobei viele Bedenken hinsichtlich der Verwendung ihrer Daten für das KI-Training äußerten.

Anliegen der Benutzer und Reaktion des Unternehmens

Slack hat darauf bestanden, dass keine Daten zwischen den Arbeitsbereichen verloren gehen, obwohl es anerkannt hat, dass seine globalen Modelle Kundendaten nutzen. Nachrichten innerhalb einzelner Arbeitsbereiche werden jedoch analysiert. Das Unternehmen hat seine Datenschutzgrundsätze überarbeitet und erklärt: „Um nicht generative KI/ML-Modelle für Funktionen wie Emojis und Kanalempfehlungen zu entwickeln, analysieren unsere Systeme Kundendaten.“

Ein Slack-Sprecher betonte, dass die Richtlinien des Unternehmens und Praktiken haben sich nicht geändert; lediglich die Sprache wurde aus Gründen der Klarheit aktualisiert. Die Datenanalysefunktion ist standardmäßig aktiviert, was zu behördlichen Bedenken führen kann, dass Workspace-Besitzer eine E-Mail an das Kundenerfahrungsteam senden müssen, obwohl das Unternehmen nicht angegeben hat, wie lange Dieser Prozess dauert.

Die Abmeldung bedeutet, dass Kunden weiterhin von global trainierten Modellen profitieren, ohne ihre Daten zu diesen Modellen beizutragen. Slack erklärte, dass die Daten zur Verbesserung von Funktionen wie Abfrageparsing, Autovervollständigung und Emoji-Vorschlägen verwendet werden. Das Unternehmen ist davon überzeugt, dass diese personalisierten Verbesserungen nur durch die Untersuchung der Benutzerinteraktionen mit Slack möglich sind.

Journalistische Prüfung und Dokumentationsaktualisierungen

Journalisten, die über das Thema berichten, haben darüber berichtet Sie erhielten von Slack Warnungen über „Ungenauigkeiten“ in ihren Artikeln, die auf der eigenen Dokumentation von Slack basierten. Das Unternehmen hat diese Dokumentation seitdem aktualisiert, um seine Praktiken zu verdeutlichen. Mit Stand vom 17. Mai erklärt Slack ausdrücklich: „Wir entwickeln keine LLMs oder andere generative Modelle unter Verwendung von Kundendaten“ und gibt an, dass seine Systeme Kundendaten, einschließlich Dateien, analysieren, um „nicht generative KI/ML-Modelle für Funktionen wie“ zu entwickeln Emoji-und Kanalempfehlungen.“

In der aktualisierten Dokumentation von Slack wird außerdem darauf hingewiesen, dass für die automatische Vervollständigung „Vorschläge lokal sind und aus allgemeinen öffentlichen Nachrichtenphrasen im Arbeitsbereich des Benutzers stammen. Unser Algorithmus, der potenzielle Vorschläge auswählt, wurde zuvor global trainiert.“ Vorgeschlagene und akzeptierte Vervollständigungen schützen den Datenschutz, indem wir Regeln verwenden, um die Ähnlichkeit zwischen dem eingegebenen Text und dem Vorschlag auf verschiedene Weise zu bewerten, einschließlich der ausschließlichen Verwendung der numerischen Bewertungen und Zählungen vergangener Interaktionen im Algorithmus.“

Branchenkontext und Vergleiche

Der Vorfall, der dazu führte, dass zahlreiche Benutzer ihre Slack-Arbeitsplätze schlossen, verdeutlicht die Herausforderungen, denen sich Softwareunternehmen bei der Kommunikation darüber gegenübersehen, wie sie Benutzerdaten für generative KI-Anwendungen verwenden. Die Komplexität der Erklärung von RAG-Workflows (Retrieval-Augmented Generation) und anderen Ansätzen des maschinellen Lernens in einer Datenschutzrichtlinie stellt ein Reputationsrisiko für Unternehmen dar.

Slack erklärte: „Unser Leitprinzip bei der Entwicklung dieses Produkts ist, dass die Der Datenschutz und die Sicherheit von Kundendaten sind unantastbar, wie in unserer Datenschutzrichtlinie, Sicherheitsdokumentation sowie SPARC und den Slack-Bedingungen beschrieben.“ Eine Überprüfung durch The Stack vom 17. Mai ergab jedoch, dass in keinem dieser Dokumente generative KI oder maschinelles Lernen erwähnt wird.

Slack sammelt gemäß seiner Datenschutzrichtlinie auch Benutzerdaten, um „organisatorische Trends und Erkenntnisse zu identifizieren“. Das Unternehmen muss noch auf Fragen dazu antworten, welche Art von Organisationstrends es aus Kundendaten ableitet.

Dropbox war im Dezember 2023 mit einem ähnlichen Problem konfrontiert, als Verwirrung über einen neuen Standardschalter auf „Mit Dritten teilen“ eingestellt war. „Party AI“ sorgte für Aufruhr. Der CTO von AWS äußerte seine Datenschutzbedenken öffentlich gegenüber Dropbox, das später klarstellte, dass „nur [ihr] Inhalt, der für eine explizite Anfrage oder einen expliziten Befehl relevant ist, an unsere externen KI-Partner [OpenAI] gesendet wird, um eine Antwort zu generieren.“ , Zusammenfassung oder Transkript … Ihre Daten werden niemals zum Trainieren ihrer internen Modelle verwendet und werden innerhalb von 30 Tagen von den Servern von OpenAI gelöscht.“

Categories: IT Info