Salesforce’s Slack është përballur me kritika lidhur me politikat e tij të privatësisë, të cilat lejuan platformë për të analizuar të dhënat e përdoruesve për trajnimin e AI, përveç nëse përdoruesit nuk zgjedhin. Kompania sqaroi se këto të dhëna mbeten brenda platformës dhe nuk përdoren për të trajnuar modele të palëve të treta.
Slack shpjegoi se modelet e saj të mësimit të makinerive funksionojnë në një nivel platforme për të përmirësuar funksionalitetet si rekomandimet e kanaleve dhe emoji dhe kërkimi. rezultatet. Këto modele nuk aksesojnë përmbajtjen e mesazheve origjinale nga mesazhet direkte, kanalet private ose kanalet publike për të gjeneruar sugjerime. Kompania theksoi se modelet e saj nuk janë të dizajnuara për të memorizuar ose riprodhuar të dhënat e klientit.
Inteligjenca artificiale gjeneruese dhe të dhënat e klientit
Slack përdor AI gjeneruese në Slack AI-në e saj. produkt, duke përdorur modele të gjuhëve të mëdha të palëve të treta (LLM). Sipas kompanisë, nuk përdoren të dhëna për klientët për të trajnuar këta LLM të palëve të treta. Në vend të kësaj, Slack përdor LLM jashtë raftit që nuk ruajnë të dhënat e klientit. Këto modele strehohen në infrastrukturën AWS të Slack, duke siguruar që të dhënat e klientit të mos largohen nga kufiri i besimit të Slack dhe ofruesit e LLM nuk kanë qasje në këto të dhëna.
Parimet e privatësisë, të përditësuara në 2023, fillimisht përfshinin gjuhën që deklaronte se sistemet e Slack analizojnë të dhënat e klientit, si mesazhet, përmbajtjen dhe skedarët, për zhvillojnë modele AI/ML. Ky përdorim i gjerë i të dhënave çoi në reagime të konsiderueshme të përdoruesve, me shumë që shprehnin shqetësime lidhur me përdorimin e të dhënave të tyre për trajnimin e AI.
Shqetësimet e përdoruesit dhe reagimi i kompanisë
Slack. ka këmbëngulur se të dhënat nuk do të rrjedhin nëpër hapësirat e punës, megjithëse pranoi se modelet e saj globale përdorin të dhënat e klientëve. Mesazhet brenda hapësirave individuale të punës, megjithatë, analizohen. Kompania rishikoi parimet e saj të privatësisë për të deklaruar:”Për të zhvilluar modele jo-gjeneruese AI/ML për veçori të tilla si emoji dhe rekomandimet e kanaleve, sistemet tona analizojnë të dhënat e klientit.”
Një zëdhënës i Slack theksoi se politikat e kompanisë dhe praktikat nuk kanë ndryshuar vetëm gjuha për qartësi. Veçoria e analizës së të dhënave është aktivizuar si parazgjedhje, gjë që mund të ngrejë shqetësime rregullatore për të hequr dorë nga ekipi i përvojës së klientit Slack. Ky proces zgjat.
Përjashtimi do të thotë që klientët do të vazhdojnë të përfitojnë nga modelet e trajnuara globalisht pa kontribuar me të dhënat e tyre në këto modele. Kompania beson se këto përmirësime të personalizuara janë të mundshme vetëm duke studiuar ndërveprimet e përdoruesve me Slack.
Përditësimet e shqyrtimit dhe dokumentacionit
Gazetarët që mbulojnë këtë çështje. duke marrë paralajmërime nga Slack për”pasaktësitë”në artikujt e tyre, të cilët bazoheshin në dokumentacionin e vetë Slack. Që atëherë, kompania ka përditësuar këtë dokumentacion për të sqaruar praktikat e saj. Që nga 17 maji, Slack shprehet në mënyrë eksplicite:”Ne nuk zhvillojmë LLM ose modele të tjera gjeneruese duke përdorur të dhënat e klientit”dhe specifikon që sistemet e tij analizojnë të dhënat e klientëve, duke përfshirë skedarët, për të”zhvilluar modele jo-gjeneruese AI/ML për veçori të tilla si emoji dhe rekomandimet e kanalit.“
Dokumentacioni i përditësuar i Slack vë në dukje gjithashtu se për plotësimin automatik, “sugjerimet janë lokale dhe burojnë nga frazat e zakonshme të mesazheve publike në hapësirën e punës të përdoruesit Algoritmi ynë që zgjedh nga sugjerimet e mundshme është trajnuar më parë plotësimet e sugjeruara dhe të pranuara Ne mbrojmë privatësinë e të dhënave duke përdorur rregulla për të shënuar ngjashmërinë midis tekstit të shtypur dhe sugjerimit në mënyra të ndryshme, duke përfshirë vetëm përdorimin e rezultateve numerike dhe numërimit të ndërveprimeve të kaluara në algoritëm.“
<. fortë>Konteksti dhe Krahasimet e Industrisë
Incidenti, i cili çoi në mbylljen e vendeve të punës së tyre të Slack nga përdorues të shumtë, nënvizon sfidat me të cilat përballen kompanitë e softuerëve në komunikimin se si përdorin të dhënat e përdoruesve për aplikacionet gjeneruese të AI. Kompleksiteti i shpjegimit të flukseve të punës së gjenerimit të shtuar nga rikthimi (RAG) dhe qasjeve të tjera të mësimit të makinerive në një politikë të privatësisë paraqesin një rrezik reputacioni për kompanitë.
Dropbox u përball me një problem të ngjashëm në dhjetor 2023, kur konfuzioni për një parapagim të ri të ri. ndryshimi i vendosur për të”ndarë me AI të palëve të treta”shkaktoi një zhurmë. CTO i AWS raportoi publikisht shqetësimet e tij për privatësinë në Dropbox, i cili më vonë sqaroi se”vetëm përmbajtja [e tyre] që lidhet me një kërkesë ose komandë të qartë i dërgohet AI-së sonë të palës së tretë partnerët [OpenAI] për të gjeneruar një përgjigje, përmbledhje ose transkript… të dhënat tuaja nuk përdoren kurrë për të trajnuar modelet e tyre të brendshme dhe fshihen nga serverët e OpenAI brenda 30 ditëve.”
Slack deklaroi:”Parimi ynë udhëzues ndërsa ne e ndërtojmë këtë produkt është se privatësia dhe siguria e të dhënave të klientit është e shenjtë, siç detajohet në politikën tonë të privatësisë, dokumentacionin e sigurisë dhe SPARC dhe Kushtet Slack.”Megjithatë, një rishikim i 17 majit nga The Stack vuri në dukje se asnjë nga këto Dokumentet përmendin AI gjeneruese ose mësimin e makinerive.
Slack gjithashtu mbledh të dhënat e përdoruesve për të”identifikuar tendencat dhe njohuritë organizative”, sipas politikës së tij të privatësisë. Kompania ende nuk i është përgjigjur pyetjeve se çfarë lloj tendencash organizative nxjerr nga të dhënat e klientëve.