Openai bardzo rzuca wyzwanie amerykańskiej dyrektywie sądowej, która nakazuje ochronę wszystkich dzienników użytkowników Chatgpt, wymaganie, które firma scharakteryzowała jako „koszmar prywatności”. To zamówienie, pochodzące z pozwu naruszenia praw autorskich przez organizacje informacyjne, zmusza Openai do zachowania nawet rozmów, które uważali, że użytkownicy zostali usunięci i wrażliwi od swoich klientów biznesowych API.
Openai argumentuje, że ta dyrektywa zagraża prywatności jego ogromnej bazy użytkowników i została wprowadzona bez odpowiedniego możliwości opetai, aby przeciwstawić się „Niezadowoleniu Accizations”. Sprzeciw Openai, jak opisano w A Sąd zgłasza (za pośrednictwem
to legalne powlanie Wynika z roszczeń powodów informacyjnych, że użytkownicy CHATGPT mogą wymazać rozmowy w celu ukrycia domniemanych naruszeń praw autorskich, takich jak obchodzenie się w Paywalls. Sędzia Ony T. Wang, który wydał początkowe postanowienie, wcześniej sygnalizował porozumienie z tymi obawami, sugerując, że środek był niezbędny, aby zapobiec potencjalnej utraty dowodów. Jednak Openai zdecydowanie zaprzecza zniszczeniu wszelkich danych z powodu sporów. Jego memorandum argumentowało, że teoria powodów nie ma poparcia, ponieważ „nie zaoferowali żadnego dowodu potwierdzającego to”. Firma stwierdziła ponadto: „Nie zidentyfikowali żadnych dowodów, że ktokolwiek (oprócz samych powodów wiadomości) próbował uzyskać swoją treść od Chatgpt”. Firma twierdzi również, że zachowane dane prawdopodobnie nie byłyby przydatne w sprawie. Openai najważniejsze informacje, że osoby wykorzystują Chatgpt do różnorodnych działań, z interakcjami często „od mundane do głęboko osobistego”. Ustanowione zasady prywatności firmy, które twierdzi, że nakaz sądowy skutecznie „wyrzucił”, wcześniej umożliwiło użytkownikom rezygnację z zatrzymywania danych, ręcznie usuwanie określonych dialogów lub zatrudnienie tymczasowych czatów zaprojektowanych w celu znikania. Obecne zamówienie, które teraz łączy OpenAI, aby zachować te dane niezależnie od preferencji użytkownika. Ta sytuacja podobno wywołała alarm wśród użytkowników. Niektórzy specjaliści technologiczni na platformach takich jak LinkedIn i X charakteryzowali mandatowe zatrzymanie jako „poważne naruszenie umowy dla każdej firmy, która korzysta z OpenAI” i „nie do przyjęcia ryzyko bezpieczeństwa”, zgodnie z oświadczeniami sądu Openai. W tym, które rozmowy są regenerowane, a które nie są resztą, a jakie nie są, a które nie są, a które nie są. Firma utrzymuje, że sąd nie rozważył w wystarczającym stopniu obaw użytkowników przed wydaniem dyrektywy w zakresie ochrony. Sędzia Wang jednak częściowo uzasadniał szeroki zakres nakazu ze względu na twierdzenie organizacji informacyjnych, że „wielkość usuniętych rozmów jest znacząca”. Zaprzeczyła wcześniejszej próbie Openai w celu odwrócenia zamówienia 29 maja, zapewniając jednocześnie firmę, że dane użytkownika nie zostaną upublicznione. Openai nadal naciska swoją sprawę, wzywając sędziego Sidneya H. Steina do obalenia decyzji sędziego Wanga. Trwający spór prawny podkreśla skomplikowany charakter zarządzania danych w generacji AI. Openai stopniowo aktualizował swoje funkcje dotyczące trwałości danych, w szczególności w przypadku funkcji pamięci Chatgpt. Ta funkcja, rozszerzona na więcej subskrybentów w maju 2024 r., Pozwala chatbotowi zapamiętać szczegóły z wcześniejszych rozmów w celu uzyskania bardziej personalizowanych interakcji, chociaż użytkownicy zachowują kontrolę i mogą ją wyłączyć. Niedawno, około 16 kwietnia, OpenAI zintegrowało tę zdolność pamięci z funkcjami wyszukiwania sieci, umożliwiając wcześniejsze kontekst konwersacyjny udoskonalanie zapytań wyszukiwania online. Historycznie, OpenAI również działało w celu ochrony danych użytkownika. Na przykład w lipcu 2024 r. Firma wdrożyła szyfrowanie do aplikacji Chatgpt MacOS po odkryciu wady bezpieczeństwa, która pozostawiła rozmowy użytkowników w prostym tekście. W tym momencie rzeczniczka Openai, Taya Christianson, potwierdziła poświęcenie firmy na rygorystyczne środki bezpieczeństwa. Obecne nakaz sądowy wprowadza jednak wyraźne wyzwanie, przesuwając się z konkretnych podatności na kompleksowe ochronę danych, które otwarte dess. Firma twierdzi również, że włączenie danych klientów biznesowych API jest nielogiczne, ponieważ dane te zwykle podlegają standardowym zasadom zatrzymania, które nie są łatwo zmienne przez użytkowników końcowych aplikacji tych firm. Pozew nazywa również Microsoft jako współoskarżonego. Powodowie twierdzili, że nakaz ochrony ma kluczowe znaczenie dla przeciwdziałania obronie Openai, że jego modele AI są rzadko wykorzystywane przez klientów do naruszenia praw autorskich. Openai kontratakuje, że porządek sędziego Wanga skutecznie „zmusza Openai do odwołania kontroli użytkowników, kiedy i jak ich dane dotyczące rozmowy chatgpt są wykorzystywane i zachowane”. Firma podkreśliła, że szkoda jego reputacji i użytkownicy przewyższa wszelkie „spekulacyjne” korzyść “, mówiąc„ Zakon w Esencji zmusza nas do przechowywania danych, które użytkownicy wyraźnie wybierają. Obecne nakaz ochrony wymagałoby miesięcy pracy inżynierskiej i pociągnął za znaczne koszty. Firma potwierdziła swoje zobowiązanie do dalszego sprzeciwu w celu ochrony interesów użytkowników, twierdząc, że spekulacyjny wymóg dotyczący danych dla danych nie uzasadnia potencjalnej szkody dla prywatności użytkowników i stabilności operacyjnej Openai. Dane użytkowników i zobowiązania dotyczące prywatności w ramach kontroli
rozwijające się praktyki danych i wcześniejsze odpowiedzi bezpieczeństwa
szerszy kontekst branży i argumenty prawne