OpenAI hat die Haftungsausschlüsse, die an Chatgpt-Interaktionen beigefügt sind, zurückgeführt. Produktoberhaupt Nick Turley bemerkte auf X, dass diese Orangenbox-Warnungen „unnötig“ geworden waren, obwohl er darauf bestand, dass die Schutzmaßnahmen bestehen bleiben: „[So lange Sie das Gesetz einhalten und sich selbst oder anderen nicht schaden.“

Die Entfernen der offensichtlichen Pop-up-Warnungen kann Benutzer über die tatsächlichen Richtliniengrenzen verwirren, auch wenn verbotene Anfragen blockiert bleiben. Solche Haftungsausschlüsse könnten den Benutzern jedoch auch wertvolle Hinweise geben, um das System zu betrügen, insbesondere wenn Fälle wie Ratschläge über Waffenkonstruktion oder extremistische Aktivitäten wieder auftauchen. Die Änderung scheint also nicht nur eine bessere Benutzererfahrung zu sein. sich oder andere. Aufgeregt, viele unnötige Warnungen in der Benutzeroberfläche zurückzurollen.

Danke @joannejang & @laurentia ___ und mehr und mehr kommen (senden Sie uns Feedback!) https://t.co/kgr4as44HW

-Nick Turley (@nickaturley) Februar 13, 2025

Obwohl Warnmeldungen, die ein sichtbares Teil im Bildungsverhalten spielen, ein sichtbares Teil des Userverhaltens spielen. OpenAI argumentiert, dass sie manchmal gutartige Aufforderungen abgelehnt und alltägliche Benutzer irritieren. Sie sind sie jetzt eher als „unnötige Hindernisse“ anstatt als Kernabwehr. Benutzerfreundlich, muss zu sehen sein. Einschränkungen. Wir haben diesen Verstoß gegen unsere Richtlinien proaktiv identifiziert und den Entwickler darauf hingewiesen, diese Aktivität einzustellen, bevor Sie Ihre Anfrage erhalten.”Analysten argumentieren, dass die vorherigen Haftungsausschlüsse eine scharfe Linie gegen militarisierte Abfragen auf sich ziehen und Fragen darüber aufwerfen, ob weniger auffällige Warnungen frische Missbräuche einladen könnten. Die von den Ermittlern veröffentlichten Protokolls zeigten ihm, dass er Aufforderungen manipulierte, um teilweises Bombenherstellung Details zu extrahieren. Benutzer, die sich an diese Ereignisse erinnern, fragen sich, ob weniger Haftungsausschlüsse ähnlich schädliche Aufforderungen ermutigen könnten, obwohl OpenAI darauf besteht, dass das zugrunde liegende Ablehnungssystem unverändert ist. Der Sicherheitsforscher David Kuszmar entdeckte das, was er als”Time Bandit”-Pleutnant bezeichnete. Dabei konnten Benutzer die Zeit der KI bezeichnen, um eingeschränkte Informationen zu extrahieren. Unterschiedlicher Ansatz. Es erfordert mehr Rechenressourcen.

Categories: IT Info