Reaktion auf Swift und weit verbreitete Rückschläge hat seine kontroverse Copyright-Richtlinie für seine neue Sora 2-Videogenerierungs-App in einem blog”> blog”> blog”> blog”> blog”> blog”> blog”> blog”> blog”> blog. kündigte eine Verschiebung von einem Standard-Opt-out-System zu einem Schöpfer an, der die Ersteller über ihre Charaktere granuläre Kontrolle über die ursprüngliche Richtlinie mit dem sofortigen Feuer entfaltete, nachdem die Benutzer begonnen hatten, Videos mit bekannten urheberrechtlich geschützten Zahlen zu generieren und zu teilen. Dies hat die heftige Debatte über den fairen Gebrauch und Zustimmung im generativen AI-Raum wieder investiert. OpenAI plant außerdem, ein Einnahmen-Sharing-Modell für die Teilnahme von Rechtsoldern einzuführen. 2’s Start am 1. Oktober. Die anfängliche Haltung der App zu Copyright war ein”Opt-out”-Modell, was bedeutet, dass geschützte Charaktere als faires Spiel angesehen wurden, es sei denn, ein Rechtshalter lehnte formell Einwände. Dies führte zu heftigen Kritik von Beobachtern, die es als eine offensichtliche Missachtung des geistigen Eigentums ansah. Kritiker argumentieren, dass Firmen ohne Erlaubnis große Mengen an Webdaten kratzen. 

OpenAIs schnelle Umkehrung: Vom Opt-out zum Opt-in

mit einer wachsenden PR-Krise, OpenAi, die mit einer bemerkenswerten Geschwindigkeit geplant ist. Am 3. Oktober veröffentlichte Altman einen Blog-Beitrag Ankündigung einer bedeutenden Richtlinienänderung . Er erklärte: „Wir werden den Rechtsoldern eine stärkere Kontrolle über die Erzeugung von Charakteren geben, ähnlich wie das Opt-In-Modell für Ähnlichkeit, jedoch mit zusätzlichen Steuerelementen.”Um den Deal zu versüßen, enthüllte Altman auch Pläne für ein neues Geschäftsmodell, das einen Präzedenzfall in der Branche schaffen könnte. werden für ihre Teilnahme kompensiert. Vibes und Googles Veo 3. Der frühere OpenAI-Manager Zack Kass argumentierte, dass die frühzeitige Veröffentlichung von leistungsstarker Technologie vorzuziehen ist, sie im Geheimnis zu entwickeln. href=”https://www.cnbc.com/2025/10/02/openai-invite-code-sora-2-censurship Auf Bauen von Schutzmaßnahmen wie einem robusten Einverständniserklärungsrahmen und der Miteigentümerrechte, bei der die Person, deren Ähnlichkeit verwendet wird, den Inhalt immer löschen kann. Welt. target=”_ leer”> erklärt .

Diese Ansicht wird von akademischen Experten wiederholt, die die Videogenerierung als einen Weg sehen, um Models zu helfen, eher Menschen zu verhindern. href=”https://www.cnbc.com/2025/10/02/openai-invite-code-sora-2-censurship reale Physik.

Categories: IT Info