Die Biden-Regierung hat den Technologiesektor und die Finanzinstitute aufgefordert, sich mit dem eskalierenden Problem KI-generierter missbräuchlicher sexueller Bilder auseinanderzusetzen. Neue generative KI-Tools haben es einfacher gemacht, realistische, nicht einvernehmliche, explizite Bilder zu erstellen, die dann in sozialen Medien und Chatrooms weit verbreitet werden. Opfer, darunter Prominente und Minderjährige, stehen bei der Entfernung dieser Bilder, sobald sie online sind, vor großen Herausforderungen.
Aufruf zur freiwilligen Zusammenarbeit
Die Verwaltung sucht nach freiwilliger Zusammenarbeit von Unternehmen, Maßnahmen zu ergreifen, die darauf abzielen, die Erstellung, Verbreitung und Monetarisierung nicht einvernehmlicher KI-Bilder einzudämmen. Dieser Appell richtet sich nicht nur an KI-Entwickler, sondern auch an Zahlungsabwickler, Finanzinstitute, Cloud-Dienstleister und Gatekeeper mobiler App-Stores. Ziel ist es, die finanziellen Anreize hinter bildbasiertem sexuellen Missbrauch abzubauen, mit besonderem Schwerpunkt auf Websites, die explizite Bilder von Minderjährigen bewerben.
Arati Prabhakar, Bidens leitender wissenschaftlicher Berater und Direktor des Büros des Weißen Hauses Die Wissenschafts-und Technologiepolitik verdeutlichte die schnelle Verbreitung nicht einvernehmlicher Bilder durch KI-Tools , was tiefgreifende Auswirkungen auf Frauen und Mädchen hatte. Sie betonte die dringende Notwendigkeit für Unternehmen, schnell Maßnahmen zu ergreifen.
Legislative Unterstützung erforderlich
Während die Regierung auf freiwillige Verpflichtungen drängt, erkennt sie auch die Notwendigkeit gesetzgeberischer Unterstützung an. Jennifer Klein, Direktorin des Gender Policy Council des Weißen Hauses, betonte, dass zwar Verpflichtungen der Unternehmen von wesentlicher Bedeutung seien, der Kongress jedoch auch Maßnahmen ergreifen müsse. Aktuelle Gesetze kriminalisieren die Erstellung und den Besitz sexueller Bilder von Kindern, selbst wenn diese durch KI erzeugt wurden. Allerdings gibt es wenig Kontrolle über die Tools und Dienste, die die Erstellung solcher Bilder ermöglichen.
Die Bemühungen der Regierung bauen auf früheren freiwilligen Verpflichtungen großer Technologieunternehmen auf, Schutzmaßnahmen für neue KI-Systeme zu implementieren. Darüber hinaus hat Biden eine Durchführungsverordnung unterzeichnet, um die KI-Entwicklung zu leiten, um die öffentliche Sicherheit zu gewährleisten und sich mit umfassenderen KI-Bedenken zu befassen, einschließlich der nationalen Sicherheit und KI-generierter Bilder von Kindesmissbrauch.
Reaktion und Herausforderungen der Branche
Der Privatsektor hat mit Zusagen von Unternehmen wie Microsoft reagiert, die die Sicherheitsmaßnahmen verstärkt haben, nachdem KI-generierte Bilder von Taylor Swift online verbreitet wurden. Schulen haben auch mit KI-generierten Deepfake-Aktfotos von Schülern zu kämpfen, die oft von anderen Teenagern erstellt und geteilt werden.
Das Dokument der Verwaltung fordert Cloud-Dienstanbieter und mobile App-Stores, Anwendungen einzuschränken, die zum Erstellen oder Ändern sexueller Bilder entwickelt wurden ohne Zustimmung. Es unterstreicht auch die Notwendigkeit, dass Überlebende die Möglichkeit haben, nicht einvernehmliche Bilder problemlos von Online-Plattformen zu entfernen.
Bundesanwälte sind bereits gegen Einzelpersonen vorgegangen, die KI-Tools verwenden, um explizite Bilder von Minderjährigen zu erstellen. Beispielsweise wurde ein Mann aus Wisconsin angeklagt für die Verwendung von Stable Diffusion zur Generierung solcher Bilder.