Generative KI, die Technologie hinter Tools wie ChatGPT von OpenAI und Bildgeneratoren wie DALL·E, verändert die digitale Interaktion und kreative Produktion rasant.

OpenAI hat gerade seinen Sora AI-Videogenerator veröffentlicht, der Millionen von ermöglicht ChatGPT-Abonnenten können fotorealistische Kurzclips erstellen.

Die mit diesen Systemen verbundenen gesellschaftlichen Risiken – die von Fehlinformationen bis hin zu unbeabsichtigter Voreingenommenheit reichen – bleiben jedoch weitgehend unberücksichtigt Entwickler

Ökonomen aus Das Leibniz-Zentrum für Europäische Wirtschaftsforschung (ZEW) hält KI für einen Fall von Marktversagen und fordert die Europäische Union in ihrem Dezember Policy Brief zur Einführung eines gezielten Finanzierungsmodells zur Bewältigung dieser Herausforderungen.

In der Wirtschaftstheorie „Markt „Misserfolg“ bezieht sich auf eine Situation, in der es dem freien Markt nicht gelingt, Ressourcen effizient zu verteilen, was zu suboptimalen Ergebnissen für die Gesellschaft als Ganzes führt.

Sie schlagen ein meilensteinbasiertes Anreizprogramm vor, um die Prioritäten der Entwickler in Einklang zu bringen öffentliche Sicherheitsbedürfnisse.

„Die derzeitigen Marktanreize reichen nicht aus, um die Entwicklung sicherer generativer KI-Systeme zu gewährleisten, da Unternehmen nur einen Bruchteil der potenziellen Kosten für Sicherheitsausfälle tragen und gleichzeitig den größten Teil des Nutzens aus Leistungsverbesserungen ziehen“, heißt es in dem Policy Brief und identifiziert einen kritischen Markt Fehler, der dazu führt, dass Sicherheitsfortschritte unterfinanziert werden.

Verwandt: EU veröffentlicht ersten Entwurf eines Verhaltenskodex für Allzweck-KI

Marktversagen bei Generativen KI-Entwicklung

Das rasante Wachstum der generativen KI wurde durch öffentliche und private Investitionen in Milliardenhöhe vorangetrieben. Diesen Systemen, die Muster aus umfangreichen Datensätzen lernen, um Text, Bilder oder Audio zu generieren, fehlen jedoch integrierte Schutzmaßnahmen gegen Missbrauch.

Laut ZEW-Forschern ermöglicht dieses Ungleichgewicht Entwicklern, Fähigkeiten über Sicherheit zu stellen. Dabei bleiben die gesellschaftlichen Kosten von Risiken – wie groß angelegte Desinformationskampagnen oder Ausfälle in kritischen Anwendungen wie dem Gesundheitswesen – externalisiert.

Das Policy Brief hebt hervor, dass Sicherheitsherausforderungen in der generativen KI nicht durch herkömmliche Schulungsverbesserungen gelöst werden können allein. Es wird argumentiert, dass die Kuratierung von Datensätzen vor dem Training oder Maßnahmen nach dem Training wie die Feinabstimmung von Algorithmen die grundlegenden Sicherheitsdefizite des Technologie-Stacks nicht angemessen beheben können. Diese Lücken unterstreichen die Notwendigkeit substanzieller technologischer Durchbrüche.

Verwandt: Meta Leads Tech Giants fordern die EU auf, die KI-Regulierungsstrategie zu überdenken

Vorschlag für a Meilensteinbasiertes Finanzierungsmodell

Um diese Lücke zu schließen, schlagen die ZEW-Ökonomen ein EU-finanziertes Programm vor, das meilensteinbasierte Anreize für Entwickler bietet, die vordefinierte Sicherheitsmaßstäbe erreichen. Dieser „Pull“-Finanzierungsmechanismus würde Outputs statt Inputs belohnen und vorhersehbare Wege zur Verbesserung der Sicherheit in generativen KI-Systemen bieten.

„Wir schlagen ein meilensteinbasiertes Anreizsystem vor, bei dem vorab festgelegte Zahlungen das Erreichen von belohnen würden.“ „überprüfbare Sicherheitsmeilensteine“, heißt es in der Stellungnahme. „Das System würde robuste Sicherheitsmetriken und Wettbewerbsbewertungen nutzen, um Glücksspiele zu verhindern und gleichzeitig sinnvolle Fortschritte sicherzustellen.“

Das vorgeschlagene Modell würde technologieneutral bleiben und es Entwicklern ermöglichen, innovative Methoden auszuwählen, um Sicherheitskriterien zu erfüllen. Metriken für die Bewertung würde sachliche Genauigkeit, Schadensverhütung und Widerstandsfähigkeit bei kontradiktorischen Tests umfassen.

Öffentliche und unabhängige Prüfung würde Transparenz, Rechenschaftspflicht und Übereinstimmung mit gesellschaftlichen Bedürfnissen gewährleisten.

Öffentlich Einbindung und Rechenschaftspflicht

Ein Eckpfeiler des Vorschlags ist die Betonung der öffentlichen Beteiligung beim Testen von KI-Modellen. Adversarial-Tests oder „Red Teaming“ würden diese Systeme herausfordern, Schwachstellen zu identifizieren und Robustheit sicherzustellen.

„Es ist besonders wichtig, die Anreize aller Beteiligten aufeinander abzustimmen und die notwendigen Koordinierungsinstrumente für ein effizientes und effektives Red Teaming bereitzustellen“, heißt es in dem Policy Brief und betont die Bedeutung kollektiver Validierungsverfahren.

Zu den Transparenzmaßnahmen gehört die öffentliche Offenlegung der Evaluierungsergebnisse, die Förderung des Vertrauens und die Ermöglichung eines gemeinsamen Verständnisses für das Potenzial und die Grenzen generativer KI. Durch die Einbeziehung einer Vielzahl von Interessengruppen soll das Programm sicherstellen, dass Sicherheitsinnovationen mit den gesellschaftlichen Erwartungen übereinstimmen.

Einbettung des Vorschlags in EU-Politikrahmen

Die Das vorgeschlagene meilensteinbasierte Programm ergänzt bestehende EU-Regulierungsmaßnahmen wie das KI-Gesetz und die aktualisierte Produkthaftungsrichtlinie. Diese Rahmenwerke konzentrieren sich hauptsächlich auf das Verbot unsicherer Anwendungen und die Verhängung von Strafen für Sicherheitsmängel.

Das ZEW-Policy Brief weist jedoch auf eine kritische Lücke hin: Bestehende Initiativen priorisieren die Einführung und den Aufbau von Fähigkeiten, anstatt Sicherheitsinnovationen direkt zu fördern.

„Die EU erklärt außerdem, dass sie mit verschiedenen Initiativen, die in der letzten Legislaturperiode initiiert wurden, die Entwicklung einer sichereren generativen KI fördern und belohnen will.“ Allerdings scheinen sie sich eher auf die Förderung der Einführung generativer KI im Allgemeinen als auf die Entwicklung sicherer generativer KI im Besonderen zu konzentrieren“, heißt es in dem Brief und verweist auf Programme wie „GenAI4EU” und „KI-Fabriken“ als Beispiele für Bemühungen, die sicherheitsspezifische Herausforderungen außer Acht lassen.

Das Safe Generative AI Innovation Program würde der KI-Strategie der EU eine neue Dimension hinzufügen, indem es Entwickler explizit für das Erreichen bedeutender Sicherheitsmeilensteine ​​belohnt und so die Lücke zwischen Regulierung und Innovation schließt.

Balance zwischen Sicherheit und Leistung

Eine der entscheidenden Herausforderungen des Programms besteht darin, den Kompromiss zwischen Sicherheit und anderen Leistungsdimensionen generativer KI-Modelle anzugehen. Die sichersten KI-Systeme sind diejenigen, die die Generierung potenziell schädlicher Inhalte vollständig vermeiden – wäre auch am wenigsten funktional.

Um ein Gleichgewicht zu schaffen, muss das Anreizprogramm Modelle priorisieren, die hohe Sicherheitsstandards erfüllen und gleichzeitig wettbewerbsfähig bleiben.

„Eine Erhöhung der Sicherheit könnte durchaus sein.“ gehen jedoch zu Lasten einer geringeren Leistung in anderen Dimensionen. Um diesen Punkt zu veranschaulichen: Die sicherste generative KI ist eine, die überhaupt nichts generiert, aber ein wettbewerbsfähiges Leistungsniveau ist notwendig, damit ein Modell tatsächlich von Nutzen ist“, heißt es in der Grundsatzerklärung.

Die Das Programm würde Skalierungsgesetze und andere vorhersehbare Entwicklungspfade nutzen, um die Effizienz bei der Integration von Sicherheit und Leistung zu fördern.

Aufbau eines Wettbewerbsvorteils für Europa

Über seinen unmittelbaren Schwerpunkt hinaus zum Thema Sicherheit, die Der Vorschlag zielt darauf ab, die Position der EU in der globalen KI-Landschaft zu stärken. Europa liegt derzeit bei der generativen KI-Entwicklung hinter den USA und China zurück, da nur eine Handvoll Unternehmen auf der internationalen Bühne konkurrieren.

Durch die Priorisierung der Sicherheit. Die EU könnte sich als Vorreiter bei ethischen KI-Innovationen etablieren, was für Verbraucher und Regulierungsbehörden weltweit eine wachsende Priorität darstellt.

„Das Programm zur sicheren generativen KI-Innovation könnte auch der KI-Innovation in der EU neuen Schwung verleihen“, heißt es in dem Brief Staaten. „Durch die Schaffung klarer Anreize für Sicherheitsinnovationen könnte dieses Programm europäischen Unternehmen dabei helfen, einen Wettbewerbsvorteil in einer immer wichtiger werdenden Marktdimension zu entwickeln.“

Der Brief unterstreicht auch das umfassendere Potenzial von „Pull“-Finanzierungsmechanismen und verweist auf diese Erfolg in Bereichen wie der Impfstoffentwicklung und autonomen Fahrzeugen. Durch die Anpassung dieser Ansätze an die generative KI könnte die EU ein neues Modell für verantwortungsvollen technologischen Fortschritt entwickeln.

Der Policy Brief kommt zu dem Schluss: „Das primäre Ziel sollte im Mittelpunkt bleiben, sekundäre Ziele sollten nur dann einbezogen werden, wenn dies nicht der Fall ist.“ Anreize ändern, um „Mission Creep“ zu vermeiden.

Categories: IT Info