Eine Gruppe von über 70 Wissenschaftlern hat die Präsidentin der Europäischen Kommission, Ursula von der Leyen, öffentlich zurechtgewiesen und verlangt, dass sie eine Aussage zurückzieht, dass KI auf menschlicher Ebene „nächstes Jahr“ eintreffen könnte.

In einem offenen Brief, der am Montag aus Brüssel verschickt wurde, bezeichneten Experten, darunter UN-Berater, ihre Behauptung als unwissenschaftlich und gefährlich. Sie argumentieren, dass es sich eher um einen Marketing-Hype von US-amerikanischen Tech-CEOs als um empirische Beweise handelt.

In dem Brief heißt es, dass die Verstärkung solcher Behauptungen die Glaubwürdigkeit Europas untergräbt und zu einer Spekulationsblase beitrage. Von der Leyens ursprünglicher Kommentar vom Mai basierte laut einer Offenlegung der Kommission auf Aussagen der Führungskräfte von OpenAI, Anthropic und Nvidia.

EU-Präsidentin von der Leyen unter Beschuss

At Auf einer EU-Haushaltskonferenz im Mai machte Präsidentin von der Leyen eine bemerkenswerte Vorhersage: „Wir dachten, KI würde sich erst um 2050 dem menschlichen Denken annähern. Jetzt gehen wir davon aus, dass dies bereits im nächsten Jahr geschehen wird.“

Ihr Kommentar signalisierte eine dramatische Beschleunigung der KI-Zeitpläne und erregte die Aufmerksamkeit beider Technologen und politische Entscheidungsträger. Allerdings hat die wissenschaftliche Gemeinschaft nun die Grundlage dieser Behauptung offiziell in Frage gestellt.

Unter Berufung auf eine Informationsfreiheitsanfrage, die die Quelle ihrer Behauptung enthüllte, verweist der offene Brief direkt auf Aussagen von Technologiemanagern wie Sam Altman von OpenAI und Dario Amodei von Anthropic.

Unterzeichner, darunter prominente KI-Forscher und UN-Berater Abeba Birhane und Virginia Dignum, argumentieren, dass diese Behauptungen nicht auf strengen Grundsätzen beruhen Wissenschaft.

Als Antwort auf den Brief versuchte die Europäische Kommission, die Worte des Präsidenten neu zu formulieren. Ein Sprecher sagte Euractiv, dass es sich bei der Aussage nicht um eine formelle Vorhersage handele.

„Hier geht es darum, vorbereitet zu sein, nicht um die Bekanntgabe eines Datums. Bei verantwortungsvoller Planung geht es nicht darum, die Zukunft zu erraten, sondern um die Vorbereitung auf verschiedene Szenarien.“

Diese Klarstellung, hat jedoch wenig dazu beigetragen, die Kernkritik aus der wissenschaftlichen Gemeinschaft zu unterdrücken.

Marketing vs. Methode: Wissenschaftler lehnen gewinnorientierten Hype ab

In ihrem Brief argumentieren die Wissenschaftler, dass von der Leyen unbegründete Marketingnarrative wiederholt. „Dies sind Marketingaussagen, die von Profitmotiven und Ideologien geleitet werden und nicht von empirischen Beweisen und formellen Beweisen.“

Die Unterzeichner behaupten, dass solche Behauptungen darauf abzielen, Finanzspekulationen anzuheizen, und offensichtlich mit den finanziellen Zwängen der Technologieunternehmen und nicht mit einer wissenschaftlichen Validierung verknüpft sind.

ICCE Scientists-letter-to-EU-President-about-AI-Hype

 
Für Marktbeobachter ist die Warnung der Wissenschaftler vor einem „Spekulationsblase“ ist besonders zeitgemäß. Der KI-Sektor befindet sich mitten in einem Investitionsboom von fast 400 Milliarden US-Dollar pro Jahr, einem Ausgabenrausch, der alarmierende Parallelen zu vergangenen Technologieblasen aufweist.

Vor diesem Hintergrund rasant steigender Investitionen und öffentlicher Fehltritte hat der Brief von Wissenschaftlern erhebliches Gewicht.

Erst letzten Monat erlebte die KI-Branche ein aufsehenerregendes Beispiel für einen Hype, der mit der Realität kollidierte, als OpenAI vorzeitig bekannt gab, dass sein GPT-5-Modell gelöst sei bekanntermaßen schwierige mathematische Probleme.

Mathematiker entlarvten die Behauptung schnell und stellten klar, dass das Modell lediglich eine erweiterte Literatursuche durchgeführt hatte. Der öffentliche Rückschlag war eine erhebliche Peinlichkeit und veranlasste Demis Hassabis, CEO von Google DeepMind, einfach zu sagen: „Das ist peinlich.“

Solche Ereignisse führen zu einer breiteren, dringlicheren Debatte über den unkontrollierten Wettlauf in Richtung Superintelligenz. Die wachsende Besorgnis über existenzielle Risiken hat kürzlich über 800 weltweit führende Persönlichkeiten, vom Apple-Mitbegründer Steve Wozniak bis zum KI-Pionier Yoshua Bengio, dazu veranlasst, eine Erklärung zu unterzeichnen, in der sie einen Stopp der Entwicklung der Superintelligenz fordern, bis sie sich als sicher erweisen kann.

Der Brief der Wissenschaftler greift dieses Gefühl auf, das die tiefe öffentliche Besorgnis widerspiegelt.

Einige Unternehmen reagieren bereits auf diesen Stimmungsumschwung in der Öffentlichkeit. Mustafa Suleyman, CEO von Microsoft AI, kündigte kürzlich ein neues „Humanist Superintelligence“-Team an, in dem er die Mission ausdrücklich auf Sicherheit ausrichtete und erklärte: „Wir können nicht einfach um jeden Preis beschleunigen. Das wäre einfach eine verrückte Himmelfahrtsmission.“ Strategisch gesehen kann dieser Schritt als direkter Versuch angesehen werden, eine Marke aufzubauen, die für Vorsicht in einem zunehmend von Risiken geprägten Bereich vertrauenswürdig ist.

Letztendlich verdeutlicht der Widerstand aus der wissenschaftlichen Gemeinschaft eine tiefsitzende Spannung. Während der legitime, von Experten begutachtete Fortschritt in der KI weitergeht, wie in der jüngsten Arbeit von Google DeepMind mit dem Mathematiker Terence Tao zu sehen ist, wird das öffentliche Narrativ oft von sensationellen Behauptungen dominiert.

Die Forderung der Wissenschaftler ist ein Aufruf zur Sorgfalt und drängt die politischen Entscheidungsträger, zwischen echtem wissenschaftlichen Fortschritt und den leistungsstarken Marketingmotoren zu unterscheiden, die den KI-Goldrausch vorantreiben.

Categories: IT Info