Grupa ponad 70 naukowców publicznie zganiła przewodniczącą Komisji Europejskiej Ursulę von der Leyen, żądając od niej wycofania oświadczenia, że sztuczna inteligencja na poziomie człowieka może pojawić się „w przyszłym roku”.
W liście otwartym wysłanym w poniedziałek z Brukseli eksperci, w tym doradcy ONZ, uznali jej twierdzenie za nienaukowe i niebezpieczne. Twierdzą, że odzwierciedla to marketingowy szum dyrektorów generalnych firm technologicznych w USA, a nie dowody empiryczne.
W piśmie stwierdza się, że wzmacnianie takich twierdzeń podważa wiarygodność Europy i przyczynia się do powstania bańki spekulacyjnej. Jak wynika z ujawnień Komisji, pierwotny komentarz Von der Leyen, złożony w maju, opierał się na oświadczeniach liderów OpenAI, Anthropic i Nvidia.
Prezydent UE von der Leyen Under Pożar
Podczas majowej konferencji poświęconej budżetowi UE przewodnicząca von der Leyen sformułowała uderzającą przewidywalność: „Myśleliśmy, że sztuczna inteligencja zacznie korzystać z ludzkiego rozumowania dopiero około 2050 r. Teraz spodziewamy się, że stanie się to już w przyszłym roku.”
Jej komentarz zasygnalizowało dramatyczne przyspieszenie harmonogramu sztucznej inteligencji, przyciągając uwagę zarówno technologów, jak i decydentów. Jednak społeczność naukowa formalnie zakwestionowała obecnie podstawę tego twierdzenia.
Powołując się na wniosek o wolność informacji, który ujawnił źródło jej twierdzenia, list otwarty wskazuje bezpośrednio na oświadczenia dyrektorów technologicznych, takich jak Sam Altman z OpenAI i Dario Amodei z Anthropic.
Sygnatariusze, w tym wybitni badacze sztucznej inteligencji oraz doradcy ONZ Abeba Birhane i Virginia Dignum, argumentują, że twierdzenia te nie są poparte rygorystycznymi science.
W odpowiedzi na list Komisja Europejska starała się przeformułować słowa Prezydenta. Rzecznik powiedział Euractiv, że oświadczenie to nie jest formalną prognozą.
„Chodzi o bycie przygotowanym, a nie deklarowanie daty. Odpowiedzialne planowanie nie polega na zgadywaniu przyszłości, lecz na przygotowaniu się na różne scenariusze.”
To wyjaśnienie jednak oznacza, że niewiele zrobił, aby stłumić główną krytykę społeczności naukowej.
Marketing a metoda: naukowcy potępiają szum nastawiony na zysk
W swoim piśmie naukowcy argumentują, że von der Leyen powtarza bezpodstawne narracje marketingowe. „Są to oświadczenia marketingowe oparte na motywacji zysku i ideologii, a nie na dowodach empirycznych i formalnych.”
Sygnatariusze twierdzą, że takie twierdzenia mają na celu podsycanie spekulacji finansowych i są w sposób oczywisty powiązane z imperatywami finansowymi firm technologicznych, a nie z potwierdzeniem naukowym.
List naukowców ICCE do prezydenta UE w sprawie szumu dotyczącego sztucznej inteligencji
Dla obserwatorów rynku ostrzeżenie naukowców dotyczące „spekulacji” bańka” jest szczególnie na czasie. Sektor sztucznej inteligencji znajduje się w środku boomu w wydatkach kapitałowych, zbliżającego się do 400 miliardów dolarów rocznie, co jest szaleństwem wydatków, które w niepokojący sposób przypomina bańki technologiczne z przeszłości.
W kontekście gwałtownie rosnących inwestycji i błędów publicznych, list od naukowców nabiera znacznej wagi.
Niedawno w zeszłym miesiącu branża sztucznej inteligencji była świadkiem głośnego przykładu zderzenia szumu z rzeczywistością, gdy OpenAI przedwcześnie ogłosiło swój GPT-5 model rozwiązał słynne trudne problemy matematyczne.
Matematycy szybko obalili tę tezę, wyjaśniając, że model po prostu przeprowadził zaawansowane wyszukiwanie w literaturze. Ta publiczna zmiana sytuacji wywołała znaczne zawstydzenie, dlatego dyrektor generalny Google DeepMind, Demis Hassabis, po prostu skomentował: „To jest żenujące”.
Takie wydarzenia wpisują się w szerszą, pilniejszą debatę na temat niekontrolowanego wyścigu w stronę superinteligencji. Rosnące obawy związane z ryzykiem egzystencjalnym skłoniły ostatnio ponad 800 światowych przywódców, od współzałożyciela Apple Steve’a Wozniaka po pioniera sztucznej inteligencji Yoshuy Bengio, do podpisania oświadczenia żądającego wstrzymania rozwoju superinteligencji do czasu udowodnienia, że jest ona bezpieczna.
To nastroje odzwierciedlające głęboki niepokój opinii publicznej, który odwołuje się do listu naukowców.
Niektóre firmy już reagują na tę zmianę nastrojów społecznych. Dyrektor generalny Microsoft AI, Mustafa Suleyman, ogłosił niedawno utworzenie nowego zespołu „Humanistycznej Superinteligencji”, wyraźnie formułując misję wokół bezpieczeństwa i stwierdzając: „Nie możemy po prostu przyspieszyć za wszelką cenę. To byłaby szalona misja samobójcza”. Ze strategicznego punktu widzenia posunięcie to można postrzegać jako bezpośrednią próbę zbudowania marki godnej zaufania w dziedzinie ostrożności w dziedzinie coraz bardziej definiowanej przez ryzyko.
Ostatecznie sprzeciw społeczności naukowej uwypuklił głęboko zakorzenione napięcie. Chociaż uzasadniony, recenzowany postęp w dziedzinie sztucznej inteligencji trwa nadal, jak widać w niedawnej pracy Google DeepMind z matematykiem Terencem Tao, w publicznej narracji często dominują sensacyjne twierdzenia.
Żądanie naukowców jest wezwaniem do staranności i wzywaniem decydentów do rozróżnienia pomiędzy prawdziwym postępem naukowym a potężnymi silnikami marketingowymi napędzającymi gorączkę złota AI.