Zróżnicowana koalicja ponad 800 osób publicznych, w tym laureatów Nagrody Nobla, brytyjska rodzina królewska i „ojcowie chrzestni” współczesnej sztucznej inteligencji, podpisali w środę oświadczenie wzywające do globalnego wstrzymania rozwoju „superinteligencji”.

Cytując ryzyka sięgającego od starzenia się człowieka po całkowite wyginięcie, sygnatariusze żądają zakazu tworzenia sztucznej inteligencji, która przewyższa ludzkie zdolności poznawcze, do czasu, aż zostanie udowodnione, że jest bezpieczna, możliwa do kontrolowania i cieszy się szerokim poparciem społecznym.

Wysiłki zorganizowane przez Instytut Przyszłości Życia (FLI) wpisują się w nasilający się wyścig technologiczny. Stawia to coraz większy chór zaniepokojonych ekspertów przeciwko ogromnemu impetowi finansowemu i politycznemu, który napędza rozwój sztucznej inteligencji.

Szeroka koalicja brzmi dobrze Alarm

Organizatorzy oświadczenia wskazują na wyraźny rozdźwięk między ambicjami branży technologicznej a wolą społeczeństwa.

Niedawne badanie FLI ogólnokrajowe badanie przeprowadzone wśród 2000 dorosłych Amerykanów wykazało, że 73% chce solidnych przepisów dotyczących zaawansowanej sztucznej inteligencji. Co więcej, 64% uważa, że ​​nadludzką sztuczną inteligencję nie należy rozwijać, dopóki nie zostanie udowodnione, że jest bezpieczna, lub w ogóle nie należy jej tworzyć.

Tylko 5% Amerykanów popiera obecne status quo polegające na szybkim, nieuregulowanym rozwoju.

Anthony Aguirre, dyrektor wykonawczy FLI, ujął to bez ogródek w wywiadzie dla NBC News: „To nie jest to, czego chce społeczeństwo. Nie chcą brać udziału w wyścigu o to.”

To zdanie podziela pionier sztucznej inteligencji Yoshua Bengio, który podpisał oświadczenie i dodał: „Musimy także upewnić się, że społeczeństwo będzie miało znacznie większy wpływ na decyzje, które będą kształtować naszą wspólną przyszłość”.

Lista sygnatariuszy jest godna uwagi ze względu na obszerność i niwelowanie głębokich podziałów politycznych i kulturowych.

Współzałożyciel Apple, Steve Wozniak, Podpisali się Richard Branson z Virgin Group i były przewodniczący połączonych szefów sztabów Mike Mullen, a także przedstawiciele konserwatywnych mediów Glenn Beck i Steve Bannon.

Dołączają do nich książę Harry i Meghan Markle, aktor Joseph Gordon-Levitt i była prezydent Irlandii Mary Robinson. Być może co najważniejsze, na liście znajdują się zdobywcy nagrody Turinga Geoffrey Hinton i Yoshua Bengio, których fundamentalna praca umożliwiła obecny rozwój sztucznej inteligencji.

Ich udział nadaje ostrzeżeniu znaczną wiarygodność naukową. Autor Yuval Noah Harari, inny sygnatariusz, ostrzegł: „Superinteligencja prawdopodobnie złamałaby sam system operacyjny ludzkiej cywilizacji – i jest całkowicie niepotrzebna”.

Opinia publiczna a ambicje branży

Chociaż giganci technologiczni inwestują miliardy w wyścig o dominację sztucznej inteligencji, w oświadczeniu argumentuje, że ostateczny cel jest o krok za daleko.

Aktor i pisarz Sir Stephen Fry skomentował: „Z definicji doprowadziłoby to do powstania władzy, której nie moglibyśmy zrozumieć ani kontrolować.”

Ta obawa dotycząca kontroli ma kluczowe znaczenie w debacie i odzwierciedla obawy wyrażane wcześniej przez byłych specjalistów OpenAI, którzy ostrzegali przed przerażająco szybkim tempem rozwoju.

Jak na ironię, nawet liderzy firm budujących te systemy wyrażali podobne obawy. W poście na blogu dyrektora generalnego OpenAI Sama Altmana z 2015 r., na długo przed uruchomieniem ChatGPT, stwierdzono: „Rozwój nadludzkiej inteligencji maszynowej (SMI) jest prawdopodobnie największym zagrożeniem dla dalszego istnienia ludzkości.”

Podobnie twierdzi dyrektor generalny Anthropic Dario Amodei publicznie oszacował: „Myślę, że istnieje 25% szans, że sprawy potoczą się naprawdę źle”.

Dyrektor generalny firmy Anthropic, Dario Amodei, twierdzi teraz, że jego P(Doom) wynosi 25%.https://t.co/lAinvcaYUh

— Calum Chace (@cccalum) 19 września 2025 r.

Dyrektor generalny Microsoft ds. sztucznej inteligencji Mustafa Suleyman powiedział również: „Dopóki nie udowodnimy jednoznacznie, że jest to [bezpieczne], nie powinniśmy tego wymyślać”.

Niepowstrzymany wyścig o dominację w sztucznej inteligencji

Pomimo tych wewnętrznych ostrzeżeń, korporacyjny i narodowy wyścig w kierunku superinteligencji nie słabnie.

Meta wyraźnie nazwała swój nowy oddział „Meta Superintelligence Labs”, sygnalizując swój korporacyjny cel. Ten impuls jest napędzany oszałamiającymi inwestycjami finansowymi.

Według prognozy firmy Gartner, wydatki przedsiębiorstw na sztuczną inteligencję osiągną w 2025 r. 1,5 biliona dolarów.

Wygenerowane wyłącznie przez OpenAI Przychody w wysokości 4,3 miliarda dolarów w pierwszej połowie 2025 r., co świadczy o ogromnym napływie kapitału do sektora.

Tę dynamikę wzmacnia polityka krajowa. Plan działania administracji Trumpa dotyczący sztucznej inteligencji, zaprezentowany w lipcu, priorytetowo traktuje usunięcie przeszkód regulacyjnych w celu przyspieszenia rozwoju i utrzymania strategicznej przewagi nad Chinami.

Granica za daleko? Debata na temat ryzyka egzystencjalnego

Nie wszyscy eksperci AI zgadzają się z tymi strasznymi ostrzeżeniami. Główny specjalista ds. sztucznej inteligencji w Meta, Yann LeCun, był głośnym krytykiem tego, co uważa alarmistyczne scenariusze „zagłady”.

Odrzuca pomysł niekontrolowanego przejęcia sztucznej inteligencji, zamiast tego wyobraża sobie przyszłość „inteligencji wzmacniającej”, w której systemy sztucznej inteligencji zamiast je zastępować, zwiększają ludzkie możliwości.

Ta perspektywa sugeruje, że ryzyko jest możliwe do opanowania i że korzyści płynące z potężnej sztucznej inteligencji, od leczenia chorób po łagodzenie zmian klimatycznych, są zbyt znaczące, aby je porzucić strach.

Pogląd LeCuna reprezentuje znaczący podział filozoficzny w społeczności sztucznej inteligencji, kształtując debatę jako debatę pomiędzy ostrożnym zarządzaniem a ambitnymi, nieskrępowanymi innowacjami.

Ostatecznie to oświadczenie wymusza publiczną dyskusję na temat przyszłości ludzkości w epoce coraz potężniejszych maszyn. Jej organizatorzy argumentują, że decyzji o stworzeniu potencjalnego gatunku-następcy nie należy pozostawiać garstce dyrektorów technologicznych i badaczy.

Profesor z Berkeley i sygnatariusz Stuart Russell sformułował tę propozycję nie jako luddytowski zakaz, ale jako zdroworozsądkowy środek bezpieczeństwa.

„Nie jest to zakaz ani nawet moratorium w zwykłym znaczeniu. To po prostu propozycja wymagania odpowiednich środków bezpieczeństwa dla technologii które… ma znaczną szansę spowodować wyginięcie ludzkości.”

W miarę galopującego rozwoju technologii, głównym pytaniem pozostaje, czy ludzkość będzie w stanie wcisnąć hamulce wystarczająco długo, aby utrzymać się na fotelu kierowcy.

Categories: IT Info