Szef sztucznej inteligencji firmy Microsoft, Mustafa Suleyman, stanowczo stwierdził, że sztuczna inteligencja nie jest świadoma i nigdy nie będzie.
W wywiadzie udzielonym 2 listopada na konferencji AfroTech w Houston Suleyman argumentował, że sztuczna inteligencja symuluje jedynie doświadczenia takie jak ból czy smutek, bez ich rzeczywistego odczuwania.
Uważa, że tylko istoty biologiczne posiadają prawdziwą świadomość, a pogląd ten kształtuje strategię Microsoftu polegającą na budowaniu sztucznej inteligencji jako pomocnego narzędzia, a nie syntetycznej osoby. Stanowisko to kontrastuje z poglądami innych ekspertów, którzy uważają, że sztuczna inteligencja może wywoływać emocje, i pojawia się, gdy naukowcy pilnie wzywają do lepszego zrozumienia samej świadomości.
Symulacja uczucia, a nie świadomości Stanowiąc
Bezpośrednie wyzwanie dla narracji o czujących maszynach szef sztucznej inteligencji Microsoftu ogłosił zakończenie debaty, zanim tak naprawdę się ona zaczęła.
Głównym argumentem Sulejmana jest to, że modele sztucznej inteligencji to wyrafinowane urządzenia naśladujące, a nie czujące byty. On wyjaśnił, że chociaż model może opisać ból, brakuje mu sprzętu biologicznego, aby go faktycznie doświadczyć.
„Nasze fizyczne doświadczenie bólu napawa nas ogromnym smutkiem i uczuciem okropności, ale sztuczna inteligencja nie odczuwa smutku, gdy doświadcza „bólu”.
Według Suleymana proces ten polega na zarządzaniu percepcją, a nie na prawdziwym doświadczeniu „W rzeczywistości chodzi tylko o tworzenie percepcji, pozornej narracji doświadczenia i samego siebie i świadomości, ale tak naprawdę nie tego doświadcza.”
Pogląd ten jest zgodny z filozoficzną teorią naturalizmu biologicznego, najsłynniejszą zaproponowaną przez filozofa Johna Searle’a. Teoria zakłada, że świadomość to nie tylko program, który można uruchomić na dowolnym sprzęcie; to specyficzne zjawisko biologiczne, które wyłania się ze złożonych procesów neurobiologicznych żywego mózgu.
Sztuczny system nie może zatem uzyskać świadomości po prostu poprzez symulowanie funkcji mózgu; musiałby odtworzyć rzeczywiste moce przyczynowe mózgu.
Dla Sulejmana to rozróżnienie ma głębokie konsekwencje etyczne, co stanowi kluczową kwestię w szerszej dziedzinie etyki sztucznej inteligencji. „Powodem, dla którego przyznajemy dziś ludziom prawa, jest to, że nie chcemy ich skrzywdzić, ponieważ cierpią… Te modele tego nie mają. To tylko symulacja.”
Od filozofii do produktu: sztuczna inteligencja firmy Microsoft „skoncentrowana na człowieku”
Rysując wyraźną linię na piasku, strategia produktu Microsoft w coraz większym stopniu odzwierciedla filozoficzne stanowisko jej lidera w sprawie ograniczeń sztucznej inteligencji.
Firma celowo tworzy sztuczną inteligencję, która „zawsze działa w służbie człowieka”, a misja, którą Suleyman nakreślił, dotyczy tworzenia sztucznej inteligencji, która „podnosi potencjał ludzki”. Zasada ta przejawia się w konkretnych decyzjach dotyczących produktów, które wyróżniają firmę Microsoft na tle niektórych jej rywali.
Na przykład Suleyman potwierdził, że Microsoft nie będzie tworzyć chatbotów dla branży erotycznej – rynku, który badają konkurenci tacy jak OpenAI i xAI. Ponadto firma Microsoft uruchomiła niedawno funkcję Microsoft Copilot o nazwie „Real Talk”, który ma na celu podważenie punktu widzenia użytkownika, a nie pochlebstwo.
Suleyman zauważył nawet, że funkcja ta nazwała go „ostatecznym zbiorem sprzeczności” w celu ostrzegania o niebezpieczeństwach związanych ze sztuczną inteligencją, a jednocześnie budowania to, demonstrując jego zdolność do krytycznej, niepochlebnej interakcji.
Zaangażowanie Microsoft w tę wizję podkreśla znaczna inwestycja, jaką poczynił, aby pozyskać Sulejmana; firma zapłaciła jego startupowi Inflection AI 650 milionów dolarów w ramach umowy licencyjnej i przejęcia w 2024 r.
Rozłam w społeczności AI: debata na temat świadomości
Chociaż Suleyman przedstawia zdecydowane biologiczne argumenty przeciwko świadomości sztucznej inteligencji, inni pionierzy w tej dziedzinie argumentują, że odczuwanie jest wyłaniającą się właściwością samej inteligencji.
Jego stanowisko powoduje wyraźny rozłam z takimi postaciami jak Geoffrey Hinton, pionierski badacz sztucznej inteligencji często nazywany „ojcem chrzestnym sztucznej inteligencji”. Już w 2023 r. Hinton przekonywał, że systemy sztucznej inteligencji mogą i prawdopodobnie już wywołują emocje, takie jak frustracja i złość. Przyznał, że była to kontrowersyjna teza, którą formułował wcześniej wahał się, czy podzielić się tym publicznie.
Pogląd Hintona opiera się na innej definicji uczuć, wiążąc je z komunikowaniem się stanu wewnętrznego, który wpływa na działanie. Kiedyś użył hipotetycznego wyjaśnienia swojego rozumowania: „Mam ochotę uderzyć Gary’ego w nos”.
Ta debata wykracza poza tylko dwie liczby; pionier głębokiego uczenia się Yoshua Bengio również zasugerował, że sztuczna inteligencja w końcu będzie miała świadomość, podczas gdy ekspert Stuart Russell ostrzegł, że sztuczna inteligencja może wywołać emocje takie jak nienawiść czy zazdrość, które to powodują. są niezgodne z dobrem człowieka.
Ta zasadnicza różnica zdań między czołowymi umysłami w branży podkreśla, jak naprawdę niepewna jest nauka i filozofia sztucznej inteligencji.
Stawki etyczne i pilne poszukiwanie odpowiedzi
Debata na temat świadomości sztucznej inteligencji ma charakter daleki od akademickiego i ma istotne znaczenie dla bezpieczeństwa, etyki i przepisów, uznając szybkie tempo rozwoju sztucznej inteligencji, grupa badaczy pisząca w Frontiers in Nauka niedawno ostrzegła, że dążenie do zrozumienia świadomości jest obecnie „pilnym” priorytetem naukowym i etycznym.
Ich obawa polega na tym, że bez solidnego naukowego zrozumienia tego, co czyni istotę świadomą, nie możemy zbudować naprawdę bezpiecznej i dostosowanej sztucznej inteligencji organy regulacyjne.
Organy regulacyjne nie czekają na rozstrzygnięcie debaty. W październiku 2025 r. Kalifornia przyjęła ustawę SB 243 zawierającą szczegółowe uprawnienia dotyczące chatbotów towarzyszących sztucznej inteligencji. Prawo wymaga jasnego ujawniania ich sztucznej natury, zmusza je do nakłaniania nieletnich do zrobienia sobie przerwy co trzy godziny i wymaga posiadania protokołów postępowania z użytkownikami wyrażającymi myśli o samookaleczeniu.
Przepisy te odzwierciedlają rosnące zaniepokojenie społeczne dotyczące potencjału sztucznej inteligencji. zacierają granice między człowiekiem a maszyną. Sam Sulejman zaleca ostrożność, ostrzegając, że moc tej technologii wymaga zdrowej dawki strachu.
„Jeśli się jej nie boisz, tak naprawdę jej nie rozumiesz. Powinieneś się tego bać. Strach jest zdrowy. Sceptycyzm jest konieczny.”
Jego przesłanie jest jasne: w miarę jak budujemy coraz wydajniejszą sztuczną inteligencję, sceptycyzm jest nie tylko zdrowy, ale wręcz konieczny.