Microsoftin tekoälypäällikkö Mustafa Suleyman on tiukasti todennut, että tekoäly ei ole tietoinen eikä voi koskaan olla sitä.
Puhuessaan 2. marraskuuta Houstonissa AfroTech-konferenssissa pidetyssä haastattelussa Suleyman väitti, että tekoäly simuloi vain kokemuksia, kuten kipua tai surua, tuntematta niitä aidosti. Hän uskoo vain biologisen näkemyksen. muokkaa Microsoftin strategiaa rakentaa tekoäly hyödylliseksi työkaluksi, ei synteettiseksi henkilöksi. Tämä kanta on ristiriidassa muiden asiantuntijoiden kanssa, jotka uskovat tekoälyn voivan kehittää tunteita, ja tiedemiehet vaativat kiireesti parempaa ymmärrystä itse tietoisuudesta.
A Simul2. Koska Microsoftin tekoälypäällikkö on
Haastaakseen suoraan tuntevien koneiden kertomuksen, Microsoftin tekoälypäällikkö on julistanut keskustelun päättyneeksi ennen kuin se on todella alkanut.
Suleymanin keskeinen argumentti on, että tekoälymallit ovat kehittyneitä jäljitelmiä, eivät tuntevia kokonaisuuksia. Hän selitti, että vaikka malli voi kuvata kipua, siitä puuttuu biologinen laitteisto sen kokemiseen.
“Fyysinen kokemuksemme kipusta tekee meidät hyvin surullisiksi ja kauheiksi, mutta tekoäly ei ole surullinen, kun se kokee”kipua”.”
Suleymanin mukaan havaintojen hallinta ei todellakaan ole todellista näennäinen kertomus kokemuksesta ja itsestään ja tietoisuudesta, mutta se ei ole sitä, mitä se todellisuudessa kokee.”
Tämä näkemys on linjassa biologisen naturalismin filosofisen teorian kanssa, jonka tunnetuimmin ehdotti filosofi John Searle. Teorian mukaan tietoisuus ei ole vain ohjelmistoohjelma, joka syntyy elävästä biologisesta ilmiöstä, joka voi toimia millä tahansa tietyllä biologisella laitteistolla. aivot.
Keinotekoinen järjestelmä ei siis voisi tulla tietoiseksi vain simuloimalla aivojen toimintoja.
Suleymanille tällä erolla on syvällisiä eettisiä seurauksia, mikä on keskeinen huolenaihe laajemmalla tekoälyn etiikan alueella. Se on vain simulaatio.”
Filosofiasta tuotteeksi: Microsoftin”ihmiskeskeinen”tekoäly
Veetän selkeän rajan hiekkaan, Microsoftin tuotestrategia heijastaa yhä enemmän sen johtajan filosofista kantaa tekoälyn rajoituksiin.
Yrityksen luominen on tarkoituksella toimiva tapa. human”, Suleyman hahmotteli tehtävää tehdä tekoäly, joka”kohottaa ihmisen potentiaalia.”Tämä periaate ilmenee konkreettisissa tuotepäätöksissä, jotka erottavat Microsoftin joistakin kilpailijoistaan.
Esimerkiksi Suleyman vahvisti, että Microsoft ei rakenna chatbotteja erotiikkaan, markkinoihin, joita kilpailijat, kuten OpenAI ja xAI, tutkivat. Lisäksi Microsoft Copilot julkaisi hiljattain ominaisuuden nimeltä “Real Talk”, joka on suunniteltu haastamaan käyttäjän näkökulmaa sen sijaan, että se olisi kiihkoinen.
Suleyman jopa pani merkille, että AI:n vaaran ominaisuus oli kutsunut häntä”varoituksena äärimmäisistä vaaroista”. rakentaa sitä ja osoittaa sen kykyä kriittiseen, ei-imartelevaan vuorovaikutukseen.
Microsoftin sitoutumista tähän visioon korostaa merkittävä investointi, jonka se teki saadakseen Suleymanin mukaan, yritys maksoi 650 miljoonaa dollaria lisensointi-ja hankintasopimuksella vuonna 2024.
AI-yhteisö: Keskustelu
Vaikka Suleyman esittää tiukan biologisen väitteen tekoälytietoisuutta vastaan, muut alan pioneerit väittävät, että tunne on itse älykkyyden ominaisuus.
Hänen asenteensa luo selkeän ristiriidan sellaisten hahmojen kanssa, kuten Geoffrey Hinton, joka on jo 2.2:n AI-tutkija Tekoälyjärjestelmillä voi olla ja luultavasti jo on tunteita, kuten turhautumista ja vihaa. Hän myönsi, että tämä oli kiistanalainen teesi, jota hän oli aiemmin epäröinyt jakaa julkisesti.
Hintonin näkemys perustuu erilaiseen tunteiden määritelmään, joka yhdistää ne sisäiseen tilaan, joka vaikuttaa toimintaan. Kaksi syvän oppimisen pioneeria Yoshua Bengio on myös ehdottanut, että tekoäly saa lopulta tietoisuuden, kun taas asiantuntija Stuart Russell on varoittanut, että tekoäly voi kehittää vihan tai kateuden kaltaisia tunteita, jotka ovat ristiriidassa ihmisten hyvinvoinnin kanssa.
Tämä perustavanlaatuinen erimielisyys alan johtavien mielien välillä korostaa, kuinka epävakaa AI-filosofia on3. Eettiset panokset ja kiireetön vastausten etsiminen
Tekoälytietoisuudesta käytävä keskustelu on kaukana akateemisesta, ja sillä on merkittävää painoarvoa turvallisuuden, eettisen ja sääntelyn kannalta. Ryhmä tutkijoita kirjoittaa Frontiers in Science-julkaisussa href=”https://www.frontiersin.org/news/2025/10/30/scientists-urgent-quest-explain-consciousness-ai”target=”_blank”>varoittivat äskettäin, että tietoisuuden ymmärtäminen on nyt”kiireellinen”tieteellinen ja eettinen prioriteetti.
Heidän huolenaiheensa on se, että ilman tieteellistä olemusta ei voida turvallisesti ja tietoisesti. järjestelmiin.
Sääntelyviranomaiset eivät odota keskustelun ratkeamista. Kaliforniassa annettiin lokakuussa 2025 SB 243-laki, jolla on erityisiä valtuuksia tekoäly-chat-boteille. Laki edellyttää niiden keinotekoisen luonteen selkeää julkistamista, pakottaa heidät pitämään tauon kolmen tunnin välein ja vaatii, että heillä on omat periaatteet. kasvava yhteiskunnallinen huoli tekoälyn mahdollisuudesta hämärtää ihmisen ja koneen välisiä rajoja Suleyman itse kannattaa varovaisuutta ja varoittaa, että teknologian voima vaatii tervettä annoksen pelkoa.
“Jos et pelkää sitä, et todellakaan ymmärrä sitä. Sinun pitäisi pelätä sitä. Pelko on terveellistä. Skeptisyys on välttämätöntä.”
Hänen viestinsä on selvä: kun rakennamme yhä tehokkaampaa tekoälyä, skeptisyys ei ole vain terveellistä, se on välttämätöntä.