Șeful Microsoft AI, Mustafa Suleyman, a afirmat ferm că inteligența artificială nu este conștientă și nu poate fi niciodată.

Vorbind într-un interviu din 2 noiembrie la Conferința AfroTech din Houston, Suleyman a susținut că AI simulează doar experiențe precum durerea sau tristețea, fără să le simtă cu adevărat. modelează strategia Microsoft de a construi AI ca un instrument util, nu o persoană sintetică. Această poziție contrastează cu alți experți care cred că inteligența artificială poate dezvolta emoții și vine în momentul în care oamenii de știință solicită urgent o mai bună înțelegere a conștiinței însăși.

a explicat că, deși un model poate descrie durerea, îi lipsește hardware-ul biologic pentru a o experimenta cu adevărat.

„Experiența noastră fizică a durerii este ceva care ne face foarte triști și ne simțim groaznic, dar AI nu se simte trist atunci când experimentează „durere”.

Conform lui Suleyman, procesul nu este doar „crearea unei percepții autentice”. percepția, narațiunea aparentă a experienței și a ei însăși și a conștiinței, dar nu asta se confruntă de fapt.”

Acest punct de vedere se aliniază cu teoria filozofică a naturalismului biologic, cel mai faimos propusă de filozoful John Searle. Teoria presupune că conștiința nu este un simplu program biologic care poate rula în mod specific pe orice hardware; care reiese din procesele neurobiologice complexe ale unui creier viu.

Un sistem artificial, prin urmare, nu ar putea deveni conștient pur și simplu prin simularea funcțiilor creierului, ar trebui să reproducă puterile cauzale reale ale creierului.

Pentru Suleyman, această distincție are consecințe etice profunde, o preocupare cheie în cadrul oamenilor de astăzi nu vreau să le rănești, pentru că suferă… Aceste modele nu au asta. Este doar o simulare.”

De la filozofie la produs: IA „centrată pe om” de la Microsoft

Tragând o linie clară în nisip, strategia de produs a Microsoft reflectă din ce în ce mai mult poziția filozofică a liderului său cu privire la limitările AI.

Compania care creează în mod deliberat AI, lucrează în mod deliberat în „care creează AI în serviciul uman”. Misiunea Suleyman a subliniat despre crearea de inteligență artificială care „crește potențialul uman”. Acest principiu se manifestă în decizii concrete despre produse care diferențiază Microsoft de unii dintre rivalii săi.

De exemplu, Suleyman a confirmat că Microsoft nu va construi chatbot pentru erotică, o piață pe care concurenți precum OpenAI și xAI o explorează href=”https://www.microsoft.com/en-us/microsoft-copilot/blog/2025/10/23/human-centered-ai”target=”_blank”> „Real Talk”, care este conceput pentru a contesta perspectiva unui utilizator, mai degrabă decât să fie adulator.

Suleyman a remarcat chiar că „funcția finală a contradicțiilor” l-a numit „războiul final” pentru a-l contrazice. pericole, în același timp, demonstrându-și capacitatea de interacțiune critică, nemăgulitoare.

Angajamentul Microsoft față de această viziune este subliniat de investiția semnificativă pe care a făcut-o pentru a-l aduce pe Suleyman la bord, compania a plătit startup-ul său, Inflection AI, 650 de milioane de dolari într-un acord de licențiere și achiziție în 2024, în 2024

A Conștiința comunității. Dezbatere

În timp ce Suleyman prezintă un caz biologic ferm împotriva conștiinței inteligenței artificiale, alți pionieri în domeniu susțin că sentimentul este o proprietate emergentă a inteligenței în sine.

Poziția sa creează o ruptură clară cu figuri precum Geoffrey Hinton, cercetătorul de pionier în inteligență artificială numit adesea „nașul sistemelor AI și probabil că ar putea argumenta deja în 203 AI”. au deja emoții precum frustrarea și furia. El a recunoscut că aceasta a fost o teză controversată pe care a ezitat anterior să o împărtășească în mod public.

Viziunea lui Hinton se bazează pe o altă definiție a sentimentelor, relaționându-le cu comunicarea unei stări interne care influențează acțiunea. cifre; pionierul învățării profunde, Yoshua Bengio, a sugerat, de asemenea, că inteligența artificială va avea în cele din urmă conștiință, în timp ce expertul Stuart Russell a avertizat că inteligența artificială ar putea dezvolta emoții precum ura sau invidia care sunt incompatibile cu bunăstarea umană.

Acest dezacord fundamental între mințile principale ale industriei evidențiază cât de neliniștită sunt știința și AI

><3. Mize etice și căutarea urgentă a răspunsurilor

Dezbaterea asupra conștiinței AI este departe de a fi academică, având o greutate semnificativă pentru siguranță, etică și reglementare Recunoscând ritmul rapid al dezvoltării AI, un grup de cercetători care scrie în Frontiers in Science a avertizat recent că încercarea de a înțelege conștiința este acum o prioritate științifică și etică „urgentă”. Sisteme de inteligență artificială cu adevărat sigure și aliniate.

Regulatorii nu așteaptă ca dezbaterea să fie soluționată în octombrie 2025, California a adoptat SB 243, o lege cu mandate specifice pentru chatbot-i însoțitori de inteligență artificială. Legea cere dezvăluirea clară a naturii lor artificiale, îi obligă pe minori să ia o pauză la fiecare trei ore și să-și gestioneze propriile idei.

Această legislație reflectă o preocupare crescândă a societății cu privire la potențialul ca AI să estompeze liniile dintre om și mașină însuși Suleyman pledează pentru prudență, avertizând că puterea tehnologiei necesită o doză sănătoasă de frică.

„Dacă nu ți-e frică de ea, nu o înțelegi cu adevărat. Ar trebui să-ți fie frică de asta. Frica este sănătoasă. Scepticismul este necesar.”

Mesajul său este clar: pe măsură ce construim IA din ce în ce mai capabilă, scepticismul nu este doar sănătos, ci și necesar.

Categories: IT Info