Giám đốc AI của Microsoft, Mustafa Suleyman, đã tuyên bố chắc chắn rằng trí tuệ nhân tạo không có ý thức và không bao giờ có thể như vậy.
Phát biểu trong cuộc phỏng vấn ngày 2 tháng 11 tại Hội nghị AfroTech ở Houston, Suleyman lập luận rằng AI chỉ mô phỏng những trải nghiệm như đau đớn hoặc buồn bã mà không thực sự cảm nhận được chúng.
Ông tin rằng chỉ những sinh vật sinh học mới sở hữu ý thức thực sự, một quan điểm định hình chiến lược của Microsoft nhằm xây dựng AI như một công cụ hữu ích chứ không phải một con người tổng hợp. Quan điểm này trái ngược với các chuyên gia khác tin rằng AI có thể phát triển cảm xúc và xuất hiện khi các nhà khoa học khẩn trương kêu gọi hiểu rõ hơn về chính ý thức.
Mô phỏng cảm giác, không phải sinh vật có ý thức
Trong một thách thức trực tiếp đối với câu chuyện về máy có tri giác, giám đốc AI của Microsoft đã tuyên bố cuộc tranh luận đã kết thúc trước khi nó thực sự bắt đầu.
Lập luận trọng tâm của Suleyman là các mô hình AI là những mô hình bắt chước phức tạp, không phải các thực thể có tri giác. Anh ấy đã giải thích rằng mặc dù mô hình có thể mô tả nỗi đau nhưng nó thiếu phần cứng sinh học để thực sự trải nghiệm nó.
“Trải nghiệm đau đớn về thể chất của chúng ta là điều khiến chúng ta rất buồn và cảm thấy khủng khiếp, nhưng AI không cảm thấy buồn khi nó trải qua’nỗi đau'”.
Theo Suleyman, quá trình này là một quá trình quản lý nhận thức chứ không phải trải nghiệm thực sự.
Quan điểm này phù hợp với lý thuyết triết học về chủ nghĩa tự nhiên sinh học, được đề xuất nổi tiếng nhất bởi nhà triết học John Searle. Lý thuyết này thừa nhận rằng ý thức không chỉ đơn thuần là một chương trình phần mềm có thể chạy trên bất kỳ phần cứng nào; nó là một hiện tượng sinh học cụ thể xuất hiện từ các quá trình sinh học thần kinh phức tạp của một bộ não sống.
Do đó, một hệ thống nhân tạo không thể trở nên có ý thức chỉ bằng cách mô phỏng các chức năng của não; nó cần phải tái tạo các năng lực nhân quả thực sự của não.
Đối với Suleyman, sự khác biệt này có những hậu quả đạo đức sâu sắc, một mối quan tâm chính trong lĩnh vực đạo đức AI rộng lớn hơn: “Lý do chúng tôi trao quyền cho mọi người ngày nay là vì chúng tôi không muốn làm hại họ, vì họ phải chịu đựng… Những mô hình này không có điều đó. Đó chỉ là mô phỏng.”
Từ triết lý đến sản phẩm: AI’Lấy con người làm trung tâm’của Microsoft
Vạch ra một ranh giới rõ ràng, chiến lược sản phẩm của Microsoft ngày càng phản ánh quan điểm triết học của người đi đầu về những hạn chế của AI.
Công ty đang cố tình tạo ra AI”luôn hoạt động phục vụ con người”, một sứ mệnh mà Suleyman đã vạch ra về việc tạo ra AI có thể”nâng cao tiềm năng của con người”. Nguyên tắc này thể hiện ở những quyết định sản phẩm cụ thể giúp Microsoft khác biệt với một số đối thủ.
Ví dụ: Suleyman xác nhận Microsoft sẽ không xây dựng chatbot cho nội dung khiêu dâm, một thị trường mà các đối thủ như OpenAI và xAI đang khám phá. Hơn nữa, Microsoft gần đây đã ra mắt một tính năng dành cho Microsoft Copilot có tên “Real Talk”. được thiết kế để thách thức quan điểm của người dùng thay vì theo kiểu nịnh bợ.
Suleyman thậm chí còn lưu ý rằng tính năng này đã gọi ông là”gói mâu thuẫn cuối cùng”để cảnh báo về sự nguy hiểm của AI đồng thời xây dựng nó, thể hiện khả năng tương tác quan trọng, không tâng bốc.
Cam kết của Microsoft đối với tầm nhìn này được nhấn mạnh bằng khoản đầu tư đáng kể mà công ty đã thực hiện để đưa Suleyman tham gia; mua lại vào năm 2024.
Sự rạn nứt trong cộng đồng AI: Cuộc tranh luận về ý thức
Trong khi Suleyman đưa ra một trường hợp sinh học vững chắc chống lại ý thức AI, những người tiên phong khác trong lĩnh vực này cho rằng cảm giác là một đặc tính nổi bật của bản thân trí thông minh.
Lập trường của ông tạo ra sự rạn nứt rõ ràng với những nhân vật như Geoffrey Hinton, nhà nghiên cứu AI tiên phong thường được gọi là “cha đỡ đầu của AI.” vào năm 2023 rằng các hệ thống AI có thể và có lẽ đã có những cảm xúc như thất vọng và tức giận. Ông thừa nhận rằng đây là một luận điểm gây tranh cãi mà trước đây ông đã ngần ngại chia sẻ công khai.
Quan điểm của Hinton dựa trên một định nghĩa khác về cảm xúc, liên hệ chúng với sự giao tiếp của một trạng thái bên trong ảnh hưởng đến hành động. Ông từng sử dụng một giả thuyết để giải thích lý do của mình: “Tôi cảm thấy muốn đấm vào mũi Gary”.
Cuộc tranh luận này không chỉ dừng lại ở hai con số; cũng đề xuất AI cuối cùng sẽ có ý thức, trong khi chuyên gia Stuart Russell đã cảnh báo rằng AI có thể phát triển những cảm xúc như hận thù hoặc đố kỵ không phù hợp với phúc lợi của con người.
Sự bất đồng cơ bản này giữa những bộ óc hàng đầu trong ngành cho thấy khoa học và triết lý của AI thực sự bất ổn như thế nào.
Các cổ phần đạo đức và Truy tìm câu trả lời khẩn cấp
Cuộc tranh luận về ý thức AI không mang tính học thuật, mang trọng lượng đáng kể đối với sự an toàn, đạo đức và quy định. Nhận thấy tốc độ phát triển nhanh chóng của AI, một nhóm nhà nghiên cứu viết trên Frontiers in Science gần đây đã cảnh báo rằng việc tìm hiểu ý thức hiện là một ưu tiên khoa học và đạo đức”khẩn cấp”.
Mối quan tâm của họ là nếu không có kiến thức khoa học vững chắc về những gì tạo nên một sinh vật có ý thức, chúng ta không thể xây dựng các hệ thống AI thực sự an toàn và phù hợp.
Các cơ quan quản lý không chờ đợi cuộc tranh luận được giải quyết. Vào tháng 10 năm 2025, California đã ban hành SB 243, một đạo luật quy định các nhiệm vụ cụ thể đối với các chatbot đồng hành với AI. Luật này yêu cầu tiết lộ rõ ràng về bản chất nhân tạo của chúng, buộc họ phải nhắc nhở trẻ vị thành niên nghỉ ngơi ba giờ một lần và yêu cầu họ có các giao thức để xử lý những người dùng thể hiện ý tưởng tự làm hại bản thân.
Luật này phản ánh mối lo ngại ngày càng tăng của xã hội về khả năng AI sẽ làm mờ ranh giới giữa chúng. Bản thân con người và máy móc Suleyman ủng hộ sự thận trọng, cảnh báo rằng sức mạnh của công nghệ đòi hỏi một nỗi sợ hãi lành mạnh.
“Nếu bạn không sợ nó, bạn không thực sự hiểu nó. Bạn nên sợ nó. Sự sợ hãi là lành mạnh. Chủ nghĩa hoài nghi là cần thiết.”
Thông điệp của ông rất rõ ràng: khi chúng ta xây dựng AI ngày càng có năng lực, chủ nghĩa hoài nghi không chỉ lành mạnh mà còn cần thiết.