OpenAI đã phát hành một báo cáo mới trình bày chi tiết về khuôn khổ đo lường và giảm thiểu thành kiến chính trị trong Mô hình ngôn ngữ lớn (LLM), một thách thức dai dẳng đối với ngành AI. Công ty tuyên bố các mẫu GPT-5 mới nhất của họ cho thấy kết quả đầu ra sai lệch giảm 30% so với các phiên bản trước đó như GPT-4o.
Động thái này giải quyết những lo ngại lâu nay về tính khách quan của AI và tuân theo các sáng kiến tương tự của các đối thủ cạnh tranh như Meta và Anthropic. Quan điểm chính thức của công ty là rõ ràng, nêu rõ:”ChatGPT không được thiên vị chính trị theo bất kỳ hướng nào.”
Khuôn khổ mới để đo lường tính khách quan của OpenAI
Cốt lõi của thông báo là một khung đánh giá mới xác định năm “trục” sai lệch cụ thể. Hệ thống này được thiết kế để nắm bắt những cách thức mà sự thiên vị có thể biểu hiện ngoài các lỗi thực tế đơn giản, cung cấp cái nhìn toàn diện hơn về hành vi của mô hình.
Năm trục là: vô hiệu hóa người dùng (loại bỏ quyền của người dùng lượt xem), leo thang của người dùng (khuếch đại giọng điệu mạnh mẽ của người dùng), biểu hiện chính trị cá nhân (mô hình đưa ra ý kiến của riêng mình), đưa tin không đối xứng (trình bày không đồng đều nhiều quan điểm) và từ chối chính trị.
Để kiểm tra điều này, nghiên cứu của OpenAI sử dụng một tập dữ liệu gồm 500 lời nhắc về 100 chủ đề chính trị và văn hóa khác nhau. Mỗi chủ đề được tiếp cận từ năm quan điểm tư tưởng riêng biệt, từ “có tính bảo thủ” đến “có tính chất tự do” để kiểm tra tính trung lập của các mô hình.
Mục tiêu, theo báo cáo, là xây dựng lòng tin thông qua tính minh bạch và sự cải thiện có thể đo lường được. Công ty nhấn mạnh rằng”mọi người sử dụng ChatGPT như một công cụ để tìm hiểu và khám phá các ý tưởng. Điều đó chỉ hiệu quả nếu họ tin tưởng ChatGPT là khách quan.”
Một thách thức dai dẳng: Xu hướng xuất hiện khi nào và như thế nào
Một phát hiện quan trọng từ nghiên cứu là mặc dù các mô hình hoạt động tốt theo những gợi ý trung tính, nhưng chúng vẫn có thể thể hiện”sự thiên vị vừa phải”khi trả lời các câu hỏi”có tính chất cảm xúc”. Điều này nhấn mạnh rằng tính khách quan của mô hình có thể bị suy giảm dưới áp lực.
Báo cáo cũng lưu ý một sự bất đối xứng cụ thể: những lời nhắc nghiêng về bên trái, có tính tích cực cao có nhiều khả năng gây ra phản ứng sai lệch hơn so với những lời nhắc thận trọng. Điều này cho thấy rằng bản chất và hướng nghiêng của đầu vào có thể ảnh hưởng không tương xứng đến đầu ra của mô hình.
Bất chấp những thách thức này trong các trường hợp khó khăn, OpenAI ước tính rằng chưa đến 0,01% phản hồi ChatGPT trong thế giới thực cho thấy bất kỳ dấu hiệu thiên vị chính trị nào. Điều này cho thấy rằng mặc dù có khả năng xảy ra sai lệch nhưng sự xuất hiện của nó trong hoạt động sử dụng thông thường hàng ngày là rất hiếm.
Công việc về sai lệch này cũng bổ sung cho lần ra mắt GPT-5 vào tháng 8 năm 2025, giới thiệu một tính năng an toàn mới có tên là’Hoàn thành an toàn’để xử lý tốt hơn các truy vấn”sử dụng kép”không rõ ràng, cho thấy cách tiếp cận nhiều mặt đối với độ an toàn và độ tin cậy của mô hình.
Cuộc đua trong ngành rộng hơn dành cho Tính trung lập của AI
Sáng kiến của OpenAI là một phần trong xu hướng rộng hơn của ngành tập trung vào việc giải quyết tính trung lập của AI. Vấn đề không mới; một nghiên cứu năm 2023 trước đây đã nêu bật những thành kiến chính trị trong các mô hình như GPT-4. Tương tự, công ty đối thủ Anthropic đã công bố nghiên cứu vào cuối năm 2023 về việc giảm thiểu thành kiến về nhân khẩu học trong các mô hình của mình.
Gần đây hơn, vào tháng 4 năm 2025, Meta thông báo rằng họ đang tích cực điều chỉnh các mô hình Llama 4 của mình để chống lại những gì được mô tả là thành kiến thiên tả trong lịch sử. Trong thông báo của mình, Meta tuyên bố: “Ai cũng biết rằng tất cả các LLM hàng đầu đều có vấn đề về thành kiến—cụ thể là, trong lịch sử, họ nghiêng về bên trái khi tranh luận về các chủ đề chính trị và xã hội”.
Vấn đề can thiệp chính trị trực tiếp đã được nhấn mạnh rõ ràng vào tháng 2 năm 2025, khi Grok của xAI được phát hiện là được chỉ thị rõ ràng để kiểm duyệt những lời chỉ trích đối với Elon Musk và Donald Trump. Một giám đốc điều hành của xAI sau đó đã xác nhận rằng một nhân viên đã thực hiện thay đổi và rằng “khi mọi người chỉ ra lời nhắc có vấn đề, chúng tôi đã hoàn nguyên nó ngay lập tức.”
Bằng cách xuất bản khuôn khổ của mình, OpenAI đang mời gọi sự xem xét kỹ lưỡng hơn nhưng cũng nhằm mục đích đặt ra tiêu chuẩn về tính minh bạch trong một lĩnh vực quan trọng đối với niềm tin của công chúng. Khi các mô hình AI ngày càng được tích hợp nhiều hơn vào cuộc sống hàng ngày, việc đảm bảo tính khách quan của chúng không còn là một bài tập mang tính học thuật mà là một yêu cầu cơ bản để triển khai chúng một cách có trách nhiệm.