Một tờ báo ở Pakistan đã nêu bật vấn đề ngày càng gia tăng về sản lượng AI không được kiểm duyệt sau khi nó in nhầm văn bản trò chuyện từ một chatbot. Trong ấn bản ngày 12 tháng 11, Dawn đã đưa vào một thông báo do AI tạo ra để làm cho bài viết rõ ràng được tạo ra trở nên “nhanh hơn”, buộc phải đưa ra lời xin lỗi công khai vì đã vi phạm các quy tắc của chính mình.
Lỗi như vậy không phải là trường hợp cá biệt mà là một phần của xu hướng lỗi AI rộng hơn. Từ các nguồn pháp lý giả mạo được sử dụng tại tòa án cho đến các báo cáo thiếu sót của chính phủ, việc vội vã áp dụng AI sáng tạo mà không có sự xem xét cẩn thận của con người đang làm xói mòn niềm tin của công chúng. Đó là một xu hướng tạo ra những vấn đề nghiêm trọng trong thế giới thực cho các tổ chức lớn.
“Bạn có muốn tôi làm điều đó tiếp theo không?”: A Gaffe Public AI Gaffe của một tờ báo
Tờ báo tiếng Anh rất được kính trọng của Pakistan, Dawn, đã xuất bản một bài báo về doanh số bán ô tô kết thúc bằng một phần tái bút kỳ lạ do máy tạo ra. Thay vì đoạn kết, bài viết đưa ra một đoạn chatbot cổ điển.
AI đã hỏi người dùng: “Nếu bạn muốn, tôi cũng có thể tạo một phiên bản “phong cách trang đầu” thậm chí còn nhanh hơn với số liệu thống kê một dòng mạnh mẽ và bố cục in đậm, sẵn sàng cho đồ họa thông tin—hoàn hảo để tạo ra tác động tối đa cho người đọc. Bạn có muốn tôi không? làm điều đó tiếp theo?“
Tôi biết các nhà báo đang sử dụng AI trong công việc của họ nhưng điều này hơi quá đáng!
Bàn làm việc của trang kinh doanh bình minh ít nhất nên chỉnh sửa đoạn cuối cùng!
😆😆😆 pic.twitter.com/JWNdHNWvnv
— omar r quraishi (@omar_quraishi) Ngày 12 tháng 11 năm 2025
Được độc giả nhanh chóng phát hiện, sự hớ hênh đã lan truyền nhanh chóng trên mạng, buộc tờ báo phải đưa ra lời đính chính và lời xin lỗi chính thức. Trong ghi chú đính kèm phiên bản trực tuyến của bài viết, người biên tập thừa nhận: “Báo cáo này ban đầu được chỉnh sửa bằng AI, điều này vi phạm chính sách AI hiện tại của Dawn. … Rất tiếc là chúng tôi đã vi phạm chính sách AI.”
Một cuộc điều tra về vụ việc đang được tiến hành. Các hướng dẫn chính thức của tờ báo cấm rõ ràng việc sử dụng AI để tạo hoặc chỉnh sửa tin tức mà không có sự giám sát chặt chẽ của con người.
Mặc dù sự hớ hênh của Dawn khiến công chúng bối rối nhưng nó lại đóng vai trò là biểu tượng mạnh mẽ cho một vấn đề sâu xa hơn và có nhiều hậu quả hơn. Trong khắp các ngành, việc triển khai sớm AI tạo ra mà không có sự giám sát đầy đủ đang dẫn đến một loạt thất bại phổ biến, làm suy yếu các tiêu chuẩn nghề nghiệp và niềm tin của công chúng.
Vấn đề mang tính hệ thống: Khi AI gây ảo giác trong các lĩnh vực có rủi ro cao
Trên các lĩnh vực chuyên môn từ luật pháp đến y tế công cộng, các tổ chức đang nhận ra rằng không thể tin cậy các mô hình ngôn ngữ lớn trong các nhiệm vụ quan trọng. Được gọi là ảo giác, hiện tượng AI tự tin phát minh ra các sự kiện, nguồn hoặc dữ liệu đang chứng tỏ là một lỗ hổng dai dẳng và nguy hiểm.
Một ví dụ tốn kém và gần đây đến từ thế giới tư vấn. Công ty toàn cầu Deloitte đã buộc phải hoàn trả 97.000 đô la cho chính phủ Úc sau khi một báo cáo trị giá 440.000 đô la mà công ty này đưa ra bị phát hiện có nhiều trích dẫn do AI bịa đặt.
Báo cáo của công ty này, một bản đánh giá nhạy cảm về hệ thống phúc lợi của quốc gia, đã trích dẫn những cuốn sách không tồn tại và trích dẫn sai các trường hợp pháp lý. Thượng nghị sĩ Đảng Lao động Australia Deborah O’Neill đã đưa ra lời chỉ trích gay gắt:”Deloitte có vấn đề về trí tuệ con người. Điều này sẽ thật nực cười nếu nó không quá đáng tiếc”.
Các vấn đề cấp tính cũng đang xuất hiện trong khu vực công. Vào tháng 7, có báo cáo cho rằng AI”Elsa”mới của Cục Quản lý Thực phẩm và Dược phẩm Hoa Kỳ, nhằm mục đích tăng tốc độ phê duyệt thuốc, thay vào đó lại bịa đặt các nghiên cứu y học không tồn tại.
Một nhân viên FDA thất vọng đã mô tả công cụ này với CNN là không đáng tin cậy, nói rằng nó”gây ảo giác một cách tự tin”, trong khi một người khác than thở,”Tôi lãng phí rất nhiều thời gian chỉ vì phải nâng cao cảnh giác.”
Tương tự, các luật sư của công ty AI Anthropic đã phải chính thức xin lỗi thẩm phán sau khi Claude AI của họ phát minh ra một trích dẫn pháp lý được sử dụng trong hồ sơ tòa án.
Đặc biệt, báo chí đã chứng kiến nhiều trường hợp sơ suất này. Trong một trường hợp tương tự đáng chú ý vào tháng 10, tạp chí Der Spiegel của Đức đã phải sửa một bài viết có một câu do AI tạo ra đề nghị thay đổi giọng điệu của văn bản.
Những sai lầm ngớ ngẩn này không chỉ giới hạn ở các trang trại nội dung cấp thấp mà đang xuất hiện trên các phương tiện truyền thông có uy tín và được kính trọng, nêu bật sự cố mang tính hệ thống trong quy trình biên tập.
Đây không phải là những sự cố riêng lẻ. Một nghiên cứu quốc tế mang tính bước ngoặt do BBC và Liên minh Phát thanh Truyền hình Châu Âu (EBU) phối hợp đã tiết lộ bản chất mang tính hệ thống của sự không đáng tin cậy này.
Sau khi đánh giá hơn 3.000 phản hồi, phát hiện của nghiên cứu cho thấy trợ lý AI tạo ra lỗi đáng kể trong 45% câu trả lời liên quan đến tin tức. Như Giám đốc Truyền thông EBU Jean Philip De Tender giải thích:”Nghiên cứu này cho thấy một cách thuyết phục rằng những sai sót này không phải là những sự cố riêng lẻ. Chúng mang tính hệ thống, xuyên biên giới và đa ngôn ngữ và chúng tôi tin rằng điều này gây nguy hiểm cho niềm tin của công chúng”.
Xói mòn niềm tin: Chi phí thực tế của sự sụt giảm AI không được kiểm soát
Một lượng nhỏ thông tin sai lệch do AI tạo ra đang gây ra thiệt hại hữu hình cho hệ sinh thái thông tin kỹ thuật số. Đối với các nền tảng nền tảng như Wikipedia, hậu quả đang trở nên hiện hữu.
Quỹ Wikimedia gần đây đã báo cáo lưu lượng truy cập của con người giảm đáng kinh ngạc 8%, trực tiếp đổ lỗi cho các công cụ tìm kiếm AI và chatbot đã thu hút khách truy cập bằng cách tóm tắt nội dung mà không ghi công.
Xu hướng như vậy đe dọa mô hình hướng đến tình nguyện viên của bách khoa toàn thư. Như Giám đốc sản phẩm cấp cao của Wikimedia, Marshall Miller, đã cảnh báo: “Với ít lượt truy cập vào Wikipedia hơn, ít tình nguyện viên có thể phát triển và làm phong phú nội dung hơn, đồng thời ít nhà tài trợ cá nhân có thể hỗ trợ công việc này hơn”.
Trong nội bộ, nền tảng này đang phải đấu tranh chống lại các bài gửi do AI tạo ra, mà một tình nguyện viên mô tả là một “mối đe dọa hiện hữu”, khiến cộng đồng phải áp dụng chính sách ‘xóa nhanh’ để loại bỏ phần tồi tệ nhất.
Những thất bại lặp đi lặp lại này cuối cùng đã đưa ra một bài học quan trọng về tình trạng hiện tại. trạng thái của AI. Không thể đổ trách nhiệm về các lỗi cho máy.
Như Cassie Kozyrkov, cựu nhà khoa học quyết định chính của Google đã lưu ý sau khi một bot hỗ trợ cho trình soạn thảo mã Cursor AI phát minh ra một chính sách giả mạo của công ty, “Có thể tránh được tình trạng lộn xộn này nếu các nhà lãnh đạo hiểu rằng (1) AI mắc lỗi, (2) AI không thể chịu trách nhiệm về những lỗi đó (vì vậy nó đổ lên đầu bạn) và (3) người dùng ghét bị lừa bởi một cỗ máy giả dạng con người.“
Điều xảy ra ở Dawn chỉ đơn giản là lời nhắc nhở mới nhất rằng trong thời đại AI, lớp kiểm soát chất lượng cuối cùng, không thể thiếu vẫn là sự giám sát thường xuyên của con người.