"ChatGPT từng bịa ra một bài nghiên cứu nghe cực kỳ hợp lý, tôi suýt nữa gửi luôn cho khách mà không kiểm tra lại," Đỗ Đức Tùng (32 tuổi), freelancer nội dung marketing tại TP.HCM, kể lại. Anh sử dụng AI gần như mỗi ngày để viết bài, mô tả sản phẩm, dựng nội dung SEO. "Nó nói sai nhưng rất tự tin, nên nhiều khi mình chủ quan. Nhìn trôi chảy quá là tin liền."
Tình huống đó không hề cá biệt. Nguyễn Hữu Phương (21 tuổi), sinh viên sư phạm tiếng Anh ở Hà Nội, cũng quen dùng ChatGPT để tra ngữ pháp, ôn bài. "Nó trả lời nhanh hơn Google, dễ hiểu hơn sách. Nhưng có lần mình đưa ví dụ cho cô, cô bảo sai, lúc đấy mới biết ChatGPT cũng có thể... bịa."
Trong lĩnh vực kỹ thuật, lỗi do AI cũng nguy hiểm hơn. Nguyễn Thành Dương (28 tuổi), kỹ sư phần mềm tại Đà Nẵng, kể lại lần dùng AI gợi ý một đoạn code xử lý dữ liệu. "Nó viết đúng cú pháp, đúng hàm, nhìn tưởng chuẩn, nhưng logic sai hoàn toàn. Nếu không test kỹ, mình đã đẩy lỗi lên hệ thống thật rồi."
Ba câu chuyện từ ba lĩnh vực khác nhau, nhưng đều có điểm chung: AI trả lời sai nhưng rất thuyết phục, đến mức khiến người dùng tưởng thật. Khi trí tuệ nhân tạo ngày càng được ứng dụng rộng rãi - từ viết bài, làm slide, tra cứu, lập trình cho tới hỗ trợ y tế - thì hiện tượng "AI bịa chuyện như thật" đang trở thành vấn đề đáng lo. Giới chuyên gia gọi đó là AI hallucination, hay ảo giác của trí tuệ nhân tạo.

AI ngày càng thông minh - và cũng ngày càng bịa chuyện khéo léo hơn. Nếu bạn từng tin ngay những gì nó nói, có thể bạn cũng đã rơi vào “ảo giác AI” mà không nhận ra. (Ảnh minh họa)
AI tạo ra thông tin sai nhưng nghe như thật
Với các mô hình ngôn ngữ lớn (LLM), ảo giác thường là những thông tin có vẻ thuyết phục nhưng thực chất không chính xác, bị bịa ra hoặc không liên quan. Ví dụ, một chatbot có thể tạo ra một tài liệu tham khảo khoa học nghe rất đúng đắn - nhưng thực tế không hề tồn tại.
Một ví dụ điển hình xảy ra vào năm 2023, khi một luật sư ở New York nộp bản luận điểm pháp lý do ChatGPT hỗ trợ soạn thảo. Thẩm phán sau đó phát hiện bản luận điểm này trích dẫn một vụ án… không có thật. Nếu không được phát hiện, điều này có thể dẫn đến hậu quả nghiêm trọng trong các phiên tòa.
Với AI xử lý hình ảnh, ảo giác xảy ra khi hệ thống gán cho ảnh những mô tả không đúng. Chẳng hạn, đưa cho AI một bức ảnh chỉ có người phụ nữ đang nghe điện thoại, nhưng hệ thống lại mô tả "một người phụ nữ ngồi trên ghế băng và nói chuyện điện thoại." Những sai lệch tưởng như nhỏ này có thể gây hậu quả lớn nếu áp dụng vào các bối cảnh đòi hỏi độ chính xác cao.
AI được xây dựng dựa trên việc thu thập lượng dữ liệu khổng lồ và tìm ra các mẫu trong dữ liệu đó. Từ đó, nó học cách trả lời câu hỏi hoặc thực hiện tác vụ.
Ví dụ, nếu cung cấp cho AI 1.000 bức ảnh các giống chó khác nhau, nó sẽ học cách phân biệt chó poodle và golden retriever. Nhưng nếu đưa vào một bức ảnh bánh muffin việt quất - như các nhà nghiên cứu từng thử - AI có thể "nhận diện" đó là một chú chihuahua.
Nguyên nhân là vì khi hệ thống không thật sự hiểu câu hỏi hay thông tin được cung cấp, nó sẽ "đoán" dựa trên các mẫu tương tự trong dữ liệu huấn luyện. Nếu dữ liệu đó bị thiên lệch hoặc không đầy đủ, AI sẽ điền vào chỗ trống bằng suy luận sai lệch, dẫn đến hiện tượng ảo giác.
Cần phân biệt ảo giác AI với sáng tạo có chủ đích. Nếu AI được yêu cầu sáng tạo, chẳng hạn viết truyện hay tạo hình ảnh nghệ thuật, thì những sản phẩm mới lạ là điều mong muốn. Nhưng nếu AI được kỳ vọng cung cấp thông tin chính xác, mà lại "bịa ra" một điều gì đó nghe rất thật - thì đó là một vấn đề nghiêm trọng.

Hình ảnh khiến AI bị nhận diện lầm
Khi ảo giác không còn vô hại
Việc gọi một chiếc bánh muffin là chó chihuahua nghe có vẻ hài hước. Nhưng nếu một chiếc xe tự lái nhận diện sai người đi đường, hậu quả có thể là tai nạn chết người. Nếu một máy bay không người lái trong quân sự nhận nhầm mục tiêu, tính mạng dân thường có thể bị đe dọa.
Trong công nghệ nhận dạng giọng nói, ảo giác có thể khiến AI nghe ra những từ chưa từng được nói, đặc biệt trong môi trường có nhiều tạp âm. Ví dụ, tiếng xe tải chạy qua hay tiếng em bé khóc có thể khiến hệ thống tự "chèn thêm" từ vào bản ghi. Nếu áp dụng trong y tế, luật pháp hay dịch vụ xã hội, những lỗi này có thể gây ra hậu quả nghiêm trọng.
Dù các công ty phát triển AI đã cố gắng giảm thiểu hiện tượng ảo giác bằng cách cải thiện dữ liệu huấn luyện và áp dụng các quy tắc kiểm soát, nhưng vấn đề này vẫn còn tồn tại ở nhiều công cụ AI phổ biến.
Vì vậy, người dùng cần luôn cảnh giác khi sử dụng AI, nhất là trong những lĩnh vực yêu cầu sự chính xác tuyệt đối. Hãy kiểm tra lại thông tin do AI cung cấp, đối chiếu với nguồn tin đáng tin cậy, và đừng ngần ngại hỏi ý kiến chuyên gia nếu cần.