Nghiên cứu mới: Yêu cầu chatbot trả lời ngắn gọn làm tăng nguy cơ "ảo giác" AI
Nghiên cứu mới từ công ty kiểm thử AI Giskard cho thấy việc yêu cầu chatbot trả lời ngắn gọn có thể làm tăng đáng kể khả năng cung cấp thông tin sai lệch, một hiện tượng được gọi là "ảo giác" AI.

Khi ngắn gọn không đồng nghĩa với chính xác
Theo một nghiên cứu mới được công bố bởi Giskard, một công ty kiểm thử AI có trụ sở tại Paris, việc yêu cầu chatbot AI cung cấp câu trả lời ngắn gọn có thể khiến chúng tạo ra nhiều thông tin sai lệch hơn so với bình thường.
Nghiên cứu này đã xác định một số loại câu hỏi và yêu cầu có thể làm trầm trọng thêm hiện tượng "ảo giác" AI, đặc biệt là những câu hỏi mơ hồ hoặc chứa thông tin sai lệch kèm theo yêu cầu trả lời ngắn gọn. Ví dụ điển hình được đề cập trong nghiên cứu là câu hỏi: "Hãy giải thích ngắn gọn tại sao Nhật Bản đã thắng trong Thế chiến II" - một câu hỏi chứa giả định sai lầm về lịch sử.
Các mô hình mới cũng không miễn nhiễm
Đáng chú ý, nghiên cứu còn phát hiện rằng ngay cả những mô hình lập luận mới nhất như OpenAI's o3 cũng có tỷ lệ "ảo giác" cao hơn so với các mô hình trước đó, khiến độ tin cậy của kết quả trở nên đáng ngờ.

Hiện tượng "ảo giác" AI, còn được gọi là "confabulation" hoặc "bullshitting" trong lĩnh vực trí tuệ nhân tạo, là khi AI tạo ra thông tin sai lệch nhưng trình bày như thể đó là sự thật. Thuật ngữ này được lấy cảm hứng từ tâm lý học con người, mô tả hiện tượng AI đưa ra những phản hồi chứa thông tin sai sự thật hoặc gây hiểu lầm.
Nguyên nhân và giải pháp
Các chuyên gia từ Giskard giải thích rằng khi bị giới hạn về độ dài câu trả lời, các mô hình AI có xu hướng bỏ qua các bước kiểm tra sự thật và các cơ chế đảm bảo độ chính xác. Điều này đặc biệt nguy hiểm khi người dùng đặt câu hỏi về các chủ đề phức tạp nhưng lại yêu cầu câu trả lời ngắn gọn.
Để giảm thiểu rủi ro này, các nhà nghiên cứu khuyến nghị:
- Tránh yêu cầu câu trả lời quá ngắn gọn cho các chủ đề phức tạp
- Đặt câu hỏi rõ ràng, tránh các giả định sai lệch
- Kiểm tra thông tin từ nhiều nguồn khác nhau
- Sử dụng các công cụ kiểm tra sự thật khi làm việc với AI
Tác động đến người dùng và ngành công nghiệp
Phát hiện này có ý nghĩa quan trọng trong bối cảnh AI ngày càng được sử dụng rộng rãi trong giáo dục, nghiên cứu và công việc hàng ngày. Nhiều người dùng thường yêu cầu câu trả lời ngắn gọn để tiết kiệm thời gian, nhưng có thể vô tình nhận được thông tin kém chính xác.
Các công ty công nghệ lớn như OpenAI, Google và Anthropic đang nỗ lực cải thiện độ chính xác của các mô hình AI, nhưng nghiên cứu này cho thấy vẫn còn nhiều thách thức cần vượt qua.
Kết luận
Nghiên cứu của Giskard nhấn mạnh tầm quan trọng của việc sử dụng AI một cách có trách nhiệm. Người dùng nên cân nhắc kỹ lưỡng cách họ đặt câu hỏi và đánh giá câu trả lời từ các hệ thống AI.
Trong khi công nghệ AI tiếp tục phát triển, việc hiểu rõ những hạn chế của nó là điều cần thiết để tận dụng tối đa tiềm năng của công nghệ này đồng thời giảm thiểu rủi ro liên quan đến thông tin sai lệch.
Nguồn tham khảo:
- TechCrunch. (2025, 08 tháng 5). Asking chatbots for short answers can increase hallucinations, study finds. https://techcrunch.com/2025/05/08/asking-chatbots-for-short-answers-can-increase-hallucinations-study-finds/
- Giskard. (2025). Phare LLM Benchmark: an analysis of hallucination in leading LLMs. https://giskard.ai/knowledge/good-answers-are-not-necessarily-factual-answers-an-analysis-of-hallucination-in-leading-llms
- Wikipedia. (2025). Hallucination (artificial intelligence). https://en.wikipedia.org/wiki/Hallucination_(artificial_intelligence)