OpenAI công bố nghiên cứu mới giải thích nguyên nhân ảo giác AI, khẳng định không có mô hình nào đạt chính xác 100% nhưng đã tìm ra hướng khắc phục.
OpenAI vừa công bố nghiên cứu đột phá giải thích gốc rễ hiện tượng ảo giác trong các mô hình ngôn ngữ lớn. Theo chuyên gia, ảo giác xuất hiện khi AI tạo ra thông tin sai nhưng trình bày như sự thật.
Nguyên nhân chính là cách huấn luyện hiện tại khuyến khích đoán hơn là thừa nhận sự không chắc chắn. Các nhà nghiên cứu so sánh AI với học sinh làm bài thi, đoán để có điểm thay vì để trống.
Điều này khiến các mô hình luôn ở trạng thái “làm bài kiểm tra” thay vì phản ánh thực tế đa chiều. OpenAI đề xuất thiết kế lại hệ thống đánh giá để không phạt việc thừa nhận “không biết”. Dù vậy, công ty nhấn mạnh không mô hình nào có thể chính xác tuyệt đối trong thế giới thực.
Nghiên cứu này mở ra hướng mới nhằm giảm thiểu ảo giác và nâng cao độ tin cậy của AI trong tương lai. Mời quý độc giả xem thêm video: Dọn rác AI | Hà Nội 18h00
Trong bối cảnh Toyota Hilux 2026 tại Việt Nam đang thu hút nhiều sự chú ý, câu hỏi lớn tiếp theo của thị trường là bao giờ Toyota Fortuner 2027 mới “lột xác”?
Hyundai được cho là đang thay đổi chiến lược đối với mẫu SUV đô thị Kona khi quyết định bỏ qua bản nâng cấp SX2 để chuyển thẳng sang thế hệ SX3 hoàn toàn mới.
Chủ tịchTriều Tiên Kim Jong-un đã có mặt tại lễ công bố chính thức hệ thống pháo phản lực phóng loạt cỡ lớn có thể mang đầu đạn hạt nhân do nước này phát triển.