OpenAI công bố nghiên cứu mới giải thích nguyên nhân ảo giác AI, khẳng định không có mô hình nào đạt chính xác 100% nhưng đã tìm ra hướng khắc phục.
OpenAI vừa công bố nghiên cứu đột phá giải thích gốc rễ hiện tượng ảo giác trong các mô hình ngôn ngữ lớn.Theo chuyên gia, ảo giác xuất hiện khi AI tạo ra thông tin sai nhưng trình bày như sự thật.
Nguyên nhân chính là cách huấn luyện hiện tại khuyến khích đoán hơn là thừa nhận sự không chắc chắn.Các nhà nghiên cứu so sánh AI với học sinh làm bài thi, đoán để có điểm thay vì để trống.
Điều này khiến các mô hình luôn ở trạng thái “làm bài kiểm tra” thay vì phản ánh thực tế đa chiều.OpenAI đề xuất thiết kế lại hệ thống đánh giá để không phạt việc thừa nhận “không biết”.Dù vậy, công ty nhấn mạnh không mô hình nào có thể chính xác tuyệt đối trong thế giới thực.
Nghiên cứu này mở ra hướng mới nhằm giảm thiểu ảo giác và nâng cao độ tin cậy của AI trong tương lai.Mời quý độc giả xem thêm video: Dọn rác AI | Hà Nội 18h00
Nhiều năm công tác trong lĩnh vực khoa học Trái đất và quản lý ngành khí tượng thủy văn, GS.TS Trần Hồng Thái để lại nhiều dấu ấn trong phát triển ngành.
Tổng thống Trump liên tục điều chỉnh chiến lược và mục tiêu trong cuộc xung đột Iran, nhận lại chỉ trích và gây lo ngại về tính rõ ràng và chiến lược lâu dài.
Nissan X-Trail 2026 vừa ra mắt tại thị trường châu Âu, xe được tập trung cải tiến thiết kế, nội thất và công nghệ, trong khi hệ truyền động vẫn được giữ nguyên.
Kia Telluride Hybrid 2027 dự kiến đến tay khách hàng Mỹ ngay trong tháng này, đánh dấu lần đầu tiên mẫu SUV cỡ lớn của Kia được trang bị hệ truyền động hybrid.