Ngày 29/1, Garante - Cơ quan bảo vệ dữ liệu của Italy, thông báo với OpenAI rằng ứng dụng Trí tuệ Nhân tạo ChatGPT của công ty này đã vi phạm các quy tắc bảo vệ dữ liệu.
Thông báo này được đưa ra khi Garante thúc đẩy một cuộc điều tra bắt đầu vào năm ngoái.
Garante là một trong những cơ quan chủ động nhất của Liên minh châu Âu (EU) trong việc đánh giá sự tuân thủ của ChatGPT với chế độ bảo mật dữ liệu của EU. Năm ngoái, Garante đã cấm ChatGPT vì bị cáo buộc vi phạm các quy định về quyền riêng tư của EU.
ChatGPT bị cáo buộc vi phạm các quy tắc bảo mật dữ liệu |
Dịch vụ này sau đó đã được kích hoạt lại sau khi OpenAI giải quyết các vấn đề liên quan đến quyền của người dùng từ chối đồng ý sử dụng dữ liệu cá nhân để đào tạo các thuật toán của mình. Vào thời điểm đó, cơ quan quản lý này tuyên bố sẽ tiếp tục tiến trình điều tra.
OpenAI sẽ có 30 ngày để phản hồi cáo buộc và có khả năng sẽ bị phạt đến 20 triệu euro hoặc 4% tổng doanh thu hàng năm trên toàn cầu.
Tháng 12/2023, EU đã đồng ý các điều khoản tạm thời để quản lý các hệ thống AI như ChatGPT, tiến một bước gần hơn đến việc thiết lập các quy tắc quản lý công nghệ này.