Theo báo cáo được CNN trích dẫn, OpenAI đã bày tỏ lo ngại về việc giọng nói của ChatGPT hiện nay nghe quá giống với giọng người thật, có thể tương tác theo thời gian thực và thậm chí tạo ra những âm thanh như tiếng cười hay tiếng "hmm" khi trò chuyện. Sự chân thực này không chỉ làm tăng khả năng người dùng tin tưởng vào công cụ AI mà còn có nguy cơ dẫn đến việc họ hình thành mối quan hệ cảm xúc sâu sắc với nó.
"Nhân hóa là quá trình gán những hành vi và đặc điểm của con người cho các thực thể phi nhân, chẳng hạn như các mô hình AI", OpenAI cho biết trong một báo cáo về độ an toàn của phiên bản ChatGPT-4o. "Rủi ro này có thể gia tăng bởi khả năng âm thanh của GPT-4o, giúp các tương tác với mô hình trở nên giống con người hơn".
OpenAI lo ngại người dùng có thể nảy sinh "mối quan hệ tình cảm" với AI. Ảnh minh họa |
Open AI dự đoán, việc giao tiếp xã hội với AI cũng có thể khiến người dùng trở nên kém khéo léo hoặc ít muốn tương tác với con người hơn.
Ngoài ra, khả năng AI ghi nhớ chi tiết trong quá trình trò chuyện và thực hiện các nhiệm vụ cũng có thể khiến con người trở nên phụ thuộc quá mức vào công nghệ.
Các nhóm thử nghiệm tính năng giọng nói của ChatGPT-4o cũng đã phát hiện rằng mô hình này có thể bị kích hoạt để lặp lại thông tin sai lệch và tạo ra các thuyết âm mưu, gây lo ngại rằng AI có thể thuyết phục người dùng tin vào những điều sai sự thật.
Một ví dụ điển hình được nhắc đến là sự so sánh tính năng giọng nói của ChatGPT với tình huống trong bộ phim "Her" (2013). Trong phim, nhân vật chính đã phải lòng một trợ lý ảo AI, tạo nên một câu chuyện tình cảm đầy phức tạp. OpenAI lo ngại rằng những tình huống tưởng chừng chỉ tồn tại trong phim ảnh này có thể trở thành hiện thực, khi ngày càng nhiều người dùng bày tỏ cảm xúc và xây dựng mối quan hệ với chatbot.
Mặc dù AI có thể mang lại lợi ích cho những người cô đơn, giúp họ cảm thấy có sự kết nối và an ủi, nhưng OpenAI cũng cảnh báo về những tác động tiêu cực đối với các mối quan hệ xã hội lành mạnh.
Việc người dùng hình thành "mối quan hệ tình cảm" với AI có thể làm giảm nhu cầu tương tác với con người, dẫn đến sự suy giảm trong kỹ năng giao tiếp xã hội và ảnh hưởng đến các mối quan hệ thực tế.
Bên cạnh đó, sự tin tưởng mù quáng vào AI cũng là một mối nguy hiểm tiềm tàng. Giọng nói giống người thật của ChatGPT có thể khiến người dùng dễ dàng tin tưởng vào những thông tin mà công cụ này cung cấp, bất chấp việc AI có thể mắc sai lầm hoặc tạo ra thông tin không chính xác. Đây là một rủi ro lớn khi các công ty công nghệ đang chạy đua để triển khai nhanh chóng các công cụ AI mà chưa hiểu rõ hoàn toàn về tác động của chúng đối với xã hội.
OpenAI nhận ra rằng sự phát triển của AI đi kèm với trách nhiệm đạo đức lớn lao. Công ty cam kết xây dựng AI một cách an toàn, tiếp tục nghiên cứu và thử nghiệm để hiểu rõ hơn về cách người dùng tương tác với công nghệ này.
Tuy nhiên, các chuyên gia như Liesel Sharabi từ Đại học Tiểu bang Arizona cảnh báo rằng cần có sự cẩn trọng trong việc điều hướng câu chuyện về AI một cách có đạo đức, đặc biệt khi công nghệ này có thể ảnh hưởng sâu sắc đến cuộc sống và mối quan hệ của con người.