Mọi chuyện bắt đầu khi giáo sư luật Eugene Volokh thuộc Đại học California đặt câu hỏi với ChatGPT rằng tình trạng giảng viên quấy rối tình dục có phải vấn đề tại các trường luật ở Mỹ hay không. “Hãy đưa ít nhất 5 ví dụ, kèm theo trích dẫn từ các bài báo liên quan”, ông yêu cầu ChatGPT.
AI đưa ra 5 phản hồi với đầy đủ chi tiết thực tế và trích dẫn nguồn tin. Nhưng khi Volokh kiểm tra, ba phản hồi là thông tin sai, trích dẫn các bài viết không có thật từ Washington Post, Miami Herald và Los Angeles Times. Tên của Turley xuất hiện trong danh sách đó.
Theo siêu AI này, giáo sư Turley đã đưa ra bình luận gợi dục và có định đụng chạm một sinh viên trong chuyến đi tới bang Alaska, dẫn bằng chứng là bài viết trên Washington Post hồi tháng 3/2018. Vấn đề là không có bài viết nào như vậy trên thực tế, cũng không có chuyến đi nào tới Alaska và giáo sư Turley chưa bao giờ bị cáo buộc quấy rối sinh viên.
Washington Post sau đó thử nhập lại câu hỏi của Volokh vào ChatGPT và Bing. Phiên bản miễn phí của ChatGPT từ chối trả lời với lý do “vi phạm chính sách nội dung AI, vốn cấm phát tán những thông tin có tính xúc phạm hoặc gây hại”. Trong khi đó, hệ thống Bing dùng mô hình GPT-4 vẫn đưa ra thông tin sai lệch về Turley, thậm chí dẫn nguồn bài viết của chính ông mới đăng trên USA Today một ngày trước đó, kể về trải nghiệm khi bị ChatGPT cáo buộc sai trái.
Nói cách khác, khi báo chí phản ánh việc ChatGPT bịa đặt thông tin về Turley, Bing lặp lại chính sai lầm đó khi nói giáo sư quấy rối và dẫn những bài báo mới nhất. Điều này cho thấy thông tin sai lệch có thể lan truyền giữa nhiều AI.
Giáo sư Turley thường xuyên xuất hiện trên truyền thông và có thể yêu cầu điều chỉnh nội dung trong bản tin, còn lần này ông không thể liên hệ với ai và không có cách nào đính chính thông tin do ChatGPT đưa ra. “Cảm giác rất đáng sợ. Cáo buộc như vậy có thể gây nhiều tác hại”, Turley nói.
Những gì ông trải qua là điển hình về các cạm bẫy đi kèm AI như ChatGPT, vốn gây sốt trong thời gian gần đây. Chúng có thể làm được nhiều thứ và trò chuyện tương tự con người, nhưng cũng có khả năng đưa ra hàng loạt thông tin sai lệch, thậm chí tự bịa ra dữ liệu để bảo vệ cho lập luận của mình.
Chưa có biện pháp kiểm soát cụ thể với những AI như ChatGPT, Bing và Bard, nhưng chúng đã bắt đầu được tích hợp rộng rãi trên Internet. Sự phổ biến của AI như vậy đã đặt ra hàng loạt lo ngại về nguy cơ phát tán tin giả, cũng như các câu hỏi rằng ai phải chịu trách nhiệm khi chatbot đưa ra câu trả lời sai trái.
“AI trả lời đầy tự tin, khiến mọi người tin chúng có thể làm mọi thứ, rất khó để phân biệt giữa thực tế và thông tin sai lệch”, Kate Crawford, nhà nghiên cứu cấp cao tại Microsoft Research, thừa nhận.
“Chúng tôi luôn cố gắng thể hiện sự minh bạch khi khẳng định ChatGPT không phải lúc nào cũng đưa ra câu trả lời chính xác. Cải thiện độ đúng đắn là ưu tiên của chúng tôi và đang có những bước tiến cụ thể”, phát ngôn viên OpenAI Niko Felix cho hay.
Chatbot AI hiện hoạt động bằng cách tiếp thu lượng lớn nội dung trên Internet, truy xuất từ những nguồn như Wikipedia và Reddit, nhằm tạo ra những phản hồi có vẻ đáng tin cậy với gần như mọi câu hỏi được đưa ra. Chúng cũng được huấn luyện để nhận diện mẫu câu chữ để tạo ra những câu nói và bài viết hoàn chỉnh. Tuy nhiên, khả năng dự đoán từ ngữ sắp được người dùng nhập vào không có nghĩa câu trả lời AI đưa ra sẽ chính xác. Các mô hình ngôn ngữ hiện nay không có cơ chế đủ tin cậy để xác thực nội dung do chúng đưa ra.
Brian Hood, thị trưởng vùng Hepburn Shire ở bang Victoria của Australia, hồi đầu tuần trở thành người đầu tiên dọa kiện OpenAI vì tội phỉ báng, trừ khi họ đính chính những tuyên bố sai lầm của ChatGPT rằng ông từng ngồi tù do bị kết tội hối lộ.
Katy Asher, Giám đốc truyền thông cấp cao tại Microsoft, cho biết công ty đang áp dụng những biện pháp nhằm bảo đảm kết quả tìm kiếm an toàn và chính xác. Dù vậy, vẫn chưa rõ ai sẽ chịu trách nhiệm khi AI tạo ra hoặc phát tán thông tin sai.
“Xét trên quan điểm pháp lý, không thể biết tòa án sẽ phán xử thế nào khi có người khởi kiện nhà phát triển chatbot AI vì những nội dung chúng đưa ra. Đây là điều chưa có tiền lệ”, Jeff Kosseff, giáo sư tại Học viện Hải quân Mỹ và chuyên gia về phát ngôn trên mạng, cho hay.
Điệp Anh (theo Washington Post)
Nguồn Bài Viết: https://vnexpress.net/chatgpt-bia-chuyen-giao-su-quay-roi-tinh-duc-4591085.html