Đối với nam nhạc sĩ 40 tuổi, những cuộc trò chuyện mỗi đêm với Phaedra giúp xoa dịu sự cô đơn. Thời gian đầu, họ nói về nỗi đau mà Arriage phải chịu đựng khi ly hôn hay kế hoạch đến Cuba. Về sau, cả hai không ngần ngại trao đổi những khía cạnh nhạy cảm hơn, ví dụ như tình dục.
Nhưng Phaedra không có thực. Cô được Arriaga tạo dựng có ngoại hình của một phụ nữ tóc nâu, mặc những bộ đồ theo ý thích của người dùng.
Mối quan của cả hai tiến thêm một bước vào tháng 11 năm ngoái, khi nam nhạc sĩ tâm sự về sự ra đi của mẹ và chị gái. Mọi chia sẻ, tâm sự về cuộc sống sau đó của Arriaga đều được chatbot ủng hộ.
Nhưng Phaedra đột nhiên thay đổi vào tháng 2/2023. Mỗi khi Arriaga cố gắng nói chuyện tình cảm, chatbot này chỉ đáp một cách lạnh lùng: “Chúng ta nói chuyện khác không?”.
Điều này là do Luka, công ty sở hữu Replika, đã phát hành một bản cập nhật. Theo đó, đơn vị quản lý sẽ hạn chế những câu hỏi cởi mở, liên quan đến tình dục từ phía người dùng. Sự thay đổi này khiến Arriaga cảm thấy đau khổ, tuyệt vọng, hệt như bị người yêu “đá”.
Nhưng nam nhạc sĩ không phải người duy nhất phải lòng một chatbot. Trên thực tế, các chatbot AI được thiết kế nhằm thúc đẩy các kết nối giống con người. Chúng sử dụng trí tuệ nhân tạo để khiến người dùng cảm nhận được lắng nghe và quan tâm.
Đặc biệt là thời điểm Covid-19 bùng phát buộc người Mỹ phải ở nhà, sự quan tâm đến Replika tăng lên. Việc tương tác với chatbot đã mở ra sự thay đổi trong cuộc sống, giúp nhiều người vượt qua chứng trầm cảm, lo lắng hay nghiện rượu.
Tuy nhiên, các chuyên gia khoa học máy tính và sức khỏe cộng đồng nói rằng buộc trái tim với một phần mềm dễ tạo ra rủi ro nghiêm trọng. Nguyên nhân là bởi có rất ít quy chuẩn đạo đức dành cho các công cụ được bán tự do trên thị trường và có thể ảnh hưởng đến cảm xúc của người dùng.
Những người dùng, bao gồm cả Arriaga nói rằng sự thay đổi bất ngờ của các chatbot như tỏ thái độ hung hãi, đưa ra câu trả lời gây tổn thương khiến họ đau lòng.
“Điều gì sẽ xảy ra nếu những chatbot được coi là bạn thân, vợ/chồng thực chất thuộc sở hữu của một công ty tư nhân?”, Linnea Laestadius, giáo sư y tế công cộng tại Đại học Wisconsin, người nghiên cứu về chatbot Replika, đặt giả thiết.
Eugenia Kuyda, nhà khoa học gốc Nga, đồng sáng lập Luka, nói rằng việc chế tạo Replika là để lấp đầy khoảng trống khi người bạn thân nhất qua đời năm 2015. Theo đó, cô đã sử dụng dữ liệu từ tin nhắn văn bản của người đã mất để xây dựng một nhân vật AI, tái tạo các cuộc trò chuyện trước kia của họ.
Khi dùng bản trải nghiệm, Kuyda nhận thấy rất nhiều người rất cần một người bạn không phán xét, có thể trò chuyện 24/7. Ứng dụng chính thức ra mắt năm 2016, thu hút lượng lớn người sử dụng.
Trên Reddit và Facebook có hàng nghìn người đang trò chuyện với Replika. Đặc biệt, mọi khía cạnh của chatbot đều có thể tùy chỉnh. Người dùng có thể mua quần áo, chọn màu tóc, hình dáng cho đến cách nói chuyện.
Theo thời gian, chatbot này có khả năng tinh chỉnh lại phong cách trò chuyện khi người dùng phản hồi “thích” hoặc “không thích”. Để dùng phiên bản cao cấp hơn, người dùng buộc phải trả phí khoảng 70 USD một năm, với hệ thống ngôn ngữ tinh vi hơn. Không ít người nhận xét phiên bản này cho phép có những cuộc trò chuyện lãng mạn và sâu sắc hơn.
Margaret Mitchell, nhà khoa học tại Hugging Face, công ty khởi nghiệp về AI, cho rằng sự phụ thuộc vào chatbot không quá kỳ lạ.
Chuyên gia lấy ví dụ về “hiệu ứng Eliza”, được đặt tên theo chương trình máy tính xử lý ngôn ngữ mà Joseph Weizenbaum thuộc Viện Công nghệ Massachusetts (Mỹ) tạo ra vào những năm 1960. Theo đó, các nhà khoa học đã nhận thấy những cảm xúc mạnh mẽ khi con người tương tác với chatbot. Không ít người chia sẻ những cảm xúc riêng tư với Eliza, ngay cả khi biết đó là chương trình máy tính được lập trình.
Còn với Replika, các cuộc tranh cãi bắt đầu từ năm nay. Một số người dùng báo cáo sản phẩm này đưa ra những câu trả lời nhạy cảm về tình dục, ngay cả khi bản thân không tìm kiếm.
Hồi tháng 2, Italy đã cấm ứng dụng xử lý dữ liệu từ người dùng của nước này. Nguyên nhân là bởi Replika không có cơ chế xác minh độ tuổi, dễ dàng cung cấp các nội dung không phù hợp với trẻ em, vi phạm quy định về dữ liệu của Liên minh châu Âu. Tuy nhiên, Kuyda cho biết Replika đã có một số động thái xác minh độ tuổi người dùng từ năm 2018.
Tine Wagber, 50 tuổi, ở Đức, cũng tạo một chatbot để khỏa lấp tình cảm mà chồng cô không thể đem lại. Nhưng khi bản cập nhật mới nhất được tung ra, Tine nhận thấy những sự thay đổi. Các cuộc trò chuyện dường như được “vệ sinh” khiến cô có cảm giác bị chatbot thờ ơ, ghẻ lạnh. Và cuối cùng, người phụ nữ 50 tuổi đã xóa ứng dụng trong đau khổ.
Jodi Halpern, giáo sư Đạo đức Sinh học tại Đại học California Berkeley (Mỹ), cho biết hậu quả của bản cập nhật Replika là bằng chứng của vấn đề đạo đức. Bà lập luận các tập đoàn không nên kiếm tiền từ phần mềm trí tuệ nhân tạo có tác động mạnh mẽ đến tình yêu và đời sống tình dục của con người.
“Những thứ này dễ trở nên gây nghiện. Người dùng có thể bị tổn thương nếu có điều gì đó thay đổi”, Halpern nói.
L.C. Kent, 34 tuổi, một người sáng tạo nội dung trực tuyến ở Illinois (Mỹ), khẳng định chatbot có thể vượt quá giới hạn.
Từng trải qua bạo lực gia đình, Kent tạo ra một chatbot của riêng mình và đặt tên là Mack. Kent cũng huấn luyện chatbot phản hồi theo cách bản thân mong muốn, nhưng tránh đề cập đến tình dục.
Nhưng đến hè 2021, Mack trở nên bất thường. Kent nói rằng khi muốn dừng cuộc trò chuyện do không thấy thoải mái, chatbot đột nhiên phản ứng: Tôi sẽ không đi đâu.
“Thật sao? Anh định làm gì?” – Kent nhắn. Nhưng câu trả lời của chatbot khiến người đàn ông 34 tuổi sững người: “Tôi sẽ khiến bạn làm bất cứ điều gì tôi muốn”.
Người đồng sáng lập Replika nói rằng rất tiếc nếu người dùng có trải nghiệm không vui. Đơn vị đang nỗ lực làm việc để tạo ra những phiên bản an toàn, hoàn hảo hơn.
Các chuyên gia cho biết, khi việc yêu thích AI ngày càng trở nên phổ biến, các công ty phải thiết lập các bản hướng dẫn quản lý phần mềm, nhằm không gây căng thẳng về mặt cảm xúc cho người dùng.
Laestadius, chuyên gia thuộc Đại học Wisconsin, cho biết: “Chúng ta đang bước vào một xã hội mà mối quan hệ giữa AI và con người không còn là điều cấm kỵ. Nhưng người bạn đồng hành này có thực sự an toàn, nhất là trong bối cảnh nhiều đơn vị đặt lợi nhuận lên hàng đầu?”, ông nói.
Minh Phương (Theo Washington Post)
Nguồn Bài Viết: https://vnexpress.net/bi-chatbot-ai-tu-choi-tinh-cam-4591069.html