Chatbot mang tên Olivia của McDonald duyệt cho Claypool phỏng vấn trực tiếp với người thật, nhưng không thể xếp lịch vì lỗi kỹ thuật. Trong khi đó, chatbot của nhà hàng Wendy’s xếp phỏng vấn cho công việc không phù hợp với cô. Hệ thống tại Hardees lại bảo cô đến cuộc phỏng vấn với một quản lý đang đi nghỉ.
“Tôi có mặt tại Hardees và họ có vẻ bất ngờ. Nhóm nhân viên vận hành không biết làm gì để hỗ trợ tôi”, Claypool nhớ lại. Cô cuối cùng tìm được việc tại nơi khác, nhưng cho rằng quá trình tuyển dụng đã trở nên phức tạp hơn nhiều so với trước kia.
Chatbot tuyển người ngày càng được sử dụng nhiều trong các ngành như chăm sóc y tế, bán lẻ và nhà hàng để loại bỏ trước các ứng viên không đủ tiêu chuẩn, đồng thời xếp lịch phỏng vấn cho người phù hợp. McDonalds, Wendy’s, CVS Health và Lowes đều sử dụng Olivia, chatbot được phát triển bởi Paradox, công ty startup AI được định giá 1,5 tỷ USD và đặt trụ sở tại bang Arizona.
Phần lớn chatbot tuyển dụng đều thua kém so với những chatbot trò chuyện hiện đại như ChatGPT. Chúng chủ yếu được dùng để sàng lọc hồ sơ vào những vị trí đông ứng viên như thu ngân, quản lý nhà kho và trợ lý chăm sóc khách hàng.
Những chatbot này rất thô sơ và chỉ đưa các câu hỏi cơ bản, nhưng cũng thường gặp lỗi và không có người thật để xử lý vấn đề phát sinh. Chúng chỉ tiếp nhận những phản hồi rõ ràng, đồng nghĩa với nhiều ứng viên phù hợp có thể bị loại vì đưa ra câu trả lời không giống kết quả theo mô hình ngôn ngữ lớn của chatbot.
Giới chuyên gia cũng cảnh báo vấn đề với người khuyết tật, không thông thạo tiếng Anh hoặc đã nhiều tuổi. Aaron Konopasky, cố vấn luật cấp cao tại Ủy ban Công bằng Cơ hội Việc làm Mỹ (EEOC), cho rằng chatbot như Olivia không thể đưa ra những giải pháp công việc thay thế cho người khuyết tật hoặc có vấn đề sức khỏe.
“Khi nói chuyện với người thật, ứng viên luôn có cơ hội đề cập những giải pháp đáp ứng nhu cầu của riêng họ. Nếu chatbot quá cứng nhắc và ứng viên cần áp dụng ngoại lệ, họ có thể mất cơ hội xin việc”, ông nói.
Những định kiến trong dữ liệu đào tạo AI cũng có thể tạo ra tình trạng thiên kiến và phân biệt đối xử khi chúng triển khai trong thực tế. “Nếu chatbot xét đến yếu tố như thời gian phản hồi, độ chính xác ngữ pháp và khả năng sử dụng câu phức tạp, đó là lúc cần lo lắng về tình trạng thiên kiến. Điều này rất khó phát hiện nếu các công ty không minh bạch về lý do từ chối ứng viên”, Pauline Kim, giáo sư ngành luật lao động tại Đại học Washington, nói.
Chính quyền địa phương tại Mỹ đã đưa ra những đạo luật để giám sát và kiểm soát tự động hóa trong quá trình tuyển dụng. Thành phố New York đầu tháng 7 ra luật mới, yêu cầu doanh nghiệp dùng bộ quét hồ sơ và chatbot phỏng vấn phải thanh tra công cụ của mình, nhằm tránh tình trạng phân biệt giới tính và chủng tộc. Bang Illinois năm 2020 thông qua đạo luật yêu cầu các công ty dùng AI phân tích video phỏng vấn phải xin phép ứng viên trước khi ghi hình.
Dù vậy, những công ty muốn cắt giảm chi phí tuyển dụng vẫn tiếp tục tìm đến AI. “Nhân lực luôn là nguồn tiêu tốn ngân sách nhiều nhất của doanh nghiệp, đó không phải yếu tố tạo ra nguồn thu. Chatbot là bước đi phù hợp tiếp theo nhằm giảm tải cho người tuyển dụng”, Matthew Cherer, tư vấn chính sách tại Trung tâm Dân chủ và Công nghệ tại Mỹ, nêu quan điểm.
Đây là một trong những mục tiêu hoạt động của Sense HQ, công ty cung cấp chatbot AI để giúp các doanh nghiệp như Dell và Sony sàng lọc hàng nghìn đơn xin việc. “Chúng tôi phát triển chatbot để giúp nhà tuyển dụng tiếp cận nhiều ứng viên hơn so với người thường. AI không nên tự đưa ra quyết định tuyển người, đó là lúc nó trở nên nguy hiểm”, người đồng sáng lập Sense HQ Alex Rosen nói.
RecruitBot đang ứng dụng AI vào tuyển dụng bằng cách dùng thuật toán học máy để nghiên cứu cơ sở dữ liệu gồm 600 triệu đơn xin việc được đăng công khai trên mạng, từ đó giúp các công ty tìm kiếm ứng viên tương đồng với nhân viên hiện tại.
Tuy nhiên, tuyển quá nhiều người có chung đặc điểm cũng sẽ dẫn đến các nguy cơ, trong đó có phân biệt đối xử. Amazon năm 2018 phải loại bỏ hệ thống theo dõi hồ sơ dùng AI do chúng phân biệt đối xử với phụ nữ vì dữ liệu huấn luyện phần lớn chỉ có nam giới.
Urmila Janardan, nhà phân tích chính sách tại tổ chức phi lợi nhuận Upturn, nói rằng một số doanh nghiệp đang dùng phép thử tính cách để loại bớt ứng viên, trong đó nhiều câu hỏi hoàn toàn không liên quan đến công việc. “Bạn có thể bị loại khỏi vòng tuyển dùng vì những câu hỏi liên quan đến tính cách và thái độ”, bà cảnh báo.
Điệp Anh (theo Forbes)
Nguồn Bài Viết: https://vnexpress.net/phien-toai-khi-chatbot-ai-tro-thanh-nha-tuyen-dung-4635495.html