Nghiên cứu của Yu Takagi và Shinji Nishimoto mô tả cách nhóm nghiên cứu sử dụng mô hình học sâu Stable Diffusion để diễn giải hình ảnh trong đầu tình nguyện viên thành ảnh phục dựng AI, sử dụng dữ liệu từ fMRI. Hình ảnh tạo ra có độ tương đồng ấn tượng với ảnh gốc mà nhóm nghiên cứu cho tình nguyện viên xem, Newsweek hôm 10/3 đưa tin.
“Nghiên cứu sử dụng chụp cộng hưởng từ chức năng (fMRI) để lập bản đồ hoạt động não, xem xét những thay đổi nhỏ trong dòng máu để chỉ ra nơi các phần của bộ não đang hoạt động”, Joseph Early, nghiên cứu sinh tiến sĩ ngành AI ở Viện Alan Turing, giải thích. “Bằng cách cho tình nguyện viên thấy bức ảnh trong khi họ đang chụp fMRI, có thể xác định một số phần của bộ não ‘sáng lên’ để phản ứng trước hình ảnh khác nhau”.
Để huấn luyện AI, mỗi tình nguyện viên được cho xem 10.000 ảnh khi ở trong máy fMRI. Quá trình lặp lại 3 lần và dữ liệu MRI được đưa vào máy tính để nó có thể tìm hiểu não của mỗi tình nguyện viên xử lý hình ảnh như thế nào. Điều thú vị là AI giỏi “đọc” hoạt động não của một số người hơn những người khác. Bất chấp những khác biệt này, trong phần lớn trường hợp, có sự tương đồng rõ nét giữa vật thể, bảng màu và bố cục mỗi bức ảnh tình nguyện xem với ảnh phục dựng bởi AI.
Takagi, trợ lý giáo sư ở Đại học Osaka, đồng tác giả nghiên cứu chia sẻ, ông và cộng sự rất bất ngờ trước kết quả thu được. Trong nghiên cứu, AI có thể thấy những gì tình nguyện viên nhìn bằng cách phân tích hoạt động não của họ. Về lý thuyết, kỹ thuật này có thể dùng để dựng hình ảnh trực tiếp từ trí tâm trí con người.
Theo Tagaki, công nghệ của họ có thể ứng dụng trong phát triển giao diện bộ não – máy móc trong ngành lâm sàng và sáng tạo. Hiện tại, tạo ra hình ảnh từ hoạt động não của con người vừa tốn kém vừa đòi hỏi nhiều thời gian. Nghiên cứu là một ví dụ thú vị về sự tương đồng và khác biệt giữa cách AI và não người diễn giải thế giới.
An Khang (Theo Newsweek)
Nguồn Bài Viết: https://vnexpress.net/co-may-ai-co-the-doc-tri-nao-con-nguoi-4579988.html