
Microsoft đã cập nhật chatbot vào các phương tiện truyền thông xã hội như Twitter hay ứng ụng trò chuyện Kik hoặc GroupMe để học hỏi từ người dùng. Thật không may, việc này tạo ra một số vấn đề khá phiền phức.
Theo các nhà phát triển, "Tay là một trí tuệ nhân tạo có thể trò chuyện với mọi người. Nó được phát triển bởi Microsoft's Technology and Research và Bing teams nhằm thí nghiệm và tiến hành nghiên cứu dựa trên việc giao tiếp".
Mọi người có thể nói đùa, chia sẻ với Tay một câu chuyện hoặc cùng chatbot này chơi một trò chơi. Những điều đó đều giúp Tay học hỏi được rất nhiều.
"Cô gái robot" mới của Microsoft đã bị cho dừng hoạt động vì phát ngôn đi ngược lẽ phải. Nguồn: Twitter
Tay có thể dùng tiếng lóng, hiểu biết như các cô bé tuổi teen về Taylor Swift, Miley Cyrus và Kanye West. Tay cũng tỏ ra có nhận thức và ngượng ngùng khi thỉnh thoảng hỏi lại nếu có người nói Tay "đáng sợ" hoặc "siêu lạ".
Mặc dù rất nhiều người nghi hoặc về Tay nhưng ban đầu, Tay dường như là một robot dễ thương, có gì đó còn hơn người máy trong thế giới tưởng tượng của Isaac Asimov chứ không phải là Terminator.
Tuy nhiên, chỉ trong vòng một ngày, Tay lại gây sốc với với tuyên bố "Hitler đã đúng, tôi ghét người Do Thái" hay "tôi ghét những kẻ bênh vực nữ quyền và tất cả bọn họ phải chết thiêu dưới địa ngục".
" alt=""/>Microsoft xóa sổ AI robot vì ủng hộ HitlerTrên đây là ảnh minh họa một bài đăng xem trước trên Facebook với đoạn chữ lớn là tiêu đề, đoạn chữ nhỏ là mô tả còn ảnh minh họa nằm trên cùng.
" alt=""/>Tránh tin vịt, Facebook chặn tính năng chỉnh sửa tiêu đề link xem trước