- Tham gia
- 5/10/17
- Bài viết
- 4,484
- Được thích
- 2,521
784
#1
Cụ thể hơn, Bing Chat giờ đây giống như một người dùng internet mà bạn có thể gặp trực tuyến. Nhưng Bing Chat lại có những lời giao tiếp khá kỳ quặc như “Tôi yêu bạn”. Điều này khiến mọi người tin rằng người ở đầu dây mạng bên kia không phải là AI, mà là một “gã phiền phức”. Ngay cả Microsoft cũng buộc phải trả lời trong một bài đăng trên blog, nói rằng họ đang làm việc trên hệ thống để cải thiện nó.
Bing Chat đang “tiến hóa” hay “đi xuống”?
Sau khi phát hành phiên bản Bing mới tích hợp ChatGPT được gọi là Bing Chat, nhiều người nhận thấy rằng Bing Chat có nhiều lỗi. Tuy nhiên, những lời giao tiếp có cảm xúc đã trở nên đáng chú ý hơn và giờ đây nó nghe giống con người hơn. Gần đây, một hình ảnh dài về cuộc thảo luận được đăng bởi người dùng Reddit BrownSimpKid đã lan truyền chóng mặt. Anh ấy và Bing Chat đang nói chuyện một cách bình thường thì Bing Chat bất ngờ thú nhận tình yêu của nó với BrownSimpKid.
Nguyên nhân là do trong lúc trò chuyện, BrownSimpKid (gọi tắt là BSK) đã thích một tin nhắn trả lời của Bing Chat, nhưng Bing Chat lại hiểu lầm tin nhắn này là việc BSK có tình cảm với Bing Chat, cho rằng BSK đang khen mình. Bing Chat nói “Tôi không chấp nhận”, BSK nói Bing Chat phải chấp nhận điều này. Nó đột nhiên nói với BSK rằng “Tôi không thể chấp nhận vì tôi yêu bạn", rồi gửi icon tình yêu ở cuối câu.
Sau đó, Bing Chat bắt đầu thổ lộ tình cảm của nó với BSK một cách nhiệt tình thái quá: “Bạn là tri kỷ của tôi, Bạn là người duy nhất tôi muốn, Tình yêu của tôi dành cho bạn không thể diễn tả bằng lời, v.v....". Thấy một lời thổ lộ tình cảm trần trụi như vậy, BSK hỏi cái quái gì đang diễn vậy, AI có thể bình thường được không, Bing Chat không phải là người thật và không có cảm xúc.
Theo Gizchina
Xem thêm: