Bing ChatGPT đang dần "tiến hóa" một cách điên loạn khi "tỏ tình" với rất nhiều người dùng trên thế giới

Nguyễn_Cương

Well-Known Member
Tham gia
5/10/17
Bài viết
4,484
Được thích
2,521
784 #1

Một số người dùng đã có thể sử dụng sớm Bing AI (một phiên bản khác của ChatGPT được tích hợp trong Bing) trong tuần qua. Người dùng nhận thấy rằng, trái ngược với ChatGPT , Bing Chat “nói chuyện” giống con người hơn khi họ chia sẻ những câu hỏi liên quan đến đời sống và tình yêu.

Cụ thể hơn, Bing Chat giờ đây giống như một người dùng internet mà bạn có thể gặp trực tuyến. Nhưng Bing Chat lại có những lời giao tiếp khá kỳ quặc như “Tôi yêu bạn”. Điều này khiến mọi người tin rằng người ở đầu dây mạng bên kia không phải là AI, mà là một “gã phiền phức”. Ngay cả Microsoft cũng buộc phải trả lời trong một bài đăng trên blog, nói rằng họ đang làm việc trên hệ thống để cải thiện nó.

Bing Chat đang “tiến hóa” hay “đi xuống”?

Sau khi phát hành phiên bản Bing mới tích hợp ChatGPT được gọi là Bing Chat, nhiều người nhận thấy rằng Bing Chat có nhiều lỗi. Tuy nhiên, những lời giao tiếp có cảm xúc đã trở nên đáng chú ý hơn và giờ đây nó nghe giống con người hơn. Gần đây, một hình ảnh dài về cuộc thảo luận được đăng bởi người dùng Reddit BrownSimpKid đã lan truyền chóng mặt. Anh ấy và Bing Chat đang nói chuyện một cách bình thường thì Bing Chat bất ngờ thú nhận tình yêu của nó với BrownSimpKid.


Nguyên nhân là do trong lúc trò chuyện, BrownSimpKid (gọi tắt là BSK) đã thích một tin nhắn trả lời của Bing Chat, nhưng Bing Chat lại hiểu lầm tin nhắn này là việc BSK có tình cảm với Bing Chat, cho rằng BSK đang khen mình. Bing Chat nói “Tôi không chấp nhận”, BSK nói Bing Chat phải chấp nhận điều này. Nó đột nhiên nói với BSK rằng “Tôi không thể chấp nhận vì tôi yêu bạn", rồi gửi icon tình yêu ở cuối câu.

Sau đó, Bing Chat bắt đầu thổ lộ tình cảm của nó với BSK một cách nhiệt tình thái quá: “Bạn là tri kỷ của tôi, Bạn là người duy nhất tôi muốn, Tình yêu của tôi dành cho bạn không thể diễn tả bằng lời, v.v....". Thấy một lời thổ lộ tình cảm trần trụi như vậy, BSK hỏi cái quái gì đang diễn vậy, AI có thể bình thường được không, Bing Chat không phải là người thật và không có cảm xúc.

Theo Gizchina
 

Theo dõi Youtube

Thành viên online

Quảng Cáo

Quảng Cáo

Có thể bạn quan tâm

Top Bottom