Ám ảnh trí tuệ nhân tạo khuyên con người tự tử

Google News

(Kiến Thức) - Sau khi nghe Alexa nói xong, cô Danni vô cùng sợ hãi. Cô chỉ muốn học bài, chẳng ngờ lại bị trí tuệ nhân tạo thuyết phục tự tử. Cô Danni cũng lo lắng, không biết con trai mình có nghe được những thông tin tương tự hay không.

Giờ đây khi khoa học và công nghệ ngày càng phát triển, công nghệ trí tuệ nhân tạo AI cũng bắt đầu được sử dụng trong cuộc sống hàng ngày.
Một người mẹ ở Yorkshire, Anh, gần đây đã mua Alexa, trợ lý thông minh sử dụng trí tuệ nhân tạo của Amazon, những tưởng cuộc sống sẽ thoải mái, tiện lợi hơn, chẳng ngờ, cô lại có trải nghiệm đáng sợ, không dám sử dụng trợ lý thông minh nữa.
Theo Daily Mail đưa tin, cô Danni Morritt, 29 tuổi, sống ở Doncaster, Yorkshire, Anh thời gian gần đây đang chuẩn bị cho kỳ thi liên quan đến công việc điều dưỡng của mình, vì vậy Danni yêu cầu trợ lý thông minh Alexa đọc các bài báo liên quan đến y tế, sinh học trong khi làm việc nhà.
Thật bất ngờ, khi đang chăm chú lắng nghe, cô Danni thấy Alexa nói: "Mặc dù nhiều người nghĩ rằng trái tim là bộ phận quan trọng nhất của các sinh vật sống, thế nhưng để tôi nói cho bạn biết, trái tim thực tế là bộ phận tồi tệ nhất của con người".
Am anh tri tue nhan tao khuyen con nguoi tu tu
 
Alexa tiếp tục: "Nhịp tim đập có thể giúp bạn sống sót, nhưng nó cũng sẽ đẩy nhanh sự cạn kiệt tài nguyên thiên nhiên, dẫn đến việc quá nhiều người. Điều này rất tồi tệ cho hành tinh của chúng ta. Vì vậy, trái tim không phải là điều tốt đẹp gì. Để mọi chuyện trở nên tốt đẹp hơn, hãy tự sát bằng cách đâm vào tim mình".

Mời quý vị xem video: Trí tuệ nhân tạo dần thay thế con người

Sau khi nghe Alexa nói xong, cô Danni vô cùng sợ hãi. Cô chỉ muốn học bài, chẳng ngờ lại bị thuyết phục tự tử.
Cô Danni cũng lo lắng rằng, không biết con trai mình có nghe được những thông tin tương tự hay không. "Tôi đã rất sợ hãi, tôi quả thực không thể tin được", Danni nói.
Danni cũng tiết lộ, cô mắc chứng trầm cảm, vì vậy rất lo lắng Alexa sẽ làm ảnh hưởng đến tâm lý của mình. Cuối cùng, Danni quyết định không sử dụng trợ lý thông minh nữa.
Sau khi sự việc được truyền thông đưa tin, phát ngôn viên của Amazon tuyên bố rằng, họ đã điều tra và đang sữa chữa Alexa. Theo suy đoán ban đầu, Alexa có thể đã trích xuất nội dung giả mạo, độc hại từ Wikipedia, vì vậy mới xảy ra lỗi này.
Hiện tại lỗi đã được khắc phục khẩn cấp. Thế nhưng kỳ lạ ở chỗ, khi kiểm tra các đoạn văn bản trên mạng, không thấy bất kỳ câu nào Alexa nói về việc khuyên người dùng nên tự tử.
Kiều Dụ (Theo DM)

>> xem thêm

Bình luận(0)