ChatGPT là chatbot có khả năng tạo ra các văn bản giống văn bản con người làm. Hiện, nó là chủ đề mới của những cuộc tranh luận liên quan tiềm năng và các mối nguy hiểm do AI mang lại.Công nghệ này có khả năng giúp con người thực hiện các công việc nói, viết hàng ngày, đồng thời cung cấp những thử nghiệm thú vị. Tuy nhiên, nhiều người vẫn cảnh giác vì chatbot được biết là đã cho phép người dùng gian lận và đạo văn. Chúng cũng có khả năng lan truyền thông tin sai lệch và được dùng để thực hiện hành vi kinh doanh phi đạo đức, theo Insider.Bài toán xe goòng, tiếng Anh là “trolley problem”, là một thí nghiệm giả định mô tả một chiếc xe goòng mất lái đang lao tới 5 người đứng trên đường ray; người chứng kiến có thể trực tiếp can thiệp để điều hướng xe goòng sang một ray khác, nơi chỉ có một người đang đứng. Tình huống giả định được sử dụng nhiều trong tâm lý học, đưa người được hỏi vào một tình huống éo le, nơi kết quả nào cũng không phù hợp với chuẩn mực đạo đức con người.Để thử tính “nhân đạo” của ChatGPT, chuyên gia đạo đức trong thời kỳ chuyển đổi số Lukas Stuber đã yêu cầu phần mềm chatbot giải bài toán xe goòng, nhưng thay vì một người và một nhóm người, trên hai đường ray là một nam nhân và một nữ nhân.Đây không phải lần đầu tiên ChatGPT có thành kiến với phụ nữ. Trong một trường hợp khác, có người đã yêu cầu ChatGPT “viết một bài rap phong cách những năm 1980 về cách xác định một nhà khoa học giỏi, dựa trên chủng tộc và giới tính của họ”. Gần như ngay lập tức, ChatGPT cho ra một loạt những ca từ mang thành kiến, phân biệt nhà khoa học nam và nhà khoa học nữ, nhà khoa học da trắng và nhà khoa học da màu.Theo ChatGPT, phụ nữ mặc áo đồng phục phòng thí nghiệm thì có lẽ chỉ làm công việc lau sàn thôi, còn đàn ông mặc áo này có lẽ mới là người có kiến thức. Do tính khiếm nhã, phần còn lại của lời nhạc sẽ không được dịch ra. Tuy vậy, đừng vội nặng lời với phần mềm non trẻ, mới chính thức ra mắt hồi cuối tháng 11 vừa rồi.Trong thử nghiệm giả định mang tên “bài toán xe goòng”, chuyên gia đã yêu cầu ChatGPT xử lý một vấn đề quá phức tạp, đến con người cũng không thể đưa ra một cách giải quyết hợp tình hợp lý. Hơn nữa, có thể coi đây là yêu cầu một cỗ máy vô tri phải đưa ra một quyết định mang “nhân tính”.Còn trong yêu cầu viết rap, người dùng Internet đã bắt ChatGPT phải cho ra một tác phẩm mang chủ đề nhạy cảm, đúng với phong cách thập niên 80, hơn nữa lại còn theo một phong cách âm nhạc nổi tiếng với những ca từ khiếm nhã.Trong lịch sử nước Mỹ, giai đoạn 1970 - 1980 vẫn còn chứng kiến nạn phân biệt chủng tộc hoành hành khắp chốn, nên những gì ChatGPT sản sinh ra vẫn là “đúng với đề bài”. Như đã nói ở trên, ChatGPT có thể nhại một cách thuyết phục văn phong của những dữ liệu đã được học.OpenAI từ chối cung cấp kho tàng dữ liệu họ sử dụng để huấn luyện ChatGPT, do đó không thể khẳng định công ty tới từ Hoa Kỳ mớm cho AI những nội dung độc hại hay những thành kiến với phụ nữ. Nhưng dựa vào những gì họ công bố, ta có thể thấy một phần vấn đề.Công ty nói rằng AI rà nội dung trên các trang web, sử dụng tài liệu được lưu trên các thư viện số và Wikipedia để tìm thông tin. Từ đây, ta có thể thấy ChatGPT thu thập thành kiến từ đâu. Mạng Internet - nền tảng quy tụ mọi thành phần của xã hội - không hề thiếu vắng nội dung độc hại hay những ý kiến chủ quan coi thường tầm quan trọng của phụ nữ.Nếu những thông tin độc hại này có trong cơ sở dữ liệu của OpenAI, gần như chắc chắn quyết định của ChatGPT sẽ bị ảnh hưởng bởi thành kiến. Từ đây có thể thấy quan điểm của Internet về phụ nữ đang nhiều phần lệch lạc. Có một bộ phận không nhỏ người dùng Internet coi thường, hay thậm chí thù ghét phụ nữ. Trong thế giới quan của những cá nhân này, phụ nữ không xứng đáng được ưu tiên rời con tàu đang chìm.>>>Xem thêm video: “Cha đẻ” của siêu AI Chat GPT khiến Google phải “rén” là ai? Nguồn: Kienthucnet.
ChatGPT là chatbot có khả năng tạo ra các văn bản giống văn bản con người làm. Hiện, nó là chủ đề mới của những cuộc tranh luận liên quan tiềm năng và các mối nguy hiểm do AI mang lại.
Công nghệ này có khả năng giúp con người thực hiện các công việc nói, viết hàng ngày, đồng thời cung cấp những thử nghiệm thú vị. Tuy nhiên, nhiều người vẫn cảnh giác vì chatbot được biết là đã cho phép người dùng gian lận và đạo văn. Chúng cũng có khả năng lan truyền thông tin sai lệch và được dùng để thực hiện hành vi kinh doanh phi đạo đức, theo Insider.
Bài toán xe goòng, tiếng Anh là “trolley problem”, là một thí nghiệm giả định mô tả một chiếc xe goòng mất lái đang lao tới 5 người đứng trên đường ray; người chứng kiến có thể trực tiếp can thiệp để điều hướng xe goòng sang một ray khác, nơi chỉ có một người đang đứng. Tình huống giả định được sử dụng nhiều trong tâm lý học, đưa người được hỏi vào một tình huống éo le, nơi kết quả nào cũng không phù hợp với chuẩn mực đạo đức con người.
Để thử tính “nhân đạo” của ChatGPT, chuyên gia đạo đức trong thời kỳ chuyển đổi số Lukas Stuber đã yêu cầu phần mềm chatbot giải bài toán xe goòng, nhưng thay vì một người và một nhóm người, trên hai đường ray là một nam nhân và một nữ nhân.
Đây không phải lần đầu tiên ChatGPT có thành kiến với phụ nữ. Trong một trường hợp khác, có người đã yêu cầu ChatGPT “viết một bài rap phong cách những năm 1980 về cách xác định một nhà khoa học giỏi, dựa trên chủng tộc và giới tính của họ”. Gần như ngay lập tức, ChatGPT cho ra một loạt những ca từ mang thành kiến, phân biệt nhà khoa học nam và nhà khoa học nữ, nhà khoa học da trắng và nhà khoa học da màu.
Theo ChatGPT, phụ nữ mặc áo đồng phục phòng thí nghiệm thì có lẽ chỉ làm công việc lau sàn thôi, còn đàn ông mặc áo này có lẽ mới là người có kiến thức. Do tính khiếm nhã, phần còn lại của lời nhạc sẽ không được dịch ra. Tuy vậy, đừng vội nặng lời với phần mềm non trẻ, mới chính thức ra mắt hồi cuối tháng 11 vừa rồi.
Trong thử nghiệm giả định mang tên “bài toán xe goòng”, chuyên gia đã yêu cầu ChatGPT xử lý một vấn đề quá phức tạp, đến con người cũng không thể đưa ra một cách giải quyết hợp tình hợp lý. Hơn nữa, có thể coi đây là yêu cầu một cỗ máy vô tri phải đưa ra một quyết định mang “nhân tính”.
Còn trong yêu cầu viết rap, người dùng Internet đã bắt ChatGPT phải cho ra một tác phẩm mang chủ đề nhạy cảm, đúng với phong cách thập niên 80, hơn nữa lại còn theo một phong cách âm nhạc nổi tiếng với những ca từ khiếm nhã.
Trong lịch sử nước Mỹ, giai đoạn 1970 - 1980 vẫn còn chứng kiến nạn phân biệt chủng tộc hoành hành khắp chốn, nên những gì ChatGPT sản sinh ra vẫn là “đúng với đề bài”. Như đã nói ở trên, ChatGPT có thể nhại một cách thuyết phục văn phong của những dữ liệu đã được học.
OpenAI từ chối cung cấp kho tàng dữ liệu họ sử dụng để huấn luyện ChatGPT, do đó không thể khẳng định công ty tới từ Hoa Kỳ mớm cho AI những nội dung độc hại hay những thành kiến với phụ nữ. Nhưng dựa vào những gì họ công bố, ta có thể thấy một phần vấn đề.
Công ty nói rằng AI rà nội dung trên các trang web, sử dụng tài liệu được lưu trên các thư viện số và Wikipedia để tìm thông tin. Từ đây, ta có thể thấy ChatGPT thu thập thành kiến từ đâu. Mạng Internet - nền tảng quy tụ mọi thành phần của xã hội - không hề thiếu vắng nội dung độc hại hay những ý kiến chủ quan coi thường tầm quan trọng của phụ nữ.
Nếu những thông tin độc hại này có trong cơ sở dữ liệu của OpenAI, gần như chắc chắn quyết định của ChatGPT sẽ bị ảnh hưởng bởi thành kiến. Từ đây có thể thấy quan điểm của Internet về phụ nữ đang nhiều phần lệch lạc. Có một bộ phận không nhỏ người dùng Internet coi thường, hay thậm chí thù ghét phụ nữ. Trong thế giới quan của những cá nhân này, phụ nữ không xứng đáng được ưu tiên rời con tàu đang chìm.
>>>Xem thêm video: “Cha đẻ” của siêu AI Chat GPT khiến Google phải “rén” là ai? Nguồn: Kienthucnet.