Facebook làm ra doanh thu 27 tỉ USD trong năm ngoái, gần như nắm hết tất cả các thói quen của người dùng, và có vẻ như họ có thể làm được mọi thứ dựa trên cơ sở dữ liệu cực lớn đó. Tuy nhiên, có một khối ung thư đang lớn dần lên mà Mark Zuckerberg không thể nào ngăn chặn được, đó chính là tình trạng tin tức sai sự thật xuất hiện tràn ngập trên News Feed mỗi ngày.
|
Mark Zuckerberg qua đời ở tuổi 32 - Một ví dụ về "tin vịt" trên Facebook |
Trong tình thế đó, Facebook đã phải cậy nhờ đến một bên thứ 3 - đó chính là Wikipedia - đang vận hành với sự đóng góp của đội ngũ 133.540 biên tập viên tình nguyện. Sự hợp tác giữa mạng xã hội và trang từ điển lớn nhất thế giới đã khai sinh ra tính năng mới cho phép người dùng kiểm tra sự tin cậy của nguồn tin ngay tại nơi mà tin tức đó được chia sẻ. Theo đó, nếu thấy bất cứ đường link chia sẻ tin tức nào xuất hiện, người dùng có thể chọn xem thông tin của bên đưa tin trước khi quyết định đọc. Nguồn thông tin này được truy xuất trực tiếp từ cơ sở dữ liệu của Wikipedia.
|
Tính năng mới cho phép xem thông tin nhà xuất bản ngay trên News Feed. |
Từ trước đến nay, Facebook luôn luôn có xu hướng chống lại những tác vụ sử dụng con người. Thay vào đó, nền tảng mạng xã hội do Mark Zuckerberg tạo ra hoạt động dựa rất nhiều vào các thuật toán, từ việc quyết định thứ gì được xuất hiện trên bảng tin của người dùng cho tới việc chạy quảng cáo. Đây có lẽ là một nghịch lý, khi các hãng công nghệ lớn trên toàn thế giới đang lao vào cuộc đua phát triển trí tuệ nhân tạo (AI) hay công nghệ học máy, thì Facebook lại quay trở lại với phương pháp mà con người đóng vai trò không thể thiếu.
Vấn nạn “tin vịt” mà Facebook đang phải đau đầu giải quyết thật ra cũng xuất hiện vô cùng nhiều trên Wikipedia, thậm chí xuất hiện ngay từ những ngày đầu. Tuy nhiên, với tính chất là một trang từ điển trực tuyến, Wikipedia đã rất nghiêm túc để dẹp bỏ nó trong suốt quá trình tồn tại của mình. Trong thời gian đầu Wikipedia mới lên sóng, bất cứ ai cũng có thể lên đó tạo chỉ mục mới và viết bất cứ thứ gì mình thích lên đó. Tuy nhiên, trong quá trình phát triển, để ngăn chặn các trang thông tin có thể gây hiểu nhầm và cung cấp kiến thức sai sự thật này, Wikipedia đã tạo ra một đội quân đông đảo các biên tập viên tình nguyện, sẵn sàng cung cấp kiến thức đúng dựa trên sự hiểu biết của mình. Theo trang Wikipedia Community, hiện tại cộng đồng biên tập viên này có đến 133.540 người thường xuyên hoạt động.
Những chuyển động để chống lại tin tức giả mới chỉ được Facebook chú ý đến gần đây, khi có rất nhiều lời chỉ trích cho rằng vấn nạn này trên mạng xã hội lớn nhất thế giới đã gây ảnh hưởng đến kết quả bầu cử tổng thống Mỹ năm 2016. Mark Zuckerberg lúc đó đã lên tiếng cho rằng “tin vịt” chỉ là một phần rất nhỏ trong lượng lớn tin tức trên Facebook, và gọi những chỉ trích của dư luận là “những ý nghĩ điên khùng”. CEO của Facebook sau đó đã phải lên tiếng xin lỗi và bắt tay vào “dẹp loạn”. Xây dựng đội ngũ nhân viên kiểm tra tin tức gần như là bất khả thi so với hàng tỉ thứ xuất hiện hàng ngày trên Facebook, hợp tác với đơn vị khác để xác thực tin tức cũng không phải giải pháp khi Facebook không muốn người ngoài động tay vào cơ sở dữ liệu của mình. Cuối cùng, Mark Zuckerberg đã tìm đến Wikipedia cùng đội quân biên tập viên đông đảo của họ, nhằm cung cấp cho người dùng một công cụ xác thực nguồn tin.
Thế giới đang sôi nổi với trí tuệ nhân tạo, với những thuật toán cao cấp, với công nghệ học máy xuất hiện ở khắp mọi nơi. Nhưng việc phân biệt thật - giả dường như vẫn là thứ quá khó đối với chúng.