Steven Brill: CÁI CHẾT CỦA SỰ THẬT- CHƯƠNG SÁU: BÁC SĨ CẤP CỨU HAY TAY SAI CỦA CÔNG TY THUỐC LÁ?

Nguyên Tác: The Death of Truth: How Social Media and the Internet Gave Snake Oil Salesmen and Demagogues the Weapons They Needed to Destroy Trust and Polarize the World–And What We Can Do About It.

Tác Giả: Steven Brill

(Chuyển ngữ tiếng Việt: ChatGPT; Hiệu đính (và chịu trách nhiệm): T.Vấn)

GIỚI THIỆU TÁC PHẨM & TÁC GIẢ

CHƯƠNG SÁU

BÁC SĨ CP CU HAY TAY SAI CA CÔNG TY THUC LÁ?

Sau khi NewsGuard ra mắt, chúng tôi bắt đầu phát hành các báo cáo về nơi và cách thông tin sai lệch lan truyền trên các nền tảng. Chúng tôi nghĩ đây là một dịch vụ công hữu ích, cách để nâng cao hồ sơ của mình, và hy vọng cũng là cách để làm các nền tảng xấu hổ và buộc họ hợp tác với chúng tôi.

Ví dụ, chúng tôi cung cấp cho Tổ chức Y tế Thế giới (WHO) các báo cáo kiểm tra định kỳ về thông tin sai lệch liên quan đến COVID mà các nhà phân tích của chúng tôi phát hiện trên Facebook, Twitter, Instagram, YouTube và TikTok. Một báo cáo năm 2020 ghi lại, kèm ảnh chụp màn hình, các nhóm Facebook riêng tư đang phát tán thông tin sai lệch về đại dịch tới lượng khán giả lớn trên toàn thế giới. Một báo cáo khác ghi nhận làn sóng thông tin sai lệch liên quan đến sức khỏe trên các video TikTok.

Một quan chức WHO sẽ chuyển các báo cáo này cho các nền tảng (những nền tảng từ chối nhận trực tiếp từ chúng tôi, thậm chí không giao tiếp với chúng tôi). Khi các nền tảng xử lý chậm hoặc không hành động để gỡ bỏ những nội dung độc hại nhất mà chúng tôi phát hiện, quan chức WHO và đội ngũ của họ yêu cầu chúng tôi bắt đầu công bố công khai các báo cáo càng tích cực càng tốt sau khi chúng tôi đăng chúng trên trang web.

Các kỹ sư của TikTok đã tạo ra một thuật toán đề xuất gây nghiện đến mức vào năm 2020, nó thách thức Facebook về mức độ phổ biến trực tuyến, đặc biệt với giới trẻ, và thách thức YouTube với tất cả đối tượng. Đến năm 2022, các nhà phân tích của NewsGuard đã thực hiện một báo cáo cho WHO cho thấy tám trong chín trẻ em được khảo sát ở Mỹ và châu Âu về nội dung của TikTok đã nhận được thông tin sai lệch về sức khỏe trong vòng 35 phút sau khi đăng nhập. Một báo cáo thứ hai cho thấy công cụ tìm kiếm của TikTok, vốn đã trở thành công cụ chính để thanh thiếu niên tìm kiếm tin tức, trình bày thông tin sai lệch về các chủ đề như chiến tranh Nga-Ukraine, COVID và các vụ xả súng ở trường gần 20% thời gian (tỷ lệ gần bằng YouTube). Báo cáo thứ ba làm nổi bật cách, trong những ngày sau quyết định của Tòa án Tối cao lật lại quyền phá thai theo Roe v. Wade, TikTok xuất hiện 102 video với tổng cộng 18,1 triệu lượt xem chứa thông tin sai lệch về “phá thai bằng thảo dược,” bao gồm một video đặc biệt phổ biến đề xuất dùng đu đủ, hạt mè và các loại cá giàu thủy ngân để gây sẩy thai.

Khi những video nguy hiểm về tự làm phá thai này xuất hiện, nhóm tin cậy và an toàn của TikTok đã thực hiện các bước để chặn bất kỳ ai tìm kiếm các từ khóa có thể dẫn đến nội dung nguy hiểm, bao gồm “phá thai tự nhiên.” Tuy nhiên, các nhà phân tích của NewsGuard phát hiện một cách ngày càng phổ biến để vượt qua bộ lọc kiểm duyệt của nhóm tin cậy và an toàn bằng cách sử dụng cái mà The Washington Post gọi là “algospeak”—từ mã hoặc cách viết sai chính tả có chủ ý, thay chữ bằng ký tự đặc biệt để tránh bị phát hiện. Một tìm kiếm trên TikTok với từ “natural abortion” không trả về nội dung nào và hiện thông báo “Không tìm thấy kết quả.” Tuy nhiên, tìm kiếm “natural ab0rti0n” hoặc “natural aborshun” cho ra hàng trăm kết quả. Tương tự, tìm kiếm “herbal abortion” hiện thông báo không tìm thấy, nhưng “herbal aborshun” cho ra hàng trăm video. Ngay sau khi báo cáo của NewsGuard được công bố, TikTok đã gỡ bỏ các video vi phạm. Những người phát tán chúng lại chuyển sang các từ mã mới.

Trên toàn cầu, sau khi làn sóng phẫn nộ về thông tin sai lệch trên Facebook bùng nổ, trò chơi mèo vờn chuột này tiếp tục leo thang khi các nền tảng tuyển dụng hàng trăm giám đốc, giám sát viên, nhà nghiên cứu, “chuyên gia hỗ trợ xử lý tình huống,” “chuyên gia giám sát và phát hiện,” “quản lý giảm thiểu tác hại,” “thẩm định viên,” và nhiều nhân sự với danh xưng ngày càng đa dạng. Đồng thời, họ thuê hàng nghìn người kiểm duyệt thông qua các công ty bên ngoài. Đội quân tin cậy và an toàn này mở rộng nhanh từ năm 2017, mặc dù đến giữa năm 2023, chúng bắt đầu giảm sau khi Elon Musk tiếp quản Twitter và cắt giảm nỗ lực tin cậy và an toàn, tạo cớ cho các công ty khác làm theo.

Những người này còn có Hiệp hội Chuyên gia Tin cậy và An toàn riêng, với tên viết tắt TSPA. Phát triển từ hội nghị năm 2018 tại Silicon Valley mang tên “Content Moderation at Scale,” hiệp hội mô tả sứ mệnh là “hỗ trợ cộng đồng toàn cầu của các chuyên gia phát triển và thực thi các nguyên tắc và chính sách xác định hành vi và nội dung chấp nhận được trực tuyến.” Các thành viên bắt đầu tham dự hội nghị hàng năm TrustCon, được mô tả trên trang web TSPA là “hội nghị toàn cầu dành cho các chuyên gia tin cậy và an toàn, chịu trách nhiệm trong công việc đầy thử thách là giữ an toàn cho các nền tảng và cộng đồng của chúng ta. TrustCon, hội nghị duy nhất thuộc loại này, là sự kết tinh của tầm nhìn TSPA nhằm tạo ra và phát triển cộng đồng thực hành toàn cầu giữa các chuyên gia tin cậy và an toàn.”

Khi hồ sơ của NewsGuard được nâng cao, chúng tôi tiếp tục cố gắng thu hút sự quan tâm của các nền tảng ngoài Microsoft đối với công việc của mình. Chúng tôi thậm chí nhận được một hợp đồng nhỏ từ một nhân viên tin cậy và an toàn tại Facebook, người cấp phép dữ liệu liên quan đến chăm sóc sức khỏe của chúng tôi cho một dự án nghiên cứu. Tuy nhiên, trong khi kinh doanh của chúng tôi mở rộng ở các lĩnh vực khác, các nền tảng lớn vẫn không quan tâm đến sản phẩm cốt lõi của chúng tôi: khả năng hiển thị đánh giá độ tin cậy nguồn bên cạnh bất kỳ thông tin nào được trình bày trên nền tảng. Dù vậy, chúng tôi vẫn kiên trì và thường xuyên tham gia các cuộc thảo luận với các thành viên của những đội tin cậy và an toàn này. Họ thường ủng hộ, thậm chí nhiệt tình về những gì chúng tôi đang làm. Nhưng chúng tôi luôn được nói một cách mơ hồ rằng họ sẽ phải tham khảo ý kiến quản lý rồi mới phản hồi—và họ chưa bao giờ làm vậy.

Một điều tôi nhận thấy là những người tin cậy và an toàn làm việc với chúng tôi đều có thành tích dịch vụ công hoặc học thuật xuất sắc, hoặc cả hai: cựu nhà phân tích CIA và kỹ sư dữ liệu; cựu luật sư tại Nhà Trắng, Lầu Năm Góc và Bộ Tư pháp; một quản lý khủng hoảng của Amnesty International; một cựu nhà tổ chức cộng đồng và nhà vận động cải cách tư pháp vị thành niên.

Điều này chỉ làm tăng thêm sự hoài nghi của tôi. Tất cả những người tài năng này, những người có thể làm nhiều điều tốt cho thế giới hoặc ít nhất không gây hại, đang nói một cách nghiêm túc về nỗ lực tin cậy và an toàn của họ trong khi các công ty trả lương hậu hĩnh cho họ đang tạo ra hỗn loạn trên toàn thế giới bằng cách sản xuất một lượng nội dung khổng lồ hoàn toàn không đáng tin cậy hay an toàn.

Rằng cuộc họp hàng năm của họ được gọi là TrustCon, tôi đùa với các đồng nghiệp, hẳn phải vì ai đó trong tổ chức ít nhất có sự tự nhận thức và một chút hài hước để nhận ra rằng họ đang thực hiện một trò lừa. Cán bộ Reddit được liệt kê trong chương trình diễn giả TrustCon là người xây dựng “mô hình và hệ thống để nhận diện nội dung vi phạm chính sách và nhạy cảm với chính sách” liệu có thực sự tin vào điều đó không? Diễn giả dẫn dắt các đội tại TikTok “phát triển khung chính sách toàn cầu, tương tác với xã hội dân sự và cộng đồng, và đưa thực hành Đổi mới Có Trách nhiệm vào sản phẩm và quy trình” liệu có thực sự tin họ đang làm điều đó? Thật sao? Còn cô nhân viên Google, lý lịch diễn giả nói rằng cô từng giữ “nhiều vai trò an ninh quốc gia tại Thượng viện, Bộ Quốc phòng Hoa Kỳ và là phi công C-17 Không quân Hoa Kỳ,” thì sao? Chắc chắn cô xứng đáng được cảm ơn về dịch vụ công, nhưng tôi ho khan về ý tưởng rằng cô đang tiếp tục dịch vụ đó tại Google.

Tôi đã nhầm. Tôi nghĩ về những người này như các nhà khoa học được các công ty thuốc lá thuê để tìm ra các “lá chắn” như bộ lọc menthol, nhằm tránh bị điều chỉnh và giữ dòng tiền chảy đều khi số người chết do sản phẩm của họ tăng lên. Tôi nên nghĩ về họ như các bác sĩ cấp cứu đang phân loại vết thương do đạn.

Tôi chỉ nhận ra điều đó sau khi chúng tôi làm việc với một giám đốc tin cậy và an toàn tại Twitter vào mùa thu năm 2022. Tôi sẽ gọi ông ấy là Bob, mặc dù đó không phải tên thật. Bob dường như hiểu cách dữ liệu của NewsGuard có thể được sử dụng để giúp Twitter tránh việc lan truyền thông tin sai lệch và thông báo cho người dùng về các nguồn đáng tin cậy hoặc không đáng tin cậy. Chúng tôi dường như đang tiến gần đến một hợp đồng đột phá. Tuy nhiên, khi Elon Musk hoàn tất việc mua Twitter vào cuối tháng 10, Bob bị sa thải cùng với hầu hết đội ngũ tin cậy và an toàn. Chúng tôi sau đó thuê ông ấy vài tháng với vai trò tư vấn để giúp hiểu cách các nhân sự tin cậy và an toàn vận hành. Bob dạy chúng tôi mọi thứ, từ thuật ngữ họ sử dụng, cách các công ty tổ chức quy trình, đến chiến lược mà chúng tôi có thể dùng để triển khai hợp đồng mà không thu hút sự chú ý và phản đối của các giám đốc cấp cao và người sáng lập bảo thủ. Trong quá trình đó, tôi cũng học được nhiều điều về Bob và cộng đồng tin cậy-an toàn mà ông ấy là thành viên.

Công việc đầu tiên của Bob sau khi tốt nghiệp đại học là trong lĩnh vực mà ông gọi là “theo dõi và ngăn chặn khủng hoảng và tội ác tàn bạo.” Chuyên môn của ông là theo dõi, cho một nhóm phi lợi nhuận toàn cầu, cách mà ông gọi là “vũ khí hóa mạng xã hội” liên quan đến tội ác chiến tranh và các tội ác khác. Ông đi khắp thế giới khoảng mười năm, làm các việc về công nghệ được các nhóm khủng bố và các nhà nước độc tài như Sudan sử dụng. Năm 2019, ông quyết định ổn định cuộc sống và bắt đầu một gia đình. “Đây là thời điểm thích hợp,” ông giải thích. “Các công ty công nghệ lớn đã nghiêm túc về thông tin sai lệch sau những vụ Brexit, Cambridge Analytica, và cuộc bầu cử 2016.”

Khi Bob bắt đầu làm việc tại Twitter ở San Francisco, “Tôi gặp lại những người tôi từng biết ở Myanmar hay Sudan,” ông nhớ lại. Khi ông tham dự các cuộc họp với nhân sự tin cậy và an toàn từ các công ty khác, ông cũng tái kết nối với các đồng nghiệp cũ hoặc bạn bè từ cái mà ông gọi là “cộng đồng phi lợi nhuận về khủng hoảng.”

“Từ khi các nền tảng này bắt đầu đến 2018, giả định rằng họ không quan tâm đến thiệt hại mà họ gây ra là đúng,” Bob nói. Nhưng sau đó, ông giải thích, “họ bắt đầu tuyển dụng những người quan tâm. Những người có nền tảng về an ninh quốc gia, buôn người, vi phạm nhân quyền, tội ác—và chúng tôi thấy mình đang giảm thiểu thiệt hại.” Ông bổ sung rằng từ năm 2018, “cộng đồng tin cậy và an toàn đã thực sự chuyên nghiệp hóa… Trước đây, chúng tôi ở tuyến đầu, theo cách analog, ngoài hiện trường. Giờ đây chúng tôi ở tuyến đầu kỹ thuật số. Chúng tôi vẫn tin rằng mình đang làm cùng một việc—giúp đỡ những người dễ bị tổn thương.”

Vì vậy, đúng, họ là các bác sĩ cấp cứu đang phân loại vết thương do đạn trong một đất nước đầy súng. Bob đồng ý với phép ẩn dụ đó khi tôi hỏi, và ông thêm, “hoặc bác sĩ điều trị ung thư phổi dù không thể ngăn ngừa nó.”

Nhưng phép ẩn dụ này không hoàn hảo. Các bác sĩ ở phòng cấp cứu không làm việc cho các hãng súng hay công ty thuốc lá. Và công việc thành công của họ không ảnh hưởng đến lợi nhuận của công ty như một chương trình phòng ngừa của Bob có thể ảnh hưởng tiêu cực đến lượng người dùng và lợi nhuận của công ty. Dù vậy, tôi đã bị thuyết phục rằng họ thực sự là những Người Lành (Good Samaritans) mà Điều 230 (Section 230) hướng đến. Họ quan tâm và đang làm tốt nhất có thể.

Nhưng có giới hạn. “Có một điểm mà những gì chúng tôi làm chỉ có thể đi đến mức đó,” Bob nói, “cho đến khi nó va phải mô hình kinh doanh, và chúng tôi bị cản trở.” Frances Haugen, ông nói, “đã đúng về điều đó lúc đó, và đến mức lớn, cô ấy vẫn đúng về điều đó bây giờ.” Ông giải thích rằng cộng đồng tin cậy và an toàn đã cải thiện khả năng giữ những nội dung điên rồ, độc hại nhất khỏi mạng, đặc biệt ở Mỹ và các nền dân chủ phương Tây nơi các nền tảng quan tâm đến uy tín công chúng, thường là với cái giá phải hy sinh các nước nghèo hơn. Tuy nhiên, ông nói, “luôn có điểm mà chúng tôi sẽ bị ngăn cản.” Ông dẫn chứng một đội Twitter mà ông tham gia muốn không cho phép sử dụng âm thanh trong một số phòng chat vì “âm thanh hấp dẫn và thuyết phục hơn văn bản rất nhiều, và chúng tôi không thể kiểm soát hậu quả.” Đội này bị các giám đốc sản phẩm và kinh doanh bác bỏ chính vì lý do họ lo ngại. Âm thanh sẽ thu hút nhiều tương tác hơn.

Sau cuộc trò chuyện đó, tôi nhận ra rằng trước đây tôi đã thấy manh mối về thực tế mô hình kinh doanh này trong những cuộc trò chuyện tôi tưởng là kiêu ngạo, từ chối của các đội tin cậy-an toàn các nền tảng, những năm sau lần từ chối đầu tiên rằng chúng tôi sẽ không đạt được quy mô hay được tin tưởng. Thực tế, tôi còn nhớ một phụ nữ tại Google mở đầu cuộc trò chuyện bằng cách nói đại loại: “Bạn cần hiểu rằng chúng tôi phải có chính sách phù hợp với những gì chúng tôi làm ở quy mô lớn dù bạn và tôi cá nhân muốn kết quả khác. Chúng tôi vận hành dưới những ràng buộc của mô hình kinh doanh ở đây, điều có thể không phải là lựa chọn của bạn hay tôi.” Dù vậy, cô vẫn đang xử lý “vết thương do đạn” tốt nhất có thể.

Một buổi sáng, tôi tham dự một hội nghị CEO do Yale School of Management tổ chức về thông tin sai lệch trực tuyến. Trong buổi thảo luận, một giám đốc truyền thông kỳ cựu nhận xét về YouTube rằng “mọi người đăng khoảng hai nghìn năm trăm video mỗi phút lên nền tảng, nên họ không thể kiểm duyệt tất cả. Facebook cũng không thể.”

Đó là lúc vấn đề cốt lõi liên quan đến mô hình kinh doanh của các nền tảng trở nên rõ ràng với tôi. Tại sao họ phải đăng 2.500 video mỗi phút? Tại sao Facebook phải cho phép hơn một tỷ bài đăng mỗi ngày? Bob và đồng nghiệp của ông làm sao có thể là những người giảm thiểu thiệt hại hiệu quả trong trung tâm phân loại như vậy? Họ có thể về nhà vào buổi tối với cảm giác tốt vì đã ngăn chặn được điều gì đó, tham dự hội nghị trao đổi ý tưởng và “chiến tích chiến trường.” Tuy nhiên, họ cũng là các nhà khoa học của các công ty thuốc lá, những người mà công việc của họ nhằm ngăn thay đổi thực sự? “Vâng, đôi khi tôi không thể quyết định mình là ai—bác sĩ cấp cứu, hay nhà khoa học sản phẩm của công ty thuốc lá,” Bob thừa nhận.

Chúng ta sẽ phản ứng thế nào nếu một công ty ô tô nói rằng nhu cầu sản phẩm của họ quá cao nên không thể sản xuất đủ nếu dành thời gian lắp thiết bị an toàn và kiểm tra chất lượng? Tại sao các cơ quan quản lý không thể coi các nền tảng như các công ty ô tô, tàu dầu, công ty dược, hay nhà sản xuất đồ chơi? Tại sao không thể yêu cầu họ không vận hành với khối lượng khiến các quy trình an toàn không thể thực hiện?

Người tố giác Facebook, Frances Haugen, viết trong hồi ký rằng cô lấy cảm hứng từ Ralph Nader, người gần như đơn độc vạch trần việc các công ty ô tô phớt lờ an toàn sản phẩm, dẫn đến việc họ bị điều chỉnh ở Mỹ và toàn thế giới. Việc đảo ngược mô hình kinh doanh của các nền tảng mạng xã hội sẽ khó hơn nhiều. Thứ nhất, chúng ta nói về lời nói, không phải dây an toàn hay túi khí. Lời nói “an toàn” và “có hại” rất khó, đôi khi không thể, định nghĩa. Ở Mỹ, Tu chính án thứ nhất bảo vệ hầu hết mọi thứ. Các nước khác cũng không thành công nhiều trong vấn đề này. Thứ hai, mô hình kinh doanh của các công ty ô tô không phụ thuộc vào việc xe không an toàn; làm xe an toàn chỉ là chi phí họ muốn tránh. Mô hình kinh doanh của các nền tảng phụ thuộc vào khối lượng và tốc độ của nội dung gây tranh cãi. Không phải vấn đề phụ. Đó là chỉ số quan trọng. Nội dung càng thu hút, càng nhiều mắt xem, càng nhiều doanh thu quảng cáo.

Tuy nhiên, trong Chương 15, chúng tôi sẽ nêu cách quản lý an toàn nền tảng một cách thực tế (không cần luật pháp) và hợp hiến.

Tôi đã nhiều lần nhắc đến doanh thu quảng cáo như là động lực cho hầu hết những gì chúng ta thấy trực tuyến. Vậy mối liên hệ giữa nhà quảng cáo và nội dung mà người xem thấy cùng lúc với quảng cáo thì sao? Người ta sẽ nghĩ rằng nhà quảng cáo không muốn liên quan đến thông tin sai lệch, thông tin sai lệch từ Nga, hoặc một trang web tuyên bố vắc xin COVID sẽ giết bạn.

Khoảng 35% trong hàng nghìn trang tin trong top 95% mức độ tương tác ở Mỹ, Canada, Anh, Pháp, Ý, Đức, Áo, Úc và New Zealand là rất không đáng tin cậy. Hầu hết được tài trợ bởi quảng cáo. Hầu như tất cả đều có tài khoản Facebook, Twitter, YouTube, nơi họ đăng nội dung hấp dẫn nhất để thu hút lượt xem và tăng doanh thu quảng cáo trở lại trang web. Một khảo sát tháng 6/2022 ở Mỹ cho thấy 42% người dùng nói rằng họ thấy thông tin sai lệch mỗi lần hoặc gần như mỗi lần sử dụng Facebook. TikTok 35%, Twitter 32% (trước khi Musk tiếp quản và nới lỏng bộ lọc), YouTube 22%.

Bạn sẽ nghĩ điều này sẽ làm các nhà quảng cáo tránh xa. Sai rồi.

Vào đêm tháng 10/2022 khi Paul Pelosi, chồng của Chủ tịch Hạ viện Nancy Pelosi lúc đó, bị tấn công tại nhà, một trang báo địa phương có tên Santa Monica Observer đưa tin rằng Paul thực sự bị tấn công trong một vụ gặp gỡ với một nam mại dâm. Tin tức này hoàn toàn bịa đặt. Trang web đã đăng nhiều trò lừa khác, bao gồm rằng Hillary Clinton đã chết năm 2016 và một người đóng thế đã tham gia tranh luận với Trump.

Tuy nhiên, vì trang Santa Monica Observer đăng tin trên Facebook và Twitter, tin nhanh chóng lan truyền. Ngay cả Elon Musk, chủ sở hữu mới của Twitter, cũng tweet cho 111 triệu người theo dõi, khiến tin giả trở nên lan truyền, và người như Donald Trump Jr. đã retweet hình ảnh đồ lót và búa, chú thích: “Trang bị costume Paul Pelosi cho Halloween sẵn sàng.” Bài đăng nhận khoảng 19 nghìn lượt thích. Do đó, bài báo trên Observer, được liên kết với tất cả các tweet và retweet, nhận được một lượng truy cập khổng lồ. Bên cạnh bài viết về Paul Pelosi và nam mại dâm là quảng cáo của các thương hiệu lớn như Hertz, Bưu điện Mỹ, Capital One, Lowe’s, Petco, Disney, Verizon, và Nike.

Tại sao các thương hiệu này muốn quảng cáo trên một trang như vậy, hay xuất hiện bên cạnh bài đăng Facebook hoặc Twitter chứa rác này? Tại sao họ muốn tài trợ cho loại nội dung đó? Họ chẳng lo bị xấu hổ khi khách hàng thấy quảng cáo sao?

Có, họ sẽ lo nếu biết quảng cáo xuất hiện trên trang như Santa Monica Observer. Nhưng họ không biết. Khoảng hai mươi năm trước, các nhà quảng cáo bắt đầu đổ tiền vào cái gọi là quảng cáo lập trình (programmatic advertising). “Chương trình” là một loạt thuật toán được ca ngợi là đột phá trong hiệu quả chi phí quảng cáo—đến mức khi các thương hiệu lớn xuất hiện bên cạnh câu chuyện Paul Pelosi, 60% quảng cáo được mua trực tuyến qua lập trình, vượt xa các phương tiện truyền thống trên TV, radio, tạp chí và biển quảng cáo cộng lại.

Giống như thuật toán đề xuất của mạng xã hội, hệ thống quảng cáo lập trình này mờ mịt, không chịu trách nhiệm, và cực kỳ sinh lợi cho người vận hành. Các nhà tài trợ, như Hertz, không hề biết nó hoạt động ra sao hay có hiệu quả không. Thông qua các công ty quảng cáo, họ chỉ đổ hàng tỷ đô vào “hộp đen” thuật toán, hứa hẹn tiếp cận đúng khách hàng mục tiêu với chi phí thấp nhất—nhưng không quan tâm quảng cáo xuất hiện ở đâu.

Hãy coi câu chuyện về cái chết của sự thật như câu chuyện về hai thuật toán nguy hiểm. Một thuật toán, được Section 230 giải phóng, cho phép nền tảng mạng xã hội đề xuất nội dung, dù chia rẽ hay sai, thu hút sự chú ý nhất. Bộ thuật toán thứ hai do các công ty quảng cáo công nghệ vận hành—các doanh nghiệp tỷ đô mà bạn có thể chưa nghe—thưởng cho nội dung như câu chuyện Paul Pelosi, bất kể đúng hay sai.

Trong thập kỷ qua, hai bộ thuật toán này đã tạo ra môi trường thông tin mà—với quá nhiều người ở quá nhiều nơi—đã xóa nhòa ý tưởng về sự thật và tạo cơ hội chưa từng có cho các nhà thuyết âm mưu, lừa đảo, dân tuý và các nhà độc tài dựa vào sự hoài nghi và chia rẽ.

Chú Thích:

*1 Tôi cố ý diễn đạt mập mờ ở đây để bảo vệ danh tính của ông ấy, vì vài tháng sau khi rời Twitter, Bob nhận một công việc liên quan đến tin cậy và an toàn tại một công ty công nghệ khác, nơi việc nói chuyện với nhà báo về công việc của mình bị coi là không nên.

*2 Nhiều lần cố gắng liên lạc với nhân sự của Santa Monica Observer để lấy bình luận đều bị phớt lờ.

Bài Mới Nhất
Search