Steven Brill: CÁI CHẾT CỦA SỰ THẬT- CHƯƠNG BA: “CÁI GÌ ĐANG XẢY RA VỚI CÔNG CỤ GỢI Ý CỦA BẠN?”

Nguyên Tác: The Death of Truth: How Social Media and the Internet Gave Snake Oil Salesmen and Demagogues the Weapons They Needed to Destroy Trust and Polarize the World–And What We Can Do About It.

Tác Giả: Steven Brill

(Chuyển ngữ tiếng Việt: ChatGPT; Hiệu đính (và chịu trách nhiệm): T.Vấn)

GIỚI THIỆU TÁC PHẨM & TÁC GIẢ

CHƯƠNG BA

“CÁI GÌ ĐANG XẢY RA VỚI CÔNG CỤ GỢI Ý CỦA BẠN?”

Năm 2013, Renée DiResta, khi đó 32 tuổi, vừa sinh đứa con đầu lòng. Cô muốn tìm hiểu nhanh về các vấn đề liên quan đến việc chăm sóc con, chẳng hạn như lịch tiêm chủng cho bé. Là người mê lập trình từ nhỏ, DiResta đã tham gia ngành công nghệ từ lâu — với vai trò là một nhà giao dịch trên Phố Wall, nơi cô chứng kiến các thuật toán ngày càng đóng vai trò quan trọng, một nhà phân tích tại một công ty đầu tư mạo hiểm ở San Francisco, và là trưởng phòng marketing tại một start-up công nghệ vận chuyển, cũng ở San Francisco. Vì vậy, cô đã có nhiều bạn bè trong Thung lũng Silicon khi chuyển về phía tây hai năm trước đó. Nhưng không ai trong số họ có con. Vì vậy cô lên mạng để tìm thông tin về tiêm chủng cho trẻ sơ sinh.

“Tôi thực sự sững sờ,” cô nhớ lại, “trước cơn giận dữ, sự phẫn nộ mà tôi thấy. Tôi chỉ muốn tìm một số thông tin cơ bản để bổ sung cho những gì bác sĩ đã nói với tôi… Nhưng những gì tôi thấy là một cuộc tranh luận giận dữ về điều mà tôi chưa từng nghĩ là gây tranh cãi.”

Hầu hết các ý kiến đều phản đối tiêm chủng, và với DiResta, cảm giác như cô vừa bước sang một hành tinh khác. Cô vốn tò mò, thích tham gia nghiên cứu trực tuyến, và có khá nhiều thời gian khi em bé ngủ. Vì vậy, cô lao xuống một “hang thỏ” do chính mình tạo ra, ghi chú và thu thập dữ liệu trong quá trình đó. Cô nhận thấy càng tìm kiếm thông tin về vaccine hoặc các chủ đề liên quan trên Facebook hay Twitter, đọc những bài chống vaccine hoặc xem các video YouTube liên kết, thì các nền tảng càng hiển thị nhiều nội dung tương tự để cô đọc, và Facebook càng đề xuất các nhóm để cô tham gia, toàn là những người cuồng chống vaccine. Khi cô tham gia một nhóm, cô không chỉ bị “tấn công” bởi nhiều đề xuất nhóm khác liên quan đến chủ đề này mà còn bị gợi ý tham gia các cộng đồng tin vào thuyết âm mưu khác, chẳng hạn như những người tin rằng máy bay đang phun hóa chất lên công chúng mà không hay biết.

Một số đêm, cô nhắn tin cho bạn bè trong ngành kể về những điều điên rồ mình thấy và hỏi: “Công cụ gợi ý của các bạn sao thế này?” Câu trả lời, cô nói, thường rất thờ ơ, kiểu “đó là cách nó hoạt động.”

DiResta tự hỏi liệu sự do dự tiêm chủng có lan rộng trong dân chúng giống như cách nó chiếm lĩnh cộng đồng trực tuyến hay không. Cô tìm thấy một trang web của tiểu bang California báo cáo tỷ lệ tiêm vaccine sởi của từng trường học và nhà trẻ, dữ liệu này cô quan tâm vì sắp phải chọn trường cho con trai. California có luật cho phép phụ huynh từ chối tiêm vaccine cho con đối với một số bệnh, bao gồm sởi, mà không cần nêu lý do như tín ngưỡng tôn giáo. Cô phát hiện một số trường có tỷ lệ tiêm sởi thấp đến 30 hoặc 40 phần trăm.

Đi sâu hơn, DiResta xem lại dữ liệu 10 năm và thấy xu hướng trẻ chưa tiêm chủng liên tục tăng. Luận văn đại học năm 2004 của cô từng nghiên cứu tác động trong nước của tuyên truyền ở Nga. Giờ đây, cô nhận ra internet cung cấp một công cụ tuyên truyền tăng cường cho mọi nguyên nhân. Như cô sẽ giải thích sau này trong bộ phim tài liệu nổi tiếng năm 2020 của Netflix về các nền tảng mạng xã hội, The Social Dilemma, “Không phải trước đây chưa từng có các nhà tuyên truyền có động cơ cao. Vấn đề là các nền tảng cho phép lan truyền những câu chuyện thao túng với độ dễ dàng phi thường, và không tốn nhiều tiền.”

Một lần nữa, tin tốt về internet là bất kỳ ai cũng có thể trở thành nhà xuất bản. Và tin xấu về internet là bất kỳ ai cũng có thể trở thành nhà xuất bản, và những gì họ xuất bản càng gây tranh cãi hoặc phi lý, thì càng có nhiều người tiếp cận.

Ngay cả trước khi DiResta phát hiện ra thiệt hại liên quan đến sức khỏe do các thuật toán gợi ý gây ra, một học giả ở Canada đã chỉ ra cách internet làm ô nhiễm thông tin mà bệnh nhân thấy và hành động dựa trên đó. Năm 2010, Anna Kata, nhà nghiên cứu tại Khoa Nhân học, Đại học McMaster, Hamilton, Ontario, xuất bản một bài báo trên tạp chí y học Vaccine mang tựa đề “A Postmodern Pandora’s Box: Anti-vaccination Misinformation on the Internet.”

Bằng cách thử Google với nhiều từ khóa liên quan đến vaccine, bà thấy thay vì cung cấp thông tin chuyên môn về vaccine, kết quả tìm kiếm thiên về hiển thị các trang web nhấn mạnh nguy cơ. “Các lập luận xoay quanh chủ đề an toàn và hiệu quả, y học thay thế, quyền công dân, thuyết âm mưu và đạo đức xuất hiện trên phần lớn các trang web được phân tích,” bà kết luận.

Hai năm sau, năm 2012, Kata công bố nghiên cứu thứ hai. Lần này bà tập trung vào tác động của cái bà gọi là “Web 2.0” — sự xuất hiện của mạng xã hội như một nguồn thông tin trực tuyến vượt ra ngoài việc tìm kiếm trên các trang web. “Các khảo sát cho thấy Internet giờ đây ngang hàng với bác sĩ trong vai trò nguồn tư vấn sức khỏe chính,” bà kết luận. Kết quả khiến bà lo ngại:

  • Phân tích các video tiêm chủng trên YouTube cho thấy 32% phản đối tiêm chủng, và những video này có lượt đánh giá và lượt xem cao hơn các video ủng hộ tiêm chủng; 45% video tiêu cực truyền tải thông tin mâu thuẫn với chuẩn mực tham chiếu.
  • Phân tích riêng về tiêm chủng HPV (human papillomavirus) trên YouTube cho thấy 25,3% video mô tả tiêm chủng một cách tiêu cực.
  • Phân tích blog trên MySpace về tiêm chủng HPV cho thấy 43% mang thông điệp tiêu cực; các blog này tham chiếu đến các tổ chức phản đối vaccine và lan truyền dữ liệu không chính xác.
  • Một nghiên cứu theo dõi người dùng Internet Canada ghi nhận việc chia sẻ thông tin về vaccine cúm trên mạng xã hội như Facebook, Twitter, YouTube và Digg. Trong số các kết quả tìm kiếm hàng đầu, mỗi kết quả được chia sẻ và xem hàng ngàn lần, 60% chứa quan điểm phản đối tiêm chủng.

DiResta, đọc bài báo của Kata ngay sau khi xuất bản, nhận ra rằng, như cô nói với tôi, “Loại thông tin sai lệch trên mạng xã hội, trên Internet 2.0, độc hại hơn vì nó đến từ các nguồn mà bạn có khả năng tin tưởng hơn: bạn bè hoặc bạn bè của bạn bè, hoặc các nhóm bạn đã tham gia, không chỉ từ một trang web nào đó.”

Kata cũng kết luận rằng Web 2.0 đã tạo ra “một mô hình chăm sóc sức khỏe hậu hiện đại mới… nơi quyền lực đã chuyển từ bác sĩ sang bệnh nhân, tính hợp pháp của khoa học bị nghi ngờ, và chuyên môn được định nghĩa lại. Tất cả cùng tạo ra môi trường để các nhà hoạt động phản đối vaccine có thể lan truyền thông điệp một cách hiệu quả.”

Các tỷ lệ tiêm chủng thấp mà DiResta thấy có thể đặt tất cả trẻ em vào nguy cơ, cô nghĩ, bao gồm cả con trai cô, vì khi tỷ lệ tiêm chủng giảm dưới mức cần thiết (thường là 95% cho bệnh sởi), nhiều chủng bệnh có thể phát triển khi nhiều người mắc bệnh. Khi đó, ngay cả những trẻ đã tiêm cũng có thể bị nhiễm. Cô bắt đầu nghiên cứu cảm nhận cộng đồng và thấy 85% người California tin rằng vaccine an toàn. Vì vậy, cô gọi điện đến văn phòng thượng nghị sĩ bang để tìm hiểu tại sao các đề xuất siết chặt luật cho phép cha mẹ từ chối tiêm chủng chưa bao giờ có tiến triển. Cô phát hiện rằng nghị sĩ này, nhân viên của ông và những người khác mà cô hỏi đều biết về tỷ lệ ủng hộ vaccine áp đảo, nhưng cũng nhận thấy rằng mỗi khi một chính trị gia nói về việc tăng cường yêu cầu tiêm chủng, họ sẽ phải đối mặt với một cơn bão phản đối trực tuyến.

DiResta, cô nói với tôi, “phẫn nộ vì những người với thuyết âm mưu trực tuyến và khoa học rác rưởi này đang gây nguy hiểm cho con trai tôi.” Vì vậy cô lập một nhóm Facebook riêng để giáo dục phụ huynh. Tuy nhiên, khi theo dõi lượt chia sẻ, thích và không thích trên Twitter, cũng như bài đăng, chia sẻ lại và thành viên nhóm trên Facebook, cô nhận ra nhờ kinh nghiệm giao dịch và các gợi ý từ tin nhắn đêm khuya rằng cô không nhận được sự quan tâm như đối thủ. Về mặt số lượng, có thể có nhiều người thảo luận điềm tĩnh, có học thức trực tuyến, nhưng nội dung đó không tạo ra tương tác — thời gian mọi người dành trên nền tảng. Nội dung tạo ra tương tác là những thứ giận dữ, thậm chí quá mức. Những người tin vào âm mưu, bao gồm trong trường hợp này, những người tin có âm mưu bác sĩ hoặc công ty dược hại con họ, sẽ muốn nói về điều đó và truyền bá mãi. Một bà mẹ lên mạng và thấy niềm tin truyền thống của mình về vaccine được xác nhận sẽ ít khả năng duy trì tương tác và thuyết phục người khác.

***

Một lập luận phổ biến chống việc quản lý ngôn luận là “lời nói hay” sẽ đánh bại “lời nói xấu”. Nhưng điều đó sẽ không xảy ra nếu trận chiến được “dàn xếp” để lời nói xấu có tiếng nói mạnh hơn nhiều. Thực tế, khi kỹ sư dữ liệu của Facebook, Frances Haugen, trở thành người tố giác vào năm 2021 và công bố một kho tài liệu nội bộ để chứng minh rằng Facebook là một “cỗ máy tối ưu hóa lợi nhuận” mà “khuếch đại chia rẽ, cực đoan, và phân cực,” một trong những tài liệu tiết lộ rằng thuật toán của Facebook đã coi các biểu tượng cảm xúc như “giận dữ” có trọng số gấp năm lần “thích” trong thuật toán gợi ý, vì nó giữ người dùng tương tác nhiều hơn. Các tài liệu của Haugen cũng tiết lộ rằng các nhà khoa học dữ liệu của công ty thừa nhận rằng phản ứng “giận dữ,” cùng với “wow,” xuất hiện thường xuyên hơn trong nội dung chứa thông tin sai lệch.

Một bài thuyết trình nội bộ khác của Facebook, năm 2018, được The Wall Street Journal tiết lộ sau này, cảnh báo ban lãnh đạo: “‘Thuật toán của chúng ta khai thác sự hấp dẫn của não người đối với sự chia rẽ,’ một slide viết… ‘Nếu không được kiểm soát,’ nó cảnh báo, Facebook sẽ cung cấp cho người dùng ‘ngày càng nhiều nội dung chia rẽ để thu hút sự chú ý của người dùng & tăng thời gian trên nền tảng.’” Cùng bài báo còn ghi lại một bài thuyết trình nội bộ khác hai năm trước đó, liên kết trực tiếp các gợi ý của Facebook với gần hai phần ba số thành viên mới của các nhóm cực đoan ở Đức.

Sự thật và thông tin điều độ không vượt qua “bài kiểm tra” của thuật toán. Chúng không đủ hấp dẫn.

Để quyết định điều gì sẽ giữ bạn tương tác, thuật toán xem xét nhiều yếu tố, ngoài việc liệu từ ngữ có giận dữ hay không. Có nhiều người khác tương tác với bài đăng này không? Bài đăng này đến từ ai bạn biết, hay từ người biết ai đó bạn biết? Bạn có cùng nhân khẩu học, hay thậm chí lái cùng loại xe? Bạn đã đọc và thích nội dung tương tự mà người đăng đã đọc và thích, ngay cả khi nội dung đó không liên quan gì đến chủ đề hiện tại (vaccine)? Càng nhiều dữ liệu được nền tảng thu thập về bạn, thuật toán càng có “nhiên liệu.” Mục tiêu tối thượng là thuyết phục bạn dán mắt vào Twitter, Facebook hoặc YouTube (và sau này, khi ra mắt, là TikTok).

Thực tế, nhiều kỹ sư trong các nhóm tương tác này từng học cùng một khóa tại Đại học Stanford. Nó gọi là Persuasive Technology Lab, và giáo trình của Giáo sư B. J. Fogg, Persuasive Technology, đã trở thành “kinh thánh” cho các kỹ sư này.

Một kỹ sư hàng đầu của Google, Tristan Harris, từng tham gia khóa học của Fogg. Trong The Social Dilemma của Netflix, anh mô tả những gì học được là “làm sao dùng mọi điều chúng ta biết về tâm lý thuyết phục con người và xây dựng nó vào công nghệ.” Đến năm 2013, anh trở nên chán nản đến mức chuẩn bị một bộ slide phát cho đồng nghiệp mang tên “Kêu gọi giảm phân tâm và tôn trọng sự chú ý của người dùng.” Bộ slide nhanh chóng lan truyền tới hàng nghìn nhân viên Google. Harris đặc biệt lo ngại về tính nghiện của điện thoại thông minh và các ứng dụng. Ngay từ năm 2013, anh và đồng nghiệp đã ví smartphone như máy đánh bạc vì cách nó giữ người dùng dán mắt vào màn hình chờ “giải thưởng” từ click tiếp theo. Đến năm 2023, người Mỹ sẽ kiểm tra smartphone trung bình 144 lần mỗi ngày, với máy móc liên tục “nhả” nội dung mà không ai kiểm soát.

Tương tác, đến lượt mình, là thứ tạo ra doanh thu quảng cáo. Người dùng càng ở lâu trên nền tảng, họ càng thấy nhiều quảng cáo. Trên mạng, sự thật không có lợi nhuận. Vì vậy, nó bị hạ bậc.

Khi chủ đề là chăm sóc sức khỏe, các máy móc được thiết kế để thu hút tương tác nhiều nhất sẽ quảng bá các bài đăng của những người có quan điểm hốt hoảng hơn các bài của bác sĩ hay nhà khoa học. Quyết định liệu vaccine có khả năng giết bạn hay gây tự kỷ cho con bạn được giao cho “trí tuệ đám đông,” đọc, xem, thích, chia sẻ, nhưng bị lệch do thuật toán ưu tiên những người tham gia cuồng nhiệt nhất thay vì chuyên gia biết dữ liệu. Đúng là các nền tảng có thể lập luận rằng trao quyền nói cho mọi người là dân chủ và chống tinh hoa (dù họ sẽ không công khai thừa nhận điều họ biết—những người giận dữ hoặc phi lý nhận được nhiều quyền nói nhất vì mang lại nhiều tiền nhất cho nền tảng). Dù lý do là gì, mạng xã hội đang nghiền nát sự thật dựa trên chuyên môn. Khi bạn chuẩn bị phẫu thuật não hay cân nhắc vaccine, bạn muốn một bác sĩ phẫu thuật não hay nhà dịch tễ học tư vấn, chứ không phải một người có quan điểm giận dữ hay hoang tưởng mà thu hút nhiều lượt thích và chia sẻ nhất.

Trong The Social Dilemma, Cathy O’Neil, tác giả Weapons of Math Destruction — một cuốn sách về tác động xã hội của thuật toán — nói với Tristan Harris: “Mọi người nói về AI như thể nó biết sự thật… AI không thể giải quyết vấn đề tin giả. Google không có lựa chọn nói, ‘Ồ đây là thuyết âm mưu? Đây là sự thật?’ Bởi vì họ không biết sự thật là gì… Họ không có đại diện nào cho sự thật tốt hơn một click.”

Harris đáp: “Nếu chúng ta không đồng ý về điều gì là sự thật, hoặc rằng có sự thật, chúng ta sẽ thất bại. Đây là vấn đề cơ bản dưới các vấn đề khác, bởi nếu chúng ta không đồng ý về sự thật, chúng ta không thể giải quyết bất kỳ vấn đề nào khác.”

Sự xuất hiện của internet, rồi Internet 2.0, từng được ca ngợi là một bước đột phá chống tinh hoa cho dân chủ và thị trường ý tưởng mở. Không còn các biên tập viên tại các cơ quan truyền thông chính thống là người kiểm soát, quyết định người ta sẽ đọc hay xem gì. Tuy nhiên, không phải các “người gác cổng” biến mất. Thay vào đó, các “người gác cổng” mới xuất hiện: các kỹ sư ẩn danh dùng “kinh thánh thuyết phục” để vận hành các thuật toán hộp đen, không chịu trách nhiệm, quyết định mọi người sẽ đọc hay xem gì, thường đưa họ vào các “hang thỏ” thông tin sai lệch hoặc ít nhất là chỉ hiển thị nội dung thuật toán đã biết là họ đồng ý, từ đó giữ họ tương tác. Điều này tạo ra cái mà một bình luận viên gọi là “bong bóng lọc,” nơi chúng ta chỉ thấy những gì bộ lọc biết là ta “thích” và có thể chẳng bao giờ thấy gì vi phạm “kinh thánh thuyết phục,” không làm ta vui, từ đó củng cố quan điểm và giữ tương tác.

Kết quả: sự phân cực gia tăng.

Kinh nghiệm xem bóng chày của tôi minh họa điều này. Tôi là fan lâu năm, cuồng nhiệt của New York Yankees. Khi Yankees thắng, tôi dán mắt vào TV. Nếu họ thắng, tôi cố gắng xem tất cả bản tin buổi tối về chiến thắng và đọc mọi bài báo sáng hôm sau—dù đã xem trận đấu trực tiếp. Nhưng nếu đội bắt đầu thua, tôi tắt TV và không xem hay đọc gì về thất bại bi thảm đó. (Tôi có khá nhiều thời gian rảnh trong mùa giải thảm họa 2023 của đội.) Tôi cố gắng trở thành công dân thông tin tốt hơn với tin tức thật, nhưng đôi khi phải ép bản thân xem bình luận tôi không đồng ý hoặc phỏng vấn các chính trị gia tôi không thích.

DiResta nói rằng khi cô phát hiện ra tính độc hại của các công cụ gợi ý năm 2013, “hầu hết nhân viên tuyến đầu đã biết cách chúng hoạt động, và nhiều người bắt đầu thấy khó chịu. Những người như Tristan [Harris] đã rời đi và lên tiếng. [Harris rời Google năm 2015 và năm 2018 thành lập một tổ chức phi lợi nhuận hiện nay là Trung tâm Công nghệ Nhân văn.] Nhưng phải đến năm 2018, phần còn lại của thế giới mới nhận ra, và ngay cả khi đó ban lãnh đạo cũng không thừa nhận.”

Đến lúc đó, Facebook—CEO Mark Zuckerberg từng nói ngay sau bầu cử 2016 rằng thật “điên rồ” nếu tin giả trên nền tảng ảnh hưởng bầu cử—phải thừa nhận rằng hơn 150 triệu người dùng Instagram và Facebook đã thấy hàng trăm bài đăng, tham gia hàng chục nhóm, và bị “tấn công” bởi hàng nghìn quảng cáo chính trị tinh vi, nhắm đến Donald Trump hơn Hillary Clinton. Chiến dịch này do Cơ quan Nghiên cứu Internet Nga orchestrate, do người thân cận của Putin là Yevgeny Prigozhin điều hành, người sau này thành lập nhóm lính đánh thuê Wagner rồi chết trong tai nạn máy bay sau khi chống lại Putin.

Năm 2014, DiResta thành lập một tổ chức vận động để thúc đẩy yêu cầu tiêm chủng nghiêm ngặt hơn. Cô cố áp dụng những gì học được về thuật toán để làm các chiến dịch mạng xã hội của nhóm hấp dẫn hơn. Năm 2015, luật được thay đổi cấm cha mẹ từ chối tiêm chủng cho con dựa chỉ trên niềm tin cá nhân. Tuy nhiên, lý do thực sự không phải vì DiResta đã thay đổi cuộc trò chuyện trực tuyến. Luật nghiêm ngặt chỉ ra đời sau khi tỷ lệ tiêm chủng thấp đến mức xảy ra bùng phát sởi ở California, bắt đầu tại Disneyland, cuối năm 2014. Các tiêu đề về “bùng phát sởi Disneyland,” lan sang bốn bang khác, Canada và Mexico, lấn át cuộc trò chuyện trực tuyến đủ lâu để thay đổi luật. Nội dung chống vaccine trên mạng vẫn phát triển mạnh và tăng vọt, với hậu quả nghiêm trọng ngoài đời thực, khi COVID tấn công thế giới. Công cụ gợi ý tiếp tục thấy nội dung chống vaccine quá hấp dẫn để không quảng bá.

Nếu hậu quả nghiêm trọng đến vậy, tại sao không làm gì? Nếu những công ty này sản xuất sản phẩm gây hại, tại sao không thể chịu trách nhiệm? Giả sử một hãng xe không đảm bảo an toàn: không kiểm soát chất lượng phanh, không ngăn bình xăng nổ, không dây an toàn, không túi khí dù công nghệ đã có. Công ty có thể bị kiện theo nguyên tắc trách nhiệm pháp lý chung: Bạn bán sản phẩm không an toàn mà có thể làm an toàn, tôi bị thương, bạn phải bồi thường.

Hoặc tại sao không để chính phủ quản lý an toàn sản phẩm để người dân không phải kiện? Điều đó đã xảy ra ở Mỹ và hầu hết các nước phát triển khác. Ô tô, thuốc men, đồ chơi, thực phẩm, và nhiều sản phẩm khác đều được quản lý. Tại sao không quản lý Big Tech?

Câu trả lời là Section 230 và quyền miễn trừ mà nó trao cho internet và các công ty mạng xã hội ra đời sau khi luật được thông qua. Hóa ra, những “Người Samaritans Tốt” không thực sự tốt.

(Còn Tiếp)

Bài Mới Nhất
Search