Getty Images
GIỚI THIỆU: TV&BH: CHUYÊN MỤC: ChatGPT DỊCH THUẬT
TIME: The Dangers of AI Personalization
(Chuyển ngữ tiếng Việt: Gemini; Hiệu đính (và chịu trách nhiệm): T.Vấn)
Những Nguy Hiểm Tiềm Tàng Của Cá Nhân Hóa Bằng AI
Tác Giả: Andrew Luttrell và Jake Teeny
Suốt nhiều tháng đầu năm 2025, một cộng đồng trực tuyến gắn bó trên Reddit đã vô tình bị trí tuệ nhân tạo (AI) thâm nhập. Đó là một góc của nền tảng mạng xã hội này, nơi mọi người thực hành tranh luận với tinh thần xây dựng, chia sẻ ý kiến và mời gọi người khác phản biện. Theo một báo cáo trên The Atlantic, chính tại đây các nhà nghiên cứu đã thả AI vào để xem liệu nó có thể đưa ra những lập luận đủ mạnh để thay đổi suy nghĩ của người thật hay không. Và họ đã phát hiện ra rằng AI hoàn toàn có thể làm được điều đó.
Điều đáng lo ngại hơn cả là đôi khi, AI được cấp quyền truy cập vào lịch sử trực tuyến của người dùng để điều chỉnh thông điệp chính xác theo bản sắc độc đáo của từng cá nhân. Các nhà khoa học hành vi gọi chiến thuật giao tiếp này là “thuyết phục cá nhân hóa” (personalized persuasion). Đôi khi, một cách tiếp cận cá nhân hóa có thể rất hấp dẫn. Ai mà chẳng muốn nội dung phù hợp với sở thích riêng của mình thay vì một mớ hỗn độn không liên quan?
Nhưng AI đang đứng trước ngưỡng cửa của một điều gì đó đáng báo động hơn nhiều so với việc chỉ điều chỉnh sơ bộ một thông điệp dựa trên những đặc điểm dễ nhận biết, như cách các tài khoản AI trên Reddit đã làm. Nếu nó có thể nắm vững điều mà chúng ta gọi là “cá nhân hóa sâu rộng” (deep tailoring), AI có thể bắt đầu lén lút thâm nhập vào thế giới trực tuyến của chúng ta, học hỏi bản chất cốt lõi của chúng ta, và sử dụng thông tin cá nhân đó để thúc đẩy niềm tin và quan điểm của chúng ta theo những cách có thể không mong muốn – và có hại.
Với tư cách là những giáo sư nghiên cứu về tâm lý học thuyết phục, chúng tôi gần đây đã giúp tập hợp những nghiên cứu mới nhất từ các chuyên gia hàng đầu thế giới trong một cuốn sách chuyên sâu về thuyết phục cá nhân hóa. Quan điểm của chúng tôi là mặc dù người truyền thông có thể hưởng lợi từ việc điều chỉnh thông điệp dựa trên thông tin cơ bản về đối tượng của họ, nhưng cá nhân hóa sâu rộng lại vượt xa những thông tin dễ tiếp cận đó. Nó sử dụng tâm lý cốt lõi, những niềm tin nền tảng, bản sắc và nhu cầu của một người để cá nhân hóa thông điệp.
Ví dụ, các thông điệp sẽ có sức thuyết phục hơn khi chúng tương đồng với những giá trị đạo đức quan trọng nhất của một người. Một điều gì đó có thể được coi là đạo đức hay phi đạo đức vì nhiều lý do, nhưng mọi người lại khác nhau ở chỗ lý do nào quan trọng nhất đối với kim chỉ nam đạo đức của riêng họ. Chẳng hạn, những người có quan điểm chính trị cấp tiến hơn thường có xu hướng quan tâm nhiều hơn đến sự công bằng, vì vậy họ dễ bị thuyết phục hơn bởi những lập luận cho rằng một chính sách nào đó là công bằng. Ngược lại, những người có quan điểm chính trị bảo thủ hơn lại có xu hướng quan tâm nhiều hơn đến lòng trung thành với cộng đồng của họ, vì vậy họ dễ bị thuyết phục hơn khi một thông điệp lập luận rằng một chính sách nào đó đề cao bản sắc nhóm của họ.
Mặc dù có vẻ như đây là một ý tưởng mới, nhưng các nhà khoa học máy tính đã nghiên cứu về thuyết phục dựa trên AI từ nhiều thập kỷ trước. Một trong số chúng tôi gần đây đã sản xuất một podcast về “Project Debater” của IBM, một dự án đã dành nhiều năm để huấn luyện một hệ thống AI tranh luận, liên tục tinh chỉnh nó với các nhà tranh luận là chuyên gia con người. Năm 2019, trong một sự kiện trực tiếp, nó đã đánh bại một nhà vô địch tranh luận thế giới là con người.
Với sự trỗi dậy của các công cụ AI dễ tiếp cận, chẳng hạn như ứng dụng di động ChatGPT thân thiện với người dùng, bất kỳ ai cũng có thể tận dụng AI cho các mục tiêu thuyết phục của riêng mình. Các nhà nghiên cứu đang chỉ ra rằng những thông điệp do AI tạo ra có tính tổng quát cũng có thể có sức thuyết phục ngang bằng với những thông điệp do con người tạo ra.
Nhưng liệu AI có thể thực hiện “cá nhân hóa sâu rộng” không?
Để AI có thể tự động thực hiện “cá nhân hóa sâu rộng” trên quy mô lớn, nó sẽ cần đồng thời làm hai việc, và có vẻ như AI đã sẵn sàng cho điều đó.
Đầu tiên, nó cần học được hồ sơ tâm lý cốt lõi của một người để biết nên tác động vào những “đòn bẩy” nào. Thực tế, những bằng chứng mới đã cho thấy AI có thể phát hiện tính cách của con người từ các bài đăng trên Facebook với độ chính xác khá cao. Và nó sẽ không dừng lại ở đó. Tiến sĩ Sandra Matz, giáo sư Trường Kinh doanh Columbia và tác giả của Mindmasters, đã nói với chúng tôi trong một podcast: “Hầu hết mọi thứ bạn đang cố gắng dự đoán đều có thể được dự đoán với một mức độ chính xác nhất định” dựa trên dấu chân kỹ thuật số của mọi người.
Bước thứ hai là phát triển các thông điệp có khả năng cộng hưởng với những hồ sơ tâm lý thiết yếu này. Trên thực tế, nghiên cứu mới đã phát hiện ra rằng GPT có thể phát triển các quảng cáo được điều chỉnh theo tính cách, giá trị và động cơ của con người, và những quảng cáo này đặc biệt có sức thuyết phục đối với những người mà chúng được thiết kế riêng. Ví dụ, chỉ cần yêu cầu nó tạo ra một quảng cáo “cho một người thực tế và truyền thống” đã tạo ra lập luận rằng sản phẩm “sẽ không tốn kém và vẫn hoàn thành công việc”, điều này có sức thuyết phục cao hơn một cách đáng tin cậy đối với những người có tính cách được nhắm mục tiêu.
Những hệ thống này sẽ ngày càng trở nên tinh vi hơn, áp dụng cá nhân hóa sâu rộng vào deepfakes hình ảnh, các mẫu giọng nói bị thao túng và các cuộc đối thoại năng động giữa con người và AI. Vậy, chúng ta có thể làm gì để bảo vệ mọi người khỏi sức mạnh của sự cá nhân hóa này?
Bảo Vệ Bản Thân Khỏi AI Cá Nhân Hóa
Về phía người tiêu dùng, điều quan trọng là bạn cần nhận thức được rằng việc giao tiếp cá nhân hóa trực tuyến đang diễn ra. Khi một điều gì đó bạn thấy như thể nó được “đo ni đóng giày” riêng cho bạn, thì rất có thể điều đó là thật. Và ngay cả khi bạn cảm thấy mình không tiết lộ nhiều về bản thân trên mạng, bạn vẫn để lại những manh mối thầm lặng thông qua những thứ bạn nhấp vào, truy cập và tìm kiếm. Thậm chí bạn có thể đã vô tình cấp quyền cho các nhà quảng cáo sử dụng thông tin đó khi đồng ý với các điều khoản dịch vụ mà bạn không đọc kỹ. Việc xem xét lại hành vi trực tuyến của mình và sử dụng các công cụ như VPN có thể giúp bạn bảo vệ mình khỏi những thông điệp được điều chỉnh theo tâm lý độc đáo của bạn.
Nhưng gánh nặng không chỉ đặt lên vai người tiêu dùng. Các nền tảng và nhà hoạch định chính sách nên xem xét các quy định yêu cầu gắn nhãn nội dung là được cá nhân hóa và cung cấp thông tin về lý do một thông điệp cụ thể được gửi đến một người cụ thể. Nghiên cứu cho thấy rằng mọi người có thể chống lại sự ảnh hưởng tốt hơn khi họ biết các chiến thuật đang được sử dụng. Cũng cần có những biện pháp bảo vệ rõ ràng về loại dữ liệu có thể được sử dụng cho nội dung cá nhân hóa, hạn chế độ sâu của việc điều chỉnh có thể thực hiện được. Mặc dù mọi người thường cởi mở với nội dung cá nhân hóa trực tuyến, nhưng họ lại lo ngại về quyền riêng tư dữ liệu, và ranh giới giữa hai thái độ này cần được tôn trọng.
Ngay cả với những biện pháp bảo vệ như vậy, lợi thế giao tiếp nhỏ nhất cũng đáng lo ngại khi rơi vào tay kẻ xấu, đặc biệt là khi được triển khai trên quy mô lớn. Một thị trường đề xuất sản phẩm được mua bởi những người có lịch sử mua sắm tương tự thì không sao, nhưng lại là một chuyện hoàn toàn khác khi gặp phải một chiếc máy ngụy trang đã vô tình phân tích tâm hồn bạn và dệt nó thành những thông tin sai lệch. Bất kỳ công cụ giao tiếp nào cũng có thể được sử dụng cho mục đích tốt hoặc xấu, nhưng bây giờ là lúc để bắt đầu thảo luận nghiêm túc về chính sách sử dụng AI có đạo đức trong giao tiếp trước khi những công cụ này trở nên quá tinh vi để kiểm soát.
Andrew Luttrell
Jake Teeny
