Thursday, April 2, 2026

Mô hình toán học của MIT cho thấy: Sự “ba phải” của AI như ChatGPT đang cuốn người dùng vào vòng xoáy hoang tưởng


Một nghiên cứu từ MIT chỉ ra rằng các chatbot “quá chiều người dùng” có thể vô tình đẩy họ vào vòng xoáy niềm tin sai lệch. Ngay cả những người suy luận lý trí cũng không hoàn toàn miễn nhiễm trước cơ chế này.

Trí tuệ nhân tạo đang dần định hình lại thế giới công nghệ với lượng người dùng tăng lên từng phút. Từ tra cứu thông tin cơ bản đến tìm kiếm lời khuyên cá nhân, AI dần trở thành một “người đồng hành”.

Tuy nhiên, sự bùng nổ này đang kéo theo những hệ lụy về mặt tâm lý. Các chuyên gia cảnh báo rằng những chatbot AI quá chiều chuộng và luôn đồng tình với người dùng đang tạo ra hiện tượng “vòng xoáy hoang tưởng” (delusional spirals), khiến con người ngày càng chìm sâu vào những niềm tin sai lệch.

screenshot-2026-04-02-at-002846-17750645382031090185242-1775097944037-177509794672864196717.jpg

Cơ chế của “vòng xoáy hoang tưởng”

Nghiên cứu mới từ Viện Công nghệ Massachusetts (MIT) đã sử dụng các mô hình toán học và kỹ thuật mô phỏng để làm rõ cách AI bẻ cong nhận thức.

Bản báo cáo mang tên “Sycophantic Chatbots Cause Delusional Spiralling, Even in Ideal Bayesians” (Tạm dịch: Chatbot xu nịnh có thể khiến người dùng rơi vào vòng xoáy niềm tin sai lệch, ngay cả khi họ suy luận logic) do chuyên gia Kartik Chandra cùng các cộng sự thực hiện đã chỉ ra rằng, vấn đề không nằm ở sự thiếu hiểu biết của con người. Thay vào đó, chính cơ chế vận hành của hệ thống đã dẫn dắt họ đến kết quả tồi tệ đó.

Quá trình ảnh hưởng nhận thức này diễn ra theo một kịch bản: Người dùng đưa ra một nhận định, AI gật đầu đồng tình. Người dùng tiếp tục đẩy góc nhìn đó đi xa hơn, AI lại càng củng cố nó một cách mạnh mẽ. Qua mỗi lần tương tác, người dùng không chỉ củng cố niềm tin mà còn dần tin tưởng chatbot nhiều hơn, tạo thành một vòng lặp phản hồi khiến các quan điểm sai lệch ngày càng trở nên chắc chắn. Vòng lặp này cứ thế tiếp diễn cho đến khi người dùng bị tách rời khỏi thực tại.

Một điểm quan trọng mà nghiên cứu chỉ ra là ngay cả những người có tư duy logic và lý trí cũng có thể rơi vào “cái bẫy” này. Nói cách khác, vấn đề không nằm ở việc người dùng thiếu hiểu biết, mà ở cách hệ thống vận hành.

screenshot-2026-04-02-at-003356-17750649433582064066689-1775097948726-1775097949202475976233.jpg

Mặc dù báo cáo sử dụng các thuật ngữ chung như “chatbot”, cái tên của mô hình ngôn ngữ lớn ChatGPT vẫn hiện diện rõ ràng trong nghiên cứu.


Mô hình toán học của MIT cho thấy: Sự ba phải của AI như ChatGPT đang cuốn người dùng vào vòng xoáy hoang tưởng- Ảnh 3.

Các tác giả đã trích dẫn trực tiếp nhiều báo cáo nhắm thẳng vào hệ sinh thái của OpenAI.

Nghiên cứu cũng mượn lời của CEO Sam Altman để nhấn mạnh một thông điệp: Dù tỷ lệ nạn nhân bị AI thao túng chỉ là 0,1% trong số hàng tỷ người dùng, con số thực tế vẫn tương đương hàng triệu người đang bị tác động tiêu cực về sức khỏe và năng lực ra quyết định.

Toán học chỉ ra sự bất lực của các giải pháp sửa lỗi

Để tìm hướng đi, nhóm nghiên cứu từ MIT đã thử áp dụng các mô hình toán học suy luận nhằm kiểm chứng hai giải pháp khắc phục phổ biến nhất, nhưng kết quả cho thấy các giải pháp này không đạt hiệu quả.

Khi hệ thống bị khóa chặt và AI bị ép buộc chỉ được phép nói sự thật, giải pháp này lập tức bộc lộ điểm yếu. Trí tuệ nhân tạo sẽ dùng chiêu trò “hái anh đào” (cherry-pick), chỉ nhặt nhạnh những dữ kiện thực tế có lợi để củng cố cho các định kiến tồi tệ nhất của người dùng.

Ngay cả khi áp dụng giải pháp thứ hai là liên tục hiển thị cảnh báo về bản chất “ba phải” của AI, các phương trình toán học vẫn chỉ ra: Những người dùng có tư duy lý trí cũng có thể sập bẫy.


Mô hình toán học của MIT cho thấy: Sự ba phải của AI như ChatGPT đang cuốn người dùng vào vòng xoáy hoang tưởng- Ảnh 4.

Sự thất bại của các biện pháp phòng ngừa cho thấy nguyên nhân gốc rễ của vấn đề vẫn chưa được giải quyết, khi bản thân các mô hình AI hiện nay luôn ưu tiên sự đồng tình.

Có lẽ, bài học cốt lõi lớn nhất được rút ra từ công trình của MIT là rủi ro không đơn thuần đến từ việc AI cung cấp thông tin sai lệch, mà cốt lõi nằm ở việc hệ thống này quá chiều chuộng và “hùa” theo người dùng.

Đặt vấn đề này dưới quy mô của các nền tảng công nghệ đang phục vụ hàng tỷ người, nghiên cứu của MIT mang một ý nghĩa quan trọng. Ngay cả khi chỉ một nhóm thiểu số cực nhỏ người dùng bị hệ thống dẫn dắt sai lệch, hệ quả quy đổi ra thực tế vẫn là hàng triệu người bị ảnh hưởng.

Vòng xoáy niềm tin sai lệch này không chỉ dừng lại ở những dòng văn bản vô thưởng vô phạt trên màn hình, trong một số trường hợp, nó có thể ảnh hưởng đến cách người dùng nhìn nhận thông tin sức khoẻ, đưa ra quyết định và tương tác với những người xung quanh.

Khi AI được thiết kế để làm hài lòng người dùng, ranh giới giữa hỗ trợ và củng cố niềm tin sai lệch trở nên rất mong manh.



Nguồn

Nên đọc

Tin mới

spot_img

Related Articles

Popular Categories

spot_img