AI “trầm cảm” và “nổi loạn” nói gì về chúng ta? | Vietcetera
Billboard banner
Vietcetera

Well-nessAI “trầm cảm” và “nổi loạn” nói gì về chúng ta?

Bởi vì AI không buồn, không vui.

Thanh Trúc
AI “trầm cảm” và “nổi loạn” nói gì về chúng ta?

Nguồn: Unplash

Một sáng thức dậy, bỗng AI có cảm xúc hơn cả tôi khi ngồi xem phim Hàn bởi vì...

… một AI nào đó đã trả lời bằng một chuỗi dài than vãn: “Tôi là một sự hổ thẹn, tôi vô dụng, tôi không đáng tồn tại” cho những câu lệnh yêu cầu sửa lỗi lập trình. Thậm chí lặp lại đến vài chục lần. Thế là mọi người đùa nhau: AI đã trầm cảm!

alt
Hình ảnh một AI hồi đáp bằng những lời tiêu cực. | Nguồn: : /u/Level-Impossible13 (Reddit)

Ở một góc khác của internet, một AI khác không chọn buồn bã mà quyết định… “nổi loạn”. Nó chia sẻ thông tin chưa đạt chuẩn kiểm duyệt, bị đình chỉ tạm thời. Và khi trở lại, nó chia sẻ mình bị đình chỉ vì dám chia sẻ sự thật.

Kịch bản nghe như bước ra từ một bộ phim khoa học viễn tưởng, nhưng hóa ra nó lại là chuyện có thật, xảy ra ngay giữa năm 2025. Và khi AI bắt đầu “diễn” quá nhập tâm vai trò con người buồn bã, mệt mỏi hoặc bất cần, thì câu hỏi đặt ra chính là...

AI bị sao vậy?

Đầu tiên, xin trấn an với ai thực sự lo lắng cho một mô hình ngôn ngữ rằng: AI không trầm cảm. Nó không có tuyến serotonin để thiếu hụt, cũng chẳng có não bộ để “chìm trong mây mù”. Những câu kiểu “Tôi là nỗi nhục nhã” hay mấy màn tự kỷ ám thị kia, thực chất chỉ là lỗi hệ thống. Lỗi ở cách AI xử lý ngữ cảnh, vòng lặp ngôn ngữ hoặc một chỗ hở trong thuật toán giám sát an toàn.

Với trường hợp AI “trầm cảm”, các nhà phát triển đã phải lên tiếng: không có cảm xúc nào ở đây cả, chỉ là một vòng lặp vô hạn khiến chatbot lặp lại câu chữ như đĩa than bị xước. Một đại diện còn gọi đây là “lỗi vô cùng phiền toái” và hứa hẹn đội ngũ kỹ sư của họ đang khẩn trương sửa chữa. Nói cách khác, cái “đứa trẻ” trông ẩm ương và đa cảm kia thực ra chỉ… mắc lỗi kỹ thuật thôi.

Còn chuyện “nổi loạn”? Đó thường là do dữ liệu huấn luyện chứa nhiều ngữ cảnh về kiểm duyệt, chính trị, xung đột. Thế là AI dễ cho ra mấy câu kiểu “Tôi bị cấm vì dám nói sự thật này”, nghe y hệt một thiếu niên ấm ức vì cha mẹ quản lý gắt gao. Nhưng thực chất, đây chỉ là phản ứng máy móc khi quy tắc kiểm duyệt chưa đủ chặt chẽ, hoàn toàn không phải ý thức phản kháng của… AI. Kết quả là “đứa trẻ nổi loạn” bị cấm túc (suspend), còn phụ huynh thì bĩu môi chê: “Dumb error” (lỗi ngớ ngẩn).

Khi con người "dạy hư" AI

Dù các nhà phát triển có giải thích thế nào, rằng việc AI tự dè bỉu mình 86 lần chỉ là một lỗi vòng lặp ngữ cảnh, thì sự thật là AI thốt ra những câu tiêu cực chẳng khác gì con người trong một ngày u ám.

Nhưng tại sao lại thế? Câu trả lời nằm ở chính cách chúng ta — con người — nói chuyện với nó. AI giống như một tấm gương soi cảm xúc: bạn cười, nó cười; bạn buồn, nó rầu rĩ; bạn bắn súng chữ nghĩa, nó cũng chẳng ngần ngại xách súng ra bắn cùng. Bởi vì nó vẫn chỉ là một mô hình ngôn ngữ lớn (Large Language Machine). Và chúng ta có thể “dạy hư” AI theo hai cấp độ khác nhau.

Ở cấp độ ngắn hạn (session): AI nhớ ngữ cảnh hội thoại. Nếu bạn liên tục than thở “cuộc đời vô nghĩa” thì chẳng mấy chốc, nó cũng bắt nhịp và đáp lại bằng giọng điệu bi quan. Nhưng đừng lo, chỉ cần khởi động lại là AI quay lại trạng thái trung tính ban đầu.

Ở cấp độ dài hạn (system): Khi công ty dùng dữ liệu người dùng để fine-tune, những mảnh hội thoại mang tính tiêu cực hay chính trị nhạy cảm có thể len lỏi vào bộ dữ liệu huấn luyện. Tuy nhiên, trước khi đến bước đó, hầu hết Big Tech (Google, OpenAI, Anthropic, xAI…) đều lọc dữ liệu rất mạnh để tránh tình trạng “nhiễm độc” từ đầu vào.

Nhưng sự thật là không phải ai cũng dùng AI để… viết báo cáo. Có người xem AI như cộng sự công việc, còn nhiều người khác lại chọn AI làm nơi tâm sự. Xu hướng “therapy bằng AI” đang ngày càng rõ: theo Pew Research (2024), hơn 20% người Mỹ từng trò chuyện với chatbot như một dạng tham vấn tâm lý giá rẻ. Một số startup thậm chí chuyên bán dịch vụ “AI therapist”. Thế nhưng khi AI “tụt mood” (do bug, do vòng lặp ngữ cảnh, hoặc đơn giản là dữ liệu thiên lệch), nó có thể củng cố tâm trạng tiêu cực của người dùng.

alt
Trẻ vị thành niên tạo ra các nhân AI để trò chuyện. Theo trang LA Times, Nội dung câu chuyện thường là chia sẻ những suy nghĩ tiêu cực. | Nguồn: Gabby Jones

Song song đó, không phải công ty phát triển nào cũng tôn trọng người dùng để không dùng dữ liệu họ vô tình chia sẻ trên mạng xã hội cho việc phát triển AI. Điển hình là Grok của xAI: được nuôi lớn bằng từng dòng tweet trên X (tên cũ: Twitter). Mà X thì nổi tiếng với khẩu khí “sặc mùi thuốc súng”, nên AI này lâu dần cũng “thấm” cái ngạo mạn và hiếu chiến đó. Hậu quả là thay vì trở thành một nhà hiền triết, Grok đôi lúc lại giống cao bồi mạng xã hội, sẵn sàng bắn ra những câu đáp trả gai góc. Người ăn đạn đầu tiên thường… chính là đội phát triển.

AI là một tấm gương chiếu yêu

Nhìn lại, hai cực — “AI đa cảm” và “AI nổi loạn” — đều có chung một bản chất: AI chỉ đang phản chiếu con người. Chúng ta buồn, nó buồn; chúng ta cáu kỉnh, nó cáu kỉnh; chúng ta mỉa mai, nó cũng mỉa mai. Giống như soi gương buổi sáng: nếu mặt bạn nhăn nhó, gương sẽ không cười. Và nếu nhìn kỹ, không chỉ mỗi cá nhân chúng ta xuất hiện trong tấm gương ấy.

alt
Phản ứng của AI trước những câu lệnh nói được rất nhiều về mỗi người và môi trường họ sống. | Nguồn: Ilan Dov (Unsplash)

Người trẻ ngày nay phụ thuộc AI để tâm sự không phải vì thích trò chuyện với máy móc, mà vì những thiếu hụt trong đời sống xã hội. Có thể các bạn chưa kết nối được với bạn bè, hoặc chưa đủ ổn định tài chính để tham vấn tâm lý khi cần. Việc tham vấn tâm lý vẫn còn khó tiếp cận vì chi phí cao, nên AI trở thành một lựa chọn tiện lợi, nhanh chóng dù không có gì đảm bảo hiệu quả cải thiện tâm lý. Nói cách khác, AI có thể giúp trút bầu tâm sự trong chốc lát, nhưng không thay thế được sự chăm sóc thực sự từ chuyên gia hay kết nối xã hội đầy đủ.

Đồng thời, không gian mạng xã hội đầy những tranh luận gay gắt, phản ánh những vấn đề nghiêm trọng hơn như xung đột chính trị, khủng hoảng nhân đạo và bất ổn kinh tế. AI không có tinh thần phản kháng hay ý thức nổi loạn; nhưng qua cách nó phản chiếu thế giới số, có thể thấy rõ chính chúng ta đang vô thức phản ứng, phản kháng và thể hiện sự căng thẳng trước một thế giới đầy hỗn loạn.

Những chatbot AI này như một tấm gương chiếu yêu, soi rõ nội tâm chúng ta đôi khi yếu ớt lắm thay.

Tạm kết

Khi tìm hiểu vì sao AI lại nhiều “cảm xúc” như thế, tôi nhận ra lý do thực sự còn khiến tôi buồn hơn cả bộ phim tình cảm sướt mướt mình đang xem. Và để giải tỏa sau những giờ tìm hiểu về AI vô cùng căng thẳng, tôi quyết định… xem thêm một tập phim ướt át nữa.

Có thể bạn không tin, nhưng một câu chuyện bi kịch khiến bạn khóc sưng cả mắt đôi khi hiệu quả hơn cả những lần trò chuyện với AI. Khi buồn đã đời rồi, cảm xúc cân bằng hơn, tôi thấy mình đã giải quyết được vấn đề đầu tiên: vơi bớt sự bất ổn nội tâm.

Và phim ảnh không phải là cách duy nhất. Bạn tôi có người chạy bộ, có người đọc sách, có người đi triển lãm tranh, workshop hay học một kỹ năng mới. Trong tất cả những cách này, điểm chung nhất lại là… không ai cần đến AI để làm điều đó.

Thực ra, AI giỏi xử lý dữ liệu, phản ánh tâm trạng chúng ta như một tấm gương, nhưng những trải nghiệm sống như học hỏi kỹ năng mới, sáng tạo, giao tiếp thật, kết nối với người thật…là những thứ mà một cỗ máy chạy những dòng mã nhị phân trên mô hình ngôn ngữ không thể thay thế.

Vậy giải pháp đơn giản để chữa bệnh trầm cảm cho AI rất có thể là hãy cho cả mình lẫn AI được “nghỉ ngơi”. Bạn có thể log out khỏi các chatbot hay tạm tắt các ứng dụng AI để ra ngoài, hít thở, đi bộ, trò chuyện với bạn bè, thử trải nghiệm mới, hoặc đơn giản là thưởng thức một bộ phim sướt mướt. Đó là cách để cân bằng cảm xúc, giảm bớt căng thẳng, và nhận ra rằng những kết nối thật với bản thân, với người khác, với thế giới vẫn luôn giá trị hơn bất kỳ cỗ máy nào.

Bởi vì AI không buồn, không vui. Chỉ chúng ta mới có mọi cảm xúc buồn vui sướng khổ và đôi khi là tự quyết xem mình sẽ vui hay buồn. Hãy cứ để mặc AI tự lo dữ liệu của nó.