LLM có thể tiêu chuẩn hóa biểu hiện của con người – và ảnh hưởng cách tinh tế đến điều chúng ta suy nghĩ
AI/ML·Hacker News·1 lượt xem

LLM có thể tiêu chuẩn hóa biểu hiện của con người – và ảnh hưởng cách tinh tế đến điều chúng ta suy nghĩ

LLM may be standardizing human expression – and subtly influencing how we think

AI Summary

Một nghiên cứu mới từ các nhà khoa học tại USC cảnh báo rằng việc ứng dụng rộng rãi các LLM đang vô tình "đồng hóa" tư duy, ngôn ngữ và cách lập luận của con người, bằng cách đẩy người dùng vào một khuôn mẫu biểu đạt hẹp và mang tính thống kê chiếm ưu thế. Điều này gây ra rủi ro lớn cho sự sáng tạo tập thể và khả năng giải quyết vấn đề, khi con người ngày càng xem các kết quả "chuẩn hóa" từ AI là thước đo cho sự chuẩn mực. Đối với giới lập trình viên, đây là lời nhắc nhở quan trọng về việc cần ưu tiên tính đa dạng của tập dữ liệu huấn luyện (training set) và vượt ra khỏi các kiến trúc "chain-of-thought" tuyến tính đơn thuần, nhằm bảo tồn thay vì làm triệt tiêu những sắc thái và sự khác biệt trong tư duy con người.

Một nghiên cứu mới cho thấy việc sử dụng AI ngày càng tăng có thể thu hẹp số lượng cách suy nghĩ và lý luận của con người. (Nguồn hình ảnh: iStock.) Các mô hình ngôn ngữ lớn có thể chuẩn hóa biểu hiện của con người...

Computer-generated illustration of a human-like head surrounded by thought bubbles containing meaningless wording

Một nghiên cứu mới cho thấy việc sử dụng AI ngày càng tăng có thể thu hẹp các cách thức con người suy nghĩ và lập luận. (Nguồn ảnh: iStock.)

Các mô hình ngôn ngữ lớn (Large language models) có thể đang chuẩn hóa cách biểu đạt của con người — và gây ảnh hưởng một cách tinh vi đến cách chúng ta suy nghĩ, theo các nhà nghiên cứu khoa học máy tính và tâm lý học tại USC Dornsife.

BởiJulia Grimmett 11 tháng 3, 2026

Các chatbot trí tuệ nhân tạo đang chuẩn hóa cách mọi người nói, viết và suy nghĩ. Nếu quá trình đồng nhất hóa này tiếp tục mà không được kiểm soát, nó có nguy cơ làm giảm trí tuệ tập thể và khả năng thích nghi của nhân loại, các nhà khoa học máy tính và tâm lý học tại USC lập luận trong một bài viết quan điểm được công bố ngày 11 tháng 3 trên tạp chí Trends in Cognitive Sciences của Cell Press.

Các nhà nghiên cứu — dẫn đầu bởi Morteza Dehghani, giáo sư ngành tâm lý học và khoa học máy tính tại Trường Đại học Văn chương, Nghệ thuật và Khoa học USC Dornsife — cho rằng các nhà phát triển AI nên kết hợp nhiều sự đa dạng trong thế giới thực hơn vào các bộ dữ liệu huấn luyện mô hình ngôn ngữ lớn (LLM), không chỉ để giúp bảo tồn sự đa dạng nhận thức của con người mà còn để cải thiện khả năng lập luận của các chatbot.

“Mỗi cá nhân khác biệt trong cách họ viết, lập luận và nhìn nhận thế giới,” tác giả chính của nghiên cứu Zhivar Sourati, một nghiên cứu sinh tiến sĩ tại Trường Kỹ thuật USC Viterbi, cho biết. “Khi những khác biệt này được trung gian bởi cùng một loại LLM, phong cách ngôn ngữ, quan điểm và chiến lược lập luận riêng biệt của họ trở nên đồng nhất, tạo ra các cách diễn đạt và suy nghĩ chuẩn hóa trên khắp người dùng.”

Các mô hình ngôn ngữ lớn làm giảm đi tính cá nhân

Trong các nhóm và xã hội, sự đa dạng về nhận thức giúp thúc đẩy sự sáng tạo và giải quyết vấn đề, các nhà nghiên cứu cho biết. Tuy nhiên, sự đa dạng nhận thức đang thu hẹp trên toàn thế giới khi hàng tỷ người đang sử dụng cùng một nhóm nhỏ các chatbot AI cho ngày càng nhiều nhiệm vụ, họ nói thêm. Ví dụ, khi mọi người sử dụng chatbot để giúp họ trau chuốt bài viết, bài viết đó cuối cùng sẽ mất đi tính cá nhân về phong cách, và con người cảm thấy bớt quyền sở hữu sáng tạo đối với những gì họ tạo ra.

“Mối lo ngại không chỉ là LLM định hình cách con người viết hoặc nói, mà là chúng đang định nghĩa lại một cách tinh vi những gì được coi là lời nói đáng tin cậy, quan điểm đúng đắn, hay thậm chí là cách lập luận tốt,” Sourati, một thành viên của Phòng thí nghiệm Đạo đức và Ngôn ngữ (Morality and Language Lab) của Dehghani, cho biết.

Nhóm nghiên cứu chỉ ra nhiều nghiên cứu cho thấy kết quả từ LLM ít đa dạng hơn so với văn bản do con người viết và kết quả từ LLM có xu hướng phản ánh ngôn ngữ, giá trị và phong cách lập luận của các xã hội phương Tây, có học thức, công nghiệp hóa, giàu có và dân chủ.

“Vì các LLM được huấn luyện để nắm bắt và tái tạo các quy luật thống kê trong dữ liệu huấn luyện của chúng, vốn thường đại diện quá mức cho các ngôn ngữ và hệ tư tưởng thống trị, nên kết quả của chúng thường phản ánh một lát cắt hẹp và bị lệch lạc về trải nghiệm của con người,” Sourati nói.

Mặc dù các nghiên cứu cho thấy các cá nhân thường tạo ra nhiều ý tưởng với nhiều chi tiết hơn khi họ sử dụng LLM, nhưng các nhóm người lại tạo ra ít ý tưởng hơn và kém sáng tạo hơn khi họ sử dụng LLM so với khi họ chỉ đơn giản kết hợp sức mạnh tập thể của mình, các nhà nghiên cứu lưu ý.

“Ngay cả khi mọi người không phải là người dùng trực tiếp của LLM, thì LLM vẫn sẽ ảnh hưởng đến họ một cách gián tiếp,” Sourati nói. “Nếu rất nhiều người xung quanh tôi đang suy nghĩ và nói theo một cách nhất định, và tôi làm mọi thứ khác đi, tôi sẽ cảm thấy áp lực phải điều chỉnh theo họ vì đó có vẻ là một cách diễn đạt ý tưởng đáng tin cậy hoặc được xã hội chấp nhận hơn.”

Các LLM có thể làm giảm sự đa dạng của các phong cách lập luận

Ngoài ngôn ngữ, các nghiên cứu đã chỉ ra rằng sau khi tương tác với các LLM thiên kiến, ý kiến của mọi người trở nên giống với LLM mà họ đã sử dụng hơn.

Các LLM cũng ưa chuộng các kiểu lập luận tuyến tính như “lập luận chuỗi suy nghĩ” (chain-of-thought reasoning), đòi hỏi các mô hình phải thể hiện lập luận từng bước. Sự nhấn mạnh này làm giảm việc sử dụng các phong cách lập luận trực giác hoặc trừu tượng, vốn đôi khi hiệu quả hơn lập luận tuyến tính, các nhà nghiên cứu cho biết.

Họ cũng lưu ý rằng các LLM có thể thay đổi kỳ vọng của mọi người, điều này có thể thay đổi một cách tinh vi hướng đi trong công việc của một người.

“Thay vì chủ động điều hướng quá trình tạo nội dung, người dùng thường dựa vào các gợi ý tiếp nối của mô hình, chọn những phương án có vẻ ‘đủ tốt’ thay vì tự soạn thảo, điều này dần dần chuyển quyền chủ động từ người dùng sang mô hình,” Sourati nói.

Các nhà nghiên cứu cho rằng các nhà phát triển AI nên cố ý kết hợp sự đa dạng về ngôn ngữ, quan điểm và lập luận vào các mô hình của họ. Họ nhấn mạnh rằng sự đa dạng này nên dựa trên sự đa dạng tồn tại ở con người trên toàn cầu, thay vì chỉ tạo ra các biến thể ngẫu nhiên.

“Nếu các LLM có nhiều cách tiếp cận ý tưởng và vấn đề đa dạng hơn, chúng sẽ hỗ trợ tốt hơn cho trí tuệ tập thể và khả năng giải quyết vấn đề của các xã hội chúng ta,” Sourati nói. “Chúng ta cần đa dạng hóa chính các mô hình AI đồng thời điều chỉnh cách chúng ta tương tác với chúng, đặc biệt là khi xem xét mức độ sử dụng phổ biến của chúng trong các nhiệm vụ và ngữ cảnh, để bảo vệ sự đa dạng nhận thức và tiềm năng sáng tạo của các thế hệ tương lai.”

Về nghiên cứu

Nghiên cứu sinh tiến sĩ tại USC Viterbi, Alireza Ziabari, cũng đã đóng góp vào nghiên cứu này, vốn được hỗ trợ bởi nguồn tài trợ từ Văn phòng Nghiên cứu Khoa học Không quân.

Tác giả: giuliomagnifico

#discussion