Nhịp sống số

Ông chủ mạng xã hội X quyết tự tay "uốn nắn" AI theo thế giới quan của mình

Hoàng Thái 07/07/2025 15:55

Một bên là dữ liệu từ chính phủ, một bên là thế giới quan của người giàu nhất thế giới. Phiên bản nào sẽ được trí tuệ nhân tạo (AI) học hỏi và lan truyền.

Mọi chuyện bắt đầu khi chatbot Grok của xAI trả lời một người dùng rằng bạo lực chính trị ở Mỹ từ năm 2016 chủ yếu đến từ cánh hữu, trích dẫn các nguồn tin từ chính phủ. Elon Musk sau đó đã bày tỏ sự không hài lòng trên nền tảng X: "Thất bại lớn, điều này là hoàn toàn sai."

elon-musk.jpg
Elon Musk bày tỏ sự không hài lòng đối với chatbot AI của ông trên nền tảng X

Vị tỷ phú này dự kiến ra mắt phiên bản Grok 4 trong tháng 7 này, để "viết lại toàn bộ kho kiến thức của con người".

Elon Musk đã có một lời kêu gọi không giống ai, khi yêu cầu người dùng gửi đến những sự thật gây chia rẽ, vốn không chính xác về mặt chính trị, nhưng vẫn đúng về mặt thực tế để giúp huấn luyện lại mô hình.

Động thái này ngay lập tức làm dấy lên hồi chuông cảnh báo từ các chuyên gia. Họ lo ngại rằng người giàu nhất thế giới đang cố gắng uốn nắn một AI theo thế giới quan của riêng mình, tạo ra một buồng thông tin sai lệch trên nền tảng mạng xã hội X.

David Evan Harris, nhà nghiên cứu AI tại Đại học UC Berkeley, nhận định: "Đây là khởi đầu của một cuộc chiến dài về việc liệu các hệ thống AI có nên được yêu cầu tạo ra thông tin thực tế hay không, hay người tạo ra chúng có thể thay đổi cán cân theo sở thích chính trị của họ."

Đây không phải lần đầu tiên Grok có những biểu hiện gây tranh cãi, trùng khớp với quan điểm cá nhân của Musk. Hồi tháng 5, chatbot này đã ngẫu nhiên đưa ra các tuyên bố về một cuộc diệt chủng người da trắng ở Nam Phi – một chủ đề mà Musk, người lớn lên ở Nam Phi từng nhiều lần đề cập. Khi đó xAI cho rằng đây là một sửa đổi trái phép.

Nick Frosst, đồng sáng lập phòng thí nghiệm AI Cohere, tin rằng Musk đang cố gắng tạo ra một mô hình phản ánh những điều ông ấy tin tưởng. "Điều đó chắc chắn sẽ khiến nó trở thành một mô hình tệ hơn đối với người dùng, trừ khi họ tình cờ tin vào mọi thứ ông ấy tin", Frosst nói.

Về mặt kỹ thuật, việc thay đổi hành vi của một AI có thể thực hiện theo hai cách. Cách thứ nhất là huấn luyện lại mô hình từ đầu, một quá trình cực kỳ tốn kém thời gian và tiền bạc, đồng thời có nguy cơ làm mô hình "kém thông minh" hơn do loại bỏ bớt dữ liệu.

Cách thứ hai, khả thi hơn, là tinh chỉnh (fine-tuning) bằng cách điều chỉnh trọng số trong các lớp mã của mô hình và chèn vào các câu lệnh định hướng. Quá trình này có thể hướng dẫn AI trả lời một số câu hỏi nhất định theo một cách cụ thể mà không cần xây dựng lại toàn bộ nền tảng kiến thức.

Elon Musk tuyên bố mục tiêu của ông là để Grok "tìm kiếm sự thật tối đa" nhưng mọi mô hình AI đều có thành kiến nhất định, bởi chúng được tạo ra bởi con người và học từ kho dữ liệu có sẵn trên internet vốn đã mang nhiều định kiến.

Dan Neely, CEO của công ty chống deepfake Vermillio, chia sẻ với CNN: "Hành trình để đạt được một AI thực sự khách quan là rất đau đớn và khó hiểu."

Ông cho rằng những động thái như của Musk có thể tạo ra những mối đe dọa khi người dùng ngày càng khó phân biệt đâu là sự thật khách quan và đâu là sự thật đã được "điều chỉnh".

      Nổi bật
          Mới nhất
          Ông chủ mạng xã hội X quyết tự tay "uốn nắn" AI theo thế giới quan của mình
          • Mặc định

          POWERED BY ONECMS - A PRODUCT OF NEKO