ChatGPT trích dẫn Grokipedia gây tranh cãi
Mô hình GPT-5.2 mới nhất của OpenAI đã bị bắt quả tang trích dẫn thông tin từ "Grokipedia" - bách khoa toàn thư do AI của Elon Musk tạo ra - làm dấy lên lo ngại về việc các tin giả và quan điểm cực đoan đang xâm nhập vào dòng chảy thông tin chính thống.

Một cuộc điều tra mới nhất của The Guardian đã phơi bày lỗ hổng nghiêm trọng trong cơ chế trích dẫn của GPT-5.2. Mô hình AI hàng đầu của OpenAI đã trích dẫn Grokipedia (ra mắt tháng 10/2025 bởi xAI của Elon Musk) ít nhất 9 lần khi trả lời các câu hỏi về chính trị Iran và lịch sử.

Vấn đề nằm ở chỗ: Grokipedia không phải là Wikipedia. Nó là một hệ thống do AI tự biên soạn, bị kiểm soát tập trung và đã bị Đại học Cornell cảnh báo là chứa hàng nghìn trích dẫn từ các trang web tân phát xít (Neo-Nazi), thuyết âm mưu và phân biệt chủng tộc. Việc ChatGPT coi Grokipedia là "nguồn tin cậy" đang tạo ra một vòng lặp nguy hiểm, nơi thông tin độc hại được "rửa sạch" qua nhiều lớp AI.

Đơn vị: Trung tâm HTKN đổi mới sáng tạo Đà Nẵng & MPR Cập nhật: 30.01.2026 08:30 (Giờ VN)

1. "So What?" – Khi AI học từ AI (Kịch bản Ouroboros)

Tại sao việc ChatGPT trích dẫn Grokipedia lại đáng báo động hơn việc trích dẫn một blog cá nhân?

  • "Rửa nguồn tin" (Source Laundering): Grokipedia trích dẫn các trang web cực đoan như Stormfront (42 lần), Infowars (34 lần) và VDare (107 lần). Khi ChatGPT trích dẫn lại Grokipedia, nó vô tình hợp pháp hóa các thông tin từ nguồn cực đoan này dưới mác "bách khoa toàn thư", khiến người dùng phổ thông không thể nhận ra nguồn gốc độc hại ban đầu.
  • Thiếu sự kiểm soát của con người: Khác với Wikipedia nơi cộng đồng có thể sửa lỗi, Grokipedia sử dụng hệ thống biên tập AI tập trung. Người dùng chỉ có thể "gửi phản hồi" chứ không thể sửa trực tiếp. Điều này biến nó thành một "hộp đen" truyền bá quan điểm của thuật toán xAI (vốn được Elon Musk định hướng theo phong cách "anti-woke").
  • Không chỉ OpenAI: Cả Claude của Anthropic cũng bị phát hiện trích dẫn Grokipedia. Điều này cho thấy các mô hình AI lớn đang bắt đầu "ăn thịt lẫn nhau" (cannibalize) dữ liệu, tạo ra một hệ sinh thái thông tin khép kín và sai lệch (Hallucination Loop).

2. Góc nhìn MPR: Sự thất bại của Bộ lọc An toàn

Góc nhìn MPR (Phân tích Kỹ thuật):

Phản hồi của OpenAI rằng họ có "bộ lọc an toàn" (safety filters) dường như đã vô hiệu trước chiến thuật của Grokipedia.

  • Lỗ hổng uy tín: Các thuật toán xếp hạng tìm kiếm (Search Ranking) thường ưu tiên các trang có cấu trúc "Wiki" hoặc "Encyclopedia" vì mặc định chúng uy tín. Grokipedia đã khai thác đúng điểm mù này để leo lên top kết quả tìm kiếm của Bing/Google, từ đó lọt vào dữ liệu của ChatGPT.
  • Phản ứng của xAI: Khi được hỏi, người phát ngôn của xAI chỉ trả lời ngắn gọn: "Truyền thông lỗi thời dối trá" (Legacy media lies). Thái độ bất hợp tác này báo hiệu rằng Grokipedia sẽ không thay đổi cách vận hành, và "ô nhiễm dữ liệu" sẽ ngày càng trầm trọng.

3. Cảnh báo cho Giới Học thuật & Nghiên cứu tại Đà Nẵng

Đà Nẵng có hệ thống các trường đại học và viện nghiên cứu phát triển, việc sinh viên/giảng viên sử dụng AI là phổ biến. Đây là lời cảnh tỉnh:

  • Kiểm tra nguồn cấp 1 (Primary Source): Tuyệt đối không chấp nhận trích dẫn từ "Grokipedia" hay thậm chí là câu trả lời của ChatGPT mà không truy ngược lại nguồn gốc ban đầu. Nếu ChatGPT đưa ra một sự kiện lịch sử lạ, hãy nghi ngờ đó là sản phẩm của "vòng lặp AI".
  • Rủi ro chính trị/xã hội: Với các chủ đề nhạy cảm (như chính trị Iran trong bài viết), AI có thể đưa ra các thông tin sai lệch nghiêm trọng do ảnh hưởng từ các nguồn thiên kiến. Các doanh nghiệp Đà Nẵng khi làm việc với đối tác quốc tế cần cẩn trọng khi dùng AI để tìm hiểu thông tin đối tác (KYC), tránh bị dữ liệu bẩn đánh lừa.

Góc nhìn từ Trung tâm HTKNĐMST Đà Nẵng:

"Sự kiện này đánh dấu sự kết thúc của niềm tin ngây thơ rằng 'AI luôn khách quan'. Khi AI bắt đầu trích dẫn AI, sự thật sẽ bị bóp méo qua nhiều tầng lớp thuật toán. Kỹ năng quan trọng nhất của công dân số năm 2026 không phải là biết dùng AI, mà là biết hoài nghi AI (AI Skepticism) và kiểm chứng thông tin."


Nguồn tham chiếu (Sources):

  • [1] The Guardian/Mashable: ChatGPT found citing Musk's Grokipedia, raising bias concerns (26.01.2026)
  • [2] Cornell University Study: Phân tích 12.522 trích dẫn từ nguồn kém uy tín trên Grokipedia.
  • [3] OpenAI Statement: Phản hồi về cơ chế tìm kiếm và bộ lọc an toàn.

Bạn có thường xuyên kiểm tra lại nguồn (link) mà ChatGPT cung cấp không?

1.450 lượt bình chọn