Bê bối Grok đặt ra yêu cầu siết chặt quản lý AI tạo sinh
<p style="text-align: justify;">Mới đây, chatbot Grok do Công ty xAI của tỷ phú Elon Musk phát triển đã vấp phải làn sóng phản ứng mạnh mẽ từ dư luận và cơ quan quản lý tại một số quốc gia, sau khi bị phát hiện có khả năng tạo ra hình ảnh khiêu dâm, trong đó xuất hiện nội dung nguy hại liên quan đến trẻ em. Đáng chú ý, hệ thống AI này hiện được tích hợp trực tiếp trên mạng xã hội X, làm gia tăng nguy cơ lan truyền các nội dung vi phạm trong môi trường số.</p>
Trước vấn đề này, tại Họp báo thường kỳ tháng 1/2026 do Bộ Khoa học và Công nghệ tổ chức ngày 29/01/2026 tại Hà Nội, ông Trần Văn Sơn, Phó Viện trưởng Viện Công nghệ số và Chuyển đổi số quốc gia đã làm rõ quan điểm quản lý đối với các hệ thống AI tạo sinh có dấu hiệu rủi ro.
Theo ông Trần Văn Sơn, khi xảy ra sự cố nghiêm trọng hoặc phát hiện hệ thống AI có nguy cơ gây hại cho xã hội, cơ quan quản lý nhà nước có trách nhiệm yêu cầu nhà cung cấp tạm dừng hoạt động, thu hồi hoặc đánh giá lại toàn bộ hệ thống AI nhằm bảo đảm an toàn, trật tự xã hội và quyền, lợi ích hợp pháp của tổ chức, cá nhân.

Ông Trần Văn Sơn, Phó Viện trưởng Viện Công nghệ số và Chuyển đổi số quốc gia phát biểu tại Họp báo.
Ông Trần Văn Sơn cho biết, về nguyên tắc phân loại rủi ro, căn cứ các tiêu chí của Luật AI, phần lớn các hệ thống AI tạo sinh hiện nay - trong đó có Grok được xếp vào nhóm rủi ro trung bình, do có khả năng tạo ra nội dung gây nhầm lẫn hoặc tác động tiêu cực đến người sử dụng. Luật quy định rõ trách nhiệm của các chủ thể liên quan trong việc kịp thời phát hiện sự cố, áp dụng biện pháp kỹ thuật để khắc phục, tạm dừng hoặc thu hồi hệ thống khi cần thiết.
Bên cạnh đó, nhà cung cấp và đơn vị triển khai có trách nhiệm giải trình trước cơ quan nhà nước có thẩm quyền về mục đích sử dụng, nguyên lý hoạt động, các biện pháp quản lý rủi ro và cơ chế bảo vệ quyền, lợi ích hợp pháp của tổ chức, cá nhân trong trường hợp xảy ra vi phạm hoặc theo yêu cầu thanh tra, kiểm tra.
Luật AI cũng nghiêm cấm hành vi sử dụng công nghệ deepfake để lừa đảo hoặc vi phạm pháp luật, đặc biệt là các hành vi xâm hại trẻ em và gây rối trật tự, an toàn xã hội. Theo đó, các hệ thống AI tạo sinh phải tuân thủ những yêu cầu kỹ thuật bắt buộc như dán nhãn thông báo đối với nội dung do AI tạo ra hoặc chỉnh sửa, đồng thời áp dụng giải pháp nhận dạng (watermark) đối với sản phẩm AI nhằm phục vụ công tác quản lý và truy vết.
Trong trường hợp hệ thống không đáp ứng đầy đủ các yêu cầu kiểm soát rủi ro, cơ quan quản lý có căn cứ để xếp loại vào nhóm rủi ro cao và áp dụng các biện pháp quản lý chặt chẽ hơn, bao gồm yêu cầu lập hồ sơ kỹ thuật, tăng cường giám sát của con người và thực hiện nghiêm các nghĩa vụ minh bạch.
Về thẩm quyền quản lý, Bộ Khoa học và Công nghệ là cơ quan đầu mối chịu trách nhiệm thực hiện quản lý nhà nước trong lĩnh vực trí tuệ nhân tạo, chủ trì hướng dẫn phân loại rủi ro, đánh giá sự phù hợp và tổ chức triển khai các biện pháp quản lý theo quy định pháp luật.
Phó Viện trưởng Viện Công nghệ số và Chuyển đổi số quốc gia nhấn mạnh, đối với các hành vi vi phạm nghiêm trọng, như tạo deepfake khiêu dâm liên quan đến trẻ em hoặc gây mất trật tự, an toàn xã hội, ngoài các biện pháp hành chính theo Luật AI như tạm dừng hoặc hạn chế cung cấp dịch vụ, cá nhân và tổ chức liên quan còn có thể bị xử phạt vi phạm hành chính, truy cứu trách nhiệm hình sự và phải bồi thường thiệt hại theo quy định của pháp luật dân sự.