Làm rõ trách nhiệm và hành vi bị cấm trong quản lý trí tuệ nhân tạo
<p style="text-align: justify;">Tại phiên thảo luận Tổ 6 (Đoàn ĐBQH Lạng Sơn, Đồng Nai, TP. Huế) ngày 21/11/2025 về dự thảo Luật Trí tuệ nhân tạo (AI), nhiều đại biểu nhấn mạnh cần xác định rõ trách nhiệm khi AI gây sai sót, nhất là trong các lĩnh vực rủi ro cao như y tế hay xe tự lái. </p><p style="text-align: justify;">AI hiện đã hỗ trợ chẩn đoán hình ảnh, thực hiện một số công đoạn phẫu thuật, đặt ra yêu cầu làm rõ chủ thể chịu trách nhiệm khi hệ thống đưa ra kết luận sai hoặc gây sự cố. Việc AI có thể tạo ra toàn bộ luận án cũng đặt ra thách thức về liêm chính khoa học. Vì vậy, AI phải vận hành trong khuôn khổ pháp luật và đạo đức, với trách nhiệm cuối cùng thuộc về</p>
Quy định rõ các hành vi bị nghiêm cấm
Các đại biểu tán thành việc xây dựng Luật Trí tuệ nhân tạo theo hướng luật khung, tạo nền tảng quản lý và thúc đẩy nghiên cứu, phát triển, ứng dụng AI tại Việt Nam. Hồ sơ dự án Luật được chuẩn bị công phu, việc đề xuất bãi bỏ một số quy định trong Luật Công nghiệp công nghệ số là cần thiết để tránh chồng chéo, thống nhất hệ thống pháp luật. Tuy nhiên, các ĐBQH đề nghị Ban soạn thảo tiếp tục rà soát, chỉnh sửa, bổ sung một số điều khoản để bảo đảm tính phù hợp và khả thi.
ĐBQH Phạm Trọng Nghĩa (Lạng Sơn) cho rằng cần tiếp tục làm rõ phạm vi điều chỉnh, đối tượng áp dụng. Đại biểu đề nghị làm rõ ranh giới giữa hoạt động nghiên cứu thuộc phạm vi luật này với nội dung đã được điều chỉnh bởi Luật Khoa học, Công nghệ và Đổi mới sáng tạo; đồng thời giải thích rõ thuật ngữ "tinh chỉnh" trong mô hình AI đa dụng. Đại biểu cũng lưu ý dự thảo mới đề cập sơ lược về Ủy ban Quốc gia về AI, chưa nêu rõ vị trí pháp lý, chức năng, nhiệm vụ và cơ chế phối hợp; vì vậy cần đánh giá sự cần thiết thành lập và bảo đảm phù hợp chủ trương tinh gọn bộ máy.

ĐBQH Phạm Trọng Nghĩa (Lạng Sơn) phát biểu.
Theo đại biểu, dự thảo Luật chưa quy định các hành vi bị nghiêm cấm, trong khi đây là "lá chắn pháp lý" quan trọng để bảo vệ quyền con người, bảo đảm cạnh tranh lành mạnh và phù hợp với chuẩn mực quốc tế. Trong khi, Luật về AI tiên tiến trên thế giới đều quy định rõ những hành vi bị cấm như lạm dụng dữ liệu cá nhân, phân biệt đối xử có hệ thống, sử dụng AI cho mục đích gây hại… Đại biểu đề nghị bổ sung một điều riêng về hành vi bị nghiêm cấm, trên cơ sở các nguyên tắc minh bạch, an toàn, trách nhiệm giải trình, giám sát của con người, công bằng, không phân biệt đối xử và hỗ trợ đổi mới sáng tạo có kiểm soát.
Cùng quan điểm, ĐBQH Nguyễn Thị Sửu (TP. Huế) cho rằng dự thảo cần bổ sung quy định riêng về các hành vi bị nghiêm cấm, tương tự các luật AI trên thế giới, nhằm bảo vệ quyền con người và hạn chế rủi ro như lạm dụng dữ liệu cá nhân, phân biệt đối xử hay sử dụng AI gây hại. Đại biểu cũng cho rằng quy định về hạ tầng AI và nguồn nhân lực mới dừng ở nguyên tắc, chưa nêu rõ lộ trình, trách nhiệm và cơ chế hỗ trợ. Với khung đạo đức AI, đại biểu đề nghị làm rõ giá trị pháp lý, xác định nghĩa vụ tuân thủ của tổ chức, cá nhân và cân nhắc thành lập cơ quan giám sát đạo đức AI quốc gia.
Khi AI sai sót, trách nhiệm thuộc về ai?
Ở nhóm vấn đề trách nhiệm khi AI xảy ra sai sót, ĐBQH Phạm Như Hiệp (TP. Huế) nêu thực tế AI đã hỗ trợ sâu rộng, từ đọc X-quang, CT scan và một số công đoạn phẫu thuật tại bệnh viện đến nghiên cứu khoa học. Đại biểu dẫn chứng, phẫu thuật từ xa đã xuất hiện từ hơn 20 năm trước, và đến nay nhiều hệ thống robot có khả năng tự thực hiện phẫu thuật nội soi mà không cần sự can thiệp trực tiếp của con người. Với tốc độ phát triển nhanh của công nghệ, nếu được cho phép, AI hoàn toàn có thể đảm nhiệm một số công đoạn phẫu thuật, thậm chí đe dọa làm thay đổi vai trò truyền thống của các bác sĩ phẫu thuật. Trong chẩn đoán hình ảnh, AI đã được ứng dụng rộng rãi tại các bệnh viện, trong đó có Bệnh viện Trung ương Huế, hỗ trợ đọc X-quang, CT scan, phim sọ não.

Toàn cảnh phiên thảo luận Tổ 6.
Tuy vậy, đại biểu nhấn mạnh vấn đề then chốt là xác định trách nhiệm khi AI xảy ra sai sót. Hiện các kết quả do AI đưa ra vẫn phải được bác sĩ lâm sàng và bác sĩ chẩn đoán hình ảnh kiểm tra, đối chiếu; nếu không phù hợp thực tế, bác sĩ sẽ chỉnh sửa và cập nhật để AI tiếp tục học. Quy trình "học thụ động" này đã được nhiều bệnh viện áp dụng, song vẫn cần một khung pháp lý rõ ràng nhằm bảo đảm an toàn cho người bệnh.
ĐBQH Phạm Như Hiệp bày tỏ lo ngại về tác động của AI đối với nghiên cứu khoa học, khi nhiều công cụ có thể hỗ trợ viết gần như toàn bộ luận án, gây thách thức lớn về đạo đức và liêm chính học thuật. Đại biểu cũng đề nghị làm rõ trách nhiệm pháp lý của nhà cung cấp AI, đặc biệt trong các sự cố như xe tự lái gây tai nạn, bởi AI không thể tự chịu trách nhiệm mà trách nhiệm phải thuộc về tổ chức, cá nhân thiết kế và vận hành hệ thống. Về đạo đức AI, đại biểu nhấn mạnh việc AI có khả năng tự học và vượt khỏi giới hạn ban đầu đặt ra yêu cầu quản lý chặt chẽ trong khuôn khổ pháp luật và đạo đức, nhằm bảo đảm an toàn và phát triển bền vững cho lĩnh vực này.
Dữ liệu và sở hữu trí tuệ – nền tảng của quản lý AI
Đồng tình với các ý kiến trước đó, ĐBQH Trịnh Xuân An (Đồng Nai) góp ý nhiều nội dung lớn của dự thảo Luật, tập trung vào dữ liệu đầu vào, sở hữu trí tuệ, phạm vi áp dụng, quản lý rủi ro và mô hình tổ chức thực thi.
Về dữ liệu đầu vào, đại biểu cho rằng dự thảo chưa làm rõ nội dung cốt lõi này, trong khi dữ liệu là nền tảng của AI. Đại biểu đề nghị dẫn chiếu đầy đủ tới Luật Dữ liệu, bổ sung tiêu chí dữ liệu phải được hệ thống hóa và cập nhật liên tục để bảo đảm an toàn và hiệu quả vận hành.
Về sở hữu trí tuệ, đại biểu cho rằng AI là sản phẩm của con người và gắn chặt với vấn đề quyền tác giả, người sở hữu, trách nhiệm pháp lý và đạo đức. Cần làm rõ ngay trong luật để tránh chồng chéo, đồng thời xem xét sửa đổi Luật Sở hữu trí tuệ liên quan.

ĐBQH Trịnh Xuân An phát biểu.
Về phạm vi áp dụng, đại biểu cho rằng việc loại trừ AI phục vụ quốc phòng, an ninh là không khả thi vì khó tách bạch mục đích trong môi trường số. Do đó, cần xây dựng một khung điều chỉnh chung thay vì chia theo lĩnh vực.
Đối với quản lý rủi ro, đại biểu cho rằng dự thảo đang "áp" mô hình châu Âu, dẫn đến phức tạp và không phù hợp thực tiễn. Theo đại biểu, việc phân loại rủi ro theo bốn mức như dự thảo vừa phức tạp, vừa mâu thuẫn với Luật Chất lượng sản phẩm. Ông đề xuất chỉ phân thành hai nhóm: AI có rủi ro và không có rủi ro; đồng thời kết hợp quản trị rủi ro với đánh giá hiệu quả đầu ra và tác động kinh tế.
Về mô hình tổ chức, đại biểu băn khoăn về đề xuất lập Quỹ tài chính ngoài ngân sách và Ủy ban Quốc gia về AI, đề nghị cân nhắc kỹ sự cần thiết, tránh mở rộng bộ máy; nếu cần thì lồng ghép vào các quỹ hiện có.
ĐBQH Bùi Xuân Thống và Nguyễn Thị Như Ý (Đồng Nai) cũng nhấn mạnh việc hoàn thiện khung đạo đức AI, trong đó trách nhiệm luôn thuộc về con người – những người ra quyết định cuối cùng dựa trên thông tin AI cung cấp. Các đại biểu đề nghị làm rõ ranh giới giữa xử lý hành chính, dân sự, hình sự khi xảy ra vi phạm và bổ sung các hành vi bị cấm để bảo đảm trách nhiệm rõ ràng và tạo điều kiện cho AI phát triển an toàn.
Dự án Luật Trí tuệ nhân tạo được kỳ vọng sẽ trở thành nền tảng pháp lý quan trọng để AI phát triển lành mạnh, an toàn và vì con người. Việc hoàn thiện dự thảo theo hướng rõ trách nhiệm, minh bạch về hành vi bị cấm, đầy đủ về dữ liệu, sở hữu trí tuệ và phù hợp với thực tiễn quản lý sẽ giúp Việt Nam chủ động nắm bắt cơ hội từ AI, đồng thời bảo đảm an toàn, quyền lợi của người dân và thúc đẩy đổi mới sáng tạo quốc gia.